No encontramos ningún resultado.

Prueba con otro grupo de palabras.

Si crees que esto es un error, por favor contáctanos.

$$$ Tiempo completo
Arquitecto/a de Soluciones (Data)
  • 2BRAINS
Python Data Analysis SQL Web server

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

Official job site: Get on Board.

El/la Arquitecto/a de Soluciones de Data de 2Brains:

El Arquitecto de Soluciones se encarga de diseñar y desarrollar sistemas de datos sólidos, lo que incluye la elaboración de diagramas de arquitectura que permitan almacenar, procesar y analizar grandes volúmenes de información de manera eficiente. Además, se debe evaluar e identificar soluciones tecnológicas en función del proveedor seleccionado, detallando los requerimientos de red, servicios asociados y herramientas necesarias para la implementación.

Como parte del proceso, también es fundamental construir pruebas de concepto (POC) que permitan transformar los datos en formatos utilizables, alineados con la solución técnica definida.

¿Qué conocimientos buscamos en/la Arquitecto/a Soluciones de Data?

  • Título en Ingeniería en Informática o carrera afín, idealmente con certificación profesional como Ingeniero/a de Datos
  • Entre 4 a 6 años de experiencia desempeñando funciones similares en el área de datos
  • Dominio de SQL para consultas estructuradas sobre bases de datos relacionales
  • Conocimiento práctico de bases de datos NoSQL como MongoDB, Cassandra o HBase para manejar datos semiestructurados o no estructurados
  • Manejo de lenguajes de programación como Python o Scala, con uso de Apache Spark para procesamiento distribuido
  • Experiencia con herramientas de Big Data como Hadoop o Apache Spark en entornos productivos
  • Familiaridad con plataformas de cloud computing como AWS, Azure o Google Cloud Platform para almacenamiento, procesamiento y análisis de datos
  • Capacidad para diseñar, implementar y mantener procesos ETL (extracción, transformación y carga de datos) desde múltiples fuentes
  • Conocimientos básicos de machine learning, aplicando modelos predictivos o descriptivos sobre datos
  • Experiencia en el diseño y automatización de pipelines de datos complejos utilizando herramientas como Apache Airflow o Luigi
  • Administración de bases de datos relacionales, NoSQL y servicios gestionados en la nube
  • Diseño y desarrollo de arquitecturas de almacenamiento como data warehouses, data lakes o soluciones LakeHouse
  • Procesamiento eficiente de grandes volúmenes de datos en entornos distribuidos
  • Uso de prácticas y herramientas DevOps orientadas a flujos de datos y operaciones analíticas en la nube

¿Qué competencias buscamos en el/la Arquitecto/a Soluciones de Data?

  • Orientación al cliente interno y externo
  • Compromiso y proactividad
  • Comunicación efectiva
  • Pensamiento analitico
  • Colaboración y trabajo en equipo

Te ofrecemos

  • Oportunidad de trabajar en un ambiente dinámico y en crecimiento, donde se valora la innovación y la creatividad.
  • Desarrollo profesional continuo con acceso a formación y certificaciones.
  • Participación en proyectos desafiantes con clientes de alto perfil.
  • Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos.
  • Un proyecto enfocado en los usuarios, visión de UX e integrada al desarrollo.
  • Acceso a grandes clientes y proyectos desafiantes.
  • Aprendizaje y crecimiento permanente, organizamos encuentros, capacitaciones y actividades culturales.
  • Programas de bienestar.
  • Trabajo Remoto.
  • Espacios para charlas internas.
  • Días de descanso.
  • Día de cumpleaños libre.
  • Horario de trabajo de México.

Wellness program 2BRAINS offers or subsidies mental and/or physical health activities.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks 2BRAINS offers space for internal talks or presentations during working hours.
Shopping discounts 2BRAINS provides some discounts or deals in certain stores.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1800 - 2800 Tiempo completo
Data Ops
  • coderslab.io
  • Santiago (Hybrid)
Python SQL DevOps Big Data

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Data Ops para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

This company only accepts applications on Get on Board.

Funciones del cargo

• Definir, construir y mantener de forma automatizada nuestras bases de datos relacionales y NO relacionales en los distintos ambientes cloud (Público y Privado).
• Colaborar en la construcción y el soporte de nuestra plataforma cloud y sus servicios.
• Colaborar con los equipos de producto identificando restricciones y requerimientos, definiendo arquitecturas de solución y aprovisionando las capacidades de la plataforma que permitan cumplir los atributos de calidad de los productos.
• Participar activamente en espacios de colaboración, mentoreando personas y equipos, e identificando oportunidades de mejora.

Requerimientos del cargo

Conocimientos lenguaje Python
Tener conocimientos de la nube GCP intermedio/avanzado y su gama de productos para serverless y contenedores (Cloud Run, Cloud Scheduler, etc)
Poseer experiencia en Bigquery (SQL)
Gitlab CI
Terraform intermedio/avanzado (generar nuevos módulos, debug de state, etc)
Manejo en GKE nivel administración
Nivel básico/intermedio en Unix (consola)
Deseable:
Estar instruido en IAM de GCP (herencia de IAM, impersonalización, principio de mínimos permisos, etc)
Conocimientos de networking tanto “on-premise” y en la nube GCP
Haber trabajado con K8S “on-premise” y tener nivel intermedio de conocimiento a nivel administración y mantención de nodos
Conocimientos en ArgoCD y Airflow/Composer
Compromiso con las responsabilidades
Manejo de herramientas de IA (Copilot, Gemini, Cursor, etc)
Conocimientos en arquitectura hexagonal y testing con Python
Estar familiarizado con el ciclo de vida DevOps

Conditions

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1200 - 1700 Tiempo completo
Analista de Datos BI
  • S3 Chile
  • Santiago (Hybrid)
Python Analytics MySQL PostgreSQL
S3 Chile es una empresa líder en la entrega de servicios de outsourcing especializada en procesos de negocio. Nuestro enfoque está en brindar soluciones integrales que permiten a nuestros clientes optimizar sus operaciones a través de la gestión eficiente de datos y análisis avanzado. El equipo de análisis de datos juega un rol fundamental, colaborando con diversas áreas como marketing, ventas y negocios para impulsar estrategias basadas en inteligencia analítica. Nuestra misión es ofrecer un entorno de aprendizaje continuo y profesionalización en consonancia con las últimas tendencias tecnológicas, fomentando el crecimiento tanto del equipo como de la organización. Ser parte de S3 Chile significa contribuir directamente al éxito de grandes clientes mediante innovación y manejo experto de datos.

Find this vacancy on Get on Board.

Responsabilidades principales

  • Análisis de datos: Recopilar, limpiar y analizar grandes volúmenes de datos provenientes de diversas fuentes para identificar tendencias, patrones y oportunidades de mejora.
  • Desarrollo de modelos predictivos y estadísticos: Diseñar y construir modelos estadísticos y algoritmos para predecir resultados, evaluar riesgos y optimizar procesos empresariales.
  • Visualización de datos: Crear visualizaciones claras e impactantes mediante herramientas como Tableau y Power BI para comunicar hallazgos de manera efectiva a las partes interesadas.
  • Elaboración de informes y presentaciones: Preparar reportes detallados y presentaciones ejecutivas que resuman insights clave y recomendaciones prácticas para equipos ejecutivos y operativos.
  • Colaboración interdisciplinaria: Trabajar estrechamente con equipos de negocio, marketing, ventas y tecnología para definir requerimientos, validar hipótesis y co-crear soluciones basadas en datos.

Habilidades y competencias requeridas

  • Conocimientos en estadística y matemáticas: Dominio de conceptos avanzados como regresión, correlación, análisis de varianza (ANOVA) y otras técnicas estadísticas aplicadas.
  • Programación: Experiencia sólida en lenguajes como Python, R y SQL para manipulación de datos, construcción de modelos y automatización de procesos.
  • Manejo de herramientas analíticas: Capacidad para utilizar herramientas como Excel avanzado, Tableau, Power BI y otras plataformas de visualización y análisis.
  • Bases de datos: Conocimiento práctico en gestión y consultas sobre bases de datos relacionales como MySQL y PostgreSQL.
  • Plataformas de análisis digital: Familiaridad con Google Analytics, Mixpanel y otras herramientas para análisis de comportamiento en entornos digitales.
  • Pensamiento crítico y resolución de problemas: Aptitud para examinar situaciones complejas, identificar causas raíz y generar soluciones innovadoras y eficientes.
  • Comunicación efectiva: Habilidad para explicar conceptos técnicos complejos en un lenguaje claro, adaptado a diferentes audiencias, facilitando la toma de decisiones basadas en datos.
Requisitos académicos y experiencia:
  • Título universitario en Ingeniería Comercial, Ingeniería Civil, Estadística, Matemáticas, Ciencias de la Computación o áreas afines.
  • Experiencia mínima de 2 a 3 años en análisis de datos o roles relacionados, preferiblemente en entornos empresariales.
  • Certificaciones profesionales como Certified Data Analyst (CDA) o Certified Analytics Professional (CAP) serán consideradas un plus significativo.

Habilidades y conocimientos deseables

  • Experiencia en manejo de grandes volúmenes de datos (Big Data) y conocimiento de herramientas o frameworks asociados.
  • Conocimiento en técnicas de machine learning y su aplicación práctica en modelos predictivos.
  • Familiaridad con metodologías ágiles de trabajo y gestión de proyectos.
  • Experiencia previa trabajando en equipos multidisciplinarios y en ambientes dinámicos.
  • Habilidades avanzadas en storytelling con datos para mejorar la comunicación visual y estratégica.

Lo que ofrecemos

💼 Renta competitiva acorde al mercado.
📈 Oportunidades reales de desarrollo profesional dentro de la empresa.
🎁 Beneficios corporativos que incluyen programas de bienestar y capacitaciones continuas.
👥 Un equipo comprometido que promueve un entorno de aprendizaje constante alineado con los nuevos avances tecnológicos.
Entorno colaborativo, flexible y remoto, alineado con las necesidades actuales del mercado laboral en Chile.

Health coverage S3 Chile pays or copays health insurance for employees.
Computer provided S3 Chile provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero de Datos
  • Assetplan
  • Santiago (Hybrid)
Python Agile Excel SQL
Assetplan es una compañía líder en renta residencial en Chile, con presencia también en Perú. Actualmente, gestionamos más de 30.000 propiedades para clientes retail e institucionales y operamos más de 80 edificios multifamily, lo que refleja un sólido posicionamiento en el sector inmobiliario y de administración de propiedades en la región. El equipo de datos tiene un rol clave para optimizar y dirigir los procesos internos mediante soluciones tecnológicas de análisis y visualización de datos, apoyando la toma de decisiones estratégicas en la empresa.

This offer is exclusive to getonbrd.com.

Responsabilidades principales

  • Diseñar, desarrollar y optimizar procesos ETL (Extract, Transform, Load) utilizando herramientas clave como Python (librerías Pandas y Numpy) y SQL.
  • Desarrollar y mantener dashboards y paneles en Power BI, integrando visualizaciones estratégicas para acompañar los procesos ETL y proporcionar insights relevantes.
  • Trabajar de forma colaborativa con diferentes áreas de la organización para interpretar y transformar sus necesidades en soluciones de datos que faciliten la toma de decisiones estratégicas.
  • Promover la calidad, escalabilidad y gobernanza de los datos durante el diseño, desarrollo y mantenimiento de los procesos y pipelines de datos, asegurando soluciones escalables y accesibles.
  • Mantener una comunicación efectiva con los equipos de negocio y tecnología para asegurar que las soluciones implementadas se alineen con los objetivos corporativos y generen impacto real en la organización.

Requisitos profesionales

Buscamos un profesional con 1 a 3 años de experiencia demostrable en el área de datos, en roles de ingeniería o análisis que impliquen manipulación y transformación de datos.
  • Manejo de SQL a nivel medio.
  • Manejo de Python Intermedio/Avanzado (excluyente), con experiencia en librerías Pandas y Numpy.
  • Manejo de Power BI a nivel medio para desarrollo y mantenimiento de dashboards.
  • Manejo avanzado de Excel para análisis y procesamiento de información.
  • Experiencia mínima de 1 a 3 años.
Es deseable poseer experiencia en ambientes ágiles y metodologías de desarrollo colaborativo que faciliten la integración entre equipos técnicos y de negocio.
Valoramos conocimientos en otras herramientas de visualización o procesamiento de datos, así como experiencia en gestión de la calidad y gobernanza de datos que permitan fortalecer el ecosistema de información de la empresa.

Habilidades y conocimientos deseables

Se valoran conocimientos en metodologías ágiles para la gestión y desarrollo colaborativo de proyectos, capacidades de comunicación efectiva para la interacción con equipos multidisciplinarios y experiencia en herramientas adicionales de visualización y procesamiento de datos. Asimismo, la experiencia en buenas prácticas de gobernanza y calidad de datos será un plus importante para aportar a la robustez del ecosistema de información de Assetplan.

Beneficios

En Assetplan valoramos y reconocemos el esfuerzo y dedicación de nuestros colaboradores, ofreciendo un ambiente laboral positivo basado en el respeto mutuo y la colaboración.
Entre nuestros beneficios contamos con:
  • Días extras de vacaciones por años de antigüedad.
  • Modalidad de trabajo híbrido y flexibilidad para trámites personales.
  • Monto mensual en app de snacks en la oficina.
  • Medio día libre en tu cumpleaños.
  • Copago en seguro complementario de salud.
  • Reajuste anual de renta basado en IPC.
  • Bono anual por desempeño.
  • Eventos empresa y happy hours financiados por la compañía.
  • Acceso a plataforma de cursos de formación.
  • Convenios con gimnasios, descuentos y más.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Assetplan pays or copays health insurance for employees.
Computer provided Assetplan provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Assetplan gives you paid vacations over the legal minimum.
Beverages and snacks Assetplan offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero/a de Datos (Data Engineer)
  • Arara
Python PostgreSQL Git SQL

Arara es una empresa tecnológica especializada en WiFi marketing, ofreciendo soluciones innovadoras que optimizan la conectividad y la experiencia del usuario.

En Arara, estamos buscando un/a Ingeniero/a de Datos (Data Engineer) apasionado/a y experimentado/a para unirse a nuestro equipo de tecnología.

Buscamos a un/a profesional proactivo/a, con una sólida capacidad para resolver problemas complejos y que no solo ejecute tareas, sino que también contribuya activamente en la toma de decisiones sobre la arquitectura de datos y en la mejora continua de nuestros procesos y productos.

Apply to this job at getonbrd.com.

¿Qué es lo que harás?:

  • Diseñar, construir y mantener pipelines de datos robustos y escalables para procesos de extracción, transformación y carga (ETL/ELT).
  • Desarrollar y optimizar la ingesta de datos desde diversas fuentes, incluyendo APIs, bases de datos y servicios de terceros.
  • Modelar, implementar y gestionar soluciones de almacenamiento de datos, como Data Warehouses y Data Lakes.
  • Trabajar con APIs de modelos de lenguaje grandes (LLMs), construir prompts adecuados y postprocesar resultados de múltiples de estos modelos.
  • Escribir código de alta calidad en Python, limpio, eficiente, bien documentado y cubierto por pruebas para el procesamiento y transformación de grandes volúmenes de datos.
  • Garantizar la calidad, consistencia e integridad de los datos durante todo su ciclo de vida.
  • Colaborar con científicos de datos, analistas y el equipo de backend para entender sus necesidades y proveer datos accesibles y fiables.
  • Optimizar el rendimiento de pipelines y consultas en las plataformas de datos.
  • Participar activamente en revisiones de código ofreciendo y recibiendo feedback constructivo para mejorar la calidad del equipo.
  • Diagnosticar, depurar y resolver problemas o bugs en flujos de datos en desarrollo y producción.
  • Contribuir en discusiones técnicas y decisiones sobre arquitectura de datos en nuevos proyectos.
  • Implementar y mantener herramientas de orquestación de flujos de trabajo, como Apache Airflow.
  • Crear y mantener la documentación técnica de los flujos, modelos y sistemas desarrollados.

Estamos buscando una persona que cumpla con lo siguiente:

Experiencia Profesional: Mínimo de 4 a 6 años de experiencia demostrable en roles de ingeniería de datos, inteligencia de negocios (BI) o desarrollo de software con fuerte enfoque en datos.

Formación académica: Título profesional en Ingeniería de Sistemas, Ciencias de la Computación, Ingeniería de Software o carreras afines.

Conocimientos técnicos requeridos:

  • Lenguajes: Dominio avanzado de Python y sus librerías para el ecosistema de datos (p.ej. Pandas, PySpark).
  • Modelos LLM: Experiencia interactuando con modelos de lenguaje grandes (ej. Gemini, OpenAI), prompt engineering y Retrieval-Augmented Generation (RAG).
  • Bases de datos: Sólida experiencia con bases de datos SQL (como PostgreSQL) y NoSQL (como MongoDB). Valoramos conocimiento en Data Warehouses en la nube (Azure, BigQuery, Redshift, Snowflake).
  • Fundamentos de datos: Conocimiento profundo de ETL/ELT, modelado de datos y arquitecturas de datos (Data Warehouse, Data Lake).
  • Herramientas clave: Experiencia con sistemas de control de versiones Git y contenedores Docker. Se valorará experiencia con orquestadores como Apache Airflow.
  • Nube: Experiencia trabajando con servicios de datos en plataformas en la nube (GCP, AWS, Azure).

Habilidades blandas y otras competencias: Buscamos un profesional proactivo, con capacidad para resolver problemas complejos, aportar en la toma de decisiones para arquitectura de datos, y colaborar eficazmente en equipo.

Se valorará además:

  • Conocimientos en metodologías de desarrollo ágil y mejores prácticas DevOps.
  • Experiencia adicional en ingeniería de datos aplicada a inteligencia artificial y machine learning.
  • Habilidades de comunicación avanzada para colaborar con equipos multidisciplinarios.

Lo que ofrecemos en Arara:

  • 100% remoto – Trabaja desde cualquier lugar con huso horario de América.
  • Cultura organizacional horizontal e innovadora.
  • Equipo colaborativo – Somos un equipo pequeño, horizontal y cercano, donde tu aporte realmente cuenta.
  • Trabajar en una industria en crecimiento: IA aplicada.
  • Capacitaciones en Habilidades profesionales y personales de manera constante.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Analyst área de Cumplimiento
  • Banco Santander Chile
  • Santiago (Hybrid)
Python Data Analysis SQL Back-end
Banco Santander Chile es una organización internacional que enfrenta diariamente retos para ayudar a personas y empresas a progresar. Actualmente, el área de Cumplimiento busca un Data Analyst para apoyar la Unidad de Prevención de Blanqueo de Capitales y Financiamiento del Terrorismo (UPBC), un equipo clave para asegurar que la institución cumpla con regulaciones y prevenga riesgos asociados a delitos financieros. El área está enfocada en la prevención de lavado de activos y financiamiento del terrorismo, contribuyendo a la confianza y cumplimiento regulatorio del banco.

Apply at getonbrd.com without intermediaries.

Funciones

  • Análisis e interpretación de datos acorde a lo solicitado.
  • Realizar análisis y minería de datos mediante herramientas locales, para identificar tendencias, desviaciones y puntos críticos de atención.
  • Analizar cambios en requerimientos regulatorios o políticas internas, brindando apoyo para la implementación de marcos, políticas y programas relacionados con cumplimiento y riesgo.
  • Comprender las políticas locales y marcos legales vinculados al crimen financiero.
  • Desarrollar informes clave y sobre temas críticos dirigidos a la alta dirección y foros en nombre de Financial Crime Compliance (FCC).
  • Monitorear el progreso de la unidad, bancas y filiales respecto a la efectividad de los controles según políticas y procedimientos.
  • Gestionar y realizar seguimiento de clientes con aumento de riesgo.
  • Mantener actualizada una biblioteca de Indicadores Clave de Riesgo (KRI) e Indicadores Clave de Control (KCI) locales, alineados con los estándares globales de FCC.

Requisitos

  • Dominio de lenguaje SQL para la extracción y manipulación de datos.
  • Conocimientos en Python para la automatización y análisis avanzado de datos.
  • Alta capacidad analítica para interpretar grandes volúmenes de información y detectar patrones.
  • Habilidad para trabajar en equipo y comunicar hallazgos de forma clara a distintos niveles organizacionales.
  • Orientación a la prevención de delitos financieros y al cumplimiento regulatorios.

Competencias deseables

  • Experiencia previa en el sector financiero.
  • Conocimiento de herramientas de minería de datos y análisis estadístico.
  • Capacidad de adaptación rápida a cambios regulatorios.
  • Habilidades de presentación y generación de reportes ejecutivos.
  • Manejo de otros lenguajes de programación o herramientas de visualización de datos.

Beneficios

  • Formar parte de la principal empresa financiera de Chile y uno de los mejores lugares para trabajar en el país.
  • Aprendizaje mediante la experiencia práctica, con múltiples oportunidades de desarrollo, formación continua y movilidad interna.
  • Beneficios orientados a mejorar la calidad de vida y el desarrollo profesional de los y las colaboradores.
  • Contrato indefinido que aporta estabilidad laboral y seguridad.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Banco Santander Chile pays or copays health insurance for employees.
Computer provided Banco Santander Chile provides a computer for your work.
Vacation over legal Banco Santander Chile gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Management
  • Banco Santander Chile
  • Santiago (Hybrid)
Python Data Analysis SQL Business Intelligence

Banco Santander Chile es una institución financiera líder en el país, reconocida por su enfoque en ayudar a personas y empresas a progresar mediante soluciones innovadoras y personalizadas. El área de banca comercial se dedica a diseñar y ejecutar estrategias comerciales que optimizan la rentabilidad de la cartera de clientes, utilizando tecnología avanzada para la gestión de datos y el desarrollo de herramientas propias que potencian la toma de decisiones y la experiencia del cliente.

Este equipo trabaja en la constante búsqueda y aplicación de nuevas tecnologías para mejorar las acciones comerciales y asegurar que las iniciativas estén disponibles y sean efectivas en los diferentes canales digitales y presenciales del banco.

© getonbrd.com.

Responsabilidades principales

Como data management, tus responsabilidades incluirán:

  • Participar en la generación de fuentes de información con los distintos atributos y variables calculadas.
  • Automatizar el despliegue de las acciones comerciales con los distintos actores de canales del banco.
  • Recomendar nuevas tecnologías para mejorar el despliegue y la búsqueda de nuevas acciones de las campañas dentro del equipo de inteligencia comercial.
  • Coordinar y desplegar las ofertas y/o campañas a los distintos canales del banco Santander.
  • Automatizar el despliegue de los Journeys (con Salesforce Marketing Cloud y Adobe Experience Platform - AJO) en base a los distinto eventos de nuestros clientes.

Perfil y experiencia requerida

Buscamos profesionales con experiencia en programación orientada a la gestión comercial en el sector financiero o afines. Se valoran conocimientos sólidos en análisis de datos, manejo de bases de datos y desarrollo de software aplicado a procesos comerciales.

Entre las habilidades técnicas y competencias destacan:

  • Experiencia en lenguajes de programación y explotación de datos, de al menos, 1 año.
  • SQL avanzado
  • Python avanzado en análisis de datos
  • Manejo de Tableau
  • Manejo de Power BI
  • Proactividad en la búsqueda constante de innovación tecnológica aplicable a la función.

Se valoran además habilidades blandas como la adaptación al cambio, resiliencia, y pensamiento crítico orientado a la mejora continua.

Conocimientos y experiencia complementarios

Será un plus contar con experiencia previa en bancos o instituciones financieras y manejo de herramientas como SalesForce Marketing Cloud y AJO de Adobe Experience Platform . Conocimientos en metodologías ágiles para proyectos de desarrollo tecnológico también serán bien valorados.

Habilidades adicionales en visualización de datos, para impulsar la innovación en las acciones comerciales serán una ventaja competitiva.

Beneficios y oportunidades de crecimiento

  • Formar parte de la principal empresa financiera de Chile y uno de los mejores lugares para trabajar en el país.
  • Aprendizaje mediante la experiencia práctica, con múltiples oportunidades de desarrollo, formación continua y movilidad interna.
  • Beneficios orientados a mejorar la calidad de vida y el desarrollo profesional del colaborador.
  • Contrato indefinido que aporta estabilidad laboral y seguridad.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Banco Santander Chile pays or copays health insurance for employees.
Computer provided Banco Santander Chile provides a computer for your work.
Vacation over legal Banco Santander Chile gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2400 - 2600 Tiempo completo
Data Engineer GCP
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL BigQuery ETL
En BC Tecnología, somos una consultora TI enfocada en brindar servicios integrales de outsourcing, desarrollo de proyectos y consultoría para clientes de sectores financieros, seguros, retail y gobierno. Nos especializamos en formar equipos ágiles y multidisciplinarios que aportan soluciones tecnológicas de vanguardia. Actualmente, estamos reclutando para un proyecto de 6 meses que involucra el desarrollo de pipelines de datos y arquitecturas en Google Cloud Platform, destinados a optimizar el manejo y análisis de grandes volúmenes de información.

Exclusive offer from getonbrd.com.

Responsabilidades principales

  • Diseñar, desarrollar y mantener pipelines de datos ETL/ELT en Google Cloud Platform para asegurar el flujo eficiente y confiable de datos.
  • Implementar soluciones utilizando productos como BigQuery, Cloud Functions, Airflow y Cloud Storage que soporten procesos analíticos y de negocio.
  • Optimizar consultas SQL y desarrollar scripts en Python para manipulación y transformación de datos.
  • Gestionar versiones y colaborar dentro del equipo utilizando herramientas de control de código como GitLab, GitHub o Bitbucket.
  • Aplicar buenas prácticas en desarrollo, pruebas y documentación técnica.
  • Colaborar en un entorno ágil, trabajando de forma híbrida entre la oficina en Santiago Centro y remoto.

Requisitos y experiencia

Buscamos un profesional con al menos tres años de experiencia demostrable en desarrollo de proyectos de gestión y procesamiento de datos en Google Cloud Platform. Es indispensable tener conocimientos sólidos en SQL y Python para la manipulación y transformación de datos en entornos analíticos. Además, se requiere experiencia práctica con productos clave de GCP, incluyendo BigQuery para almacenamiento y consultas masivas, Cloud Functions para ejecución de funciones serverless, Airflow para orquestación de flujos de trabajo y Cloud Storage para almacenamiento escalable.
El candidato debe estar familiarizado con herramientas de control de versiones como GitLab, GitHub o Bitbucket, que facilitan el trabajo colaborativo y la gestión de código. La capacidad para adaptarse a un modelo híbrido de trabajo, combinando presencialidad en Santiago Centro con trabajo remoto, es fundamental.
Se valoran cualidades como la proactividad, el enfoque orientado al detalle, habilidades comunicativas para trabajo en equipo y la capacidad para afrontar desafíos técnicos en proyectos dinámicos y exigentes.

Conocimientos adicionales deseables

Se considerará un plus la experiencia trabajando con DBT (Data Build Tool), que facilita el desarrollo y mantenimiento de modelos de datos dentro de pipelines modernos. Contar con certificaciones en plataformas cloud, especialmente en Google Cloud Platform, y experiencia previa en proyectos relacionados con áreas financieras o retail, será valorado positivamente.
El manejo de metodologías ágiles y experiencia en la documentación y automatización de procesos ETL fortalecerán el perfil, ya que colaboramos con equipos multidisciplinarios en entornos colaborativos e innovadores.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio entre vida laboral y personal.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer (Mid–Senior Level)
  • Niuro
Python SQL Docker Data Transformation
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality.
Niuro empowers projects by providing autonomous, high-performance tech teams specialized in partnering with top-tier U.S. companies. This role contributes to impactful and technically rigorous industrial data projects that drive innovation and professional growth within the global community Niuro fosters.

© Get on Board. All rights reserved.

About the Role

As a Data Engineer at Niuro, you will build scalable data pipelines and ensure data quality across complex workflows. You will collaborate closely with product teams to understand data requirements, deliver efficient data solutions, and maintain robust data infrastructure. Your expertise will be crucial in optimizing cloud-native data processing environments and enabling data-driven decision-making.
Responsibilities include designing, developing, and deploying data workflows using modern technologies such as AWS services, Airflow, and dbt; scripting and testing in Python; and contributing to infrastructure automation efforts. You will also actively participate in code reviews, troubleshooting, and performance tuning of data pipelines.

Requirements

  • Minimum 3 years of experience in Data Engineering roles.
  • Proven expertise with AWS services including Lambda, S3, and Glue for scalable cloud-native data solutions.
  • Hands-on experience with Airflow for workflow orchestration.
  • Proficient in dbt for data modeling and transformation tasks.
  • Strong programming skills in Python, specifically for scripting and testing data workflows.
  • Bonus skills: experience with Snowflake cloud data platform, Docker containerization, CI/CD pipelines, and SQL databases.
  • Strong communication skills and fluent English proficiency to collaborate effectively with product teams and stakeholders. Fluent Spanish is also required.

Desirable Skills

Experience with Snowflake is highly valued, as well as familiarity with Docker for containerized environments. Knowledge of CI/CD processes to automate and streamline deployment workflows will be beneficial. Additional experience working with relational and NoSQL SQL databases is a plus, enhancing your ability to manage and optimize data storage solutions.

Benefits

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1900 - 2500 Tiempo completo
Ingeniero de Datos Senior
  • coderslab.io
  • Santiago (Hybrid)
Python Git SQL BigQuery
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de Ingeniero de Datos para unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

Applications at getonbrd.com.

Funciones del cargo

  • Desarrollar y mantener ingestas de datos hacia Google Cloud Platform.
  • Implementar pipelines ETL eficientes y escalables para procesamiento de datos.
  • Colaborar con equipos técnicos y de negocio para asegurar la calidad y disponibilidad de la información.
  • Gestionar y optimizar el almacenamiento y procesamiento de datos utilizando BigQuery, Cloud Functions, Airflow y Cloud Storage.
  • Utilizar DBT para transformación y modelado de datos (ideal).
  • Controlar versiones y colaborar en el desarrollo mediante herramientas como GitLab, Bitbucket o GitHub.
  • Documentar procesos y asegurar buenas prácticas en el manejo de datos.
  • Apoyar en la identificación y resolución de problemas técnicos relacionados con ingesta y procesamiento de datos.

Requerimientos del cargo

  • Conocimientos técnicos obligatorios:
    • Desarrollo de proyectos ETL en Google Cloud Platform (GCP).
    • Uso avanzado de productos GCP: BigQuery, Cloud Functions, Airflow, Cloud Storage.
    • Experiencia ideal con DBT (Data Build Tool).
    • Dominio de lenguajes SQL y Python.
    • Manejo de gestores de versionamiento: GitLab, Bitbucket o GitHub.

POSTULAR VÍA WEB Ver trabajo
Gross salary $1700 - 2500 Tiempo completo
Ingeniero de Datos Semi Senior
  • coderslab.io
  • Santiago (Hybrid)
Python Git SQL BigQuery
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de Ingeniero de Datos para unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

Apply through Get on Board.

Funciones del cargo

  • Desarrollar y mantener pipelines ETL para ingesta, transformación y carga de datos en GCP.
  • Modelar datos para asegurar la calidad, integridad y optimización en BigQuery.
  • Implementar soluciones usando Cloud Functions, Airflow y Cloud Storage para automatización y orquestación de procesos.
  • Colaborar con equipos multidisciplinarios para cumplir con los objetivos del proyecto Lago de Datos 2.0.
  • Utilizar DBT para la transformación y modelado de datos (cuando aplique).
  • Gestionar versiones y colaborar en el control de código mediante GitLab, Bitbucket o GitHub.
  • Documentar procesos técnicos y mantener buenas prácticas en el manejo de datos.

Requerimientos del cargo

  • Experiencia en desarrollo de proyectos de datos (ETLs) en Google Cloud Platform (GCP).
  • Conocimiento y manejo de productos GCP: BigQuery, Cloud Functions, Airflow, Cloud Storage.
  • Experiencia ideal con DBT (Data Build Tool).
  • Dominio de lenguajes SQL y Python.
  • Experiencia con gestores de versionamiento como GitLab, Bitbucket o GitHub.
  • Experiencia en modelado de datos en GCP.

POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2600 Tiempo completo
Data Engineer
  • ARKHO
Python Analytics Virtualization Amazon Web Services

ARKHO es una consultora experta en tecnologías de la información, que ofrece servicios expertos de TI en el marco de modernización de aplicaciones, analítica de datos y migración a la nube. Nuestro trabajo facilita y acelera la adopción de la cloud en múltiples industrias.

Nos destacamos por ser Partner Advanced de Amazon Web Services con foco estratégico en la generación de soluciones usando tecnología en la nube, somos obsesionados por lograr los objetivos propuestos y tenemos especial énfasis en el grupo humano que compone ARKHO (nuestros Archers), reconociendo a las personas y equipo como un componente vital para el logro de los resultados.

¿Te motivas? ¡Te esperamos!

Apply exclusively at getonbrd.com.

🎯 Objetivo del Rol

Liderar y ejecutar el desarrollo de pipelines de datos en proyectos de analytics, con una visión integral de arquitectura de datos end to end. Se espera que aplique su experiencia técnica para fomentar la mejora continua, el cumplimiento de objetivos y la entrega de productos tecnológicos de alta calidad. Será un referente técnico dentro del equipo, aportando conocimientos en herramientas, lenguajes e infraestructura, y participando activamente en la generación de soluciones robustas y escalables.

Funciones Principales:

  • Colaborar estrechamente con el líder de equipo y el equipo de implementación, entregando visibilidad técnica del avance de las iniciativas.
  • Apoyar en la definición, estimación y planificación de tareas para productos analíticos bajo metodologías ágiles.
  • Liderar la gobernanza técnica de la solución junto al cliente, participando en decisiones clave.
  • Diseñar e implementar arquitecturas de soluciones de datos en la nube de forma colaborativa.
  • Participar en el modelado de datos y desarrollo de modelos analíticos corporativos.
  • Investigar y profundizar en tecnologías necesarias para alcanzar los objetivos del proyecto.

🏹 Perfil del archer

En nuestra compañía valoramos a las personas auto-gestionadas, proactivas e innovadoras. Debes ser capaz de organizar tu propia carga de trabajo, tomar decisiones, cumpliendo tus plazos y objetivos. Buscamos personas con:

  • Al menos 3 años en proyectos de analítica de datos.
  • Dominio avanzado de al menos un lenguaje de programación, preferiblemente Python.
  • Sólidos conocimientos en herramientas y servicios de datos en AWS: Glue, Lambda, S3, Athena, Redshift, Step Functions, entre otros.
  • Experiencia en diseño de pipelines de datos y orquestación (por ejemplo, Airflow, Step Functions).
  • Familiaridad con arquitecturas modernas de datos como Data Lakes, Data Warehouses o Lakehouses.
  • Experiencia o conocimientos en modelado de datos utilizando enfoques como modelo dimensional, estrella y copo de nieve.

🧩 Habilidades opcionales

Se valorará positivamente si cuentas con:

  • Nivel de inglés intermedio o superior, que te permita participar en conversaciones técnicas y entender documentación especializada.
  • Experiencia trabajando con metodologías ágiles, especialmente Scrum, aplicadas en proyectos colaborativos de desarrollo de software o análisis de datos.

🌟 Beneficios del Archer

En ARKHO fomentamos una cultura de aprendizaje continuo, impulsamos la innovación tecnológica y promovemos un entorno de trabajo flexible, inclusivo y respetuoso, que valora tanto el desarrollo profesional como el bienestar personal.

📆 Día administrativo semestral hasta los 12 meses
🏖️ Week off: 5 días de vacaciones extra
🎉 ¡Celebra tu cumpleaños!
📚 Path de entrenamiento
☁️ Certificaciones AWS
🏡 Flexibilidad (trabajo híbrido)
💍 Regalo por casamiento + 5 días hábiles libres
👶 Regalo por nacimiento de hijos
✏️ Kit escolar
🤱 Beneficio paternidad
❤️ Bonda (plataforma de descuentos y bienestar)
💰 Aguinaldos
🏥 Seguro complementario de salud (solo Chile) o Bono de Salud
🧘‍♀️ ARKHO Open Doors

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
Vacation over legal ARKHO gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer
  • Compara
Python PostgreSQL Back-end Kafka
Compara es una plataforma digital que permite cotizar y comparar los principales seguros y productos financieros de Latinoamérica. En nuestra empresa, buscamos un Data Engineer que ayude a construir, optimizar y evolucionar nuestra infraestructura de datos. Con un énfasis en la modernización y mejora continua, esta posición es clave para asegurar que nuestros procesos de datos sean eficientes y escalables.

Apply directly on the original site at Get on Board.

🎯 ¿Qué harás?

  • Mantener y optimizar nuestro data warehouse en PostgreSQL y los pipelines de ingesta de datos en producción.
  • Liderar la transición hacia una arquitectura moderna basada en Databricks, dbt y un data lake en S3.
  • Desarrollar y escalar pipelines de procesamiento y transformación de datos.
  • Monitorear, depurar y documentar procesos de datos para garantizar su calidad y confiabilidad.

🔎 ¿A quién buscamos?

  • Persona con más de 3 años de experiencia en ingeniería de datos, construyendo y manteniendo pipelines en producción.
  • Dominio de Python para procesamiento de datos, incluyendo el uso de librerías como pandas, SQLAlchemy y psycopg2.
  • Experiencia trabajando con orquestadores de workflows, especialmente Airflow.
  • Conocimiento sólido de bases de datos relacionales, especialmente PostgreSQL, incluyendo modelamiento y optimización de rendimiento.
  • Experiencia práctica con almacenamiento en la nube (S3 o equivalente) y formatos como Parquet.
  • Autonomía y capacidad de tomar decisiones técnicas.

🌟 Será un plus si cuentas con

  • Experiencia con dbt y modelado de datos.
  • Conocimiento en Databricks, Delta Lake, Apache Iceberg o arquitecturas de lakehouse.
  • Experiencia con diseño e implementación de pipelines CDC (Change Data Capture) usando Debezium, Kafka o similares.
  • Conocimientos de buenas prácticas de DevOps para data (versionado de pipelines, testing, CI/CD).
  • Inglés técnico para leer documentación y colaborar en proyectos internacionales.

🚀Únete a nuestro equipo

En Compara, ofrecemos horarios flexibles y un entorno que favorece el crecimiento profesional. Valoramos la cultura de aprendizaje continuo y el desarrollo de cada miembro del equipo, por lo que si disfrutas optimizando infraestructuras de datos, impulsando mejoras estratégicas y explorando nuevas herramientas, ¡nos encantaría conocerte! 🚀

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Compara provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Compara gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 2000 Tiempo completo
Analista de Datos
  • coderslab.io
  • Santiago (Hybrid)
Python Data Analysis SQL Virtualization

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Analista de Datos para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Apply through Get on Board.

Funciones del cargo

-Desarrollo de componentes en Python
-Utilización de BigQuery:Realizar análisis de datos, ingesta y procesamiento continuo mediante tareas programadas en GCP utilizando BigQuery.
-Transformación de Datos:Aplicar técnicas de transformación de datos utilizando DBT (Data Build Tool) para asegurar que los datos sean precisos y estén listos para su análisis.
-Pruebas de Precisión de Datos:Testear la precisión y validez de los datos, asegurando que se cumplan los estándares de calidad antes de su utilización.
-Seguimiento de Cambios:Realizar un seguimiento de los cambios en los datos y actualizar la documentación correspondiente para mantener un registro claro y comprensible.
-Construcción de Modelos de Datos: Diseñar y construir modelos de datos adecuados que soporten las necesidades del negocio y faciliten el análisis.
-Escritura de Código de Transformación: Escribir y validar código para la transformación de datos, garantizando que sea eficiente y escalable.
Implementación y Documentación: Implementar mejoras en los procesos de datos y documentar todos los procedimientos que se lleven a cabo, facilitando la comprensión y el uso por parte de otros equipos.

Requerimientos del cargo

-Programación
-Python
-SQL: Familiaridad con SQL y posiblemente con otros lenguajes relacionados con el procesamiento de datos.-GCP
-BigQuery : Experiencia en el uso de BigQuery para el manejo y análisis de grandes volúmenes de datos
-Kubernetes
-Docker

Condiciones

Modalidad de contratación: Plazo fijo
Duración del proyecto: 6 meses

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Especialista en Modelos Analíticos Avanzados
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL Big Data Azure
En BC Tecnología, somos una consultora de servicios IT con más de 6 años de experiencia diseñando y desarrollando soluciones tecnológicas acorde a las necesidades de nuestros clientes. Nuestra oferta abarca desde la consultoría y diseño de soluciones, pasando por la formación de equipos y outsourcing de personal, hasta el desarrollo y soporte de proyectos en diversas industrias como servicios financieros, seguros, retail y gobierno. Nos especializamos en crear equipos ágiles, adaptados para trabajar en áreas de infraestructura tecnológica y desarrollo de software, brindando productos y servicios que apoyan la evolución digital de nuestros clientes.

This job is exclusive to getonbrd.com.

Responsabilidades principales

  • Participar activamente en todas las etapas del ciclo de vida del análisis de datos, incluyendo la identificación, estructuración y preparación de datos relevantes para el proyecto.
  • Diseñar, desarrollar e implementar modelos analíticos avanzados, empleando técnicas de estadística clásica y aprendizaje automático para extraer insights clave.
  • Construir visualizaciones de datos efectivas para monitorear periódicamente los indicadores clave de desempeño (KPIs) y facilitar la comprensión de los resultados.
  • Comunicar claramente los hallazgos y resultados analíticos a las áreas de negocio para apoyar la toma de decisiones estratégicas.
  • Llevar a cabo el mantenimiento evolutivo y la optimización continua de los modelos analíticos desplegados, asegurando su calidad, escalabilidad y rendimiento en producción.
  • Colaborar estrechamente con los equipos de ingeniería para garantizar el correcto despliegue y funcionamiento de los modelos en ambientes productivos.
  • Desarrollar e implementar APIs para facilitar el acceso y consumo de los modelos analíticos por otras aplicaciones y servicios internos.
  • Aplicar un enfoque crítico y orientado al negocio para resolver problemas complejos y aportar soluciones efectivas basadas en datos.

Perfil requerido

Buscamos un profesional con título en Ingeniería, Economía, Estadística o carreras afines, con sólida capacidad analítica tanto cuantitativa como cualitativa. Es fundamental poseer experiencia comprobada en el diseño, desarrollo y despliegue de modelos analíticos avanzados, trabajando en conjunto con equipos técnicos en ambientes productivos.
El candidato debe contar con conocimientos avanzados en estadística aplicada, aprendizaje automático, y metodologías analíticas modernas. Además, se requiere un dominio fuerte de SQL para manipulación y consulta de bases de datos, así como programación en Python y PySpark para procesamiento de datos a gran escala.
Es muy valorada la experiencia trabajando con plataformas Azure y Databricks para la gestión y explotación de big data. También es importante la experiencia en el desarrollo y consumo de APIs para integración de modelos y aplicaciones.
Buscamos un profesional comprometido, rigoroso, con actitud crítica y capacidad para presentar resultados de forma clara, orientado a resolver problemas desde una perspectiva de negocio e impacto.

Requisitos deseables

Serán considerados plus aquellos candidatos con experiencia adicional en técnicas de deep learning, manejo de otras herramientas de visualización de datos avanzadas, conocimientos en arquitecturas de microservicios y habilidades en automatización de pipelines analíticos.
Además, se valorará la experiencia en trabajo en equipos multidisciplinarios bajo metodologías ágiles, buen manejo de comunicación efectiva, y disposición para aprendizaje continuo en nuevas tecnologías emergentes.

Beneficios y cultura empresarial

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Relocation offered If you are moving in from another country, BC Tecnología helps you with your relocation.
Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Especialista de Big Data
  • SONDA
  • Santiago (Hybrid)
Java Python PostgreSQL SQL

En SONDA, somos una empresa líder en transformación digital en la región. Desde nuestros inicios, creemos en el rol que desempeñamos para contribuir al desarrollo de las sociedades donde operamos mediante soluciones tecnológicas avanzadas. Actualmente, dentro de unidad de negocio de Digital Application Services, para proyecto SII - Servicio de impuestos indirectos, buscamos a Especialista de Big Data.

Send CV through getonbrd.com.

Funciones del cargo

· Ser responsable de crear el "Big Data", tubería de datos, desde la recolección hasta la entrega para su análisis o para alimentar un producto o servicio basado en análisis predictivos en producción.

· Asegurar que la arquitectura de datos sea factible para que los científicos de datos trabajen con ella.

· Construir y mantener un Data Lakes y ofrece API para acceder al Especialista de Data Science que usa los datos para su análisis y ejecución de modelos de Machine Learning.

· Ser responsable de dar todo el apoyo para que el trabajo del Especialista de Data Science suceda, y sea “más efectivo”.

Requerimientos del cargo

· Estudios superiores en áreas relacionados.

· Desde 2 años de experiencia en cargos similares.

· Construcción de procesos e integración de datos en Big Data

· Conocimiento de conceptos de computación distribuida

· Experiencia y conocimiento en el uso de SQL.

· Uso de bases de datos relacionales, particularmente en Oracle y postgreSQL.

· Bases de Datos NoSQL
· Manejo de sistemas Unix/linux, shell script

· Programación orientada a objetos usando JAVA o Python

· Programación Funcional en Scala/Spark

· Manejo de herramientas de CI/CD.

· Conocimiento de almacenamiento de Datos.
· Diseño de Esquemas de datos

· Conocimiento de Hive, Impala, Kudu

· Conocimiento de Kafka ​

· Deseable conocimiento en el uso de servicios en entorno Cloudera.

Opcionales

Y mucho mejor si destacas por tener alguna certificación o curso en alguno de estos tópicos: ​

· Integración de datos

· Big data

· Desarrollo API

· Microservicios, springboot, springbatch

· Desarrollo en nube

· Desarrollo seguro

· Diseño de aplicaciones

· Metodologías ágiles

Conditions

Wellness program SONDA offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance SONDA pays or copays life insurance for employees.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage SONDA pays or copays health insurance for employees.
Retirement plan SONDA pays or matches payment for plans such as 401(k) and others.
Dental insurance SONDA pays or copays dental insurance for employees.
Commuting stipend SONDA offers a stipend to cover some commuting costs.
Computer provided SONDA provides a computer for your work.
Education stipend SONDA covers some educational expenses related to the position.
Fitness subsidies SONDA offers stipends for sports or fitness programs.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2300 - 2500 Tiempo completo
Data Reporting Engineer
  • Contac Ingenieros
  • Santiago (Hybrid)
Python SQL Azure ETL

En Contac buscamos aportar y potenciar los equipos especializados de nuestros clientes, agregando valor a sus procesos a través de la experiencia de nuestros profesionales.
El equipo de trabajo está orientado a desarrollar, implementar y mantener sistemas avanzados de reportes y visualización de datos, con la finalidad de mejorar la gestión empresarial.

Apply directly at getonbrd.com.

Principales Desafíos

En esta posición, serás el protagonista en la transformación de datos en conocimiento relevante para la toma de decisiones estratégicas dentro de la minería.

  • Diseñar, desarrollar y optimizar reportes y herramientas de visualización que faciliten el acceso y análisis de la información, asegurando que sea clara y estratégica para los diferentes niveles de la organización.
  • Construir, mantener y mejorar las plataformas de datos que alimentan las soluciones de reportabilidad, garantizando la integridad y actualización continua de la información.
  • Integrar y gestionar procesos ETL (Extract, Transform, Load) para asegurar que la información sea confiable, oportuna y eficiente, soportando la toma de decisiones diarias.

Conocimientos Claves y Requisitos

Buscamos profesionales con un perfil técnico avanzado que combine conocimientos en ingeniería con habilidades sólidas en análisis y visualización de datos dentro del sector minero.

  • Python avanzado, con experiencia práctica utilizando librerías especializadas como Pandas, NumPy, Matplotlib, Plotly y Dash para manipulación, análisis y creación de visualizaciones dinámicas.
  • SQL avanzado y competencia en manejo y optimización de bases de datos complejas.
  • Power BI avanzado, capaz de construir dashboards impactantes que faciliten la interpretación y comunicación de datos a niveles estratégicos.
  • Experiencia en gestión de ETL y modelamiento de datos, con familiaridad en el ecosistema Azure para administrar y optimizar plataformas de datos en la nube.
  • Título profesional en Ingeniería Civil o Industrial, preferentemente con especialidad en Metalurgia, Química o Minería, aportando una visión práctica de los procesos productivos y operativos mineros.
  • Conocimiento sólido de los procesos mineros y manejo de indicadores clave del negocio para convertir datos en información relevante y accionable.
  • Mínimo 2 años de experiencia específica en reportabilidad y análisis de datos, preferentemente en el sector minero o industrias relacionadas.
  • Inglés Intermedio (B2)
  • Capacidad para trabajar en equipo, pensamiento analítico, atención al detalle, y orientación a resultados con compromiso en entregar soluciones de calidad que agregan valor.

Competencias y Habilidades Deseables

Es valorado contar con habilidades complementarias que potencien el impacto del rol, tales como:

  • Experiencia previa en industrias de minería o sectores industriales similares, aportando contexto y comprensión profunda de los requerimientos del negocio.
  • Conocimientos en otras herramientas de visualización o BI adicionales a Power BI, como Tableau o QlikView.
  • Familiaridad con metodologías ágiles para gestión de proyectos y desarrollo de soluciones analíticas.
  • Capacidad para comunicar hallazgos técnicos a audiencias no técnicas, facilitando la adopción de soluciones basadas en datos.
  • Interés por la innovación tecnológica y aprendizaje continuo en el ámbito de ciencia de datos y análisis avanzado.

Que ofrecemos

  • Una carrera en tecnología y analítica avanzada, con oportunidades de crecimiento y especialización.
  • Un grato ambiente laboral, donde la colaboración, el aprendizaje y el desarrollo profesional son prioridad.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer
  • NeuralWorks
  • Santiago (Hybrid)
Python Data Analysis SQL Big Data

NeuralWorks es una compañía de alto crecimiento fundada hace 3 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

Applications: getonbrd.com.

Descripción del trabajo

El equipo de Data y Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.
Dentro del equipo multidisciplinario con Data Scientist, Translators, DevOps, Data Architect, tu rol será clave en construir y proveer los sistemas e infraestructura que permiten el desarrollo de estos servicios, formando los cimientos sobre los cuales se construyen los modelos que permiten generar impacto, con servicios que deben escalar, con altísima disponibilidad y tolerantes a fallas, en otras palabras, que funcionen. Además, mantendrás tu mirada en los indicadores de capacidad y performance de los sistemas.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Como Data Engineer, tu trabajo consistirá en:

  • Participar activamente durante el ciclo de vida del software, desde inception, diseño, deploy, operación y mejora.
  • Apoyar a los equipos de desarrollo en actividades de diseño y consultoría, desarrollando software, frameworks y capacity planning.
  • Desarrollar y mantener arquitecturas de datos, pipelines, templates y estándares.
  • Conectarse a través de API a otros sistemas (Python)
  • Manejar y monitorear el desempeño de infraestructura y aplicaciones.
  • Asegurar la escalabilidad y resiliencia.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia práctica de al menos 3 años en entornos de trabajo como Data Engineer, Software Engineer entre otros.
  • Experiencia con Python.
    Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida optimización de consultas.
  • Pasión en problemáticas de procesamiento de datos.
  • Experiencia con servidores cloud (GCP, AWS o Azure), especialmente el conjunto de servicios de procesamiento de datos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.
  • Habilidades de comunicación y trabajo colaborativo.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” D. Gaucher , J. Friesen and A. C. Kay, Journal of Personality and Social Psychology, 2011.

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Vestimenta informal
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1700 - 2100 Tiempo completo
Data Scientist
  • Kunzapp
  • Santiago &nbsp Ciudad de México (Hybrid)
Python Git Data Analysis SQL

En Kunzapp buscamos un Data Scientist con fuerte ambición y deseo de aprender para desarrollar e implementar modelos de machine learning, análisis de datos, y colaborar con visualizaciones de los KPIs que miden nuestros productos. Esta persona será parte de un equipo de desarrollo pequeño pero poderoso, en un entorno de startup donde la velocidad y la ejecución son clave. Buscamos a alguien que ame el análisis de datos, la experimentación, y construir cultura mientras escalamos.

Apply to this job through Get on Board.

🚀 Responsabilidades

  • Desarrollar e implementar modelos de machine learning y análisis estadístico.
  • Diseñar y mantener pipelines de datos eficientes y escalables.
  • Participar activamente en el proceso de Scrum: grooming, sprint planning, dailies.
  • Colaborar con producto para traducir iniciativas de negocio en soluciones basadas en datos.
  • Promover un ambiente de trabajo transparente, donde se pueda aprender, compartir y crecer.
  • Implementar y mantener sistemas de monitoreo de modelos y métricas clave.
  • Desarrollar experimentos A/B y análisis estadísticos para validar hipótesis.
  • Comunicar hallazgos y recomendaciones basadas en datos al equipo y stakeholders.

🛠 Stack tecnológico actual:

Backend: Go (Gin+Gorm), Python

Análisis de datos: Python, Jupyter Notebooks

Data Engineering: SQL, DynamoDB, SQS, EventBridge

Otros: Git, Docker, AWS Sagemaker, AWS Bedrock, Datadog, Elasticsearch

¿ Qué necesitamos de ti ? 🕵🏻

  • Experiencia en data science y machine learning en entornos productivos.
  • Sólidos conocimientos en estadística y matemáticas.
  • Dominio de Python y sus principales librerías de data science.
  • Mentalidad de "ship fast, fix fast", con enfoque en resultados medibles.
  • Experiencia en implementación y monitoreo de modelos en producción.
  • Ambición, ganas de crecer, y mucho deseo de aprender y mejorar habilidades técnicas.
  • Capacidad para comunicar efectivamente hallazgos técnicos a audiencias no técnicas.
  • Inglés intermedio-avanzado (nuestra documentación se escribe en inglés).

✅ Beneficios

  • Aguinaldo 15 días en Diciembre
  • Bono anual de hasta 1 mes de sueldo basado en performance.
  • Crecimiento constante y acelerado, basado en el crecimiento de Kunzapp.
  • Stock options: Posibilidad a obtener stock optionsOtros beneficios

Wellness program Kunzapp offers or subsidies mental and/or physical health activities.
Equity offered This position includes equity compensation (in the form of stock options or another mechanism).
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Company retreats Team-building activities outside the premises.
Computer provided Kunzapp provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Vacation over legal Kunzapp gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer with Snowflake Expertise
  • Moventi
Python Agile SQL Business Intelligence
At Moventi, we focus on helping organizations lead with innovation through technology. Our team consists of a multidisciplinary group of talents working together to adopt new technologies, methodologies, and collaborative work styles that enhance professional growth and project impact. The office is centrally located, equipped with parking, recreational areas for break times, and agile meeting spaces to foster teamwork across different professional profiles. Our organizational culture emphasizes transparency, strong coordination, commitment, willingness to take risks, and daily innovation with original ideas that generate positive impact.

Apply directly through getonbrd.com.

Job Responsibilities and Core Functions

We are looking for a Data Engineer skilled in Snowflake, Airflow, Python, SQL, and Tableau who will play a key role in designing, developing, and maintaining efficient data pipelines and workflows. The primary goal is to enable reliable data processing and visualization to support business intelligence efforts.
  • Design, implement, and optimize data pipelines using Airflow and Python for automated and scalable data processing.
  • Develop and maintain Snowflake data warehouses ensuring data integrity, performance, and security.
  • Create SQL queries and scripts for data preparation, transformation, and loading processes.
  • Build and maintain interactive, insightful dashboards and reports in Tableau to provide actionable insights to stakeholders.
  • Collaborate cross-functionally with data analysts, business users, and other engineering teams to understand data needs and translate them into technical solutions.
  • Troubleshoot, monitor, and optimize existing data workflows and dashboards to improve performance and reliability.

Required Skills and Experience

The ideal candidate will have proven hands-on experience working in data engineering roles, particularly with Snowflake as the data warehousing solution. Strong proficiency in Python and Airflow is essential for orchestrating data workflows. Advanced SQL skills are critical for querying and managing complex datasets. Experience in building Tableau dashboards to enable data visualization and reporting is necessary to communicate insights effectively.
Beyond technical expertise, candidates should be proactive, detail-oriented, and have strong problem-solving capabilities. Excellent communication skills and the ability to work collaboratively in a team environment are vital to succeed in this role. We value professionals who embrace transparency and are committed to innovation and continuous learning.

Desirable Skills and Traits

Experience with cloud environments and other data orchestration tools will be advantageous. Familiarity with additional BI tools or programming languages can enhance your profile. Prior experience in agile methodologies and working in multidisciplinary teams will help you excel and adapt quickly within Moventi’s culture.

Benefits and Work Environment

We are dedicated to the professional development of our team members by offering challenging projects and continuous learning opportunities. From your first day, you will have formal employment as a contractor and can enjoy a birthday free day to celebrate your special moment.
  • Opportunities for ongoing professional growth and learning
  • Formal employment contract starting day one as a contractor
  • Birthday free day to celebrate you
  • Engagement in challenging and impactful projects

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero Analítica y Gestión Financiera
  • Agrosuper
  • Rancagua (Hybrid)
Python Analytics Data Analysis SQL

En Agrosuper, tenemos la misión de llevar alimentos de la más alta calidad a las familias de Chile y el mundo. Nos mueve el deseo de alimentar el talento y las ganas de crecer constantemente. Buscamos mejorar y fomentar un entorno donde todos disfruten lo bueno de la vida, por lo que valoramos a las personas, que son el alma de nuestra organización .

Te invitamos a participar del proceso de selección para el cargo Ingeniero Analítica y Gestión Financiera. Buscamos incorporar profesionales de formación Ingeniero Civil, para trabajar en la Gerencia de Planificación y Gestión de Administración y Finanzas, y desempeñarse en la ciudad de Rancagua.

El objetivo del cargo es integrar habilidades en data science y desarrollo de proyectos tecnológicos, proporcionando soporte estratégico y analítico a los equipos de la Gerencia de Planificación y Gestión; Además de colaborar estrechamente con las áreas de excelencia operacional, transformación digital y tecnología & datos.

This job is exclusive to getonbrd.com.

Funciones del cargo

1 .Desarrollo de Modelos Predictivos y Prescriptivos: Crear modelos que integren variables financieras y operativas en coordinación con los equipos de planificación y control de gestión para mejorar las proyecciones.
2. Asesoría Técnica en Análisis y Sensibilización de Escenarios: Proveer asesoría técnica para el análisis de escenarios, detección de patrones y optimización de proyecciones financieras.
3. Aseguramiento de la Calidad e Integridad de los Datos: Garantizar la calidad e integridad de los datos, involucrando a los equipos pertinentes para obtener resultados precisos y confiables.
4. Diseño e Implementación de Paneles y Reportes Interactivos: Diseñar e implementar paneles y reportes interactivos para monitorear y controlar KPIs financieros, operativos y estratégicos.
5 Consolidación y Transformación de Datos: Consolidar y transformar datos de diversas fuentes en análisis integrales, trabajando con los equipos involucrados para decisiones basadas en información confiable.
6 Liderazgo en Proyectos de Transformación Digital y Automatización: Liderar iniciativas de transformación digital y proyectos de automatización en procesos recurrentes como cierre mensual y proyecciones.
7. Evaluación de Viabilidad Financiera y Técnica de Proyectos: Evaluar la viabilidad financiera de proyectos de inversión y la viabilidad técnica de proyectos de transformación, proporcionando herramientas de análisis a los equipos.
8.Soporte Analítico y Promoción de Cultura Data-Driven: Colaborar con equipos de planificación financiera y gestión estratégica, asesorar en la formulación de proyectos y evaluaciones del negocio, y promover una cultura basada en datos.

Requerimientos del cargo

1.Ingeniero Civil
2.Experiencia en el uso de herramientas de visualización de datos (ej.: Power BI, Tableau).
3. Dominio de herramientas de análisis de datos (ej. Python, R o SQL).
4. Disponibilidad para trabajar en Rancagua 4x1.
5. Deseable experiencia en gestión financiera.

Condiciones

Te mostramos algunos de nuestros beneficios:
Planes de crecimiento y desarrollo.
Capacitaciones y becas de estudios.
Convenios con distintas instituciones.
Bonos asociados al desempeño.

Computer provided Agrosuper provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1800 - 2500 Tiempo completo
Data Engineer Semisenior / Senior
  • Lisit
  • Santiago (Hybrid)
Python Data Analysis SQL Big Data

Lisit es una empresa dedicada a la creación, desarrollo e implementación de servicios de software enfocados en proporcionar herramientas de automatización y optimización que impulsan la eficiencia operativa de sus clientes. Trabajamos con un enfoque constante en la innovación y la pasión por superar desafíos tecnológicos. Nuestra propuesta diferencial radica en un acompañamiento consultivo integral, utilizando diversas herramientas y prácticas tecnológicas que permiten a los clientes alcanzar con éxito sus objetivos de transformación digital.

Find this vacancy on Get on Board.

Responsabilidades y Objetivos del Puesto

Como Data Engineer en Lisit, serás responsable de diseñar, construir y mantener pipelines de datos robustos que faciliten la integración entre múltiples sistemas, asegurando un modelado de datos eficiente y alineado con los requerimientos del negocio. Te encargarás de implementar soluciones escalables utilizando herramientas de Infraestructura como Código (IaC) y gestionar el versionamiento del código para garantizar calidad y trazabilidad.

Participarás activamente en la implementación y optimización de soluciones cloud sobre plataformas como Google Cloud Platform (GCP) y Azure, utilizando productos específicos como Airflow, Cloud Run, Cloud Composer, BigQuery y Azure Functions. La elaboración y mantenimiento de procesos ETL/ELT serán clave para asegurar el flujo y la calidad de los datos.

Trabajarás colaborativamente con equipos multidisciplinarios, manteniendo una comunicación fluida y contribuyendo a la innovación continua en los proyectos, siempre con foco en la entrega de valor y el cumplimiento de los objetivos tecnológicos y de negocio.

Requisitos y Habilidades Exigidas

  • Mínimo 3 años de experiencia profesional en manejo y procesamiento de datos, enfocándose en la generación de pipelines, integración de sistemas y modelado de datos.
  • Dominio intermedio a avanzado en lenguajes de programación como Python y Spark, con capacidad para desarrollar y optimizar scripts y procesos complejos.
  • Sólidos conocimientos intermedios a avanzados en Infraestructura como Código (IaC), especialmente usando Terraform.
  • Amplia experiencia con sistemas de versionamiento de código, preferentemente GitHub y GitLab, garantizando buenas prácticas de control y colaboración.
  • Conocimiento avanzado en SQL y bases de datos relacionales y no relacionales, capaces de diseñar consultas complejas y optimizar el rendimiento.
  • Familiaridad intermedia a avanzada con plataformas cloud como Google Cloud Platform y Microsoft Azure, así como con herramientas específicas como Airflow, Cloud Run, Cloud Composer, BigQuery y Azure Functions.
  • Experiencia avanzada con herramientas ETL/ELT, destacándose el uso de Azure Data Factory, siendo este un requisito excluyente.
  • DESEABLE: Certificaciones relevantes en Data Engineering valoradas positivamente, incluyendo Microsoft Azure DP-700, AZ-203, DP-600, Google Cloud Digital Leader y Google Cloud Associate Cloud Engineer.
  • DESEABLE: Conocimientos deseables en Microsoft Power BI y Microsoft Fabric para complementar la visualización y análisis de datos.

Además, buscamos profesionales con capacidad analítica, buenas habilidades comunicativas, actitud proactiva y capacidad para trabajar en equipo, orientados a la mejora continua y la entrega eficiente y efectiva de soluciones.

Conocimientos y Certificaciones Deseables

Valoraremos positivamente candidatos que posean certificaciones oficiales en ingeniería de datos como Azure DP-700, AZ-203, DP-600, Google Cloud Digital Leader, o Google Cloud Associate Cloud Engineer que demuestren compromiso con la actualización continua. También será un plus contar con conocimientos en Microsoft Power BI y Microsoft Fabric, herramientas que aportan valor agregado para el manejo y visualización avanzada de datos, y que complementan el enfoque técnico del puesto.

Beneficios y Ambiente Laboral

Ofrecemos la oportunidad de integrarte a proyectos tecnológicos desafiantes y de largo plazo, trabajando dentro de un equipo técnico altamente colaborativo que promueve un ambiente profesional y amigable. Nuestro entorno está pensado para facilitar la comunicación constante y el compromiso del equipo, con un estilo de trabajo 100% remoto que favorece la conciliación entre la vida personal y profesional.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Computer provided Lisit provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer GCP
  • Factor IT
Python Data Analysis SQL NoSQL

En FactorIT, somos líderes en el sector de tecnología y ofrecemos soluciones innovadoras en Data y Analytics, Transformación Digital e Inteligencia Artificial. Con presencia en 8 países de Latinoamérica, nos apasiona abordar los desafíos tecnológicos de grandes empresas. Únete a nuestro equipo de ingenieros de datos que están a la vanguardia de la transformación tecnológica. Trabajamos en proyectos de gran impacto, creando soluciones personalizadas que integran tecnologías emergentes y analítica avanzada.

Exclusive offer from getonbrd.com.

Responsabilidades del Ingeniero de Datos

Como Data Engineer en FactorIT, tu objetivo será diseñar, construir y mantener infraestructuras y sistemas de datos que permitan a nuestros clientes tomar decisiones informadas. Tus responsabilidades incluirán:

  • Desarrollar y mantener pipelines de datos eficientes y escalables.
  • Colaborar con equipos multidisciplinarios para analizar necesidades de datos y proporcionar soluciones efectivas.
  • Implementar y optimizar herramientas de integración de datos.
  • Monitorear la calidad y eficiencia de los sistemas de procesamiento de datos.
  • Participar en la gestión y almacenamiento de datos, asegurando la integridad y confidencialidad.

Tu papel será fundamental para impulsar la transformación digital y potenciar la analítica en nuestras soluciones.

Requisitos del Puesto

Buscamos un Data Engineer con pasión por la tecnología y habilidades tanto técnicas como interpersonales. Las características que valoramos son:

  • Título en Ingeniería Informática, Ciencias de la Computación o campos relacionados.
  • Conocimientos en lenguajes de programación como Python o SQL.
  • Experiencia con herramientas de ETL y plataformas de análisis de datos.
  • Aptitudes analíticas y capacidad para resolver problemas.
  • Habilidades de comunicación efectiva para trabajar en equipo y entender las necesidades del cliente.

Valorizamos un enfoque proactivo y la capacidad de aprender de manera continua.

Habilidades Deseables

Si bien no es obligatorio, será un plus contar con:

  • Experiencia en herramientas de Big Data como Hadoop o Spark.
  • Conocimientos en la implementación y gestión de bases de datos no relacionales (NoSQL).
  • Familiaridad con prácticas de DevOps relacionadas con el manejo de datos.
  • Certificaciones en tecnologías de datos o análisis.

Estas habilidades complementarias serán valoradas en el proceso de selección.

Beneficios de Trabajar en FactorIT

Ofrecemos un entorno de trabajo dinámico y colaborativo, donde podrás trabajar con tecnologías de punta y acceder a un plan de crecimiento profesional. Además, brindamos capacitaciones en IA y automatización. Nuestros beneficios incluyen:

  • Trabajo 100% remoto 🌍 para mantener un equilibrio entre tu vida personal y laboral.
  • Flexibilidad laboral para adaptarte a tus necesidades.
  • Un salario competitivo acorde a tu experiencia.

Únete a nosotros y sé parte de un equipo que está transformando el futuro de la tecnología en la región.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Factor IT provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Architect Semi Senior Advanced
  • Improving South America
Python SQL Azure ETL

Leniolabs_ es ahora Improving South America!

Somos una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA principalmente.

Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.

Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development y También trabajamos en desarrollo backend.

Valoramos a las personas dinámicas en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Apply directly through getonbrd.com.

Job functions

En mproving South America buscamos un Data Architect Senior para sumarse a este equipo multicultural. Diseñarás modelos y pipelines ETL/ELT en Azure, optimizarás SQL de alto rendimiento y liderarás mejores prácticas de calidad y gobierno de datos, colaborando de forma 100 % remota con equipos técnicos y de negocio. Si te apasiona transformar datos complejos en decisiones estratégicas, este desafío es para vos.

Qualifications and requirements

  • Alrededor de8 años en desarrollo/arquitectura de datos,
  • Nivel de inglés intermedio–avanzado
  • .SQL avanzado (tuning, stored procs, optimización de queries)
  • Modelado de datos & Data Warehouse (diseño lógico/físico, diagramado)
  • ETL/ELT & Orquestación: SSIS / Azure Data Factory, pipelines CI/CD (Azure DevOps, Git)
  • Python + Pandas / PySpark para profiling y data wrangling
  • Cloud Azure (Storage, Synapse, contenedores)
  • Power BI (visualización, mejores prácticas de reporting)
  • Conocimientos de data quality, data retention & compliance
  • Experiencia diseñando data flows y migraciones entre sistemas legacy/API

Conditions

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1800 - 3000 Tiempo completo
Ingeniero/a de Datos para Asistente Conversacional IA
  • Lisit
Python PostgreSQL SQL MongoDB
Lisit es una empresa dedicada a la creación, desarrollo e implementación de servicios de software que brindan herramientas de automatización y optimización para sus clientes, manteniendo un fuerte enfoque en la innovación y la pasión por resolver desafíos tecnológicos complejos. Buscamos incorporar talento para trabajar en un proyecto puntero que consiste en el desarrollo de un asistente conversacional inteligente basado en inteligencia artificial.
El proyecto se centra en la construcción de un sistema capaz de procesar lenguaje natural (NLP) utilizando datos de diversas fuentes, para lo cual se requiere una infraestructura de datos sólida, escalable y fiable que permita alimentar los modelos inteligentes de lenguaje y mejorar continuamente la interacción conversacional, aportando valor a nuestros clientes mediante soluciones eficientes y tecnológicamente avanzadas.

Find this vacancy on Get on Board.

Descripción del rol y responsabilidades

Como Ingeniero/a de Datos en este proyecto, serás responsable de diseñar, construir y mantener pipelines ETL/ELT que permitan la ingesta y procesamiento eficiente de datos diversos y no estructurados, como chats, correos electrónicos y logs, transformándolos en formatos precisos y útiles para el entrenamiento y operación de modelos de procesamiento de lenguaje natural (NLP).
Asimismo, integrarás fuentes de datos externas a través de APIs RESTful, gestionarás bases de datos relacionales como PostgreSQL y NoSQL como MongoDB, y optimizarás el almacenamiento de grandes volúmenes de datos en soluciones cloud como S3, BigQuery o Redshift. También garantizarás la calidad, trazabilidad y gobernanza de los datos para mantener la confiabilidad del sistema.
El rol incluye implementar medidas de anonimización y protección para los datos sensibles, asegurando el cumplimiento de normativas vigentes en materia de privacidad y manejo ético de la información, y colaborarás con el equipo multidisciplinario para cumplir con los objetivos tecnológicos y de negocio del proyecto.

Requisitos y habilidades esenciales

Buscamos un profesional con experiencia sólida en Python, utilizando librerías especializadas como Pandas, PySpark o Dask para el procesamiento y transformación de datos a gran escala. Es necesario tener un dominio avanzado en SQL y experiencia práctica con bases de datos relacionales y NoSQL, especialmente PostgreSQL y MongoDB.
Se requiere conocimiento comprobable en herramientas de orquestación de flujos de trabajo de datos, como Apache Airflow, y manejo de almacenamiento en la nube en plataformas como Azure, AWS S3 o Google Cloud Storage (GCS).
Es fundamental contar con experiencia en el procesamiento de datos no estructurados aplicados a modelos de NLP y manejo adecuado de APIs RESTful para la integración de diferentes fuentes y servicios.
Además de las habilidades técnicas, valoramos competencias orientadas a la gestión minuciosa de la calidad y gobernanza de datos, capacidad analítica y pensamiento crítico para mantener estándares rigurosos que garanticen la efectividad del asistente conversacional inteligente.

Conocimientos y experiencia deseables

Se valorará experiencia previa en proyectos relacionados con asistentes virtuales o tecnologías de procesamiento de lenguaje natural (NLP), así como familiaridad con prácticas DataOps para la gestión eficiente de pipelines y control de versiones de datos.
El conocimiento de normativas internacionales de privacidad y protección de datos, como GDPR e HIPAA, junto con técnicas avanzadas de anonimización, será un plus muy importante para desempeñarse con éxito en el cargo.

Beneficios y ambiente laboral

Ofrecemos la oportunidad de participar en proyectos tecnológicos desafiantes y de largo plazo dentro de un equipo técnico colaborativo, en un ambiente laboral amigable y profesional.

El trabajo es 100% remoto, lo cual fomenta la conciliación entre la vida personal y profesional sin perder la comunicación fluida y el compromiso con el equipo.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Senior Data Engineer
  • Playbypoint
Python SQL Machine Learning Kafka
🏓 Senior Data Engineer
📍 Remote | Full-time
Join us in building the future of racquet sports.

🧠 About the Team & Project
At Playbypoint, we're on a mission to transform the racquet sports industry with powerful, intuitive software. From tennis to pickleball, our platform helps clubs thrive by elevating player engagement and simplifying operations. As part of our Data & Insights team, you’ll work alongside backend engineers, product leaders, and business stakeholders to turn raw data into actionable insights that shape our product strategy and operational decisions.
Our team plays a critical role in helping the company scale. We believe that better data leads to better decisions—and we're building the infrastructure to make that possible.

Apply only from getonbrd.com.

🔧 What You’ll Do

As a Senior Data Engineer, you'll design, develop, and maintain scalable data pipelines to support our real-time and batch analytics needs. You’ll take ownership of how data flows through our system, ensuring it’s clean, accessible, and reliable for use across engineering, product, and business teams.
You’ll:
  • Build and optimize data pipelines using Kafka, Airflow, and cloud-native tools.
  • Manage data lakes and warehouses using Apache Iceberg, Amazon S3, and ClickHouse or Snowflake.
  • Ensure data integrity and quality across all stages of our pipeline.
  • Collaborate closely with analysts and engineers to support key business metrics and machine learning workflows.
  • Contribute to internal tooling that improves data observability and developer experience.
Your success will be measured by the reliability, scalability, and performance of the data infrastructure you build—as well as your ability to empower others with trusted data.

✅ What We’re Looking For

We’re looking for someone who thrives in a fast-paced startup environment and is passionate about building systems that scale.
Required:
  • 5+ years of experience in Data Engineering
  • Strong experience with streaming technologies like Kafka
  • Proficiency in Python and SQL
  • Solid experience with workflow orchestration tools (e.g., Airflow)
  • Familiarity with OLAP databases such as Snowflake, Clickhouse, or Redshift
  • Experience managing data workflows in a cloud environment (preferably AWS)

Desirable skills

Nice to Have:
  • Experience with ClickHouse
  • Certifications in AWS, Snowflake, or similar platforms
  • Hands-on knowledge of DataOps or ML Ops at scale
  • Experience with LLMs &/or Agents building
  • Familiarity with data versioning and formats like Parquet, Iceberg, or Delta Lake

🌍 Why Playbypoint?

We're not just building tools—we're building a movement to connect people through the joy of sports. You’ll join a collaborative, ambitious team where your work directly impacts thousands of players and clubs across the world. Plus, we’re remote-first and flexible, so you can work from wherever you do your best thinking.
🎯 Ready to serve up your next challenge?
Apply now and help shape the future of racquet sports.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Company retreats Team-building activities outside the premises.
Computer provided Playbypoint provides a computer for your work.
Conference stipend Playbypoint covers tickets and/or some expenses for conferences related to the position.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2500 - 3000 Tiempo completo
Data Engineer – Process Analysis (Mid Level)
  • Niuro
Python Excel Data Science Data Visualization
Niuro is a company dedicated to connecting projects with elite technological teams, collaborating with leading companies based in the United States. Our mission is to simplify the global acquisition of technology talent through innovative solutions that optimize efficiency and quality. We provide autonomous, high-performance technical teams that specialize in partnering with top-tier U.S. companies. Our focus is on enabling continuous professional growth by offering training in both technical and soft skills, as well as leadership development opportunities. We manage all administrative operations, including hiring, payroll, and training, so our teams can focus exclusively on delivering exceptional technical results. Through a collaborative environment and an emphasis on talent development, we strive to help our professionals realize their full potential.

Job opportunity published on getonbrd.com.

Key Responsibilities

As a Data Engineer specializing in process analysis, your role will focus on supporting and improving operational processes within industrial environments, with a particular emphasis on the hydrometallurgical sector. Your core responsibilities will include the collection and documentation of critical process parameters, continuous monitoring and control of variability in those process metrics, and the execution of detailed statistical and trend analyses. You will also be responsible for process balancing and inventory management, including maintaining inventories of strategic inputs and spare parts essential to operations. Additionally, you will generate comprehensive operational reports that drive informed decision-making and propose initiatives aimed at continuous process improvement. Your role involves collaboration on software development efforts that facilitate data analysis and process efficiency. Importantly, you will provide innovative suggestions based on data insights to enhance operational performance and drive forward-looking improvements across the industrial processes.

Requirements

Education: Candidates must hold a degree as a civil or applied engineer specializing in chemical, metallurgical, or mining engineering, or alternatively, a bachelor's degree in mathematics or physics.
Experience: Applicants should have at least one year of hands-on experience applying data science principles to hydrometallurgical or industrial process environments, demonstrating a solid understanding of industrial operations and data-driven analysis.
Technical Skills: Advanced programming abilities in Python and Visual Basic are essential for this role, accompanied by strong proficiency in Microsoft Office, especially Excel. Experience working with the PI System, including Asset Framework (AF) and Data Archive components, at a user level is crucial. Candidates must have a robust knowledge of data science methods and mathematical modeling techniques applicable to process improvement and analysis.
Other Requirements: Due to the nature of the role and collaboration needs, residence in Chile is mandatory.

Desirable Skills and Experience

While not explicitly stated, candidates with additional experience in advanced statistical software, data visualization tools, or knowledge of other process automation technologies would find their skills highly complementary to this role. Familiarity with other industrial data management systems or frameworks, along with a background in continuous improvement methodologies such as Six Sigma or Lean Manufacturing, would also be beneficial. Strong analytical problem-solving skills, adaptability in dynamic environments, and excellent communication abilities to translate technical data for operational teams would enhance effectiveness.

What We Offer

We provide involvement in impactful, technically rigorous industrial data projects that foster both professional growth and sectoral innovation. Our work environment is highly process-focused and technically solid, encouraging collaboration and continuous innovation. Niuro offers the flexibility of 100% remote work within Chile, allowing team members to work from the location that suits them best.
We are committed to supporting career development through ongoing training and leadership opportunities. After successfully completing a trial period, candidates receive stable full-time employment, reinforcing our long-term investment in talent. Joining Niuro also means becoming part of a global community dedicated to excellence in technology, all supported by robust administrative infrastructure to enable focus on impactful work.

Partially remote You can work from your home some days a week.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Junior Data Analyst & Automation
  • Banco Santander Chile
  • Santiago (Hybrid)
Python Data Analysis SQL Power BI

Banco Santander Chile es una organización internacional líder en el sector financiero con presencia en más de 20 países, reconocida por su compromiso con el desarrollo profesional, el aprendizaje continuo y la movilidad interna. La Vicepresidencia de Tecnología y Operaciones del banco es un área estratégica que impulsa la innovación tecnológica, la optimización y mejora de procesos con el objetivo de contribuir al progreso de las personas y empresas. Este departamento está enfocado en liderar iniciativas tecnológicas de vanguardia que fortalecen la posición de Santander como líder en el sector financiero chileno y a nivel internacional, promoviendo un ambiente de trabajo colaborativo, desafío constante y crecimiento profesional.

Apply to this posting directly on Get on Board.

Misión del cargo

Buscamos jóvenes profesionales comprometidos y flexibles para integrarse al equipo de Tecnología y Operaciones, donde contribuirán a la optimización y mejora continua de procesos mediante el uso de tecnologías punteras.

El rol implica colaborar en proyectos estratégicos que impulsen la innovación tecnológica dentro del banco, trabajando estrechamente con diferentes áreas para apoyar la transformación digital y la eficiencia operativa.

Además, se espera que el candidato participe activamente en el aprendizaje permanente y el desarrollo de competencias técnicas y colaborativas, favoreciendo un ambiente dinámico y orientado al trabajo en equipo.

Qué te ayudará a tener éxito en el proceso

  • Para tener éxito en esta posición, buscamos egresados de carreras como Ingeniería Civil Industrial, Ingeniería Civil en Informática o afines, con no más de un año de experiencia profesional, ya que aspiramos a formar jóvenes talentos que aporten con nuevas ideas y ganas de aprender.
  • Debe contar con formación o experiencia en automatización de procesos, analítica avanzada y manejo de datos, con conocimientos intermedios en SQL, Power BI y/o Tableau. Se valoran conocimientos deseables en Python, Spark y Appian, orientados a potenciar habilidades técnicas y tecnológicas en análisis de datos.
  • El candidato debe tener un nivel intermedio de inglés (B1), mostrando capacidad para manejar información en este idioma y comunicarse de forma básica en el contexto laboral.
  • Buscamos personas con interés genuino en las herramientas tecnológicas de análisis de datos, motivadas a contribuir en un entorno desafiante y colaborativo, con habilidades blandas como adaptabilidad, actitud proactiva y capacidad de trabajo en equipo.
  • Se requiere disponibilidad para incorporarse en junio de 2025.

Conocimientos y habilidades deseables

  • Nos interesa especialmente candidatos que hayan desarrollado conocimientos en programación avanzada, analítica de datos con Python y Spark, así como familiaridad con plataformas de automatización como Appian.
  • Valoramos la capacidad para desenvolverse en entornos multidisciplinarios, con habilidades comunicativas y de gestión del tiempo, que contribuyan a un equipo colaborativo y efectivo.
  • Además, la experiencia en proyectos relacionados con la transformación digital y optimización de procesos se considera un plus importante, aunque no es requisito excluyente.

¿Qué te ofrecemos?

  • Formar parte de la principal empresa financiera de Chile y uno de los mejores lugares para trabajar en el país.
  • Aprendizaje mediante la experiencia práctica, con múltiples oportunidades de desarrollo, formación continua y movilidad interna para participar en proyectos estratégicos.
  • Acompañamiento formativo durante el proceso de adaptación y desarrollo del rol, asegurando una integración exitosa y crecimiento profesional.
  • Redes internas de colaboración que potencian el aprendizaje, la creación de vínculos profesionales y la expansión de la mirada laboral.
  • Beneficios orientados a mejorar la calidad de vida y el desarrollo profesional del colaborador.
  • Contrato indefinido que aporta estabilidad laboral y seguridad.

POSTULAR VÍA WEB Ver trabajo
Gross salary $3000 - 4000 Tiempo completo
Senior Data Engineer (Rag)
  • Niuro
Python MySQL PostgreSQL SQL
Niuro is a company dedicated to connecting projects with elite technology teams specializing in partnerships with leading U.S. companies. Our mission focuses on simplifying global talent acquisition through innovative and efficient solutions that emphasize maximizing quality and performance. We empower autonomous, high-performance tech teams by offering a collaborative environment enriched with continuous professional growth, training in both technical and soft skills, and leadership development. Through managing all administrative tasks, including hiring, payments, and training, Niuro allows teams to concentrate fully on delivering excellent and innovative outcomes aligned with cutting-edge technology and client needs.

Find this vacancy on Get on Board.

Responsibilities

  • Design, implement, and maintain scalable, reliable, and efficient data pipelines tailored to Retrieval-Augmented Generation (RAG) based applications, ensuring seamless automation of intelligent query processes.
  • Configure, manage, and optimize vector databases and advanced search engines to support high-performance embedding and retrieval functionalities.
  • Collaborate closely with Data Scientists and AI Engineers to deploy embedding models and generative AI solutions, fostering integration across teams.
  • Develop and fine-tune ETL/ELT processes to guarantee outstanding data quality, pipeline performance, and resilience within production environments.
  • Ensure system scalability, stability, and operational efficiency to support high-demand data workloads and AI-powered services.

Requirements & Professional Profile

We require candidates with a minimum of 4 to 5 years of experience as a Data Engineer, demonstrating a proven track record managing data-intensive projects and environments. Expertise in Retrieval-Augmented Generation (RAG) methodologies is essential as you will lead innovative data pipeline development.
Technical proficiency must include deep experience with at least one tool or technology from each of the following categories:
  • Vector Databases: Experience with Pinecone, Milvus, Qdrant, Weaviate, or equivalent solutions to manage embedding data effectively.
  • Databases: Proficiency in SQL databases such as PostgreSQL and MySQL, plus NoSQL databases including MongoDB and Cassandra.
  • Data Warehousing: Knowledge of warehouse platforms such as Redshift, BigQuery, or Snowflake to support analytical processing.
  • ETL/ELT Tools: Skilled in dbt, Apache NiFi, Talend, or Informatica for robust data transformation workflows.
  • Big Data Frameworks: Experience with Apache Spark and Kafka for handling large-scale data streams.
  • Search Engines: Familiarity with Elasticsearch, Solr, or OpenSearch to implement advanced search capabilities.
  • Cloud Platforms: Working knowledge of AWS, Google Cloud Platform, or Azure for scalable cloud infrastructure.
  • Containers: Proficient with Docker to containerize and deploy applications reliably.
  • Programming: Advanced skills in Python for scripting, automation, and integration.
Strong analytical aptitude and problem-solving capabilities are vital to address complex data challenges. We seek candidates who thrive in agile, cross-functional teams and possess excellent communication and collaboration skills to work effectively across different roles and disciplines.

Nice-to-have Skills

  • Experience with machine learning frameworks including TensorFlow, PyTorch, and Scikit-learn to support advanced model deployment.
  • Familiarity with natural language processing tools such as spaCy, NLTK, and Hugging Face Transformers to enhance text and language-related functionalities.
  • Knowledge of generative AI models like OpenAI, Azure GPT, and Amazon Bedrock is beneficial for working on cutting-edge AI augmentation projects.
  • Competence in container orchestration using Kubernetes to manage containerized applications at scale.

What We Offer

  • 🌍 100% Remote – Embrace full flexibility by working from anywhere around the world, enabling an optimal work-life balance.
  • 📈 Career Growth – Become part of a tech-forward, innovative, and collaborative team committed to your ongoing professional development and success.
  • 📝 Full-time employment contract with an initial 3-month trial period followed by an indefinite contract, ensuring job stability and continuous collaboration.

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Scientist & GCP Specialist
  • Forma - Moovmedia Group
Python SQL BigQuery Machine Learning

¡Hola! Somos Moov Media Group, una familia de empresas integrada por Moov, Metrix y Forma. Nuestro modelo es colaborativo, ¿qué significa esto? Que trabajamos de manera específica o integral según las necesidades de cada cliente.

Navegamos en el mundo digital usando la tecnología, la data analytics, los medios y la publicidad para encontrar soluciones de marketing multicanal que nos conviertan en los más secos de Latinoamérica.

Hoy queremos seguir creciendo y para eso buscamos un Data Scientist & GCP Specialist que nos acompañe a recorrer el mundo digital en una empresa con cultura flexible, ágil e innovadora. ¿Te interesa? Entonces déjanos contarte un poco más.

El proceso de selección consta de:

  • Llamado telefónico
  • Entrevista con Selección
  • Entrevista con jefatura directa.

¿Te interesa? ¡Dale! Escríbenos y conversemos.

Official job site: Get on Board.

Funciones del cargo

Diseñar, entrenar y desplegar modelos de Machine Learning avanzados usando Vertex AI.
Gestionar y optimizar infraestructura cloud en GCP (BigQuery, Cloud Storage, Dataflow, Compute Engine).
Automatizar pipelines avanzados de datos con Cloud Composer (Airflow), Cloud Functions y APIs externas.
Desarrollar dashboards interactivos avanzados principalmente con Looker Studio.
Implementar y gestionar prácticas de ML Ops avanzadas (monitoreo, versionado, CI/CD) en Vertex AI.
Colaborar y asesorar técnicamente a equipos de ingeniería, media y producto.

Requerimientos del cargo

Requisitos técnicos:

  • Lenguajes obligatorios: Python (Pandas, TensorFlow/Keras, Scikit-learn, Numpy), SQL.
  • Cloud: Google Cloud Platform (Vertex AI, BigQuery, Dataflow, Cloud Storage, Compute Engine).
  • Automatización: Cloud Composer (Airflow), Cloud Functions, Dataflow.
  • Visualización: Looker Studio (excluyente), Power BI o Tableau (deseable).
  • Modelos ML: Clasificación, regresión, clustering, detección de anomalías, series temporales.
  • Ingeniero en Estadística, Computación, Ciencia de Datos o carrera afín.
  • 3+ años de experiencia especializada en proyectos utilizando Google Cloud Platform y Vertex AI.

Opcionales

Deseable: experiencia previa en ecommerce, retail o marketing digital.

Conditions

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer
  • 2BRAINS
Python Git REST API Data Analysis

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

Opportunity published on Get on Board.

El/la Data Engineer de 2Brains

Se encarga de participar en el diseño y desarrollo de los nuevos modelos de información de gestión y las mantenciones evolutivas de los existentes. Participar en las iniciativas de Analítica avanzada del área, apoyando las exploración de modelos de información internos y externos (Data Discovery). Obtener datos históricos desde múltiples fuentes de información interna para apoyar las iniciativas de analítica avanzada del equipo.

El/la Data Engineer de 2Brains debe

  • Construir y optimizar pipelines de datos para la ingesta, transformación y carga eficiente de información.
  • Manejar infraestructuras en la nube (AWS, GCP, Azure), asegurando escalabilidad y eficiencia en costos.
  • Automatizar y monitorear procesos mediante herramientas de DevOps como Airflow, Terraform o Kubernetes.
  • Implementar controles de calidad y gobernanza para garantizar la integridad y disponibilidad de los datos.
  • Colaborar con equipos de Data Science, Producto y Desarrollo para diseñar soluciones alineadas con las necesidades del negocio.

Qué conocimientos buscamos en/la Data Engineer

  • Excluyente Experiencia trabajando con tecnologías de BI
  • Experiencia en la construcción/operación de sistemas distribuidos de extracción, ingestión y procesamiento de grandes conjuntos de datos de gran disponibilidad.
  • Capacidad demostrable en modelado de datos, desarrollo de ETL y almacenamiento de datos.
  • Experiencia en el uso de herramientas de informes de inteligencia empresarial (Power BI)
  • Excluyente conocimiento en consumo de microservicios de APIs Rest
  • Excluyente conocimiento en Git , Bitbucket, Docker,Jenkins,Webhooks
  • Programación con Python y bases sólidas de ingeniería de software.
  • Automatización y scripting.
  • Uso de librerías de Python para manipulación y análisis de datos y Apache Spark.
  • Conocimientos en bases de datos SQL y NoSQL.
  • Conocimiento en CI/CD, Dataflow
  • Conocimiento en S3, Redshift y Glue AWS

Que competencias buscamos en/la Data Engineer

  • Empatía
  • Buena capacidad de comunicación.
  • Colaboración y trabajo en equipo.
  • Proactividad.
  • Autonomía.
  • Foco en los objetivos de proyectos.

Condiciones

Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos

Acceso a grandes clientes y proyectos desafiantes

Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales

Un entorno de trabajo flexible y dinámico

Beneficios especiales: día libre para tu cumpleaños, días de descanso a convenir.

Informal dress code No dress code is enforced.
Vacation over legal 2BRAINS gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer
  • Niuro
Python MySQL Git Docker
At Niuro, we connect elite tech teams with top-tier U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality. We empower projects by providing autonomous, high-performance tech teams, and we offer continuous professional growth opportunities to ensure everyone involved is set for success in innovative and challenging projects.

This job is original from Get on Board.

Key Responsibilities

  • Ingest, process, and integrate data from multiple systems and platforms using Big Data tools.
  • Design and implement data pipelines to transfer data from source to destination systems, ensuring alignment with integration standards and existing frameworks.
  • Guarantee high data quality, availability, and compliance across applications and digital products.
  • Collaborate with product teams to identify required datasets and evaluate existing sources (e.g., update frequency, data reliability, known issues).
  • Contribute to the delivery of scalable, strategic data engineering solutions aligned with our data roadmap.

Requirements

🔹 Experience: 3+ years in data engineering or a similar role.
🔹 Tech Stack:
  • Cloud & Big Data: Proficient with AWS services including Lambda, S3, Glue.
  • Data Orchestration: Experience designing and managing workflows using Airflow.
  • Data Modeling & Transformation: Hands-on experience with dbt.
  • Data Warehousing: Solid knowledge of Snowflake.
  • Databases: Experience with MySQL or SQL Server.
  • Programming: Strong Python skills, including scripting, automation, and unit testing.
🔹 Other Skills:
  • Good understanding of data quality and governance practices.
  • Familiarity with various data sources and types in data mining and analytics.
  • Intermediate to advanced English for international team collaboration.

Nice to Have

🔸 Experience deploying dbt in production environments.
🔸 Knowledge of Data Lake and Lakehouse architectures.
🔸 Familiarity with CI/CD tools and Git-based version control (GitHub, GitLab, or Azure DevOps).
🔸 Experience with Docker for containerized data workflows.

What We Offer

  • 🌍 100% Remote – Work from anywhere in the world.
  • 🚀 Growth Opportunities – Be part of shaping a robust and modern data ecosystem.

Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2400 - 2600 Tiempo completo
Data Engineer AWS
  • BC Tecnología
  • Santiago (Hybrid)
Python Data Analysis SQL Web server
En BC Tecnología, nos especializamos en la consultoría de TI, ofreciendo un amplio rango de servicios para adaptarnos a las necesidades específicas de nuestros clientes, principalmente en finanzas, seguros, retail y gobierno. Nuestro equipo trabaja mediante metodologías ágiles, lo que nos permite diseñar e implementar soluciones tecnológicas efectivas y dirigidas al cliente. Actualmente, estamos buscando un Data Engineer con experiencia en AWS para sumarse a nuestro equipo y contribuir a proyectos innovadores en la gestión y explotación de datos.

Find this vacancy on Get on Board.

Responsabilidades del Cargo

  • Desarrollar y gestionar procesos de ETL, asegurando la calidad y fiabilidad de los datos.
  • Optimizar la explotación de datos a través de técnicas de Tuning.
  • Implementar soluciones utilizando herramientas de AWS, incluyendo Glue, Lambda, S3, Redshift y DynamoDB.
  • Colaborar con los equipos de desarrollo de software para asegurar la integración de datos eficiente.
  • Realizar análisis y visualización de datos para apoyar en la toma de decisiones.
  • Mantener un enfoque en la innovación y la mejora continua de los procesos y herramientas utilizadas.

Descripción del Cargo

Buscamos un Data Engineer AWS con un mínimo de 3 años de experiencia en el manejo de datos. El candidato ideal tendrá conocimientos sólidos en:
  • Explotación de datos y Tuning.
  • Diseño e implementación de procesos ETL.
  • Desarrollo de consultas efectivas en SQL.
  • Programación en Python.
  • Uso de herramientas de orquestación como Apache Airflow (deseable).
Valoramos habilidades como el trabajo en equipo, la proactividad y la capacidad para adaptarse a nuevas tecnologías. La combinación de habilidades técnicas y soft skills es esencial para unirse a nuestro equipo dinámico.

Habilidades Deseables

Además de los requisitos mencionados, sería beneficioso contar con experiencia en:
  • Integraciones y gestión de datos en múltiples fuentes.
  • Implementación de soluciones en la nube de AWS.
  • Conocimientos en herramientas de visualización de datos.
Estas habilidades ayudarán al candidato a integrarse de manera efectiva en nuestros equipos de trabajo y contribuir a proyectos futuros.

Beneficios de Trabajar con Nosotros

En BC Tecnología, valoramos a nuestro equipo y ofrecemos un entorno flexible y beneficios atractivos:
  • Contrato indefinido.
  • Modalidad híbrida, combinando trabajo remoto y en oficina.
  • Paquete de beneficios corporativos que incluye salud prepaga de primer nivel para el empleado y su familia.
  • Un día de home office a la semana, junto con desayunos y un comedor en la planta.
  • Acceso a un Sport Club y asistencia de un nutricionista.
¡Únete a nosotros y marca una diferencia en el mundo de la tecnología! 🎉

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2200 - 2600 Tiempo completo
Data Analytics Residente Uruguay
  • BC Tecnología
Python Analytics Data Analysis SQL
En BC Tecnología, somos una consultora de TI especializada en diversas áreas tecnológicas, con más de seis años de experiencia diseñando soluciones adecuadas a las necesidades de nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestro enfoque incluye consultoría y diseño de soluciones, formación de equipos, desarrollo de proyectos y servicios de soporte y administración IT.

Apply to this job through Get on Board.

Responsabilidades principales:

  • Extraer y procesar datos desde diversas fuentes mediante SQL y Python (PySpark).
  • Diseñar y optimizar modelos de datos en Power BI para reportes avanzados.
  • Implementar y mejorar flujos ETL para la integración de datos.
  • Colaborar con áreas de negocio para entender necesidades analíticas y generar soluciones BI.
  • Asegurar la calidad y disponibilidad de los datos en los reportes.

Requisitos:

  • SQL Avanzado: Creación, optimización y modelado de datos.
  • Python (PySpark): Procesamiento y transformación de datos en entornos Big Data.
  • Power BI: Nivel medio-alto en creación de reportes y dashboards interactivos.
  • Databricks: Deseable, con experiencia en plataformas de datos en la nube.
  • Experiencia mínima de 3 años en roles de BI, Data Analytics o similares.
  • Habilidades de comunicación y trabajo en equipo para traducir necesidades de negocio en soluciones BI.

Deseable:

  • Experiencia con Databricks sería un plus, mostrando la capacidad de trabajar con plataformas de datos en la nube.

Condiciones

  • Trabajo 100% remoto.
  • El cargo puede ser desempeñado desde cualquier lugar del mundo.
En BC Tecnología, fomentamos un entorno laboral flexible que impulsa el crecimiento profesional. Si te consideras una mente analítica que quiere marcar la diferencia, ¡te invitamos a ser parte de nuestro equipo y a impulsar la transformación organizacional! 🚀✨

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Booster
  • 2BRAINS
Python Data Analysis SQL Web server

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

Apply directly at getonbrd.com.

El/la Data Booster de 2Brains

Se encarga de participar en el diseño y desarrollo de los nuevos modelos de información de gestión y las mantenciones evolutivas de los existentes. Participar en las iniciativas de Analítica avanzada del área, apoyando las exploración de modelos de información internos y externos (Data Discovery). Obtener datos históricos desde múltiples fuentes de información interna para apoyar las iniciativas de analítica avanzada del equipo.

Qué harás como Data Booster de 2Brains

  • Identificar oportunidades y definir hipótesis basadas en datos para mejorar procesos y generar impacto en el negocio.
  • Diseñar y ejecutar experimentos que permitan validar soluciones con métricas claras y medibles.
  • Construir modelos analíticos y aplicar IA para transformar datos en insights accionables.
  • Facilitar la co-creación de productos de datos, asegurando que sean escalables y sostenibles.
  • Optimizar el desarrollo y adopción de soluciones según la madurez del squad y las necesidades del negocio.
  • Colaborar con equipos de tecnología, negocio y data science para alinear soluciones con los objetivos estratégicos.
  • Garantizar la calidad y gobernanza de los datos, promoviendo mejores prácticas en el manejo y uso de información.

Qué conocimientos buscamos en/la Data Booster

  • Métodos de análisis estadístico (regresión, pruebas de hipótesis, análisis multivariante).
  • Técnicas de modelado predictivo y prescriptivo.
  • Análisis de series temporales.
  • Algoritmos de machine learning supervisados y no supervisados.
  • Modelos de clasificación, regresión, clustering, y reducción de dimensionalidad.
  • Técnicas de deep learning y redes neuronales.
  • Limpieza, transformación y preprocesamiento de datos (ETL).
  • Manejo de grandes volúmenes de datos y optimización del procesamiento (Big Data).
  • Uso de herramientas de análisis de datos como Pandas, NumPy, Spark.
  • Diseño de experimentos (A/B testing, pruebas de causalidad).
  • Métodos de validación de modelos (cross-validation, métricas de evaluación).
  • Técnicas de evaluación de impacto y pruebas de hipótesis.
  • Creación de dashboards y reportes con herramientas como Tableau, Power BI, Looker.
  • Visualización avanzada con bibliotecas de Python como Matplotlib, Seaborn, Plotly.
  • Python/R para análisis de datos y desarrollo de modelos.
  • SQL para consultas y manipulación de bases de datos.
  • Experiencia con plataformas de nube como AWS, GCP, Azure para almacenamiento y procesamiento de datos.
  • Uso de servicios de data engineering en la nube (como Google BigQuery, Amazon Redshift, Azure Synapse).
  • Prácticas de DevOps aplicadas a proyectos de datos (automatización, integración continua).
  • MLOps para la automatización de la implementación y monitoreo de modelos.
  • Estándares y buenas prácticas en el manejo de datos (calidad, privacidad, seguridad).
  • Herramientas para la gobernanza de datos como Apache Atlas, Collibra.

Que competencias buscamos en/la Data Booster

  • Empatía
  • Buena capacidad de comunicación.
  • Colaboración y trabajo en equipo.
  • Proactividad.
  • Autonomía.
  • Foco en los objetivos de proyectos.

Te ofrecemos

  • Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos
  • Acceso a grandes clientes y proyectos desafiantes
  • Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales
  • Un entorno de trabajo flexible y dinámico
  • Beneficios especiales: día libre para tu cumpleaños, 4 semanas de vacaciones

Wellness program 2BRAINS offers or subsidies mental and/or physical health activities.
Internal talks 2BRAINS offers space for internal talks or presentations during working hours.
Education stipend 2BRAINS covers some educational expenses related to the position.
Informal dress code No dress code is enforced.
Shopping discounts 2BRAINS provides some discounts or deals in certain stores.
Vacation over legal 2BRAINS gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Scientist
  • 2BRAINS
Python SQL NoSQL Big Data

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

© Get on Board. All rights reserved.

El Data Scientist de 2Brains

Es responsable de analizar y extraer conocimiento a partir de datos mediante técnicas de Machine Learning, estadística y análisis avanzado, con el fin de optimizar la toma de decisiones y generar impacto en el negocio. Trabaja en conjunto con el equipo digital para desarrollar productos de datos, asegurando su calidad, documentación y correcta implementación. Además, mide el impacto de sus soluciones mediante estándares de experimentación, contribuyendo a la mejora continua y eficiencia operativa.

El Data Scientist de 2Brains deberá

  • Analizar grandes volúmenes de datos para identificar patrones, tendencias y oportunidades de mejora.
  • Diseñar, desarrollar e implementar modelos de Machine Learning y técnicas estadísticas para resolver problemas de negocio.
  • Desarrollar productos de datos en colaboración con el equipo digital, asegurando calidad, mantenimiento y escalabilidad.
  • Aplicar métodos de experimentación y validación (A/B testing, causal inference, etc.) para medir el impacto de las soluciones implementadas.
  • Garantizar la correcta documentación de los modelos, algoritmos y procesos desarrollados.
  • Optimizar y mejorar continuamente los modelos en producción en función de su desempeño y nuevos datos.
  • Colaborar con equipos de negocio y tecnología para alinear soluciones de datos con objetivos estratégicos.
  • Explorar nuevas herramientas y tecnologías para potenciar el uso de datos dentro de la organización.

¿Qué conocimientos buscamos en el/la Data Scientist?

  • Python/R, SQL y Spark. Para programar modelos de machine learning, realizar análisis estadístico y manipular datos, además de procesar grandes volúmenes de datos en paralelo y a gran escala.
  • Machine Learning, métricas de evaluación de modelos.
  • Pruebas A/B.
  • Deployment de modelos
  • Análisis estadístico
  • Desarrollo de productos de datos.
  • Deseables:
  • NoSQL, Bayesian Statistics, MLOps avanzado.
  • Herramientas de visualización como Streamlit.

¿Qué competencias buscamos en el/la Data Scientist?

  • Curiosidad
  • Foco en los objetivos
  • Colaboración y trabajo en equipo (ínter y multidisciplinario)
  • Proactividad
  • Autonomía

Te ofrecemos

  • Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos.
  • Un proyecto con foco en los usuarios, visión de UX e integrada al desarrollo.
  • Acceso a grandes clientes y proyectos desafiantes.
  • Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales.
  • Un entorno de trabajo flexible y dinámico.
  • Beneficios especiales: un día libre de regalo por tu cumpleaños, días de descanso (previa coordinación), convenios para cursos de especialización.

Wellness program 2BRAINS offers or subsidies mental and/or physical health activities.
Internal talks 2BRAINS offers space for internal talks or presentations during working hours.
Informal dress code No dress code is enforced.
Shopping discounts 2BRAINS provides some discounts or deals in certain stores.
Vacation over legal 2BRAINS gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer Azure
  • Factor IT
  • Santiago (Hybrid)
Python Agile SQL NoSQL
En FactorIT, buscamos un Ingeniero de Datos con experiencia en banca y entidades financieras para liderar y ejecutar proyectos de Data & Analytics. Te unirás a un equipo innovador en el que tu trabajo impactará directamente en la transformación digital de importantes instituciones en el sector financiero.
Este rol es clave para potenciar el uso de datos dentro de la banca, asegurando que la infraestructura y los procesos estén alineados con los objetivos estratégicos del negocio. Tendrás la oportunidad de trabajar con tecnologías de vanguardia, incluyendo Azure Databricks y otros servicios en la nube, asegurando soluciones escalables y seguras que optimicen la toma de decisiones.

This job is published by getonbrd.com.

Responsabilidades:

  • Diseñar y desarrollar soluciones de ingestión, transformación y modelado de datos en Azure Databricks y otras tecnologías relacionadas.
  • Optimizar procesos de ETL/ELT, asegurando calidad, integridad y eficiencia en el procesamiento de datos.
  • Colaborar con equipos de negocio para entender sus necesidades, identificar oportunidades y proponer soluciones basadas en datos.
  • Implementar arquitecturas de datos escalables que soporten analítica avanzada, machine learning e inteligencia de negocio.
  • Garantizar la seguridad y el cumplimiento normativo en el manejo de datos, siguiendo estándares bancarios y regulatorios.
  • Desarrollar y optimizar pipelines de datos para la explotación en entornos analíticos y de reportes.
  • Documentar procesos, arquitecturas y modelos de datos, asegurando buenas prácticas de gobernanza.
  • Trabajar en conjunto con equipos de Data Science, BI y Tecnología para garantizar la disponibilidad y calidad de los datos.

Requisitos Técnicos y Habilidades:

Buscamos un profesional con un mínimo de 3 años de experiencia en ingeniería de datos, idealmente en el sector financiero. Debe poseer un conocimiento avanzado en:
  • Azure Databricks, Spark y servicios de datos en la nube como Azure Data Factory, Azure Synapse y Data Lake.
  • Modelado de datos, optimización de consultas y bases de datos en SQL y NoSQL.
  • Programación en Python y/o Scala para el desarrollo de pipelines y procesamiento de datos.
  • Arquitecturas de datos escalables y distribuidas.
  • Principios de seguridad y cumplimiento normativo en banca (ej. GDPR, PCI-DSS, BCBS 239).
  • Herramientas de orquestación y automatización de flujos de datos.
Además, necesitaremos que cuentes con habilidades blandas como excelente comunicación, pensamiento analítico, proactividad y capacidad de trabajo en equipo en entornos ágiles y dinámicos.

Habilidades Deseables:

Sería un plus contar con experiencia previa en proyectos de transformación digital en el sector bancario, así como familiaridad con herramientas de visualización de datos y reportes. La capacidad para adaptarse rápidamente a nuevas tecnologías y seguir aprendiendo continuamente es muy valorada dentro de nuestra cultura.

Beneficios:

En FactorIT, brindamos un entorno de trabajo dinámico y colaborativo donde puedes trabajar con tecnologías de punta. Ofrecemos un plan de crecimiento profesional, capacitaciones en IA y automatización, y un salario competitivo acorde a tu experiencia.
Promovemos el equilibrio entre la vida personal y laboral mediante trabajo 100% remoto 🌍 y flexibilidad laboral. Únete a nosotros y sé parte de un equipo que está transformando el futuro de la tecnología en la región.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Computer provided Factor IT provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2500 Tiempo completo
Analista de BI Latam
  • BC Tecnología
Python Analytics Data Analysis SQL

En BC Tecnología, somos una consultora de TI especializada en diversas áreas tecnológicas, ofreciendo un entorno de trabajo colaborativo donde se valora el compromiso y el desarrollo profesional. Trabajamos con clientes en los sectores de servicios financieros, seguros, retail y gobierno, diseñando soluciones adecuadas a sus necesidades desde hace más de seis años. Nuestro enfoque incluye consultoría y diseño de soluciones, formación de equipos, desarrollo de proyectos, y servicios de soporte y administración IT.

Find this job and more on Get on Board.

Responsabilidades principales:

  • Extraer y procesar datos desde diversas fuentes mediante SQL y Python (PySpark).
  • Diseñar y optimizar modelos de datos en Power BI para reportes avanzados.
  • Implementar y mejorar flujos ETL para la integración de datos.
  • Colaborar con áreas de negocio para entender necesidades analíticas y generar soluciones BI.
  • Asegurar la calidad y disponibilidad de los datos en los reportes.

Requisitos:

  • SQL Avanzado – Creación, optimización y modelado de datos.
  • Python (PySpark) – Procesamiento y transformación de datos en entornos Big Data.
  • Power BI (Nivel medio-alto) – Creación de reportes y dashboards interactivos.
  • Databricks (Deseable) – Experiencia en plataformas de datos en la nube.
  • Experiencia mínima de 3 años en roles de BI, Data Analytics o similares.
  • Habilidades de comunicación y trabajo en equipo para traducir necesidades de negocio en soluciones BI.

Deseable:

Experiencia con Databricks sería un plus, mostrando la capacidad de trabajar con plataformas de datos en la nube.

Conditions

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Power BI Analyst Sr
  • Improving South America
Data Analysis SQL Big Data BigQuery
Leniolabs_ es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA.
Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.
Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.

Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Opportunity published on Get on Board.

Funciones del cargo

En Leniolabs estamos en la búsqueda de un SR Power BI Analyst.

El candidato ideal debe contar con un mínimo de 6 años de experiencia, el equipo está buscando recursos para ayudar a satisfacer las necesidades de sus clientes internos de EE. UU. Los miembros de nuestro equipo recibirán tickets de solución de ServiceNow y ejecutarán informes/consultas centrados en los datos de uso del cliente, la validación de datos, etc.

El objetivo es crear un equipo de mejora. Este grupo quiere familiarizarse y sentirse cómodo con la mejora.

El rol implica colaborar estrechamente con arquitectos, ingenieros y propietarios de producto para diseñar soluciones técnicas que soporten altos niveles de disponibilidad y consistencia.

Buscamos perfiles con un compromiso claro con la excelencia técnica, la innovación y un interés genuino en las últimas tecnologías, capaces de trabajar en un entorno ágil y de alto rendimiento.

Requerimientos del cargo

  • Contar con mínimo 6 años de experiencia trabajando con Power BI y SQL.
  • Manejo de Google Cloud Platform (GCP) y BigQuery.
  • Experiencia en ETL (idealmente con Talend) y capacidad para trabajar con grandes volúmenes de datos (terabytes).
  • Sólidas habilidades de redacción y comunicación, además de iniciativa.
  • Nivel de inglés intermedio-avanzado (B2/C1).

Beneficios

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Internal talks Improving South America offers space for internal talks or presentations during working hours.
Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Improving South America gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2300 Tiempo completo
Data Engineer – Proyecto de 6 Meses
  • BC Tecnología
  • Santiago (Hybrid)
Python Git SQL Scala
En BC Tecnología, somos una consultora de TI comprometida con ofrecer soluciones innovadoras y adaptadas a las necesidades de nuestros clientes. Con más de 6 años de experiencia en el sector, trabajamos con empresas en diferentes industrias, incluyendo servicios financieros, seguros, retail y gobierno. En este proyecto de Data Engineering, tendrás la oportunidad de contribuir al diseño y construcción de pipelines de datos para nuestros clientes, utilizando metodologías ágiles y colaborando con equipos altamente especializados.

This job is available on Get on Board.

Responsabilidades del Rol

  • Diseñar y construir pipelines de datos efectivos para cumplimentar las necesidades analíticas de nuestros clientes.
  • Programar usando lenguajes como Python, Scala o SQL para manipulación y transformación de datos.
  • Implementar y gestionar herramientas de orquestación de pipelines, como Airflow, Mage, NiFi o similares.
  • Colaborar en prácticas de CI/CD, incluidos conocimientos básicos en Git y versionado de código.
  • Integrar arquitecturas de datos, con un enfoque en Datalakes, Datawarehouses o Lakehouse.
  • Participar en modelado de datos utilizando técnicas dimensional, estrella y copo de nieve, si es requerido.

Requisitos y Habilidades

Buscamos candidatos que cuenten con al menos 2 años de experiencia en el área de Data Engineering. Deberán tener competencias en diseño y construcción de pipelines de datos, así como experiencia con lenguajes de programación pertinentes como Python, Scala o SQL.
Es esencial dominar herramientas de orquestación de datos, y tener un conocimiento básico sobre integraciones de CI/CD y flujos de trabajo de versionamiento de código. Adicionalmente, es deseable contar con experiencia en arquitecturas de datos y modelado, incluidos Datalakes y técnicas de modelado específicas.
La modalidad de trabajo es híbrida, lo que permitirá equilibrar la colaboración en persona con flexibilidad laboral.

Habilidades Deseables

Si bien no es un requisito, consideraremos positivamente la experiencia previa con Datalakes y Datawarehouses, así como familiaridad con técnicas de modelado como dimensional, estrella o copo de nieve. Esto contribuirá a un mejor entendimiento del contexto de las soluciones que desarrollaremos.

Beneficios y Condiciones

Ofrecemos un contrato por proyecto de 6 meses, con posibilidad de extensión. Los empleados disfrutarán de un sueldo a convenir, además de beneficios adicionales como:
  • Seguro complementario.
  • Amipass de $4,500 por día laborado.
  • Convenciones, actividades y bonos.
Estamos ubicados en Alto Las Condes, permitiendo un ambiente de trabajo funcional y moderno. ¡Nos encantaría contar contigo en nuestro equipo! 🌟

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2300 Tiempo completo
Data Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Python Git SQL Scala
En BC Tecnología, somos una consultora de TI que cuenta con un equipo experto en diversas áreas tecnológicas. Nuestra misión es brindar soluciones personalizadas que se adapten a las necesidades de nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Actualmente, buscamos incorporar un Data Engineer para diseñar, construir y mantener pipelines de datos, utilizando tecnologías modernas.
Contamos con un enfoque ágil y orientado al cliente, lo que nos permite ofrecer servicios de consultoría, desarrollo de proyectos y administración IT de alta calidad.

Opportunity published on Get on Board.

✅ Funciones

  • Diseñar y construir pipelines de datos eficientes para mover y transformar datos.
  • Garantizar que los procesos de datos sean consistentes y confiables en el tiempo.
  • Implementar flujos de trabajo de CI/CD para la integración con ambientes de desarrollo y productivos.
  • Colaborar con el equipo para mejorar la calidad y eficiencia de los procesos de datos.
  • Apoyarse en líderes técnicos para lineamientos y mejores prácticas en el desarrollo.

✅ Requerimiento:

Se requiere entre 1 a 2 años de experiencia en diseño y construcción de pipelines de datos. Consideraciones específicas incluyen:
  • Lenguajes de programación: Python, Scala o SQL.
  • Herramientas de orquestación de pipelines: Airflow, Mage, NiFi o similares.
  • CI/CD: Conocimientos básicos en Git y flujos de trabajo de versionamiento de código.

Deseables:

  • Arquitectura de datos: Familiaridad con Datalakes, Datawarehouses o Lakehouse.
  • Modelado de datos: Conocimiento en técnicas como dimensional, estrella, copo de nieve.

✅ Condiciones:

El contrato es por proyecto, estimado en 3 meses, con metodología de trabajo híbrido en Alto las Condes (2 a 3 veces por semana). Los postulantes deben tener disponibilidad de lunes a viernes. Sueldo a convenir y disfrutará de beneficios como seguro complementario, Amipass de $4,500 por día laborado, convenios, actividades y bonos. 🌟

POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 1700 Tiempo completo
Analista de Datos
  • BC Tecnología
  • Buenos Aires (Hybrid)
Python Data Analysis SQL Business Intelligence
En BC Tecnología, somos una consultora especializada en servicios IT, trabajando con clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestro equipo de BI & Analytics juega un papel crucial en la optimización de procesos y toma de decisiones informadas mediante la administración y análisis de datos. Buscamos un Analista de Datos que se una a nuestro equipo, aportando experiencia y conocimiento en herramientas clave.

Apply to this posting directly on Get on Board.

Responsabilidades

Como Analista de Datos, serás el representante del equipo de BI & Analytics en Argentina. Tus responsabilidades incluirán:
  • Desarrollar y optimizar consultas SQL para la extracción y transformación de datos.
  • Implementar y gestionar pipelines de datos en Databricks.
  • Aplicar Python para el procesamiento y análisis avanzado de datos.
  • Servir como enlace entre el equipo de BI & Analytics y las áreas de negocio en el país, asegurando que las iniciativas de BI estén alineadas con las necesidades estratégicas de la empresa.
  • Asegurar la calidad y disponibilidad de los datos para la toma de decisiones.
  • Colaborar con equipos multidisciplinarios para definir y mejorar modelos analíticos.

Requisitos

  • Experiencia sólida en desarrollo BI con SQL avanzado.
  • Conocimiento y experiencia en Databricks (deseable).
  • Habilidad en Python para manipulación y análisis de datos.
  • Experiencia en entornos de análisis y procesamiento de datos en la nube (Azure, AWS, GCP es un plus).

Habilidades Deseables

Buscamos a alguien que no solo cumpla con los requisitos técnicos, sino que también posea habilidades interpersonales para colaborar efectivamente con equipos diversos y facilitar la comunicación entre departamentos. La adaptabilidad y una mentalidad centrada en soluciones son altamente valoradas en nuestra cultura de trabajo.

Beneficios

En BC Tecnología, te ofrecemos un entorno laboral dinámico y colaborativo, con un modelo de trabajo híbrido que idealiza la integración entre lo presencial y lo remoto. Además, tendrás acceso a oportunidades de capacitación continua, un ambiente que fomenta la innovación y centenares de oportunidades para crecer profesionalmente al lado de expertos. Valoramos a nuestros colaboradores y buscamos su desarrollo constante.

Health coverage BC Tecnología pays or copays health insurance for employees.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Microsoft Power BI Developer
  • Improving South America
SQL SAP Big Data Azure

Leniolabs_ es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA.

Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.

Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.

Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Job opportunity on getonbrd.com.

Funciones del cargo

En Leniolabs estamos en la búsqueda de un SSR/SR Microsoft Power BI Developer.

El candidato ideal debe contar con un mínimo de 5 años de experiencia. Además de conocimientos y experiencia en informes analíticos, es fundamental que tenga experiencia en SQL, ya que en el proyecto deberá trabajar en reportes, realizar extracción y manejo de datos en SQL.

El rol implica colaborar estrechamente con arquitectos, ingenieros y propietarios de producto para diseñar soluciones técnicas que soporten altos niveles de disponibilidad y consistencia.

Buscamos perfiles con un compromiso claro con la excelencia técnica, la innovación y un interés genuino en las últimas tecnologías, capaces de trabajar en un entorno ágil y de alto rendimiento.

Requerimientos del cargo

  • Contar con aproximadamente 5 años de experiencia como Data Engineer.
  • Manejo de Power BI y SQL (Excluyente).
  • Experiencia con Synapse y Azure Data Factory.
  • Es deseable la experiencia con Data Lake y SAP SCM
  • Habilidad para crear documentación técnica.
  • Inglés avanzado.

Beneficios

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo,

Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Improving South America gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2500 - 2800 Tiempo completo
Data Scientist
  • Niuro
Python SQL Azure Artificial Intelligence
At Niuro, we are dedicated to connecting cutting-edge projects with elite tech teams, collaborating closely with leading U.S. companies. Our mission revolves around simplifying global talent acquisition through innovative solutions that enhance efficiency and quality. As part of our team, you will engage in dynamic and challenging projects that are pivotal to our clients' success.
By providing autonomous, high-performance tech teams, we empower our professionals through continuous training in both technical and soft skills, along with leadership development. Our structure supports collaborative growth and excellence.

This company only accepts applications on Get on Board.

Responsibilities:

  • Design, develop, and evaluate machine learning and statistical models aimed at enhancing various business processes.
  • Analyze large datasets to derive insights and formulate data-driven strategies.
  • Deploy models into production utilizing tools such as TensorFlow, PyTorch, or Scikit-learn.
  • Create dashboards and reports via visualization tools like Tableau, Power BI, or Looker.
  • Collaborate with engineering teams to optimize data pipelines and model infrastructures.
  • Deliver findings and recommendations to non-technical stakeholders in a clear and concise manner.

Requirements:

  • 3-5 years of experience in data science, machine learning, and statistical analysis.
  • Proficiency in Python with solid knowledge of data science libraries including Pandas, Polars, Scikit-learn, TensorFlow, and PyTorch.
  • Experience with SQL and both relational and non-relational databases.
  • Knowledge of feature engineering, model selection, and cross-validation techniques.
  • Experience with Generative AI frameworks and libraries, such as Hugging Face Transformers and LangChain, alongside API usage and prompt engineering skills.
  • Able to visualize data with tools like Matplotlib, Seaborn, and Plotly.
  • Strong communication skills with a knack for data storytelling.
  • Intermediate to advanced English proficiency (written and spoken).

Nice-to-Haves:

  • Experience with cloud computing platforms such as AWS, GCP, or Azure.
  • Familiarity with real-time data processing using tools like Apache Kafka or Spark Streaming.
  • Working knowledge of deep learning frameworks.
  • Understanding of MLOps techniques for deploying models effectively.
  • Curiosity and enthusiasm for exploring the latest trends in Generative AI within the field of data analysis.

Salary & Benefits:

We offer a competitive salary ranging from $2,500 to $2,800 USD per month, depending on your experience. Our organization embraces a fully remote work environment, paired with flexible working hours to enhance your work-life balance.
At Niuro, you will find ample opportunities for professional development, along with access to training in advanced data analysis tools. Join us, and be part of a team that values continuous learning and growth!

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3000 - 3900 Tiempo completo
Senior Data Engineer
  • Apply Digital Latam
Python Agile SQL Virtualization
ABOUT APPLY DIGITAL
Apply Digital is a global digital transformation partner for change agents. Leveraging expertise that spans Business Transformation Strategy, Product Design & Development, Commerce, Platform Engineering, Data Intelligence, Change Management, and beyond, we enable our clients to modernize their organizations and deliver meaningful impact to the business and to their customers. Our 650+ team members have helped transform global companies like Kraft Heinz, NFL, Moderna, Lululemon, Games Workshop, Atlassian, and The Very Group. Visit applydigital.com to learn how we can unlock your company’s potential.
If you'd like to learn more about Apply Digital's culture click HERE.
LOCATION: Apply Digital is hybrid/remote-friendly. The preferred candidate should be based in Latin America, preferably working in hours that align to ET (Eastern Timezone) or PT (Pacific Timezone).

Apply from getonbrd.com.

Responsibilities:

  • Design, build, and optimize ETL/ELT pipelines using Python and SQL
  • Develop and maintain data warehouse schemas and analytics solutions
  • Implement data models and ensure data quality, consistency, and integrity
  • Leverage cloud data platforms (e.g., AWS Athena, Databricks, Snowflake, Azure Synapse/Fabric, Google BigQuery) for storage, processing, and querying
  • Create and maintain optimal data pipeline architecture.
  • Collaborate with analysts and stakeholders to define requirements and deliver data solutions that meet business needs
  • Communicate with stakeholders to understand data requirements and develop solutions.
  • Design, develop, implement, and maintain data architectures and pipelines.
  • Optimize query performance and ensure efficient data workflowsDocument data pipelines, architectures, and processes
  • Continuously improve and refine existing data infrastructure and solution
  • Develop and implement best practices for data management, security, and privacy.

Requirements:

  • A Bachelor's degree in Computer Science, Information Systems, or a related field.
  • At least 5 years of experience in data engineering or related fields.
  • Strong expertise in SQL, ETL, and data warehousing technologies.
  • Strong working knowledge of Python and PySpark
  • Proven experience with at least one major cloud data platform (AWS Athena, Databricks, Snowflake, Azure Synapse/Fabric, or Google BigQuery)
  • Knowledge of data migration tools and techniques.
  • Good knowledge of databases.
  • Strong background in data warehouse design, ETL/ELT processes, and data modeling, ideally with modern data warehouse and DBT
  • Familiarity with cloud engineering concepts and best practices
  • Experience working with large datasets and optimizing performance
  • Excellent problem-solving skills and attention to detail
  • Outstanding communication skills in English, both written and verbal.

Nice-to-haves:

  • Knowledge of multiple cloud platforms (AWS, Azure, GCP) and their data services
  • Familiarity with data governance and compliance requirements
  • Knowledge of CI/CD practices for data engineering
  • Familiarity with Agile development methodologies
  • Experience with containerization (Docker, Kubernetes)

Conditions

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Apply Digital Latam provides a computer for your work.
Vacation over legal Apply Digital Latam gives you paid vacations over the legal minimum.
Beverages and snacks Apply Digital Latam offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero/a de Estudios Actuariales Senior
  • BNP Paribas Cardif
  • Santiago (Hybrid)
C Python Data Analysis Excel
¿Quieres ser parte de los líderes en la revolución de los seguros?
BNP Paribas Cardif está presente en más de 30 países en América, Europa y Asia, contamos con 25 años de trayectoria en Chile y nuestra misión es hacer los seguros más accesibles, justos y valiosos.
✅ Por nuestro ambiente laboral único, somos una organización centrada en el bienestar de las personas y nuestro espíritu Cardif está presente en la oficina y fuera de ella.
✅ Porque el deporte y sus valores son parte de nuestra cultura: la colaboración, la empatía y el respeto guían nuestro trabajo.
✅ Por la cercanía con nuestros líderes, somos una organización que cree en el talento y damos las oportunidades para desarrollarte y aprender juntos.
✅ Por nuestro modelo de trabajo mixto, teletrabajando tres días a la semana.
✅ Estamos comprometidos con el medio ambiente.
✅ Estamos comprometidos con la diversidad, equidad e inclusión, siendo ésta parte de nuestra cultura y estrategia de la compañía.

Send CV through getonbrd.com.

Funciones del cargo

Hoy buscamos a un Ingeniero(a) de Estudios Actuariales que se sume al equipo de Modelos de Riesgos y Estudios, de la Gerencia Técnica - Financiera, donde tú misión será proveer a las distintas áreas de la gerencia técnica y de la compañía con parámetros técnicos, a través de estudios y herramientas, con el fin que se puedan tomar las decisiones correctas a la hora de evaluar rentabilidad de los productos.
Además de:
• Analizar grandes volúmenes de datos en SAS, Excel y Python, para estudiar el comportamiento de las coberturas de seguros a través de parámetros técnicos, con el fin de entregárselos a pricing y distintas áreas de la compañía para la toma de decisiones.
• Proveer de herramientas al área técnica de la compañía, con el fin de facilitar la toma de decisiones, a través de actualizaciones de Dashboard o creación de nuevas herramientas.
• Seguimiento, estudio y control, de los diferentes riesgos que enfrenta la compañía.
• Gestionar y analizar los datos de la compañía con el fin de abordar distintas problemáticas actuariales que permitan apoyar el proceso de transformación.
• Participar activamente en proyectos transversales tanto a la gerencia técnica como a nivel compañía, aportando desde el punto de vista técnico y financiero.
• Buscar la mejora continua de los procesos y procedimientos del área, buscando la agilidad y perfeccionamiento de las metodologías de cálculo, ya sea proponiendo nuevas herramientas o modelos o mejorando los utilizados actualmente.

Requisitos Mínimos

a. Formación

- Ingeniería Civil Industrial, Ingeniería en Estadística o afín.
b. Experiencia Requerida

- Deseable: Experiencia previa en áreas de analisis de datos, ya sea en manejo de grandes volumenes de datos, reporterías, monitoreos de KPI’s, modelación estadística o similares.
Tiempo: 0 – 2 años
c. Conocimientos y Habilidades

- Conocimiento avanzado de Excel, SAS y Python.
- Conocimiento Básico – Intermedio de Power BI.
- Nivel de inglés intermedio – avanzado.
- Conocimiento del ámbito asegurador
- Alta capacidad de síntesis y análisis
- Autonomía y autogestión
- Proactividad
- Capacidad de trabajo en equipo.
- Habilidades comunicacionales orales y escritas.
- Capacidad de generar ideas y mejoras continuas
- Orientación a resultados.
- Efectividad en presentaciones.
- Capacidad de planificación y seguimiento.

Beneficios

  • Trabajamos eficientemente: 40 horas semanales en horarios flexibles y los viernes salimos a las 14:00.
  • ¡Tenemos más vacaciones y días libres! Una semana adicional de vacaciones + 1 día libre considerando tu cumpleaños y quehaceres personales.
  • Apoyamos tu formación profesional: Acceso ilimitado a nuestra plataforma Coursera y dos días libres al año por estudios.
  • Cardif te cuida: Contarás con telemedicina gratis, seguro de vida, de salud y dental.
  • Queremos que seas tú mismo: Contamos con política de vestimenta flexible.
Y muchos otros beneficios que podrás conocer al avanzar en nuestro proceso de selección

¿Te sumas a la revolución de la industria del seguro?

Esperamos tu postulación ¡seguro y con todo!

“Todas las contrataciones están sujetas a la ley 21015. En BNP Paribas Cardif creemos en lugares de trabajos inclusivos y diversos, donde todas las personas son bienvenidas. En caso de necesitar adaptaciones para ser parte de nuestro proceso de selección, favor comunicarlo en la sección de preguntas.”

POSTULAR VÍA WEB Ver trabajo
Gross salary $3100 - 4500 Tiempo completo
Data Engineer
  • Haystack News
  • Lima (Hybrid)
Python Analytics Data Analysis SQL

Haystack News is the leading local & world news service on Connected TVs reaching millions of users! This is a unique opportunity to work at Haystack News, one of the fastest-growing TV startups in the world. We are already preloaded on 37% of all TVs shipped in the US!

Be part of a Silicon Valley startup and work directly with the founding team. Jumpstart your career by working with Stanford & Carnegie Mellon alumni and faculty who have already been part of other successful startups in Silicon Valley.

You should join us if you're hungry to learn how Silicon Valley startups thrive, you like to ship quickly and often, love to solve challenging problems, and like working in small teams.

See Haystack's feature at this year's Google IO:

This job is original from Get on Board.

Job functions

  • Analyze large data sets to get insights using statistical analysis tools and techniques
  • Collaborate with the Marketing, Editorial and Engineering teams on dataset building, querying and dashboard implementations
  • Support the data tooling improvement efforts and help increase the company data literacy
  • Work with the ML team on feature engineering and A/B testing for model building and improvement
  • Design, test and build highly scalable data management and monitoring systems
  • Build high-performance algorithms, prototypes and predictive models

Qualifications and requirements

  • Strong written and spoken English is a must!
  • Bachelor's degree in Computer Science, Statistics, Math, Economics or related field
  • 2+ years experience doing analytics in a professional setting
  • Advanced SQL skills, including performance troubleshooting
  • Experience with data warehouses (e.g. Snowflake, BigQuery, Redshift)
  • Proficient in Python including familiarity with Jupyter notebooks
  • Strong Math/Stats background with statistical analysis experience on big data sets
  • Strong communication skills, be able to communicate complex concepts effectively.

Conditions

  • Unlimited vacations :)
  • Travel to team's offsite events
  • 100% paid Uber rides to go to the office
  • Learn about multiple technologies

Accessible An infrastructure adequate for people with special mobility needs.
Relocation offered If you are moving in from another country, Haystack News helps you with your relocation.
Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Meals provided Haystack News provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Company retreats Team-building activities outside the premises.
Computer repairs Haystack News covers some computer repair expenses.
Commuting stipend Haystack News offers a stipend to cover some commuting costs.
Computer provided Haystack News provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2200 - 2700 Tiempo completo
Senior Business Development Consultant
  • MAS Analytics
  • Santiago (Hybrid)
Python SQL Business Intelligence Virtualization
En MAS Analytics nos dedicamos a desarrollar proyectos de Data Science, Gen AI, Cloud Architecture y Business Intelligence. Somos una consultora joven, tecnológica y emprendedora con gran crecimiento. Hoy en día tenemos muchos proyectos con grandes clientes de muchos rubros distintos y necesitamos ingenieras/os apasionados que estén buscando aprender y desafiarse trabajando en equipo.
Si estás buscando profundizar y trabajar aplicando tus conocimientos día a día, dentro de un equipo joven, de mucho talento, y alto rendimiento, este puesto es lo que estás buscando. El área de Business Development de MAS Analytics cumple un rol clave para el desarrollo y crecimiento de la empresa, y así lograr la misión de ser la empresa líder de consultoría en Transformación Digital.

Find this vacancy on Get on Board.

Funciones del cargo

Sobre el Rol
Buscamos un Ingeniero que se quiera integrar al equipo de consultores de Business Development tomando un rol activo en la estrategia y el diseño de las soluciones para los clientes.
Responsabilidades del Cargo
- Entender los problemas del cliente de diversas industrias y diseñar soluciones: desarrollo de propuestas funcionales y técnicas, diseño de soluciones de Analytics en ecosistemas Cloud (Azure, GCP, AWS), desarrollo de pruebas de concepto, búsqueda y levantamiento de oportunidades en clientes actuales, relación frecuente y buena comunicación con la alta dirección y los ejecutivos de diferentes empresas.
- Desarrollo de competencias cloud
- Investigación: tecnologías emergentes, nuevas funcionalidades, productos y servicios cloud
- Rol Comercial / Estratégico: Retención de clientes, diseño de planes de venta, account manager (responsabilidad de ciertas cuentas existentes), promover y mantener el nivel de calidad y confiabilidad de la empresa

Requerimientos del cargo

- Ingeniero civil industrial con 1 - 3 años de experiencia, idealemente en consultoría.

Herramientas y metodologías:
Conocimientos deseables:
- Conocimiento básico de herramientas Cloud (Azure, AWS, GCP)
- Conocimiento de herramientas de BI (PowerBI, Tableau, Data Studio)
- Experiencia con metodologías ágiles de desarrollo
- Conocimiento de lenguajes de base de datos (SQL)
- Conocimiento básico de lenguajes de programación (Python)

Competencias

- Interés Activo en Tecnologías emergentes
- Mucha proactividad, automotivación y autodisciplina
- Capacidad de aprendizaje veloz y entendimiento de ls distintas industrias
- Habilidades comunicacionales (presentación y venta)

Condiciones

- Trabajo flexible
- Ambiente laboral joven
- Sistema de beneficios por puntaje (días libre, bonos, aguinaldos)
- Ayudas monetarias y de estudio para capacitaciones y certificados
- Viernes se trabaja medio día
- MUCHO aprendizaje y desarrollo profesional

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage MAS Analytics pays or copays health insurance for employees.
Computer provided MAS Analytics provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal MAS Analytics gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Analista de Planificación Financiera
  • Assetplan
  • Santiago (Hybrid)
Python Data Analysis SQL Power BI

Assetplan es una empresa líder en el sector de renta residencial en Chile, con presencia también en Perú. Con más de 35.000 propiedades bajo gestión y operando más de 80 edificios multifamily, Assetplan se destaca por su innovación tecnológica y enfoque centrado en las personas dentro del mercado inmobiliario. La compañía se caracteriza por una cultura joven, horizontal y colaborativa, fomentando la proactividad y el aprendizaje continuo para impulsar su crecimiento y el de sus colaboradores.

El área de Control de Gestión es clave para apoyar la planificación estratégica y operacional de la empresa, proporcionando información financiera y análisis que facilitan la toma de decisiones y el desarrollo de nuevos negocios y productos innovadores en la industria inmobiliaria.

Apply exclusively at getonbrd.com.

Responsabilidades del puesto

Como Analista de Control de Gestión Junior, serás responsable de apoyar la planificación, evaluación de proyectos y el control de gestión integral vinculados a las operaciones y estrategias de Assetplan. Tus funciones incluirán:
  • Elaborar reportes internos y externos que sirvan como base para la toma de decisiones financieras y operativas.
  • Evaluar financieramente nuevos negocios, productos y oportunidades de mercado que aporten valor a la compañía.
  • Participar en procesos especiales como due diligence, análisis e integración de carteras inmobiliarias.
  • Monitorear el cumplimiento de KPIs, objetivos y métricas clave mediante la implementación y seguimiento de indicadores de gestión.
  • Identificar las necesidades de las áreas operativas para diseñar prototipos, maquetas o MVPs de soluciones basadas en datos (reportes, dashboards) que mejoren la eficiencia y el control.
  • Coordinar con el equipo de Datos y Tecnología la implementación efectiva de herramientas tecnológicas y soluciones innovadoras.
En este rol, tu aporte será fundamental para garantizar la alineación entre los objetivos estratégicos y operativos, facilitando la mejora continua y el éxito del negocio.

Requisitos y habilidades

Formación académica: Título profesional en Ingeniería Civil Industrial o Ingeniería Comercial.
Experiencia: De 0 a 2 años de experiencia profesional, incluyendo prácticas profesionales o programas de trainees.
Conocimientos técnicos y habilidades:
  • Dominio avanzado de Google Workspace y Microsoft Office para la gestión documental y creación de presentaciones.
  • Conocimiento alto en Power BI para el desarrollo de reportes y dashboards interactivos.
  • Capacidad avanzada en manejo de bases de datos y consultas en SQL para análisis de información.
  • Competencia alta en análisis de datos y modelación financiera para evaluar proyectos y productos.
  • Nivel intermedio en Python para automatización y procesamiento de datos.
  • Comprensión intermedia de metodologías de evaluación de proyectos y planificación estratégica.
  • Habilidades comunicativas para crear presentaciones claras y efectivas, facilitando la comunicación entre áreas.
Competencias blandas: Proactividad, capacidad analítica, orientación al detalle, trabajo en equipo, compromiso con los valores organizacionales, y ganas de aprender y desarrollarse en un ambiente dinámico y colaborativo.

Competencias y conocimientos deseables

Es valorable contar con experiencia previa en el sector inmobiliario o en control de gestión financiera dentro de empresas de servicios o bienes raíces. Además, el conocimiento de herramientas adicionales de análisis de datos, como Tableau o R, y experiencia en metodologías ágiles para la gestión de proyectos, serán un plus para desempeñarse de manera exitosa en este rol.
Igualmente, tener habilidades en negociación y gestión de proyectos, así como un enfoque innovador y orientado a la mejora continua, contribuirán a potenciar tu crecimiento profesional y el aporte a Assetplan.

Beneficios y cultura de trabajo

En Assetplan valoramos el esfuerzo y dedicación de nuestros colaboradores, creando un ambiente laboral positivo basado en el respeto mutuo y la colaboración.
Ofrecemos:
  • Días extras de vacaciones por años de antigüedad.
  • Modalidad de trabajo híbrido que permite flexibilidad para gestiones personales.
  • Monto mensual para snacks en la oficina, fomentando un ambiente ameno.
  • Medio día libre en tu cumpleaños para celebrar a tu manera.
  • Copago en seguro complementario de salud para tu bienestar y el de tu familia.
  • Reajuste anual de renta basado en IPC, asegurando la valoración constante de tu remuneración.
  • Bono anual por desempeño que premia tu compromiso y resultados.
  • Eventos corporativos y happy hours financiados por la empresa para fortalecer el equipo.
  • Acceso a plataforma de cursos de formación y desarrollo continuo.
  • Convenios con gimnasios y descuentos en diversos servicios.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Assetplan pays or copays health insurance for employees.
Computer provided Assetplan provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Assetplan gives you paid vacations over the legal minimum.
Beverages and snacks Assetplan offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3500 - 4000 Tiempo completo
Marketing Operations / Growth Technologist
  • Zaelot
UI Design Python Marketing Web design
Zaelot is a dynamic, team-building company that develops scalable, enterprise-grade solutions. With over 90 experts across 9 countries, Zaelot fosters a culture rooted in trust, reliability, and collaboration. Our cross-functional teams of analysts, designers, and software engineers work together to create innovative products that anticipate and meet evolving market demands. We continuously invest in expanding knowledge and technological expertise, empowering our team to deliver exceptional results for our clients while cultivating an empowering and growth-oriented environment.

Apply only from getonbrd.com.

Key Responsibilities

  • Assist in mapping Customer Data Platform (CDP) traits to marketing platform audiences to optimize segmentation and targeting strategies.
  • Coordinate the activation of campaign-specific events and traits to ensure precise campaign execution and audience engagement.
  • Continuously monitor and analyze performance and engagement metrics across multiple marketing channels to evaluate campaign effectiveness and suggest improvements.
  • Collaborate with marketing, analytics, and technology teams to align data infrastructure with campaign goals and growth initiatives.
  • Support the implementation of marketing automation and growth technologies to streamline operations and maximize ROI.
  • Participate in troubleshooting and resolving data or activation issues to maintain seamless campaign workflows.

Qualifications and Requirements

We are looking for a Growth Technologist with a strong understanding of marketing operations, data mapping, and campaign execution. The ideal candidate will have practical experience working with Customer Data Platforms (CDPs), marketing automation tools, and audience segmentation.
Must have strong analytical skills and the ability to monitor performance data critically to drive informed marketing decisions. Familiarity with event-based tracking and trait activation within marketing systems is essential.
Soft skills include a proactive problem-solving mindset, excellent communication skills, and the ability to collaborate effectively across cross-functional teams. The candidate should be comfortable working in a fast-paced, evolving environment and have a passion for leveraging technology to drive growth.
Previous exposure to tools such as Segment, Tealium, HubSpot, or Adobe Experience Platform and proficiency with data visualization or BI tools will be a strong asset.

Preferred Skills and Experience

Experience with SQL, Python, or similar scripting languages to automate and enhance marketing data workflows.
Knowledge of customer lifecycle management and advanced attribution modeling techniques.
Background in digital marketing campaign management and A/B testing methodologies.
Familiarity with compliance regulations around data privacy (GDPR, CCPA) and their impact on marketing technologies.

Why Join Zaelot?

  • 20 days of paid vacation after one year to ensure a healthy work-life balance.
  • Referral and finder's fee programs to recognize and reward talent acquisition contributions.
  • Continuous training and certification programs to support your professional growth.
  • Work-from-home support to optimize remote work comfort and productivity.
  • English language classes to enhance communication and career opportunities.
  • Fitness programs promoting a healthy lifestyle.
  • Profit sharing reflecting our shared commitment to company success.
  • Coaching sessions aimed at both personal and professional development.
Join Zaelot to be part of an innovative and supportive community where collaboration and continuous learning drive our shared success! 🚀

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2500 Tiempo completo
UI Engineer
  • coderslab.io
JavaScript Ruby HTML5 CSS

At CodersLab, we are currently focused on expanding our teams globally with the goal of positioning our products in more countries across Latin America. That’s why we are looking for a UI Engineer—a motivated individual who is goal-oriented and driven to achieve results.

You will join a dynamic and ambitious team eager to transform the market, where your ideas and proposals will be highly valuable to the business.

Apply now and take on this amazing challenge!

Send CV through getonbrd.com.

Job functions

POSITION OVERVIEW
This role is remote. Chairish Inc. is looking for a UI engineer to work on the team developing
our core commerce platform.
As a member of the core platform engineering team you will participate in all stages of the product
development lifecycle from business analysis, requirements development, and, of course, product
development. As a key driver of the product process, this role presents the opportunity to have a
direct and meaningful impact on the business while working to advance the innovation that drives
the home decor industry online at an ever fast pace.

Responsibilities
● Focus on the development and architecture of Chairish's web UI for both mobile and desktop
devices
● Develop and review technical designs and document them
● Participate in code reviews
● Automated unit test creation and manual testing of your code
● Work closely with product management, logistics, and production staff to manage product
scope and requirements
● Continue to be responsible for your code once it's in production

Qualifications and requirements

● At least 3 years of prior software development experience
● Bachelor's degree in Computer Science or a related field (or equivalent experience)
● You love HTML
● You have a deep understanding of CSS
● Strong Javascript skills
● Excellent verbal and written communication
● Natural problem-solver and troubleshooter
● One or more server side scripting languages (e.g. Python, Ruby, PHP, Javascript). We work
primarily in Python but it's easy enough to learn if you've got related experience.
● Comfortable working in a GNU Linux/Unix environment
● Familiarity with one or more relational databases (e.g. MySQL, Postgres, etc...) and solid
knowledge of SQL

Desirable skills

Bonus but not required
● Experience with LESSCSS
● Experience with jQuery, RequireJS, Webpack, Vue, or React
● Experience optimizing front-end performance

Conditions

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 2000 Tiempo completo
Flutter Developer
  • Niuro
Python PostgreSQL Node.js React
Niuro connects elite tech teams with leading U.S. companies, focusing on simplifying global talent acquisition through innovative solutions to maximize efficiency and quality. We empower high-performance, autonomous tech teams to work on innovative and challenging projects in collaboration with top-tier U.S. companies. Our environment promotes continuous professional growth, technical and soft skills training, and leadership development, ensuring team members thrive and deliver exceptional results without administrative distractions.

Originally published on getonbrd.com.

Flutter Developer

As a Flutter Developer, you will join our global, collaborative team working 100% remotely from LATAM, developing high-quality mobile applications using Dart and Flutter. Your primary responsibilities include designing, building, and maintaining performant and visually appealing mobile apps that meet client requirements. You will collaborate closely with U.S.-based teams, ensuring clear communication and alignment on project goals.
Your role involves not only coding but also contributing to architecture decisions, participating in code reviews, and continuously improving the mobile development process to deliver reliable and scalable solutions. You will engage in problem-solving and offer technical insights to enhance app performance and user experience.

Requirements

  • Proven mobile development experience using Dart and Flutter.
  • Conversational English proficiency to effectively communicate and collaborate with U.S.-based teams.
We expect developers who are proactive, detail-oriented, and able to work autonomously in a remote environment. Strong problem-solving skills and a collaborative mindset are essential to succeed in this role. Experience in delivering production-ready applications with a focus on performance, maintainability, and code quality is critical.

Nice to Have

  • Experience with backend technologies such as Python, FastAPI, and PostgreSQL.
  • Familiarity with frontend frameworks and runtimes like Node.js, Deno, Bun, as well as UI frameworks such as Svelte or React.

Why Join Niuro?

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Security Operations Analyst
  • Capital Markets Gateway
Python O365 Azure Cloud Computing

Capital Markets Gateway (CMG) is a fintech firm that streamlines equity capital markets (ECM), connecting investors and underwriters. Launched in 2017, CMG provides integrated ECM data, analytics, and workflow efficiencies, enabling better decision-making for nearly 150 buy-side firms ($40T AUM) and 20 global investment banks (Goldman Sachs, J.P Morgan, Barclays etc)

As a Security Operations Analyst at CMG, you will play a pivotal role in protecting our technology stack, data, and users. You will work closely with Security, IT, and Engineering teams to ensure the security, resilience, and compliance of our cloud-first, distributed environment. This is a remote position with an expectation of high autonomy, initiative, and the ability to drive improvements across security operations and IT security.

This job is exclusive to getonbrd.com.

The Role

Security Operations & Incident Response

  • Monitor, triage, and respond to security alerts and incidents across endpoints, cloud, and SaaS environments.
  • Conduct root cause analysis, document incidents, and assist with post-incident reviews.
  • Develop and maintain incident response playbooks; participate in tabletop exercises.

Endpoint & IT Security

  • Administer and enhance endpoint security for macOS and Windows, supporting company-owned devices.
  • Develop and manage endpoint hardening baselines, configurations, and compliance reporting.
  • Support automation and scripting efforts (e.g., PowerShell, Bash, Python) to improve monitoring and response.

Cloud & SaaS Security

  • Support security and compliance controls in Azure AD, Office 365, and key SaaS platforms.
  • Implement and monitor access controls, DLP policies, and secure configurations for cloud and SaaS solutions.
  • Collaborate with IT and Engineering on secure deployment and integration of new applications.

Risk Management & Security Governance

  • Participate in third-party and vendor risk reviews; contribute to risk assessments and audits.
  • Support the development and maintenance of security policies, procedures, and runbooks.
  • Track vulnerabilities (OWASP, CVSS), prioritize remediation with risk-based approaches, and maintain an up-to-date inventory of assets.

Collaboration & Communication

  • Engage proactively with peers and stakeholders across security, engineering, and business teams.
  • Deliver clear, actionable communication on risks, incidents, and security posture—tailored to both technical and non-technical audiences.

What We're Looking For

  • Bachelor’s degree in Computer Science, Cybersecurity, or related field—or equivalent work experience.
  • 3 + years in security operations, IT security, or similar roles (fintech/regulated industry experience preferred).
  • Strong proficiency in macOS and Windows 11 operating systems.
  • Hands-on experience with MDM/endpoint management tools (e.g., Intune).
  • Working knowledge of BYOD security, scripting/automation, and cloud( Azure, O365) administration.
  • Familiarity with SaaS security, DLP, CASB, and vulnerability management tools.
  • Understanding of security frameworks (NIST CSF, ISO 27001) and regulatory requirements.
  • Strong analytical, investigative, and problem-solving skills.
  • Excellent written and verbal communication; ability to work independently and collaboratively

Desirable Skills

  • Experience with scripting (PowerShell, Bash, Python).
  • Experience with SIEM (Microsoft Sentinel)
  • Certifications: CompTIA Security+, Microsoft Certified: Security Operations Analyst Associate, or similar.
  • Exposure to security governance, risk management, and vendor risk processes.
  • Knowledge of security operations in a distributed, remote-first environment.

What We Offer

  • 2 year+ contract
  • 15 business days of vacation
  • Tech courses and conferences
  • Top-of-the-line MacBook
  • Fully remote working environment
  • Flexible working hours

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Offensive Security Engineer
  • Buk
  • Santiago (Hybrid)
Python Linux Ethical Hacking Cloud Architecture

Hace 7 años comenzamos con un equipo de menos de 10 personas y hoy ya somos más de 1200 bukers trabajando día a día para tener el Software de Gestión de Personas más completo del mercado. Esto, gracias a que hemos mantenido nuestro espíritu innovador y nuestra pasión por la tecnología y la excelencia. Además, nos encontramos presentes en Chile, Colombia, Perú, México… ¡y próximamente Brasil!

Te compartimos un video para que puedas ver cómo vivimos el día a día en Buk:
https://www.buk.cl/quienes-somos

En Buk, estamos buscando una persona para el cargo Offensive Secutiry Engineer, que sea apasionada@ por lo que hace, con growth mindset, que piense “fuera de la caja” y quiera ir más allá. Alguien que no le tema a los desafíos, que trabaje de manera ágil, superando los obstáculos y aprendiendo de los errores. Buscamos una persona que valore nuestra cultura de excelencia, donde la exigencia y el trabajo colaborativo se unen para impactar en todos los clientes.

This job is published by getonbrd.com.

¿Qué te espera?

En Buk, la seguridad de nuestros clientes es nuestra principal prioridad. Por eso, buscamos un Offensive Security Engineer con una mentalidad proactiva para fortalecer nuestra gestión de vulnerabilidades y monitoreo de seguridad.
En este rol, serás responsable de realizar pruebas de penetración y análisis de seguridad ofensiva, emulando las tácticas de atacantes reales para identificar y explotar posibles debilidades en nuestros sistemas y aplicaciones. Trabajarás estrechamente con los equipos de desarrollo y operaciones para proporcionar información crítica que permita mitigar riesgos, mejorar nuestras defensas y garantizar la protección de los datos de nuestros clientes.

- Liderar la ejecución de pruebas de penetración.
- Analizar vulnerabilidades y proponer soluciones.
- Monitorear activamente el panorama de amenazas.
- Impulsar la cultura de seguridad en Buk.
- Contribuir a la mejora continua.
- Evaluar y fortalecer la seguridad del ecosistema Buk.
- Gestionar el riesgo de ciberseguridad.
- Elaborar informes y métricas.

¿Qué buscamos?

- Licenciatura en Ingeniería, Ciencias de la Computación, Seguridad de la Información o algún campo relacionado.
- 2 años de experiencia en seguridad ofensiva, incluyendo pruebas de penetración, análisis de vulnerabilidades y hacking ético.
- Experiencia en la realización de pruebas de penetración en aplicaciones web, móviles y de infraestructura.
- Familiaridad con metodologías de pruebas de penetración (ej. OWASP, PTES, NIST SP 800-115).
- Sólidos conocimientos en sistemas operativos (Windows, Linux, macOS).
- Dominio de herramientas y técnicas de hacking ético (ej. Metasploit, Burp Suite, Nmap).
- Comprensión de protocolos de red y seguridad (TCP/IP, HTTP, SSL/TLS).
- Familiaridad con lenguajes de scripting (Python, Bash, PowerShell).
- Conocimiento de tecnologías cloud (AWS) y arquitecturas cloud.

¿Qué ofrecemos?

- Cultura de Innovación: Libertad para proponer nuevas ideas y estrategias que impacten directamente en nuestra misión.
- Desarrollo profesional: Trabajarás junto a un equipo de talento excepcional que te permitirá potenciar tus habilidades y crecer profesionalmente. Además, contarás con una plan de carrera para que puedas alcanzar tu potencial y crecer dentro de Buk.
- Potenciamos tu aprendizaje: ¡Te ofrecemos más de 400 cursos a través de nuestra plataforma Bukplay para que puedas aprender y capacitarte en lo que tú quieras!
- Programa 'Buk Culture Internship' y 'Exchange': Postula y participa de intercambios culturales en los países donde operamos.
- Flexibilidad con Responsabilidad: Tendrás la flexibilidad de trabajar desde donde te sientas más cómodo, siempre con la responsabilidad de alcanzar los objetivos.
- Beneficios Revolucionarios: Desde vacaciones ilimitadas, stock options y 5 semanas de post natal parental, y un plan de beneficios con puntos personalizado

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Buk pays or copays health insurance for employees.
Computer provided Buk provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Buk gives you paid vacations over the legal minimum.
Beverages and snacks Buk offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Cybersecurity Engineer Senior
  • 2BRAINS
  • Santiago (Hybrid)
Python Continuous Integration Azure Jenkins
2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.
Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.
En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

Find this job on getonbrd.com.

¿Qué harás como Cybersecurity Engineer de 2Brains?

  • Liderarás proyectos clave en ciberseguridad, fortaleciendo la protección de nuestra infraestructura tecnológica.
  • Serás responsable de la administración de soluciones XDR y otras herramientas de seguridad informática.
  • Configurarás, crearás y gestionarás reglas de seguridad para prevenir y mitigar amenazas.
  • Darás seguimiento a incidentes de ciberseguridad, participando activamente en la respuesta y análisis forense cuando sea necesario.
  • Implementarás y mantendrás sistemas de detección y prevención de intrusiones (IPS/IDS), así como otras tecnologías de defensa.
  • Velarás por el cumplimiento y correcta aplicación de nuestras políticas de seguridad para proteger los activos críticos del negocio.
  • Participarás en auditorías y revisiones de seguridad, alineándote con marcos como NIST, ISO 27001 y CIS Controls.
  • Colaborarás con equipos internos para comunicar riesgos, proponer mejoras y fomentar una cultura de seguridad en toda la organización.

¿Qué buscamos en ti para el rol de Cybersecurity Engineer de 2Brains?

  • Formación en Ingeniería en Informática, Telecomunicaciones, Seguridad de la Información o carreras afines.
  • Contar con certificaciones como CISSP, CISM, CEH, OSCP o ISO 27001 Lead Implementer será un gran plus.
  • Experiencia de al menos 3 años en roles relacionados con DevOps, ciberseguridad, gestión de incidentes y protección de infraestructuras críticas.
  • Conocimientos en seguridad en la nube (AWS, GCP o Azure).
  • Experiencia implementando pipelines de integración y entrega continua (CI/CD) con herramientas como Jenkins, GitHub Actions, GitLab CI/CD o Azure DevOps.
  • Manejo de herramientas como firewalls, VPNs, SIEM, IDS/IPS y soluciones de seguridad cloud.
  • Habilidad en scripting con Python, Bash o PowerShell.
  • Experiencia con lenguajes de infraestructura como código (Terraform o CloudFormation).
  • Conocimiento y aplicación de marcos de seguridad como NIST, MITRE ATT&CK, OWASP, entre otros.
  • Familiaridad con herramientas como Trivy, Falco, Sysdig, AWS Security Hub, Google SCC o similares.
  • Inglés intermedio (deseable).

¿Qué competencias buscamos para el rol de Cybersecurity Engineer?

  • Pensamiento crítico y resolución de problemas.
  • Capacidad para manejar crisis.
  • Habilidades de comunicación efectiva y colaboración con equipos multidisciplinarios.
  • Proactividad.
  • Capacidad de aprendizaje continuo.

Condiciones

  • Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos.
  • Un proyecto con foco en los usuarios, visión de UX e integrada al desarrollo.
  • Acceso a grandes clientes y proyectos desafiantes.
  • Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales.
  • Un entorno de trabajo flexible y dinámico.
  • Beneficios especiales: un día libre de regalo por tu cumpleaños, días de descanso (previa coordinación), convenios para cursos de especialización.

Outdoors The premises have outdoor spaces such as parks or terraces.
Wellness program 2BRAINS offers or subsidies mental and/or physical health activities.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks 2BRAINS offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Health coverage 2BRAINS pays or copays health insurance for employees.
Dental insurance 2BRAINS pays or copays dental insurance for employees.
Computer provided 2BRAINS provides a computer for your work.
Education stipend 2BRAINS covers some educational expenses related to the position.
Informal dress code No dress code is enforced.
Shopping discounts 2BRAINS provides some discounts or deals in certain stores.
Vacation over legal 2BRAINS gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero en Ciberseguridad
  • 2BRAINS
Python Linux DevOps Continuous Integration
2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

El Ingeniero en Ciberseguridad será responsable de diseñar, implementar y mantener medidas de seguridad para proteger la infraestructura digital, datos y sistemas. Su objetivo es garantizar la seguridad, confidencialidad, integridad y disponibilidad de la información ante amenazas cibernéticas, alineándose con regulaciones internacionales y mejores prácticas del sector aeronáutico.

This job is published by getonbrd.com.

El/la Ingeniero en Ciberseguridad de 2Brains deberá

  • Desarrollar e implementar controles de seguridad para prevenir ataques cibernéticos.
  • Monitorear continuamente las amenazas y vulnerabilidades en la infraestructura.
  • Garantizar el cumplimiento de normativas como ISO 27001, PCI-DSS, NIST.
  • Detectar, analizar y mitigar incidentes de seguridad en tiempo real.
  • Coordinar la respuesta ante ciberataques y realizar análisis forenses cuando sea necesario.
  • Implementar mejoras en los planes de Continuidad Operativa (BCP) y Recuperación ante Desastres (DRP).
  • Gestionar soluciones de firewalls, IDS/IPS, antivirus, DLP, SIEM y sistemas de autenticación multifactor (MFA).
  • Evaluar la seguridad de nuevas aplicaciones y servicios en la nube (AWS, Azure, GCP).
  • Aplicar pruebas de pentesting y análisis de vulnerabilidades en sistemas críticos.
  • Capacitar a empleados y equipos internos en buenas prácticas de ciberseguridad.
  • Investigar y aplicar nuevas tecnologías de seguridad para la mejora de procesos.
  • Implementar prácticas de Security as Code en pipelines CI/CD.
  • Configurar herramientas de escaneo de código estático (SAST) y dinámico (DAST) como SonarQube, Checkmarx, Snyk o OWASP ZAP.
  • Definir políticas de seguridad en contenedores y orquestadores como Kubernetes.
  • Desarrollar scripts y pipelines de automatización para auditorías de seguridad.
  • Integrar herramientas de seguridad en infraestructura como código (IaC) con Terraform, Ansible o CloudFormation.
  • Implementar controles de acceso en la nube utilizando políticas IAM y gestión de secretos (HashiCorp Vault, AWS Secrets Manager, Google Secret Manager).

¿Qué conocimientos buscamos en el/la Ingeniero en Ciberseguridad?

  • Ingeniero en Informática, Telecomunicaciones, Seguridad de la Información o carreras afines.
  • Certificaciones deseables: CISSP, CISM, CEH, OSCP, ISO 27001 Lead Implementer.
  • +3 años en Devops, seguridad informática, gestión de incidentes y protección de infraestructuras críticas.
  • Experiencia en seguridad en la nube (AWS, GCP, Azure).
  • Implementación de CI/CD con Jenkins, GitHub Actions, GitLab CI/CD o Azure DevOps.
  • Administración de firewalls, VPNs, SIEM, IDS/IPS y seguridad en la nube.
  • Lenguajes de scripting: Python, Bash, PowerShell.
  • Lenguajes de IaC: Terraform o CloudFormation.
  • Implementación de frameworks de seguridad (NIST, MITRE ATT&CK, OWASP).
  • Herramientas de seguridad: Trivy, Falco, Sysdig, AWS Security Hub, Google SCC o afines.
  • Español: Nativo
  • Inglés: Intermedio-Avanzado (deseable para reportes internacionales).

¿Qué competencias buscamos en el/la Ingeniero en Ciberseguridad?

  • Pensamiento analítico y resolución de problemas.
  • Capacidad para manejar crisis.
  • Habilidades de comunicación y colaboración con equipos multidisciplinarios.
  • Proactividad y actualización constante en ciberseguridad.

Te ofrecemos

  • Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos.
  • Un proyecto con foco en los usuarios, visión de UX e integrada al desarrollo.
  • Acceso a grandes clientes y proyectos desafiantes.
  • Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales.
  • Un entorno de trabajo flexible y dinámico.
  • Beneficios especiales: un día libre de regalo por tu cumpleaños, días de descanso (previa coordinación), convenios para cursos de especialización.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero de Sistemas CDN
  • Mediastream
  • Bogotá &nbsp Santiago (Hybrid)
Ruby Python Linux Web server

Mediastream es una empresa líder con más de 16 años de experiencia en tecnología de streaming, dedicada a proveer soluciones integrales y de alta calidad para la administración, distribución y producción audiovisual. Trabajamos con importantes empresas y emisoras a nivel mundial, conectando a nuestros clientes con sus audiencias de manera sencilla y efectiva para generar nuevas fuentes de ingresos. Nuestra plataforma end-to-end está diseñada para optimizar la experiencia de usuario y satisfacer las necesidades dinámicas de la audiencia digital, respaldada por soporte técnico 24/7 y atención personalizada.

Find this vacancy on Get on Board.

Responsabilidades

  • Diseñar, configurar y optimizar la infraestructura de la CDN para mejorar la velocidad y la seguridad de la entrega de contenido.
  • Supervisar continuamente el rendimiento de la CDN, identificar cuellos de botella y realizar ajustes para garantizar la continuidad y velocidad operativas.
  • Rotar turnos de guardia y supervisar de forma sincronizada los eventos de streaming de alta concurrencia.
  • Implementar medidas de seguridad robustas para proteger la CDN contra amenazas, incluyendo ataques DDoS u otros.
  • Colaborar estrechamente con los equipos de desarrollo de aplicaciones y ciberseguridad para garantizar la integración eficiente de la CDN y la implementación de políticas de seguridad.
  • Trabajar en colaboración con los equipos de desarrollo y contenido para asegurar que el contenido esté optimizado para su entrega a través de la CDN.
  • Investigar y evaluar nuevas tecnologías, tendencias y mejores prácticas en el ámbito de las soluciones CDN y, posteriormente, proponer, acordar, implementar, documentar e impartir la capacitación necesaria.

Requisitos del cargo

Requisitos mínimos:

  • Sistemas operativos: Servidor Linux (Ubuntu, Debian, CentOS, etc.)
  • Administración y soporte de infraestructura de red (BGP, HTTP, DNS, DHCP, NTP, TCP/IP, FTP, firewalls, entre otros)
  • Herramientas de monitorización de aplicaciones y redes (Deseable: Datadog)
  • Programación de scripts en BASH, Ruby, Python u otros
  • Administración de servidores web (Nginx)
  • AWS, Amazon CloudFront y Route 53
  • Video encoding and transcoding
  • Titulo en Ingeniería Informática, Sistemas, Redes o campo afín
  • Certificaciones adicionales: Nube, Cisco, Linux, Redes, Nginx, Docker
  • Otros conocimiento deseables: Tecnologías de streaming

Requisitos deseables

Se valorarán conocimientos adicionales en herramientas avanzadas de monitorización y análisis de tráfico, experiencia con otras plataformas de nube y CDN, así como habilidades para la automatización de procesos. Además, habilidades blandas como capacidad de trabajo en equipo, comunicación efectiva, y orientación a la solución de problemas en entornos críticos serán altamente apreciadas.

Beneficios

En Mediastream ofrecemos un entorno laboral dinámico y colaborativo que fomenta la innovación constante y el crecimiento profesional continuo. Promovemos una cultura inclusiva basada en el apoyo mutuo y el desarrollo tanto personal como profesional. Contamos con amplias oportunidades de capacitación en tecnologías de vanguardia y trabajamos en conjunto con un equipo de alto nivel para enfrentar desafíos relevantes dentro de la industria del streaming y distribución audiovisual.

Health coverage Mediastream pays or copays health insurance for employees.
Computer provided Mediastream provides a computer for your work.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Technical Account Manager
  • GeoVictoria
  • Bogotá (Hybrid)
Python Microservices Director de Cuentas SaaS

Somos una multinacional donde puedes ser tú mismo y tus ideas importan. Priorizamos el mérito sobre la jerarquía, celebramos los valores y somos una jungla de diversidad.

¿Qué valores? Las 4H 😍: Somos Happy, Honestos, Humildes y Hungry por crecer en todo el mundo. Queremos conquistar el mundo con nuestro increíble talento: ¡entregar servicios de software a más de 20 países! 🏆🌎

Descripción del cargo:

¿Te apasiona la tecnología y resolver problemas de clientes? En GeoVictoria buscamos un Technical Account Manager (TAM) para sumarse a nuestro equipo. Serás el puente entre nuestros clientes estratégicos y nuestras soluciones técnicas, asegurando que cada experiencia con nuestra plataforma sea excepcional.

This offer is exclusive to getonbrd.com.

¿Qué harás en este rol?

  • Serás el experto técnico en nuestra plataforma, asegurando que los clientes saquen el máximo provecho de nuestras soluciones.
  • Resolverás problemas críticos y coordinarás equipos multidisciplinarios para garantizar una respuesta rápida y eficiente.
  • Apoyarás técnicamente al equipo KAM en el cierre de ventas y en la gestión de clientes.
  • Analizarás y escalarás tickets dentro de la organización, asegurando su correcta priorización.
  • Actuarás como líder técnico interno en la relación con los clientes, gestionando expectativas y brindando un servicio técnico excepcional.

Lo que buscamos de ti

  • Experiencia previa en gestión de cuentas o consultoría técnica.
  • Experiencia en desarrollo de Software, ideal experiencia en Python.
  • Conocimiento técnico en plataformas SaaS o tecnologías similares.
  • Conocimiento en arquitectura basada en microservicios.
  • Conocimiento en bases de datos.
  • Habilidades de resolución de problemas y capacidad de actuar con autonomía.
  • Excelente manejo de relaciones con clientes y equipos internos.
  • Capacidad para priorizar y escalar casos dentro de la organización.
  • Disponibilidad para trabajar en modalidad híbrida.

Beneficios

  • Vestimenta libre, acá puedes ser tú mismo 😊
  • Medio día libre en tu cumpleaños, para que puedas celebrar 🎉
  • Cultura de empresa horizontal, donde tu talento te hace crecer 📈
  • Eventos de celebración de cumplimiento de metas trimestrales, team buildings y más en todas las oficinas a nivel global 🌎
  • Oficina Pet Friendly 🐶

¡Únete a nuestro diverso y talentoso equipo y sé parte de una de las áreas más estratégicas de GeoVictoria!

Si avanzas, por correo te comunicaremos los siguientes pasos del proceso, ¡no olvides revisar la sección de "Spam"!

POSTULAR VÍA WEB Ver trabajo
Gross salary $3000 - 4000 Tiempo completo
Data Engineer / Machine Learning Engineer
  • Lilo AI
  • Santiago (Hybrid)
Python PostgreSQL SQL NoSQL
Lilo AI is an innovative startup dedicated to transforming procurement for Commercial Real Estate (CRE) businesses by creating the most hassle-free procurement platform globally. Our platform leverages artificial intelligence to automate and optimize various procurement workflows, including invoicing, vendor management, and price comparisons. Serving diverse sectors such as hotels, gyms, schools, and senior living homes, our solutions save clients valuable time and money while improving operational efficiency. Our major clients include prestigious brands such as Fairfield, Hampton Inn, and Hilton. By joining Lilo AI, you will contribute to revolutionizing procurement processes at scale through cutting-edge AI technologies.

Apply at the original job on getonbrd.com.

About the Role

As a Data Engineer / Machine Learning Engineer at Lilo AI, you will play a pivotal role in advancing and deploying machine learning solutions that enhance our procurement platform. Your primary responsibilities will include:
  • Designing, developing, and implementing machine learning models to optimize procurement workflows, such as price prediction algorithms, anomaly detection systems, and recommendation engines.
  • Building and maintaining robust data pipelines to efficiently preprocess and cleanse both structured and unstructured datasets.
  • Collaborating closely with engineers, product managers, and business stakeholders to integrate AI-driven insights seamlessly into our platform environment.
  • Optimizing model performance and reliability, including contributing to monitoring strategies and retraining pipelines to sustain production quality.
  • Keeping abreast of the latest developments in AI, machine learning, and data science to continually enhance our technology stack.
  • Supporting the deployment of machine learning models into production environments and improving MLOps workflows to increase operational efficiency.
This role requires a proactive mindset, a passion for AI applications in real-world business contexts, and the ability to thrive in a dynamic, fast-paced, and collaborative global team.

What You Will Need

To succeed in this role, candidates should demonstrate strong technical proficiency and relevant experience as detailed below:
  • A minimum of 2 years of professional experience in machine learning, data science, or closely related fields.
  • Proficiency in Python programming and familiarity with prominent ML frameworks and libraries such as Scikit-Learn, TensorFlow, or PyTorch.
  • Hands-on experience with both SQL and NoSQL databases, including but not limited to MongoDB and PostgreSQL.
  • Solid understanding of data preprocessing techniques, feature engineering, and model evaluation methodologies essential for robust ML model development.
  • Basic knowledge or experience with containerization (Docker), cloud computing platforms (AWS, Google Cloud Platform, or Azure), and MLOps tools is highly desirable.
  • Analytical mindset with strong problem-solving skills, able to handle and extract insights from large datasets effectively.
  • A continuous learner attitude, eager to develop technical and professional skills while contributing to team goals.
We value curiosity, collaboration, and adaptability, wanting individuals who are ready to grow alongside our rapidly expanding company.

Desirable Skills and Experience

While not mandatory, the following skills and experiences will give candidates an edge:
  • Experience working with time-series data, demand forecasting, or procurement-related AI models.
  • Familiarity with advanced ML techniques such as deep learning, reinforcement learning, or natural language processing.
  • Hands-on exposure to MLOps pipelines, automated model deployment, and monitoring platforms.
  • Knowledge of data engineering tools and frameworks like Apache Airflow, Spark, or Kafka.
  • Prior experience in the hospitality or Commercial Real Estate sectors.
  • Strong communication skills to effectively articulate technical concepts to non-technical stakeholders.

Why Lilo AI?

Joining Lilo AI offers a unique opportunity to make a significant impact at a fast-growing US-based startup while enjoying the flexibility of remote work from Latin America. We provide:
  • A high-impact role within a pioneering team revolutionizing procurement with AI.
  • Possibility to grow professionally with opportunities to increase responsibilities over time.
  • Stock options available for the right candidate, sharing in our long-term success.
  • A collaborative, global, and multi-cultural work environment fostering innovation and continuous learning.

Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Lilo AI pays or copays health insurance for employees.
Company retreats Team-building activities outside the premises.
Dental insurance Lilo AI pays or copays dental insurance for employees.
Computer provided Lilo AI provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Lilo AI gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2500 - 3300 Tiempo completo
AI Engineer
  • Assetplan
JavaScript Python Git Node.js

Assetplan es una compañía líder en renta residencial en Chile, con presencia también en Perú, gestionando más de 30.000 propiedades para clientes retail e institucionales y operando más de 80 edificios multifamily. Actualmente buscamos fortalecer nuestro equipo de desarrollo con un AI Engineer para integrar Grandes Modelos de Lenguaje (LLMs), construir agentes conversacionales multicanal y automatizar procesos utilizando herramientas de inteligencia artificial avanzada y servicios cloud, principalmente con AWS.

Assetplan se destaca por su innovación tecnológica y enfoque centrado en las personas dentro del mercado inmobiliario. La compañía se caracteriza por una cultura joven, horizontal y colaborativa, fomentando la proactividad y el aprendizaje continuo para impulsar su crecimiento y el de sus colaboradores.

This job offer is available on Get on Board.

Descriptor de cargo: AI Engineer

El rol se enfoca en la integración de LLMs, construcción de agentes conversacionales y automatización de flujos mediante tecnologías avanzadas. Las principales funciones son:

  • Desarrollar agentes conversacionales multicanal para plataformas como WhatsApp, Web y Slack, utilizando LangChain y OpenAI en Python y/o Node.js (TypeScript).
  • Crear scrapers inteligentes (ejemplo: para Facebook Marketplace) empleando Selenium y Python.
  • Diseñar y mantener herramientas internas que combinan procesamiento de datos, automatización y uso de LLMs para mejorar la eficiencia operativa.

Objetivo y Requisitos

Buscamos un profesional con experiencia consolidada en desarrollo de software, especialmente en áreas relacionadas con inteligencia artificial aplicada y automatización. El candidato ideal cuenta con:

  • Experiencia sólida en Python (idealmente más de 2 años).
  • Experiencia en desarrollo con Node.js usando TypeScript (al menos 1 año).
  • Buen manejo de servicios AWS como Lambda, S3, CloudWatch, DynamoDB y API Gateway.
  • Experiencia en creación de APIs REST y conexión mediante WebSockets.
  • Conocimiento en procesamiento de lenguaje natural (NLP) y manejo de modelos de lenguaje grandes (LLMs), particularmente mediante OpenAI.
  • Habilidad en técnicas de scraping con herramientas como Selenium, Playwright o BeautifulSoup.
  • Manejo de control de versiones con Git, incluyendo flujos colaborativos con Pull Requests y CI/CD.

Además, buscamos una persona con habilidades de autonomía, colaboración, orientación a resultados, innovación y comunicación efectiva, capaz de trabajar de manera independiente y en equipo, comprometida con la calidad y mejora continua, y que participe activamente en la capacitación del equipo en conceptos de IA.

Formación académica: Ingeniero en Computación, Ingeniería de Software o experiencia equivalente. Experiencia 2 a 4 años en desarrollo de software con preferencia en proyectos de inteligencia artificial aplicada.

Conocimientos y habilidades valorados

  • Conocimiento de LangChain, Retrieval-Augmented Generation (RAG) o arquitecturas de agentes conversacionales.
  • Experiencia con herramientas de infraestructura como Terraform para la gestión de recursos cloud.
  • Experiencia en sistemas de monitoreo y logging como Grafana o CloudWatch Logs.
  • Experiencia defendiendo y presentando soluciones técnicas en entrevistas.

Beneficios y ambiente laboral

En Assetplan valoramos y reconocemos el esfuerzo y dedicación de nuestros colaboradores, ofreciendo un ambiente laboral positivo basado en el respeto mutuo y la colaboración.

Entre nuestros beneficios contamos con:

  • Días extras de vacaciones por años de antigüedad
  • Modalidad de trabajo híbrido y flexibilidad
  • Monto mensual en app de snacks en la oficina
  • Medio día libre en tu cumpleaños
  • Copago en seguro complementario de salud
  • Reajuste anual de renta basado en IPC
  • Bono anual por resultados de empresa
  • Eventos empresa y happy hours financiados por la compañía
  • Acceso a plataforma de cursos de formación
  • Convenios con gimnasios, descuentos y más

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Assetplan pays or copays health insurance for employees.
Computer provided Assetplan provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Assetplan gives you paid vacations over the legal minimum.
Beverages and snacks Assetplan offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
AI Engineer
  • Improving South America
Python Artificial Intelligence Machine Learning Deep Learning

Somos Improving South America!

Somos una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA principalmente.

Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.

Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development y También trabajamos en desarrollo backend.

Valoramos a las personas dinámicas en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Send CV through getonbrd.com.

Funciones del cargo

En Improving South America, estamos en búsqueda de un Ingeniero de IA Semi-Senior que esté entusiasmado por unirse a nuestro equipo. Este rol es ideal para alguien que desea contribuir con sus conocimientos en inteligencia artificial y colaborar en proyectos innovadores que marcan la diferencia en diversas industrias.

Desarrollar y entrenar modelos de Machine Learning, asegurando su correcta implementación, validación y ajuste según los objetivos del negocio.

Diseñar e implementar modelos de forecasting utilizando enfoques tanto tradicionales (ARIMA, Prophet) como avanzados (RNN, LSTM, Transformers), enfocados en series temporales y datos multivariables de gran escala.

Aplicar técnicas de Procesamiento del Lenguaje Natural (NLP) para resolver problemas complejos, integrando LLMs, RAGs, embeddings y arquitecturas de agentes inteligentes.

Construir y mantener pipelines de Machine Learning eficientes, escalables y automatizados para el procesamiento de grandes volúmenes de datos.

Implementar buenas prácticas de observabilidad y monitoreo en modelos desplegados, incluyendo tracking de métricas clave, alertas y registros.

Realizar pruebas, mediciones de performance y mejoras continuas de accuracy en los modelos existentes.

Colaborar con equipos multidisciplinarios (científicos de datos, ingenieros, producto) para alinear soluciones técnicas con necesidades estratégicas.

Utilizar herramientas y librerías en Python como TensorFlow, PyTorch, Scikit-learn, entre otras, para el desarrollo de soluciones de inteligencia artificial.

Requerimientos del cargo

  • Nivel de inglés: Intermedio/avanzado (B2/C1).
  • Experiencia en Machine Learning, incluyendo desarrollo y entrenamiento de modelos.
  • Experiencia en AI Forecasting (excluyente), específicamente con:
    • Modelos de series temporales tradicionales (ARIMA, Prophet).
    • Redes neuronales recurrentes (RNN, LSTM).
    • Transformers aplicados a predicción.
    • Modelos multivariables para forecasting sobre grandes volúmenes de datos.
  • Experiencia en NLP (Procesamiento del Lenguaje Natural):
    • LLMs (Large Language Models).
    • RAGs (Retrieval-Augmented Generation).
    • Embeddings.
    • Arquitecturas de agentes inteligentes.
    • Buenas prácticas de observabilidad y monitoreo.
    • Medición de métricas, testing y mejora de accuracy.
    • Sólido manejo de Python y librerías como TensorFlow, PyTorch, Scikit-learn, entre otras.
    • Experiencia trabajando con grandes volúmenes de datos y construcción de pipelines de ML.

Beneficios

  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Internal talks Improving South America offers space for internal talks or presentations during working hours.
Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Improving South America gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3000 - 3200 Tiempo completo
Full-Stack AI &Amp; Python Bilingüe
  • Genesys Tecnologías de Inform. SpA
Python Docker Microservices GraphQL
Genesys Tecnologías de Inform. SpA es una compañía con más de 30 años en el mercado latinoamericano, especializada en desarrollo de software y servicios tecnológicos avanzados. Con sede principal en Concepción y operaciones importantes en Santiago, trabajamos en la transformación digital de empresas a través de soluciones innovadoras como RPA, Inteligencia Artificial, QA Automation, Cloud y Staff Augmentation.
El proyecto actual está orientado al desarrollo y mantenimiento de sistemas inteligentes integrados con modelos de lenguaje (LLMs), apoyando la evolución tecnológica de nuestros clientes en Latinoamérica mediante aplicaciones de IA prácticas y efectivas.

Apply directly on the original site at Get on Board.

Funciones del Cargo

Buscamos un ingeniero de Inteligencia Artificial con habilidades en Python, LangChain y LangGraph para formar parte de nuestro equipo especializado en construir soluciones inteligentes. Esta posición se enfoca en desarrollar y orquestar pipelines de procesamiento de lenguaje natural, diseñar agentes conversacionales complejos y sistemas inteligentes que respondan a necesidades reales.
  • Diseñar, desarrollar y mantener pipelines de procesamiento de lenguaje con LangChain y LangGraph.
  • Implementar chatbots inteligentes, asistentes autónomos, clasificadores y sistemas de búsqueda con técnicas de Recuperación Basada en Generación (RAG).
  • Orquestar flujos de decisiones con manejo de memoria contextual, persistencia de estado y control de errores usando LangGraph.
  • Integrar múltiples APIs externas, bases de datos y modelos locales para potenciar las capacidades de los sistemas.
  • Colaborar estrechamente con equipos de producto y diseño para convertir requisitos en soluciones AI efectivas y productivas.

Descripción y Requisitos del Cargo

El candidato ideal debe contar con conocimientos avanzados en Python y experiencia práctica con herramientas modernas de la pila LLM, especialmente LangChain y LangGraph, para la construcción de agentes y workflows complejos de IA. Es fundamental poseer un alto nivel de inglés, ya que es un requisito excluyente para desempeñar esta función.
  • Experiencia en desarrollo de software con Python, incluyendo desarrollo modular, manejo asincrónico, integración con APIs y procesamiento de texto (NLP).
  • Experiencia trabajando con modelos de lenguaje y tecnologías LLM.
  • Experiencia demostrable en proyectos utilizando LangChain para crear agentes, cadenas personalizadas, herramientas externas, pipelines RAG e integración con bases vectoriales.
  • Conocimiento en LangGraph para diseñar y administrar workflows de IA complejos con control de estados, branching y lógica conversacional.
  • Capacidad para implementar soluciones usando LLMs de OpenAI y otros proveedores, aplicando técnicas de prompt engineering, fine-tuning ligero y personalización de modelos Open Source.
  • Deseable experiencia en sistemas de recuperación semántica basados en embeddings para mejorar la precisión y relevancia de las respuestas.
  • Conocimientos básicos o intermedios en APIs REST y GraphQL, así como en contenedores Docker y despliegue de microservicios, son altamente valorados.
Además de las habilidades técnicas, buscamos personas con capacidad para trabajar en equipo, comunicarse efectivamente, adaptarse a tecnologías emergentes y contribuir al desarrollo de soluciones innovadoras en un entorno dinámico y colaborativo.

Habilidades y Experiencias Deseables

Se valorará positivamente la experiencia adicional en la implementación de soluciones de recuperación semántica basadas en embeddings, desarrollo y despliegue con Docker y microservicios, así como un conocimiento intermedio en APIs REST y GraphQL para mejorar la integración y escalabilidad de las aplicaciones.
También es deseable la familiaridad con técnicas avanzadas en prompt engineering, fine-tuning avanzado de modelos de lenguaje, y la capacidad para diseñar flujos conversacionales complejos que impliquen lógica de negocio y control de estado persistente.

Beneficios y Condiciones

Ofrecemos un contrato por proyecto que garantiza estabilidad y condiciones claras para nuestros colaboradores en un ambiente laboral dinámico, colaborativo y enfocado en el desarrollo profesional constante.

Formarás parte de una empresa consolidada en Latinoamérica con más de tres décadas de experiencia, que valora el talento y fomenta la innovación.

Contamos con un equipo multidisciplinario y una comunicación diaria con nuestra matriz en Santiago y otras operaciones, lo que facilita la colaboración continua y el apoyo técnico.

¡Esperamos que te unas a nuestro equipo para crecer juntos! 😊

Health coverage Genesys Tecnologías de Inform. SpA pays or copays health insurance for employees.
Computer provided Genesys Tecnologías de Inform. SpA provides a computer for your work.
Shopping discounts Genesys Tecnologías de Inform. SpA provides some discounts or deals in certain stores.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Machine Learning Engineer
  • Haystack News
  • Lima (Hybrid)
Python SQL NoSQL Big Data

Haystack News is the leader in transitioning younger audiences to a next-generation TV news product. We empower users to watch the news they care about with a personalized headline news channel. Our personalization and big data technology enable a seamless lean-back experience reaching millions of users. In 2020, we streamed billions of minutes of news to users around the globe.

We're available on a variety of TV platforms (Roku, Fire TV, Android TV, Apple TV, Chromecast, Vizio) as well as mobile, tablet, and desktop.

Apply directly from Get on Board.

Job functions

We are looking for an outstanding machine learning engineer to join Haystack and help improve the experience of millions of users that rely on Haystack to get the news every day.

Within the team you’ll find many opportunities to work on various aspects of Machine Learning and Data Engineering. The job offers the opportunity of generating a major impact on the product while working with an awesome and talented team, using the latest technologies.

You will:

  • Analyze large data sets to get insights using statistical analysis tools and techniques
  • Build, evaluate and deploy machine learning models
  • Maintain ongoing reliability, performance, and support of the data infrastructure, providing solutions based on application needs and anticipated growth.
  • Work with tools to configure, monitor and orchestrate data infrastructure and pipelines.
  • Run and monitor AB Tests
  • Build and manage APIs

Qualifications and requirements

  • Bachelor's degree in Computer Science, Statistics, Math or related field.
  • 3+ years experience writing software in a professional setting
  • Knowledge of AWS and Python
  • Strong Math/Stats background with statistical analysis experience on big data sets
  • Experience with SQL and NoSQL (e.g. MongoDb or DynamoDB)
  • Big Plus: Experience with data warehouses (e.g. Snowflake, Big Query, Redshift)
  • Exposure to ML/AI libraries such as sklearn, LightGBM and, XGBoost.
  • Travel Visa to the US (desired)

Conditions

Uber rides to come to the office!
Travel to team's offsite events
Learn about multiple technologies

Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Meals provided Haystack News provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Company retreats Team-building activities outside the premises.
Computer repairs Haystack News covers some computer repair expenses.
Commuting stipend Haystack News offers a stipend to cover some commuting costs.
Computer provided Haystack News provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Conference stipend Haystack News covers tickets and/or some expenses for conferences related to the position.
Informal dress code No dress code is enforced.
Vacation over legal Haystack News gives you paid vacations over the legal minimum.
Beverages and snacks Haystack News offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Machine Learning Engineer
  • NeuralWorks
  • Santiago (Hybrid)
Python Data Analysis SQL Big Data

NeuralWorks es una compañía de alto crecimiento fundada hace 3 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

Apply without intermediaries through Get on Board.

Descripción del trabajo

El equipo de Data y Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.

Trabajarás transformando los procesos a MLOps y creando productos de datos a la medida basados en modelos analíticos, en su gran mayoría de Machine Learning, pero pudiendo usar un espectro de técnicas más amplio.

Dentro del equipo multidisciplinario con Data Scientist, Translators, DevOps, Data Architect, tu rol será extremadamente importante y clave para el desarrollo y ejecución de los productos, pues eres quien conecta la habilitación y operación de los ambientes con el mundo real. Te encargarás de aumentar la velocidad de entrega, mejorar la calidad y la seguridad del código, entender la estructura de los datos y optimizar los procesos para el equipo de desarrollo.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Como MLE, tu trabajo consistirá en:

  • Trabajar directamente con el equipo de Data Scientists para poner en producción modelos de Machine Learning utilizando y creando pipelines de ML.
  • Recolección de grandes volúmenes y variados conjuntos de datos.
  • Recolección de interacción con la realidad para su posterior reentrenamiento.
  • Construir las piezas necesarias para servir nuestros modelos y ponerlos a interactuar con el resto de la compañía en un entorno real y altamente escalable.
  • Trabajar muy cerca de los Data Scientists buscando maneras eficientes de monitorear, operar y darle explicabilidad a los modelos.
  • Promover una cultura técnica impulsando los productos de datos con las prácticas DevSecOps, SRE y MLOps.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia práctica de al menos 3 años en entornos de trabajo como Software Engineer, ML Engineer, entre otros.
  • Experiencia con Python.
  • Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida optimización de consultas.
  • Experiencia usando pipelines de CI/CD y Docker.
  • Pasión en problemáticas de procesamiento de datos.
  • Experiencia con servidores cloud (GCP, AWS o Azure, de preferencia GCP), especialmente el conjunto de servicios de procesamiento de datos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.
  • Habilidades de comunicación y trabajo colaborativo.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” Gaucher, D., Friesen, J., & Kay, A. C. (2011).

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.
  • Stack orientado a modelos econométricos (statsmodels, pyfixest), serialización.
  • Experiencia con algún motor de datos distribuido como pyspark, dask, modin.
  • Interés en temas "bleeding edge" de Inferencia Causal: (Técnicas Observacionales, Inferencia basada en diseño, Probabilidad y Estadística [Fuerte énfasis en OLS y sus distintas expansiones]).

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Vestimenta informal
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Practicante Ing Informática para Desarrollo e IA Generativa
  • BICE VIDA
  • Santiago (In-office)
Python Back-end Generative AI SER

En BICE VIDA somos líderes en el rubro de las aseguradoras y queremos satisfacer las necesidades de seguridad, prosperidad y protección de nuestros clientes. Estamos apostando por la transformación digital, buscando nuevas formas de realizar el negocio, para mantenernos vigente y responder a los constantes cambios que el entorno nos exige.

¡Únete a un equipo apasionado y altamente motivado por brindar soluciones innovadoras a sus clientes!

“Esta oferta se enmarca en la ley 21.015 que incentiva la inclusión laboral de personas en situación de discapacidad. Aquellos interesados, contarán con el apoyo de la Compañía para realizar un proceso inclusivo y en igualdad de condiciones. BICE Vida se compromete a resguardar la información que postulantes en situación de discapacidad proporcionen de manera voluntaria”.

Find this vacancy on Get on Board.

¿Qué buscamos?

En BICE Vida nos encontramos en búsqueda de un Alumno en Práctica de las carreras de Ingeniería Informática, Industrial o carrera afín, para apoyar en la Sugerencia de Sistemas Financieros de la Gerencia de Sistemas en la implemementación de agente Copílot Studio basado en IA generativa para ser habilitado a Mesa de Ayuda y Servicio al Cliente.

En este rol deberás:

  • Implementar agente Copílot Studio basado en IA generativa.
  • Realizar laboreas de programación y finetuninng en plataforma Copilot studio.
  • Ir documentando el proceso

¿Qué necesitamos?

  • Formación académica: Ingeniería Informática, Industrial o carrera afín.
  • Ser alumno regular o egresado en búsqueda de su práctica profesional, como requisito para su título.
  • Conocimientos de IA generativa ,MY APPS, BBDD, Python.

¿Cómo es trabajar en BICE Vida?

  • Trabajamos en horario de oficina de lunes a jueves hasta las 18:00 hrs y los viernes hasta las 16.00 hrs ⌚.
  • Estamos ubicados en Av. Providencia, a pasos del metro Pedro de Valdivia.
  • Tendrás la posibilidad de contar con almuerzo gratuito 🍲 en las dependencias de la compañía cuando asistas presencial. Además, contamos con menú vegetariano y viernes de barra no fit 😜.
  • La práctica considera un bono mensual 💸.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Senior Machine Learning Engineer
  • ZeroFox
  • Santiago (Hybrid)
Python Agile Artificial Intelligence Machine Learning

Opportunity Overview

At ZeroFox, we are passionate about bringing world-class protection to the digital-first world. Together, we have built a system capable of collecting and analyzing data from all over the internet, creating a paradigm-shifting cybersecurity product that helps secure and protect our customers and improves the global threat landscape.

We are a team of software engineers, cybersecurity experts, and data scientists who continue to develop unparalleled solutions for the cyber security industry by providing the best Digital Risk Protection SaaS in the global market. Our company, services, and user base are growing faster than ever and we’d like you to help us innovate. We believe the greatest solutions in the Digital Risk Protection space come from composing teams with varied backgrounds and experiences that can use their complementary skill sets to come up with the best market-defining solutions.

Apply through Get on Board.

Role and responsibilities

  • Collaborate with industry experts across security, machine learning, digital risk protection, and cyber threat intelligence to develop cutting-edge machine learning solutions for the ZeroFox platform.
  • Help define machine learning roadmaps and projects for your team, with a pragmatic balance of higher risk and lower risk efforts.
  • Design, develop, and deploy advanced machine learning models and systems for natural language processing and computer vision applications, to enhance the lives of our customers while making the internet a safer place.
  • Evaluate and improve the accuracy, efficiency, and scalability of existing ML models.
  • Design and conduct statistically rigorous experiments (hypothesis testing, replication, etc.)
  • Conduct research and stay up-to-date with the latest advancements in NLP and computer vision techniques to integrate them into our solutions.
  • Collaborate with product managers, data analysts, software engineers and non-technical stakeholders to integrate ML models into the ZeroFox platform.
  • Analyze and preprocess large, diverse datasets, ensuring the quality and integrity of the data used for model training and evaluation.
  • Maintain clear and well-documented code to ensure long-term sustainability and smooth collaboration with other team members.
  • Provide technical guidance and mentorship to junior engineers, and ensure your team’s growth and success.

Required Qualifications and Skills

  • Motivated, communicative, teamwork-oriented leader who is comfortable working in agile environments and is able to learn and adapt quickly
  • Bachelor’s degree in computer science, math, physics, or a related field, OR equivalent education or experience
  • Machine learning experience, typically a minimum of 5 years
  • Team and/or project leadership experience, typically a minimum of 2 years
  • Proficiency in PyTorch, TensorFlow, or similar machine learning frameworks
  • Proficiency in Python
  • Strong applied knowledge of statistics and scientific methods
  • Solid understanding of data structures and algorithms
  • Strong software engineering design and implementation skills involving multiple technology layers (databases, API’s, caching layers, etc.)
  • Good communication, collaboration, and presentation skills in English
  • Ability to work effectively in a fast-paced, agile environment.

Desirable skills

  • Strong knowledge of NLP techniques, including but not limited to tokenization, parsing, sentiment analysis, topic modeling, and named entity recognition.
  • Strong knowledge of computer vision techniques such as object detection, segmentation, image classification, and OCR.

Benefits

  • Opportunities to learn and contribute your knowledge to our Digital Risk Protection platform
  • Competitive compensation
  • Competitive PTO
  • Complementary health insurance
  • Daily catered lunches for in-office work
  • Respectful and nourishing work environment, where every opinion is heard and everyone is encouraged to be an active part of the organizational culture.
  • Regular team bonding activities like cooking and cocktails classes, bingos, stand up comedy, magic shows, virtual happy hour, lunch and learns, etc.
  • Additional Parental Leave
  • Excellent communication: between teams, people, organizations and leaders

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance ZeroFox pays or copays life insurance for employees.
Meals provided ZeroFox provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage ZeroFox pays or copays health insurance for employees.
Dental insurance ZeroFox pays or copays dental insurance for employees.
Computer provided ZeroFox provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal ZeroFox gives you paid vacations over the legal minimum.
Beverages and snacks ZeroFox offers beverages and snacks for free consumption.
Parental leave over legal ZeroFox offers paid parental leave over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1800 - 3000 Tiempo completo
Ingeniero/a de NLP – Asistente Conversacional con IA
  • Lisit
Python Docker Azure Google Cloud Platform
Lisit es una empresa especializada en la creación, desarrollo e implementación de servicios de software innovadores, orientados a proveer herramientas de automatización y optimización para sus clientes. Con un fuerte enfoque en la innovación y la pasión por superar desafíos tecnológicos, Lisit acompaña a sus clientes mediante consultoría y la integración de variadas prácticas y herramientas tecnológicas, asegurando la ejecución exitosa de procesos de transformación digital a través de estrategias integrales.

Actualmente, el equipo de Lisit desarrolla un proyecto enfocado en la creación de un asistente conversacional basado en inteligencia artificial, empleando tecnologías avanzadas de procesamiento de lenguaje natural (NLP). Este proyecto busca potenciar la interacción entre usuarios y sistemas mediante la comprensión y generación de lenguaje natural, integrando modelos de última generación y soluciones tecnológicas robustas para mejorar la experiencia del usuario final.

This job is published by getonbrd.com.

Responsabilidades principales

En este rol como Ingeniero/a de NLP, serás responsable de diseñar e implementar modelos avanzados de procesamiento de lenguaje natural que permitan comprender y generar lenguaje natural con alta precisión. Deberás integrar modelos preentrenados como GPT o BERT, y trabajar con servicios de inteligencia artificial de plataformas como OpenAI o Hugging Face.
Además, desarrollarás flujos conversacionales inteligentes que manejan contexto e identifican intenciones de forma efectiva, integrando el asistente con APIs, diversas plataformas de mensajería (Slack, WhatsApp, Teams, entre otras) y bases de datos para asegurar una experiencia de usuario fluida y completa.
Serás responsable de la evaluación continua de los modelos mediante métricas estándares como precisión y F1, colaborando estrechamente con equipos de desarrollo, experiencia de usuario (UX) y áreas de negocio para asegurar que las soluciones implementadas estén alineadas con los objetivos estratégicos y necesidades del cliente.

Descripción del puesto y requisitos

Buscamos un/a profesional con experiencia sólida en Python y en el manejo de librerías especializadas en NLP, tales como spaCy, NLTK y Transformers. Además, es necesario contar con conocimientos prácticos en frameworks para asistentes conversacionales como Rasa o Dialogflow, así como experiencia en diseño y manejo del contexto en sistemas conversacionales.
El candidato ideal debe poseer conocimientos técnicos en la integración de APIs RESTful y en la implementación de asistentes a través de múltiples plataformas de mensajería populares, incluyendo Slack, WhatsApp y Microsoft Teams. Valoramos también la familiaridad con herramientas de contenedorización como Docker y prácticas de integración y despliegue continuo (CI/CD), así como experiencia con servicios en la nube tales como AWS, Azure o Google Cloud Platform.
Adicionalmente, se valoran las competencias en proyectos relacionados con grandes modelos de lenguaje (LLMs) como GPT o Claude, la capacidad para diseñar flujos conversacionales empáticos y funcionales, y el conocimiento en técnicas de prompt engineering para optimizar la interacción con modelos de IA generativa.

Conocimientos y habilidades deseables

Se considerará un plus la experiencia previa en proyectos que involucren grandes modelos de lenguaje (LLMs) como GPT o Claude, así como la habilidad para diseñar flujos de conversación que sean tanto funcionales como empáticos, mejorando la experiencia del usuario final.
El conocimiento en el área de prompt engineering para mejorar el rendimiento de modelos generativos, así como el dominio de herramientas para la automatización de despliegues en entornos de producción (Docker, CI/CD) y manejo de infraestructuras en la nube (AWS, Azure, GCP) también serán muy valorados.

Beneficios y entorno laboral

Ofrecemos la oportunidad de trabajar en proyectos desafiantes y de largo plazo dentro de un equipo técnico colaborativo y con un ambiente laboral excelente y amigable. Promovemos la estabilidad laboral, ofreciendo múltiples oportunidades de desarrollo profesional y crecimiento dentro de la compañía.
El trabajo es 100% remoto, idealmente dirigido a candidatos residentes en Chile, lo cual facilita la conciliación entre la vida personal y profesional sin perder el compromiso ni la comunicación estrecha con el equipo.

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Mlops Engineer
  • Niuro
Python Linux DevOps Docker
At Niuro, we are dedicated to connecting projects with elite tech teams, working collaboratively with leading companies in the U.S. Our AI team is expanding, and we are seeking a proactive MLOps Engineer to help us build and maintain robust machine learning pipelines. You will play a critical role in ensuring that our models are production-ready and scalable within dynamic environments, contributing to the successful execution of innovative projects.

Find this job on getonbrd.com.

Responsibilities

  • Pipeline Management & Automation: Build and maintain ML pipelines using Databricks and MLflow. Automate data workflows and ensure reproducibility of experiments.
  • Model Deployment & Monitoring: Deploy models to production and monitor their performance over time. Implement best practices for CI/CD in machine learning using Bitbucket.
  • Infrastructure & Environment Management: Manage and monitor batch jobs on Linux environments. Collaborate with data scientists to ensure smooth transitions from notebooks to production-grade code.
  • Collaboration & Documentation: Work closely with international teams to align on MLOps strategies and solutions. Document workflows and setups to ensure maintainability and transparency.

Requirements

  • Experience: 3+ years working in MLOps, DevOps, or related roles with machine learning pipelines.
  • Technologies: Hands-on experience with Databricks, MLflow, Python, Bitbucket, Batch processing, and Linux.
  • English: Intermediate-advanced written and spoken English (required) to work with international teams.
  • Mindset: Strong problem-solving skills and a passion for automation, performance, and scalability.

Preferred Qualifications

  • Experience working in remote, agile teams with international clients.
  • Familiarity with cloud services (AWS, Azure, or GCP).
  • Knowledge of Docker, Kubernetes, or Terraform is a plus.

What We Offer

  • 🌎 100% Remote – Work from anywhere!
  • 📈 Professional Growth – Join an innovative and collaborative AI-driven environment.

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer Inteligencia Artificial
  • Factor IT
Java Python SQL Web server
FactorIT es un líder en tecnología con presencia en 8 países y se dedica a ofrecer soluciones innovadoras en Data y Analytics, Transformación Digital e Inteligencia Artificial. Estamos buscando un profesional talentoso para unirse a nuestro equipo en el desarrollo de infraestructuras de datos específicas para proyectos de IA, lo que representa una gran oportunidad para participar en iniciativas desafiantes y significativas que tendrán un impacto en múltiples industrias.

Applications are only received at getonbrd.com.

Responsabilidades:

En esta función, el candidato será responsable de:
  • Desarrollar y optimizar pipelines de datos para modelos de IA.
  • Colaborar con arquitectos de datos y científicos de datos para construir soluciones escalables y eficientes.
  • Gestionar la integración y almacenamiento de grandes volúmenes de datos utilizando diversas herramientas y plataformas de IA.
  • Mejorar la calidad de los datos garantizando su adecuada preparación para el entrenamiento de modelos de Machine Learning.
  • Implementar procesos automatizados para la recolección y el procesamiento de datos.

Requisitos:

Buscamos a alguien que cumpla con las siguientes calificaciones:
  • Experiencia mínima de 4 años en ingeniería de datos con un énfasis en Inteligencia Artificial.
  • Conocimientos técnicos en herramientas de procesamiento de datos como Apache Spark, Kafka, Hadoop, entre otros.
  • Experiencia trabajando con grandes volúmenes de datos y tecnologías de almacenamiento en la nube.
  • Dominio de lenguajes de programación como Python, SQL y otros orientados a la manipulación de datos.
  • Conocimiento práctico en la implementación de Machine Learning y Deep Learning.

Deseable:

Experiencia en entornos de trabajo ágil y capacidad para gestionar múltiples proyectos simultáneamente. La pasión por la innovación y el deseo de aprendizaje continuo son altamente valorados.

Ofrecemos:

En FactorIT, promovemos un entorno dinámico y de innovación tecnológica. Ofrecemos:
  • Capacitación continua en tecnologías emergentes, especialmente en IA.
  • Flexibilidad y opción de trabajo remoto, permitiendo un mejor balance entre la vida personal y laboral.
  • Oportunidades de crecimiento profesional en un ambiente inclusivo que valora la creatividad y el trabajo en equipo.
¡Si eres un experto en ingeniería de datos con pasión por la Inteligencia Artificial, te estamos esperando! 🚀

Fully remote You can work from anywhere in the world.
Computer provided Factor IT provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Senior Computer Vision Engineer
  • Niuro
C C++ Python Big Data

At Niuro, we connect elite tech teams with innovative projects in collaboration with leading U.S. companies. Our mission emphasizes simplifying global talent acquisition through efficient and high-quality solutions. We empower our teams by providing opportunities for continuous professional growth, ensuring success in technologically challenging projects. As such, we handle all administrative aspects including hiring and payments, allowing our professionals to focus on achieving outstanding results in their respective fields.

Find this vacancy on Get on Board.

Responsibilities

  • Model Development & Optimization: Enhance accuracy and speed of YOLO (or similar models) through advanced CNN architectures and optimization techniques.
  • Dataset Management & Augmentation: Expand and refine datasets, utilizing data augmentation techniques to enhance model robustness.
  • Model Training & Evaluation: Train and validate models against key metrics (precision, recall, mAP) to ensure reliable performance in real-world scenarios.
  • Deployment on Embedded Hardware: Optimize and deploy models on Jetson Orin Nano (or similar) using TensorRT for high-speed inference.
  • Real-World Validation: Test models in sterilization and surgical environments, iterating and refining based on real-world performance feedback.

Requirements

  • Computer Vision Expertise: 5+ years in deep learning and computer vision.
  • Model Development: Strong experience with YOLO, Faster R-CNN, EfficientDet, or similar architectures.
  • Deep Learning Frameworks: Proficiency in PyTorch or TensorFlow for model training and optimization.
  • Data Handling: Experience managing large datasets and applying data augmentation techniques.
  • Performance Optimization: Knowledge of model quantization, pruning, and employing TensorRT for real-time inference.
  • Embedded AI: Proven experience deploying models on NVIDIA Jetson devices.
  • Evaluation & Metrics: Strong familiarity with key performance metrics including mAP, IoU, recall, and precision.
  • Software Development Skills: Proficiency in Python, with experience in C++ being a plus.
  • Problem-Solving & Debugging: Ability to fine-tune models based on real-world feedback.
  • OpenCV Expertise: Demonstrable experience with OpenCV for advanced image processing and real-time computer vision applications.

Nice to Have

  • Experience with ONNX, OpenVINO, or similar model optimization tools.
  • Familiarity with ROS (Robot Operating System) for robotics applications.
  • Experience in medical imaging or AI applications within healthcare.
  • Knowledge of sensor fusion technologies such as LiDAR and depth cameras.

What We Offer

🌎 100% Remote – Work from anywhere in the world!
📈 Cutting-Edge AI Projects – Engage in real-world AI applications specifically oriented towards the medical field.
💰 Competitive Salary & Performance Reviews – Compensation is tailored according to experience.
🛠 High-Impact Work – Contribute to AI solutions that promote safety and enhance efficiency in surgical environments.
🎓 Learning & Development – Gain access to extensive training, conferences, and mentorship opportunities.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3000 - 5000 Tiempo completo
R & D Engineer (Pytorch)
  • Softserve
Python Big Data R English

WE ARE

SoftServe is a leading advisory and IT development services company that assists clients in constructing cutting-edge and innovative solutions while delivering exceptional value. Together with you, we establish and achieve goals to foster mutual growth, learning from successes and mistakes.

Our R&D team applies deep learning and computer vision expertise to cross-disciplinary research from human-computer interaction and bioinformatics to computational finance. We run multiple technology and academic partnerships and expose our research at global events and conferences.

Applications at getonbrd.com.

Job functions

  • Develop innovative agentic AI solutions across diverse applications throughout the SDLC
  • Proactively propose and implement emerging technologies, studying and adapting to market needs and industry trends
  • Define and execute the technological vision in new research areas by prototyping and developing advanced technological demos
  • Coordinate and deliver presentations at external events, including conferences, meetups, and specialized gatherings
  • Advise external and internal clients on technologies, solutions, and trends to foster innovation and strategic decision-making
  • Align research fields with business needs, ensuring technological advancements address key industry demands
  • Apply proven innovation consulting methodologies to design cutting-edge technological solutions for customer challenges
  • Support business development efforts through marketing, presentations, and presales activities to drive growth and engagement

Qualifications and requirements

  • Experienced with over 6 years in Python and PyTorch
  • Proficient in building and optimizing AI models
  • Knowledgeable in Large Language Models (LLMs) and Vision-Language Models (VLMs), with hands-on experience in their applications
  • Skilled and hands-on with LLMs and prompting techniques, including Chain-of-Thought and Tree-of-Thought reasoning, to enhance model performance
  • Accustomed to the software development lifecycle (SDLC) and programming best practices, ensuring efficient and scalable solutions
  • Proficient in developing applications with web interfaces or user-interactive components, with a solid grasp of architecture and functionality
  • Skilled in Python backend frameworks like FastAPI, with experience in building efficient and scalable APIs
  • Familiar with tools like LangChain, LangGraph, and various agentic frameworks for AI development
  • Comfortable working with modern software development company operations, including workflows, collaboration, and deployment strategies
  • A strong professional, capable of working independently, making decisions, and collaborating in a team-oriented environment
  • A critical thinker and problem-solver, skilled in analyzing complex AI challenges and devising effective solutions
  • Capable of daily communication in English at an upper-intermediate level (written and spoken)

Together we will

  • Empower you to scale your expertise with others by joining the R&D team
  • Excel business of our clients from startups and ISVs to Enterprise and Fortune 500 companies
  • Care for your wellness with a health insurance package
  • Be a part of something bigger than a single project in the professional community
  • Access local-grown, yet global IT minds and exclusive networking opportunities with expert groups and professional events

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Especialista en Agentes Verticales AI
  • Forma - Moovmedia Group
Python Data Analysis Artificial Intelligence Machine Learning

¡Hola! Somos Moov Media Group, una familia de empresas integrada por Moov, Metrix y Forma. Nuestro modelo es colaborativo, ¿qué significa esto? Que trabajamos de manera específica o integral según las necesidades de cada cliente.

Navegamos en el mundo digital usando la tecnología, la data analytics, los medios y la publicidad para encontrar soluciones de marketing multicanal que nos conviertan en los más secos de Latinoamérica.

Hoy queremos seguir creciendo y para eso buscamos un Especialista en Agentes Verticales AI que nos acompañe a recorrer el mundo digital en una empresa con cultura flexible, ágil e innovadora. ¿Te tinca saber más? Entonces quédate para contarte.

El proceso de selección consta de:

  • Llamado telefónico
  • Entrevista con Selección
  • Entrevista con jefatura directa.

¿Te interesa? ¡Dale! Escríbenos y conversemos.

Find this job and more on Get on Board.

Funciones del cargo

  • Diseñar, desarrollar y entrenar agentes de IA especializados en distintos sectores (e-commerce, turismo, salud, marketing, entre otros).
  • Configurar sistemas de IA conversacional utilizando tecnologías avanzadas (por ejemplo, GPT, LLMs, Dialogflow, Rasa) para resolver casos de negocio específicos.
  • Monitorear, evaluar y optimizar el rendimiento de los agentes de IA para garantizar interacciones fluidas y resultados precisos.
  • Colaborar con equipos de desarrollo para integrar los agentes en distintas plataformas y canales (sitios web, apps, redes sociales, chatbots).
  • Trabajar con clientes internos y externos para entender sus necesidades y personalizar las soluciones de IA verticales.
  • Identificar oportunidades de mejora y nuevas aplicaciones de IA en industrias emergentes.
  • Utilizar datos y retroalimentación para ajustar los modelos de IA y mejorar continuamente la experiencia de usuario.

Requerimientos del cargo

  • Ingeniería en Computación, Ciencia de Datos, Inteligencia Artificial o carreras afines.
  • 3-5 años de experiencia en el desarrollo de agentes conversacionales basados en IA o aplicaciones relacionadas.
  • Experiencia trabajando con plataformas de procesamiento de lenguaje natural (PLN), tales como OpenAI, Dialogflow, IBM Watson o similares.
  • Experiencia en la construcción y entrenamiento de modelos de lenguaje (por ejemplo, GPT, BERT).
  • Conocimientos en Python, TensorFlow, PyTorch u otros frameworks de machine learning.
  • Integración de APIs y servicios de terceros.
  • Experiencia en análisis de datos para ajustar el rendimiento de los modelos.

Condiciones

  • Tarde libre para el día de cumpleaños de tu hijo.
  • Día libre para realizar tu mudanza.
  • 5 días libres con goce de sueldo al cumplir 1 año laboral.
  • Convenio con caja de compensación Los Andes.
  • Convenio con DODO, plataforma que aporta al bienestar/salud mental.

Fully remote You can work from anywhere in the world.
Computer provided Moov Media Group provides a computer for your work.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Docente Programación Algoritmos para IoT Sede Plaza Oeste
  • Duoc UC
  • Santiago (In-office)
Java Python Internet of Things IoT
En Duoc UC, una institución de educación superior técnico profesional autónoma y católica con más de 50 años de historia y la máxima acreditación otorgada por la CNA, formamos profesionales preparados para los desafíos actuales. La Escuela de Informática y Telecomunicaciones de la sede Plaza Oeste busca integrar docentes en áreas innovadoras como Programación de Algoritmos para IoT, contribuyendo a la formación integral y técnica de estudiantes en tecnologías emergentes y desarrollo de software especializado.

Apply directly through getonbrd.com.

Responsabilidades principales

Duoc UC Sede Plaza Oeste, Escuela de Informática y Telecomunicaciones requiere contratar docentes para la asignatura de Programación de Algoritmos para IoT con disponibilidad en jornada diurna, que será responsable de liderar el proceso de enseñanza y aprendizaje de acuerdo con el modelo educativo, alineado al marco valórico institucional, movilizando su formación y experiencia profesional, valores y conocimiento disciplinar, para ser un real aporte al aprendizaje de los estudiantes.

Requisitos del cargo

Es requisito contar con:

  • Formación: Ingeniero en Informática, Ingeniero en Computación o Ingeniero en Conectividad y Redes.
  • Experiencia: 3 años de experiencia en tecnologías emergentes TI e IoT. Conocimientos teóricos y prácticos en desarrollo de algoritmos. Dominio avanzado en el área de programación y/o desarrollo de software. Conocimiento avanzado en lenguaje Python.
  • Disponibilidad: Jornada Diurna / Lunes de 12:10hrs a 13:40hrs, Miércoles de 10:41hrs a 12:10hrs.
  • Otros requisitos: Deseable certificación en: Java SE 6 Programmer o superior, Microsoft Technology Associate (MTA), Microsoft Certified Solutions Developer (MCSD)

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Docente Problemáticas Globales y Prototipado Plaza Oeste
  • Duoc UC
  • Santiago (In-office)
JavaScript Java Python Agile
En Duoc UC, una institución técnica profesional de educación superior autónoma y católica con más de 50 años de trayectoria y la máxima acreditación otorgada por la CNA, buscamos incorporar un docente para la Escuela de Informática y Telecomunicaciones en la Sede Plaza Oeste. El cargo forma parte de un equipo académico comprometido con la formación integral y actualizada de estudiantes en áreas emergentes de la informática y las telecomunicaciones. El programa académico incluye asignaturas clave orientadas a la innovación, prototipado y problemáticas globales en tecnología, alineado con el modelo educativo y valores institucionales. Trabajamos en un ambiente que fomenta el rigor académico, la innovación pedagógica y el compromiso social, aportando significativamente al desarrollo profesional de los futuros técnicos y especialistas que formamos.

Originally published on getonbrd.com.

Funciones y responsabilidades

Duoc UC Sede Plaza Oeste, Escuela de Informática y Telecomunicaciones requiere contratar docente para la asignatura de Problemáticas Globales y Prototipado con disponibilidad en jornada diurna que será responsable de liderar el proceso de enseñanza y aprendizaje de acuerdo con el modelo educativo, alineado al marco valórico institucional, movilizando su formación y experiencia profesional, valores y conocimiento disciplinar, para ser un real aporte al aprendizaje de los estudiantes.

Requisitos y perfil del candidato

Es requisito contar con:
  • Formación: Ingeniero en Informática, Ingeniero en Computación, Ingeniero en Conectividad y Redes o afin.
  • Experiencia: 2 años de experiencia en procesos de Transformación Digital y PMO. Conocimientos teóricos/prácticos en el uso de dispositivos IoT. - Conocimientos sobre herramientas de gestión de proyectos basados en PMO, Agile y Lean. - Dominio en la administración de recursos y servicios Cloud (AWS). - Capacidad para integrar tecnologías mediante el uso de interfaces de programación basadas en Python, Node, Java (API).
  • Disponibilidad: Jornada Diurna / Lunes de 10:01hrs a 12:50hrs, Jueves de 10:01hrs a 12:10hrs, Viernes de 10:01hrs a 12:10hrs.
  • Otros requisitos: Habilitación instructor en Academia Cisco - IoT Fundamentals.

POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2300 Tiempo completo
Analista Desarrollador Senior .NET
  • BC Tecnología
  • Santiago (Hybrid)
SQL C# C .Net
En *BC Tecnología*, somos una consultora de TI con personal experto en diversas áreas tecnológicas. Nuestro enfoque se basa en brindar soluciones ajustadas a las necesidades específicas de cada cliente en sectores como servicios financieros, seguros, retail y gobierno.
Desde hace 6 años, diseñamos y desarrollamos proyectos con énfasis en metodologías ágiles y un enfoque centrado en el cliente, asegurando la formación de equipos de trabajo adecuados y la correcta implementación de servicios de soporte y administración IT.

Responsabilidades Principales

  • Desarrollar, mantener y optimizar aplicaciones y soluciones tecnológicas según los requerimientos del negocio.
  • Realizar el levantamiento de información y análisis funcional para comprender las necesidades del cliente y proponer soluciones efectivas.
  • Desarrollar y ejecutar consultas avanzadas en SQL para la gestión y análisis de datos.
  • Programar y automatizar flujos de trabajo mediante Control-M para garantizar la ejecución eficiente de procesos críticos.
  • Desarrollar componentes y aplicaciones utilizando C#, Visual Studio y Python, asegurando el cumplimiento de estándares de calidad y seguridad.
  • Documentar de manera clara y detallada los procesos, desarrollos y flujos de trabajo implementados.
  • Colaborar con equipos multidisciplinarios para asegurar la correcta implementación y adopción de las soluciones desarrolladas.
  • Realizar pruebas y validación de los desarrollos para garantizar su correcto funcionamiento y rendimiento.

Requisitos del Puesto

Para tener éxito en esta posición, buscamos un profesional con sólidas habilidades analíticas y experiencia técnica avanzada en los siguientes ámbitos:
  • SQL: Dominio en consultas avanzadas, optimización de consultas y procedimientos almacenados.
  • Control-M: Experiencia en automatización y programación de tareas.
  • C# y Visual Studio: Desarrollo de aplicaciones y componentes.
  • Python: Desarrollo de scripts y automatización.
Además, es esencial tener la habilidad de trabajar en entornos colaborativos y dinámicos, garantizando la calidad y eficiencia en cada entrega.

Conocimientos Deseables

Sería un plus contar con conocimientos adicionales en metodologías ágiles, integración continua y despliegue, así como en herramientas de gestión de proyectos. La experiencia previa trabajando en entornos de desarrollo colaborativo y en equipos multidisciplinarios también sería muy valorada.

Beneficios para el Empleado

Ofrecemos un ambiente de trabajo dinámico y colaborativo, con oportunidades de crecimiento profesional y desarrollo de habilidades técnicas. Además, fomentamos un enfoque ágil que permite un mejor balance entre el trabajo y la vida personal.
Los empleados disfrutarán de beneficios adicionales como seguro de salud, horarios flexibles y participación en proyectos innovadores que impactan a nuestros clientes en diversos sectores.

POSTULAR VÍA WEB Ver trabajo
Gross salary $3500 - 4200 Tiempo completo
Full-Stack Developer Python
  • CareLinx Inc
Django Python Full-stack CI/CD

CareLinx is transforming access to affordable, quality in-home care for families with aging or disabled loved ones. As the leading caregiver marketplace with over 500,000 caregivers in the U.S.A, CareLinx empowers families to find, hire, manage, and pay caregivers. CareLinx also partners with health systems to provide post-acute care solutions that deliver visibility into the home and cloud-based tools for centralized, real-time interventions.

As a full-time contractor python engineer, you will work in a fast-paced environment to create delightful experience for our caregivers, families, and business partners. This position will report to our VP Engineering and will work closely with product and engineering teams.

Work will be fully remote and 40 hours per week. Our team is made up of a diverse group of designers, product managers, and engineers.

Responsibilities

  • Write maintainable Python code utilizing Django Rest Framework while utilizing best practices
  • Build features that scales
  • Understands and follows software development guidelines
  • Ensures support systems are available and responsive
  • Able to attend engineering and project virtual meetings as required

Requirements

  • At least 2 years of professional experience with Python / Django
  • Demonstrate understanding with test driven methodologies
  • Comfortable working with CI/CD and command/terminal shell
  • Ability to communicate well in English (verbal and written)
  • Has sufficient network bandwidth to do video conference
  • Able to work within USA timezone
  • Attention to detail
  • Able to communicate clearly

Desirable candidates (Optional)

  • Computer Science or related degree
  • 2+ years professional experience with developing and deploying commercial applications

Conditions

  • Compensation will be very competitive and will be dependent on skillset & relevant experience
  • Fully remote
  • Flexible schedules and time off
  • Features built by developers directly affects user experience and quality of life

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
MLOps Engineer
  • Niuro
Python Linux DevOps Docker
At Niuro, we are dedicated to connecting projects with elite tech teams, working collaboratively with leading companies in the U.S. Our AI team is expanding, and we are seeking a proactive MLOps Engineer to help us build and maintain robust machine learning pipelines. You will play a critical role in ensuring that our models are production-ready and scalable within dynamic environments, contributing to the successful execution of innovative projects.

© Get on Board.

Responsibilities

  • Pipeline Management & Automation: Build and maintain ML pipelines using Databricks and MLflow. Automate data workflows and ensure reproducibility of experiments.
  • Model Deployment & Monitoring: Deploy models to production and monitor their performance over time. Implement best practices for CI/CD in machine learning using Bitbucket.
  • Infrastructure & Environment Management: Manage and monitor batch jobs on Linux environments. Collaborate with data scientists to ensure smooth transitions from notebooks to production-grade code.
  • Collaboration & Documentation: Work closely with international teams to align on MLOps strategies and solutions. Document workflows and setups to ensure maintainability and transparency.

Requirements

  • Experience: 3+ years working in MLOps, DevOps, or related roles with machine learning pipelines.
  • Technologies: Hands-on experience with Databricks, MLflow, Python, Bitbucket, Batch processing, and Linux.
  • English: Intermediate-advanced written and spoken English (required) to work with international teams.
  • Mindset: Strong problem-solving skills and a passion for automation, performance, and scalability.

Preferred Qualifications

  • Experience working in remote, agile teams with international clients.
  • Familiarity with cloud services (AWS, Azure, or GCP).
  • Knowledge of Docker, Kubernetes, or Terraform is a plus.

What We Offer

  • 🌎 100% Remote – Work from anywhere!
  • 📈 Professional Growth – Join an innovative and collaborative AI-driven environment.

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Paid Marketing Analyst
  • Remote
  • Remoto 🌎
Full Time Google Ads Meta Ads Manager Google Analytics Looker Excel

📍 100% Remoto | Posición global | Tiempo completo

Sobre la empresa

Remote está resolviendo uno de los mayores desafíos de las organizaciones modernas: la contratación y gestión de talento global de forma sencilla y legal. Desde equipos distribuidos en 6 continentes (¡solo falta la Antártida!), trabajamos en remoto resolviendo problemas complejos de forma asincrónica.

Sobre el rol

Buscamos un/a Analista de Marketing Pago con mentalidad analítica y enfoque global para apoyar y optimizar nuestras campañas de medios pagados (búsqueda, redes sociales y display). Colaborarás estrechamente con los campaign managers para detectar insights, identificar oportunidades de crecimiento y asegurar que nuestras inversiones sean eficientes y orientadas a resultados.

Este puesto es ideal para alguien con una base sólida en datos que quiera dar el siguiente paso en su carrera en marketing digital.

Responsabilidades

  • Monitorear, analizar y reportar el rendimiento de campañas pagas en Google Ads, Meta, LinkedIn y canales programáticos/display.
  • Identificar tendencias, anomalías y oportunidades dentro de los datos para proponer estrategias de optimización.
  • Apoyar en pruebas A/B, revisión de performance creativo y evaluación de estrategias de puja.
  • Colaborar con el equipo de marketing pago para mejorar el targeting, los embudos de conversión y la efectividad de landing pages.
  • Crear dashboards y plantillas de informes en Looker, GA4 o Excel/Sheets.
  • Trabajar con finanzas y operaciones para asegurar el cumplimiento del presupuesto y objetivos de ROI.
  • Mantenerse al día con cambios en plataformas y benchmarks de la industria.

Requisitos

  • Experiencia práctica con campañas pagas (búsqueda, redes, display) con enfoque global.
  • Dominio de métricas como CPC, CPA, CTR, ROAS y capacidad para interpretarlas.
  • Habilidad para trabajar con grandes volúmenes de datos y realizar análisis detallados de performance.
  • Manejo de herramientas como Google Ads, Meta Ads Manager, Google Analytics, Looker, Excel u otras plataformas de BI.
  • Enfoque analítico, curioso y detallista.
  • Excelentes habilidades de comunicación para transformar datos en insights accionables.
  • Bonus: Conocimientos de SQL, Python o herramientas de visualización de datos como Tableau o Power BI.

Beneficios

  • Rol de alto impacto con posibilidades de crecimiento hacia liderazgo de campañas o analítica estratégica.
  • Equipo colaborativo y ambicioso de marketing.
  • Exposición a campañas multi-canal y multi-región con presupuestos importantes.
  • Trabajo asincrónico y flexible: organizá tu día como mejor se adapte a tu vida.
  • Tiempo libre flexible y 16 semanas de licencia parental paga.
  • Stock options, presupuesto para formación, salud mental y más.


POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Senior Compliance Manager
  • Eqvilent
  • Remoto 🌎
Full Time CRM Python SQL sistemas de trading algorítmico herramientas de project management

Ubicación: Global

Tipo de puesto: Tiempo completo

Nivel: Senior / Managerial

Días libres: 40 días pagos al año

Modalidad: Totalmente remoto, con acceso a oficinas globales si lo deseás

🧭 Sobre el Rol

Estamos en búsqueda de un/a Senior Compliance Manager que lidere proyectos estratégicos dentro de nuestro marco de cumplimiento normativo. Esta persona debe contar con experiencia sólida tanto en regulación de mercados financieros como en cumplimiento tecnológico, una gran capacidad de gestión de proyectos, y comodidad para trabajar en un entorno ágil y exigente.

Se requiere un perfil altamente autónomo, responsable y enfocado, con capacidad para entender el contexto rápidamente, operar con bajo nivel de supervisión y asegurar entregas confiables.

💼 Responsabilidades

Liderazgo de Proyectos de Cumplimiento

  • Dirigir iniciativas clave como:
  • Revisión e implementación de controles ICT
  • Aplicación de nuevas normativas regulatorias
  • Integración de cumplimiento para nuevos mercados o venues
  • Proyectos de remediación regulatoria y mejora de controles
  • Definir alcance, entregables y métricas de éxito
  • Coordinar equipos multidisciplinarios y gestionar recursos y cronogramas

Gestión del Cumplimiento Regulatorio

  • Asumir responsabilidad en áreas específicas, como:
  • Regiones geográficas (APAC, Europa)
  • Dominios regulatorios (conducta de mercado, reportes)
  • Dominio de regulaciones como:
  • EE. UU.: SEC Rule 15c3-5, Reg NMS, Reg SHO, FINRA
  • Europa: MiFID II/MiFIR, MAR, EMIR
  • Asia: MAS (Singapur), HST (Japón)

Cumplimiento Tecnológico e Implementaciones ICT

  • Supervisar proyectos tecnológicos desde la perspectiva de cumplimiento
  • Asegurar controles en arquitectura de sistemas
  • Monitorear estándares técnicos (ej. RTS 6 - trading algorítmico)
  • Aprobar cambios tecnológicos y garantizar trazabilidad documental

Reportes Regulatorios

  • Supervisar cumplimiento de obligaciones como:
  • Reportes de transacciones (CAT, TRACE, MiFID II)
  • Reportes de posiciones y operaciones grandes
  • Cálculo y presentación de capital regulatorio
  • Atender inspecciones y solicitudes regulatorias

Gestión de Stakeholders

  • Ser el punto de contacto de Compliance para las áreas asignadas
  • Presentar métricas y avances a stakeholders internos
  • Participar en auditorías e investigaciones regulatorias

🧠 Requisitos

Formación y Certificaciones

  • Licenciatura en Finanzas, Derecho, Economía, Informática o similar (Master o JD deseable)
  • Certificaciones relevantes (ej. Series 7, 24, 57 o equivalentes internacionales)

Experiencia

  • 7–10+ años en funciones de compliance en servicios financieros
  • Al menos 3 años en trading electrónico o algorítmico
  • Experiencia comprobada en cumplimiento tecnológico y proyectos ICT

Conocimientos Técnicos

  • Sólido manejo de regulaciones globales
  • Conocimiento de:
  • Gobernanza ICT y control interno
  • Requisitos para desarrollo y prueba de algoritmos
  • Procesos de gestión de cambios tecnológicos
  • Estándares técnicos en trading electrónico

Competencias

  • Interpretación de normativas complejas aplicadas a HFT
  • Gestión de proyectos multifuncionales
  • Capacidad analítica, proactividad y comunicación efectiva
  • Autonomía, capacidad de priorizar y liderazgo colaborativo

🎯 Deseables

  • Experiencia previa en firmas de trading propietario o HFT
  • Certificaciones técnicas (CISA, CISSP) o experiencia en auditoría TI
  • Experiencia en cumplimiento DevOps y CI/CD
  • Conocimiento de requisitos de compliance en la nube
  • Programación en Python o SQL para análisis y monitoreo

🚀 ¿Por Qué Sumarte al Equipo?

  • Desafíos de alto impacto con retroalimentación constante
  • Equipo internacional de alto rendimiento
  • Tecnología y hardware de última generación
  • Flexibilidad total: trabajá desde cualquier parte del mundo
  • Acceso libre a nuestras oficinas globales
  • Horario flexible
  • 40 días pagos de vacaciones al año
  • Salario competitivo


POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
GTM & Salesforce Admin Lead
  • Simetrik
  • Remoto 🌎
Full Time Salesforce Gong Clari Cognism Gainsight

RevOps | 100% Remoto | Tiempo completo

¿Tenés experiencia administrando Salesforce y herramientas de ventas? ¿Te apasiona crear soluciones escalables y estratégicas? Esta oportunidad es para vos.

Simetrik está buscando un/a GTM & Salesforce Systems Admin Lead para liderar la administración y mejora continua de nuestro ecosistema tecnológico orientado a Go-To-Market. Serás responsable de garantizar que herramientas como Salesforce, Gong, Clari, Cognism y más, estén perfectamente integradas y alineadas con los objetivos del negocio.

🎯 Responsabilidades

  • Administrar y personalizar Salesforce para mejorar la productividad y extraer insights accionables.
  • Gestionar herramientas clave del stack de ventas y éxito del cliente: Salesforce, Gainsight, Gong, Cognism, entre otras.
  • Diseñar soluciones escalables en Salesforce: objetos personalizados, flujos de trabajo, reglas de validación, etc.
  • Liderar proyectos de implementación e integración de sistemas, colaborando con equipos multifuncionales.
  • Crear roadmaps estratégicos junto a stakeholders para mejorar la experiencia del usuario y el impacto del negocio.
  • Aplicar tecnologías avanzadas y AI para optimizar procesos de ventas y decisiones estratégicas.
  • Administrar la calidad de datos mediante gobernanza, seguridad y automatización.
  • Crear dashboards e informes desde la identificación de oportunidades hasta el reconocimiento de ingresos.
  • Brindar soporte y formación a equipos de Revenue Enablement, incluyendo la creación de materiales de entrenamiento.
  • Mantenerse actualizado sobre mejores prácticas y novedades de las herramientas utilizadas.

✅ Requisitos mínimos

  • 4+ años de experiencia en administración y desarrollo de Salesforce.
  • Certificación de Salesforce Advanced Administrator o Developer.
  • Experiencia comprobada optimizando herramientas de ventas y sus integraciones.
  • Conocimiento avanzado de herramientas como Gong, Clari, Apollo.ai.
  • Habilidad en gestión de proyectos y traducción de requerimientos técnicos a soluciones prácticas.
  • Excelentes habilidades comunicativas y analíticas.
  • Experiencia con herramientas de análisis de datos como Excel y Tableau.
  • Nivel avanzado de inglés (fluido).

🌟 Se valorará

  • Conocimientos de español y portugués.
  • Experiencia con herramientas de Salesforce aplicadas a Marketing, Ventas y Customer Success.
  • Conocimientos en SQL, Python u otros lenguajes de programación.

🎁 Beneficios

  • Salario competitivo en una startup con respaldo y visión a largo plazo.
  • Cultura emprendedora, ágil y enfocada en la innovación.
  • Comunicación abierta con líderes y equipo de management.
  • Equipos pequeños, impacto grande.
  • Trabajo 100% remoto desde cualquier lugar del mundo.
  • $500 USD anuales para formación y aprendizaje continuo.


POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Full-Stack Python Engineer
  • Pearl Talent
JavaScript Python Front-end PostgreSQL

Pearl Talent connects top international candidates with leading US and EU startups backed by top-tier investors such as OpenAI, a16z, and Founders Fund. Our client is a fast-scaling AI company pioneering generative technology to build infrastructure for real-time, human-like AI interactions via video and voice. Positioned at the cutting edge of AI innovation, they operate with a deeply technical and product-obsessed team moving at startup speed, delivering transformational human-AI engagement experiences.

Apply directly on the original site at Get on Board.

Job functions

Role Overview

As a Full Stack Python Engineer, you’ll take ownership of our Integrations Platform - the infrastructure that powers external system connectivity and real-time, AI-driven workflows. This role blends deep backend expertise with strong frontend skills, as you’ll be building both robust API integrations and intuitive UI components for our visual workflow builder. You’ll work across the full product lifecycle, translating complex business needs into scalable software that directly impacts customers. Ideal for engineers who thrive at the intersection of product and code, and who want to help define the future of intelligent, configurable SaaS.

Qualifications and requirements

Requirements

Must-Have:

  • 5+ years of professional full-stack engineering experience
  • Solid experience with Python (FastAPI), PostgreSQL, and modern backend architecture
  • Frontend proficiency in React, TypeScript, and component-based design
  • Experience delivering customer-facing features - not just internal tools
  • Strong product thinking - you care about the "why" behind the code
  • Comfortable working with both RESTful and legacy APIs (e.g., SOAP/XML)
  • Strong communication skills and remote collaboration habits

Desirable skills

Nice-to-Have:

  • Experience with workflow automation tools or visual builders
  • Familiarity with logistics platforms or enterprise system integrations
  • Background in AI/ML tools (LangChain, LangGraph, OpenAI APIs)
  • Hands-on with Docker and deployment on Google Cloud

What You’ll Love About This Role

You’ll be building software that feels like magic to our users - combining powerful backend workflows, sleek UI, and AI to automate the world's most complex industries. This is your chance to take ownership of critical systems and help shape a platform poised to redefine how vertical SaaS gets built.

Conditions

Why Work with Us?

We’re not just another recruiting firm—we focus on placing candidates with exceptional US and EU founders who prioritize the long-term success of their team members. We also provide retention bonuses at 3, 6, 9, and 12 months, as well as community-driven benefits like an annual retreat.

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 3000 Tiempo completo
Full-Stack Developer
  • Micolet
JavaScript CSS Python Redis

En VibePeak.ai revolucionamos la creación de anuncios UGC con IA: genera vídeos sin grabar ni editar, acelerando tus campañas de performance.

Tras cerrar ronda seed y con clientes reales y tracción, buscamos a nuestro segundo empleado para co‑construir producto, tomar decisiones clave y definir la cultura técnica.

Cuándo y dónde trabajarás

- Remoto 100% (core hours 10:00–15:00 CET para coordinación).

- Flexibilidad: horario adaptable.

- Vacaciones: 22 días anuales + festivos locales.

- Onboarding:

- Día 0: entrega de acceso a repositorios, pipeline y documentación.

- 1er mes: despliegues iniciales, tickets full‑stack, sesiones de pair programming con CTO.

- 3er mes: ownership de un módulo completo, propuestas de mejora en infra y proceso.

Originally published on getonbrd.com.

Responsabilidades principales

Qué harás:

- Diseñar, construir y escalar la plataforma junto al CTO y fundador.

- Participar activamente en decisiones de arquitectura y roadmap de producto.

- Desarrollar tanto Front‑end como Back‑end.

- Integrar modelos de IA y servicios externos.

- Definir procesos y cultura técnica desde el día 1.

Cómo lo harás

- Metodología: sprints quincenales, revisiones de código y pair programming.

- Comunicación: Slack y Google Workspace para docs.

- Onboarding:

- Día 0: entrega de acceso a repositorios, pipeline y documentación.

- 1er mes: despliegues iniciales, tickets full‑stack, sesiones de pair programming con CTO.

- 3er mes: ownership de un módulo completo, propuestas de mejora en infra y proceso.

Con quién trabajarás

- Equipo técnico: CTO (mentor directo) y fundador, con experiencia en IA y producto.

- Cultura: multidisciplinar, colaboración estrecha con diseño y growth.

- Crecimiento: entorno que valora autonomía, feedback continuo y aprendizaje acelerado.

Perfil buscado

Tech stack (🟢 imprescindible / 🟡 deseable)

Front‑end

🟢React, Next.js, TypeScript, Tailwind CSS

🟡WebGL + WebM (MediaRecorder API) para creación de vídeo en tiempo real

Back‑end

🟢Node.js (Express), Python (FastAPI)

🟡Go, GraphQL

IA & Datos

🟢OpenAI API, LangChain, PyTorch

🟡PostgreSQL, Redis, MongoDB

Infra & DevOps

🟢AWS (Lambda, ECS), Docker, Terraform

🟡CI/CD (GitHub Actions, CircleCI)

Qué buscamos

🟢Imprescindible

- Haber lanzado producto real en startup o side‑project con usuarios.

- Mentalidad full‑stack y de producto.

- Ejecutar rápido, priorizando impacto con recursos limitados.

🟡Deseable

- Haber intentado crear tu propia startup o sido co‑fundador.

- Experiencia en infra serverless y testing automatizado.

- Contribuciones open‑source.

Condiciones y beneficios

  • Buen ambiente de trabajo.
  • Formar parte de un proyecto en pleno crecimiento.
  • Horario flexible
  • Trabajo 100% remoto.

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Full-Stack Developer
  • Comercial Textil Wanser Ltd
JavaScript UI Design Python Agile

Properly, una nueva empresa del mundo inmobiliario, está impulsando un ambicioso proyecto digital en el ámbito de las proptech. Estamos desarrollando una plataforma integral enfocada en facilitar la inversión inmobiliaria a través de tecnología avanzada y automatización. El proyecto contempla la creación de un embudo de inversión inmobiliaria automatizado que permite a los usuarios construir un perfil de inversionista personalizado para recibir recomendaciones ajustadas a su capacidad y objetivos financieros. Además, incluye la implementación de un simulador financiero detallado y un sistema automatizado de seguimiento mediante canales como WhatsApp y correo electrónico. La plataforma web contará con funcionalidades de registro y login, panel de usuario con vista personalizada de propiedades compatibles, simulaciones y proceso de inversión, y un backend administrativo para gestión eficiente de propiedades y variables comerciales.

Exclusive offer from getonbrd.com.

Responsabilidades principales

Como Full Stack Developer, tu misión será diseñar, desarrollar e implementar una plataforma web completa orientada a la inversión inmobiliaria personalizada y automatizada. Esto incluye:
  • Diseñar y construir el embudo de inversión automatizado: un formulario o quiz para perfilación de inversionistas, algoritmos para match con propiedades según perfil, simulaciones financieras integradas y automatización de seguimiento vía WhatsApp, correo u otros.
  • Desarrollar la plataforma web para usuarios: sistemas de registro/inicio de sesión, panel personalizado que muestre perfil financiero, propiedades compatibles, simulaciones guardadas y estado de proceso de inversión.
  • Crear el marketplace de propiedades con filtros inteligentes y un backend administrativo para el equipo interno donde se puedan añadir y gestionar propiedades, precios, promociones y arriendos estimados.
  • Integrar APIs externas como sistemas de mensajería, calendarios y automatización para mejorar la experiencia y seguimiento del usuario.
  • Colaborar en decisiones técnicas con enfoque de producto, asegurando una experiencia UX/UI clara, funcional y agradable.
Trabajarás de manera autónoma pero alineado con las metas estratégicas para lanzar un MVP competitivo, robusto y escalable, facilitando el rápido crecimiento en el mercado regional.

Requisitos y habilidades

Buscamos un desarrollador Full Stack con experiencia práctica en la creación y desarrollo de productos digitales desde cero, preferentemente MVPs para startups o proyectos en fase inicial. Es fundamental tener un conocimiento sólido de stacks tecnológicos modernos como React, Next.js, Node.js, Python y Firebase, entre otros. La capacidad para integrar APIs externas, especialmente relacionadas con automatización de flujos, mensajería (WhatsApp, Twilio), y calendarios es esencial.
Valoramos la capacidad para tomar decisiones técnicas autónomas con un fuerte criterio de producto y orientación al usuario. El candidato debe demostrar buen juicio y sensibilidad hacia un diseño UX/UI funcional; no buscamos perfección estética, pero sí claridad, usabilidad y eficacia.
Además, se requiere un buen manejo de habilidades blandas como proactividad, comunicación efectiva y capacidad para trabajar en entornos ágiles, remotos y sin supervisión estricta.

Conocimientos y competencias valoradas

Será un plus contar con experiencia o conocimiento en el sector proptech, fintech, o productos vinculados a inversión financiera y gestión inmobiliaria. Se valorarán habilidades en técnicas de scraping o carga automatizada de datos para alimentar el marketplace, así como conocimientos iniciales o interés en inteligencia artificial y asistentes conversacionales, previstas para fases futuras del proyecto.
La familiaridad con ambientes de trabajo flexibles, startups tecnológicas en etapa inicial y metodologías ágiles también será favorable.

Beneficios y condiciones

  • Posibilidad de trabajo 100% remoto, según preferencias y necesidades.
  • Si se opta por modalidad presencial, se dispone de equipamiento de última generación Apple o Microsoft.
  • Flexibilidad para trabajo híbrido o presencial en un ambiente laboral agradable y colaborativo.
  • Bonos por rendimientos positivos, incentivando el compromiso y la calidad del trabajo.
  • Vestimenta informal para mayor comodidad.
  • Estacionamiento gratuito para quienes trabajan presencialmente.
Ofrecemos compensación competitiva que puede ser mensual o por entregables, según tu preferencia, y la posibilidad real de asumir un rol estratégico o a largo plazo si existe un buen encaje cultural y técnico. La libertad total en cuanto a horarios y ausencia de burocracia facilitan la creatividad y la productividad.

POSTULAR VÍA WEB Ver trabajo
Gross salary $1600 - 2100 Tiempo completo
Desarrollador Full-Stack
  • Data Qu
JavaScript Python Front-end MySQL
Somos una empresa llamada DataQu, y nos dedicamos fuertemente al análisis de datos, desarrollo de software a la medida y modelos de Machine Learning avanzados. Nos enfocamos fundamentalmente en construir soluciones fáciles de usar pero a la vez robustas y que permitan integrarse efectivamente con diversos sistemas y herramientas con el objetivo de maximizar el potencial empresarial de nuestros clientes.

Find this vacancy on Get on Board.

Funciones del cargo

Nos encontramos en busca de un desarrollador full-stack que desee contribuir con el desarrollo de diversos proyectos y soporte de nuestros principales clientes. Estarás colaborando con la resolución de incidencias que surgen en los aplicativos web y/o mobile en producción como en la elaboración de nuevas funcionalidades, mejoras o proyectos que se deseen implementar, manteniendo un alto nivel de responsabilidad, compromiso y orden. Las principales funciones del cargo son:
  • Diseñar, desarrollar y mantener aplicaciones web tanto a nivel frontend y backend, aplicando las mejores prácticas y estándares para lograr resultados de alta calidad en tiempos acordes, entregando valor a nuestros clientes mediante el desarrollo de funcionalidades.
  • Participar en proyectos que involucran arquitecturas orientadas a servicios, tanto en la nube (AWS, GCP) como on-premise.
  • Contribuir al mantenimiento y mejora de sistemas robustos con múltiples integraciones.
  • Realizar análisis y buscar mejores formas de optimizar el desarrollo de piezas de software elaboradas previamente por el equipo o incorporar nuevas funcionalidades, buscando siempre opciones de mejora para nuestras soluciones.
  • Seguir y cumplir las definiciones de trabajo, lineamientos técnicos y planificación de los proyectos, proponiendo mejoras para agilizar los sprints, evitando obstáculos y asegurando la transparencia en el trabajo con el equipo.
  • Participar en revisiones de código y sesiones de retroalimentación para fomentar buenas prácticas de desarrollo y garantizar que el código sea escalable, confiable y mantenible a largo plazo.
  • Leer e interpretar código y documentaciones técnicas, ya sea de aplicativos o herramientas internas como de la comunidad.
  • Incorporarse a proyectos pre-existentes y trabajar colaborativamente en equipo.

Requerimientos excluyentes

  • Formación académica: Título profesional de Ingeniería Civil en Informática, Ingeniería en Computación, Ingeniería de Ejecución en Informática, Analista Programador o carrera afín.
  • Experiencia laboral: Al menos 3 años de experiencia comprobable en empresas del rubro tecnológico o de desarrollo de software.
  • Desarrollo backend: Dominio avanzado de Python, utilizando el framework Django y Django REST Framework (DRF).
  • Desarrollo frontend: Experiencia sólida con al menos un framework moderno de desarrollo reactivo (como Angular, React o Vue.js). El stack principal de la empresa es Angular.
  • Bases de datos: Conocimiento avanzado en el uso, modelado y gestión de bases de datos relacionales (por ejemplo, PostgreSQL o MySQL) y no relacionales (por ejemplo, MongoDB).

Requerimientos deseables

  • Metodologías ágiles: Experiencia trabajando bajo metodologías ágiles, en particular Scrum, idealmente utilizando herramientas como Jira.
  • Habilidades interpersonales: Buen nivel de comunicación, disposición para reuniones y colaboración con equipos multidisciplinarios.
  • Contenerización: Conocimientos en herramientas de contenerización, especialmente Docker, y nociones de orquestación con Docker Compose.
  • Conocimientos en arquitectura: Experiencia en soluciones basadas en la nube (AWS, GCP) o en arquitecturas orientadas a servicios, aunque no necesariamente desplegadas en la nube.
  • Residencia: El trabajo es remoto, pero pueden agendarse reuniones presenciales con anticipación. Por ello, se requiere residencia en Santiago o alrededores.

Beneficios

  • Ofrecemos un grato ambiente laboral y compañerismo. Un excelente equipo que te puede apoyar en lo que necesites e interacción con importantes clientes.
  • Horario establecido.
  • Fomentamos un ambiente de trabajo colaborativo y saludable, organizando actividades y reuniones de equipo para distender el ambiente, fortalecer las relaciones interpersonales y compartir momentos fuera del contexto laboral.
  • Posibilidad de implementar, utilizar o experimentar con diversas tecnologías de la información.
  • Bono fiestas patrias y navidad.
  • Proyección a largo plazo.
  • Seguro de salud.

Health coverage Data Qu pays or copays health insurance for employees.
Computer provided Data Qu provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2400 - 2700 Tiempo completo
Desarrollador Full-Stack Java/angular con Conocimiento en Py
  • 23people
JavaScript Java Python Front-end

Equifax Chile es la filial local de Equifax Inc., compañía global de datos, analítica y tecnología con presencia en 24 países. Desde 1979 operamos en Chile, ayudando a más de 14.000 empresas a tomar decisiones informadas mediante soluciones avanzadas en riesgo crediticio, análisis de datos, identidad y ciberseguridad. Nuestra visión es empoderar a personas y organizaciones mediante el uso ético y transparente de la información. Uno de nuestros principales desafíos actuales es liderar la transformación digital global desde nuestro Centro de Desarrollo en Santiago (SDC), que concentra el 60 % de los desarrollos de Equifax a nivel mundial. Promovemos una cultura basada en la colaboración, innovación y excelencia técnica, donde el talento local impulsa soluciones tecnológicas de alto impacto.

Apply directly on the original site at Get on Board.

Funciones del cargo

¿Qué harás en tu día a día?

  • Desarrollar aplicaciones de procesamiento distribuido utilizando las tecnologías y herramientas nativas de Google Cloud.
  • Crear aplicaciones de microservicios RESTful y basadas en eventos, utilizando Java.
  • Escribir pruebas unitarias y de integración.
  • Promover e implementar las mejores prácticas de desarrollo.
  • Redactar documentación técnica para capturar arquitectura, procesos, procedimientos, instalación e instrucciones.

Requerimientos del cargo

Skills

- 2+ años de Java (V. 17 y 21)
- 2+ años de experiencia en Angular
- Conocimiento en Python
- 2+ años de conocimientos en API REST y SQL.
- 1+ años de experiencia con GCP
- 1+ años realizando pruebas unitarias y de automatización (JUnit).
- 1+ años aplicando las prácticas y uso de herramientas para CI/CD
- Título académico en Ingeniería Informática, Sistemas o carreras afines.

Contracto indefinido desde el inicio con 23people
Modalidad: Home Office, Con residencia en Chile (Deberás ir a buscar el PC en primera instancia)
Experiencia: Desde 2 años en adelante
Horario: Lu - Ju 08:30 a 18:30 / Vi 08:30 a 17:30

Deseables

  • Conocimientos en metodologías ágiles.
  • Experiencia en proyectos relacionados a microservicios.
  • Experiencia trabajando con bases de datos relacionales y/o NoSQL
  • Experiencia en desarrollo de servicios web.
  • Fuertes habilidades comunicativas, escritas y orales.
  • Capacidad para mejorar, refactorizar y mejorar continuamente el código base.
  • Capacidad para crear prototipos de tecnologías para comparar, analizar, presentar y discutir alternativas.
  • Jenkins, Nexus y/o Maven

Beneficios

Algunos de nuestros beneficios

  • Seguro complementario: Seguro de salud, vida y dental
  • Curso de inglés: En nuestro programa de formación en idioma inglés, ofrecemos dos modalidades para adaptarnos a tus necesidades y objetivos.
  • Reembolso de certificaciones internacionales: Apoyamos el crecimiento profesional, por lo que te reembolsamos el costo de un examen de certificación internacional que quieras realizar.
  • Bono de vacaciones: Por cada semana que te tomes de vacaciones te otorgamos una compensación.
  • Aguinaldos en fiestas patrias y Navidad: Queremos que en fechas tan especiales la pases bien junto a tu familia, por lo que te entregamos un bono en septiembre y diciembre
  • Día libre de cumpleaños: Puedes optar por tomar tu día libre, el día previo a tu cumpleaños, el mismo día de tu cumpleaños o el día posterior.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance Equifax pays or copays life insurance for employees.
Health coverage Equifax pays or copays health insurance for employees.
Dental insurance Equifax pays or copays dental insurance for employees.
Computer provided Equifax provides a computer for your work.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Senior Full-Stack Developer Python JS
  • Improving South America
JavaScript Android iOS C

¡Hola! somos Improving South America.

Empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA principalmente.
Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.
Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development y También trabajamos en desarrollo backend.
Valoramos a las personas dinámicas en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Apply to this posting directly on Get on Board.

Job functions

Como parte de nuestro equipo de ingeniería, participarás en el desarrollo y mantenimiento de un SDK multiplataforma utilizado en aplicaciones Android e iOS. También contribuirás en la creación de microservicios backend que respaldan estas soluciones móviles, garantizando una integración confiable y de alto rendimiento entre los dispositivos y nuestra plataforma. Tendrás la oportunidad de involucrarte en decisiones de arquitectura, colaborar estrechamente con ingenieros móviles y trabajar en la optimización de procesos clave como la recolección de datos y eventos de GPS, con exposición ocasional a componentes en C++ para tareas críticas de rendimiento.

Qualifications and requirements

  1. Experiencia sólida en desarrollo con Python y JavaScript/Node.js.
  2. Conocimientos de conceptos de desarrollo móvil en Android e iOS, incluyendo integración de SDKs y diferencias entre plataformas.
  3. Capacidad para leer y modificar código en C++.
  4. Experiencia trabajando con APIs RESTful, servicios web y protocolos HTTP.
  5. Experiencia en arquitecturas de microservicios backend.
  6. Nivel de inglés B2 en adelante.
  7. Habilidad para resolver problemas y trabajar de forma autónoma y colaborativa.
  8. Disponibilidad para trabajar de forma sincrónica en programación colaborativa (pair/mob programming).

Desirable skills

  1. Experiencia desarrollando SDKs móviles consumidos por aplicaciones externas.
  2. Conocimientos prácticos en desarrollo Android (Kotlin/Java) y iOS (Swift/Objective-C).
  3. Familiaridad con servicios de GPS, APIs de mapas o sistemas de logística de transporte.
  4. Experiencia con servicios en la nube (AWS, GCP o Azure).
  5. Conocimientos de seguridad de datos, cifrado y mejores prácticas de privacidad.

Conditions

  • Contrato a largo plazo.
  • 100% Remoto.
  • Vacaciones y PTOs
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo
  • mucho mas..

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Improving South America offers space for internal talks or presentations during working hours.
Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Engineering Manager
  • OpenLoop
  • Lima (Hybrid)
JavaScript Python Agile Node.js

OpenLoop is looking for a Engineering Manager to join our team in Lima, Peru. This role will be a member of the Engineering Team.

About OpenLoop

OpenLoop was co-founded by CEO, Dr. Jon Lensing, and COO, Christian Williams, with the vision to bring healing anywhere. Our telehealth support solutions are thoughtfully designed to streamline and simplify go-to-market care delivery for companies offering meaningful virtual support to patients across an expansive array of specialties, in all 50 states.

Our Company Culture

We have a relatively flat organizational structure here at OpenLoop. Everyone is encouraged to bring ideas to the table and make things happen. This fits in well with our core values of Autonomy, Competence and Belonging, as we want everyone to feel empowered and supported to do their best work.

Apply at the original job on getonbrd.com.

Requirements

Team Leadership & Management

  • Lead, mentor, and develop a team of 3-7 software engineers
  • Conduct regular 1:1s, performance reviews, and career development planning
  • Foster a culture of innovation, collaboration, continuous learning, sense of urgency and over communication.
  • Recruit, interview, and onboard new engineering talent
  • Collaborate with engineering leadership on team planning and resource allocation
  • Promote best practices in software development and code quality

Technical Strategy & Product Development

  • Define and implement technical strategy aligned with business objectives and our Cloud Center of Excellence
  • Oversee the full software development lifecycle from conception to deployment
  • Drive architectural decisions and technology stack choices
  • Ensure code quality, security, scalability and maintainability standards
  • Champion agile development methodologies and continuous integration
  • Lead technical design reviews and architecture discussions
  • Spend 20% to 30% of your time doing hands-on work.

Cross-Functional Collaboration

  • Strategically partner with product managers to translate requirements into technical solutions
  • Collaborate with QA teams to establish comprehensive testing strategies
  • Coordinate with the SRE team for seamless deployments
  • Engage with stakeholders to communicate technical progress and challenges
  • Support other business teams with technical expertise

Project Management & Delivery

  • Plan and execute complex software projects with multiple dependencies
  • Manage project timelines, resource allocation, and risk mitigation
  • Ensure timely delivery of high-quality software releases
  • Implement and maintain development processes and workflows
  • Monitor team velocity and continuously improve development efficiency
  • Drive post-mortem processes for incidents and project retrospectives

Requirements

Experience

  • 8+ years of software engineering experience with 3+ years in management roles
  • Proven track record of leading high-performing engineering teams
  • Experience with full-stack development and modern software architectures
  • Background in agile development frameworks (Scrum, Kanban)
  • Experience with software development lifecycle and release management

Technical Skills

  • Strong proficiency in multiple programming languages (Typescript, Python, etc.)
  • 5+ years of experience with Node.js
  • Deep understanding of software architecture patterns and design principles
  • Advanced knowledge and experience with Amazon Web Services
  • Knowledge of database systems, both SQL and NoSQL
  • Familiarity with CI/CD pipelines and automated testing frameworks
  • Understanding of security best practices and compliance requirements

Leadership & Communication

  • Advanced English (C1) fluency
  • Excellent verbal and written communication skills
  • Experience leading technical discussions and presenting to stakeholders
  • Ability to translate business requirements into technical solutions
  • Strong problem-solving and decision-making capabilities
  • Experience with conflict resolution and team dynamics
  • Proven ability to attract and retain top engineering talent

Desirable Skills

Additional Experience

  • Experience in startup environments
  • Background in highly regulated industries (healthcare, fin-tech, etc.)
  • Experience with event-driven architecture and distributed systems
  • Knowledge of machine learning and AI technologies
  • Background in open source contributions and community involvement

Technical Depth

  • Experience with modern frontend frameworks (React, Vue, Angular)
  • Knowledge of backend frameworks and API design
  • Understanding of performance optimization and scalability
  • Experience with monitoring and observability tools
  • Familiarity with data analytics and business intelligence tools
  • Knowledge of emerging technologies and industry trends

Certifications

  • AWS Certified Solutions Architect or similar cloud certifications
  • Relevant technical certifications in programming languages or frameworks

Our Benefits

  • Contract under a Peruvian company ID("Planilla"). You will receive all the legal benefits in Peruvian soles (CTS, "Gratificaciones", etc).
  • Monday - Friday workdays, full time (9 am - 6 pm).
  • Unlimited Vacation Days - Yes! We want you to be able to relax and come back as happy and productive as ever.
  • EPS healthcare covered 100% with RIMAC --Because you, too, deserve access to great healthcare.
  • Oncology insurance covered 100% with RIMAC
  • AFP retirement plan—to help you save for the future.
  • We’ll assign a computer in the office so you can have the best tools to do your job.
  • You will have all the benefits of the Coworking space located in Lima - Miraflores (Free beverage, internal talks, bicycle parking, best view of the city)

Wellness program OpenLoop offers or subsidies mental and/or physical health activities.
Life insurance OpenLoop pays or copays life insurance for employees.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage OpenLoop pays or copays health insurance for employees.
Retirement plan OpenLoop pays or matches payment for plans such as 401(k) and others.
Dental insurance OpenLoop pays or copays dental insurance for employees.
Free car parking You can park your car for free at the premises.
Computer provided OpenLoop provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal OpenLoop gives you paid vacations over the legal minimum.
Beverages and snacks OpenLoop offers beverages and snacks for free consumption.
Parental leave over legal OpenLoop offers paid parental leave over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Software Engineer
  • ZeroFox
JavaScript Python Agile Django

Opportunity Overview

At ZeroFox, we are passionate about bringing world-class protection to the digital-first world. Together, we have built a system capable of collecting and analyzing data from all over the internet, creating a paradigm-shifting cybersecurity product that helps secure and protect our customers and improves the global threat landscape.

We are a team of software engineers, cybersecurity experts, and data scientists who continue to develop unparalleled solutions for the cyber security industry by providing the best Digital Risk Protection SaaS in the global market. Our company, services, and user base are growing faster than ever and we’d like you to help us innovate. We believe the greatest solutions in the Digital Risk Protection space come from composing teams with varied backgrounds and experiences that can use their complementary skill sets to come up with the best market-defining solutions.

Apply to this job from Get on Board.

Role and responsibilities

  • Work with industry experts across security, machine learning, digital risk protection, and cyber threat intelligence to develop the next generation of solutions for the ZeroFox platform
  • Gain in-depth knowledge of our microservices architecture and stack
  • Research and build cutting-edge products to improve the lives of our customers and our developers while making the internet a safer place

Required qualifications and skills

  • Motivated, communicative, teamwork-oriented professionals that feel comfortable working in agile environments
  • Bachelor’s degree in computer science or a related field, OR equivalent education or experience
  • Software Development experience, typically obtained in 2+ years
  • Good communication, collaboration, and presentation skills in English
  • Ability to work effectively in a fast-paced, agile environment.

Desired qualifications and skills

  • Experience in Python/Django, JavaScript, or Go is a plus!
  • Bonus points if you have experience with Docker or AWS!
  • We also value equivalent experience to these languages and frameworks. If you think you might be a fit, apply!

Benefits

  • Opportunities to learn and contribute your knowledge to our Digital Risk Protection platform
  • Competitive compensation
  • Competitive PTO
  • Complementary health insurance
  • Daily catered lunches for in-office work
  • Respectful and nourishing work environment, where every opinion is heard and everyone is encouraged to be an active part of the organizational culture.
  • Regular team bonding activities like cooking and cocktails classes, bingos, stand up comedy, magic shows, virtual happy hour, lunch and learns, etc.
  • Additional Parental Leave
  • Excellent communication: between teams, people, organizations and leaders

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance ZeroFox pays or copays life insurance for employees.
Meals provided ZeroFox provides free lunch and/or other kinds of meals.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage ZeroFox pays or copays health insurance for employees.
Dental insurance ZeroFox pays or copays dental insurance for employees.
Computer provided ZeroFox provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal ZeroFox gives you paid vacations over the legal minimum.
Beverages and snacks ZeroFox offers beverages and snacks for free consumption.
Parental leave over legal ZeroFox offers paid parental leave over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Full-Stack (Python + React)
  • SEEK
JavaScript Python Agile Front-end

En Seek, somos un equipo innovador que se centra en entregar soluciones centradas en el usuario. Diseñamos y desarrollamos experiencias digitales que generan valor y logran resultados significativos. Trabajamos con clientes líderes en diversas industrias, creando productos digitales innovadores que cumplen un propósito y transforman organizaciones a diferentes escalas. Nuestra cultura está basada en valores como la co-creación, la transparencia y la búsqueda constante de la excelencia.

Apply to this job without intermediaries on Get on Board.

Funciones del cargo

● Crear y mejorar interfaces de usuario con React para aplicaciones web, utilizando TypeScript.

● Diseñar, desarrollar y mantener sistemas backend y APIs utilizando Python. Deseable experiencia manipulando datos con Pandas o similares.

● Experiencia manipulando datos en bases de datos NoSQL MongoDB.

● Implementar soluciones en la nube escalables y eficientes utilizando servicios de AWS (Lambda, API Gateway, Cognito, CDK, etc.).

● Optimizar el rendimiento y la seguridad de las aplicaciones.

● Escribir código limpio, mantenible y bien documentado, siguiendo mejores prácticas en CI/CD, pruebas unitarias y de integración y control de versiones (Git/GitLab).

● Colaborar estrechamente con el equipo de desarrollo, el gerente de proyecto y el científico de datos para alinear los objetivos y entregables del proyecto.

● Identificar, depurar y resolver problemas en las aplicaciones.

Requerimientos del cargo

● Más de 4 años de experiencia como Desarrollador Fullstack.

● Experiencia en desarrollo frontend con React.

● Familiaridad con gestión de estado (Redux, Context API) y mejores prácticas modernas de frontend.

● Sólidos conocimientos en Python.

● Experiencia en despliegue y gestión de aplicaciones en AWS (Lambda, API Gateway, Cognito, CDK, etc.).

● Conocimiento avanzado de diseño de APIs RESTful, WebSockets y programación asíncrona.

● Experiencia con bases de datos SQL y NoSQL (PostgreSQL, MongoDB, etc.).

● Experiencia en entornos de desarrollo Agile/Scrum.

● Habilidades de comunicación sólidas para colaborar con stakeholders técnicos y no técnicos.

● Experiencia en la traducción de necesidades de negocio en requisitos de software.

● Conocimientos en prácticas DevOps, incluyendo CI/CD, Docker y Terraform (deseable).

● Habilidades analíticas y de resolución de problemas, con capacidad para trabajar tanto de forma independiente como en equipo.

Deseable

● Experiencia desarrollando y brindando mantenimiento a aplicaciones móviles desarrolladas en React Native.

● Experiencia desarrollando con NextJS.

● Experiencia con GraphQL y arquitecturas modernas de APIs.

● Conocimientos en tecnología financiera (Fintech) o experiencia en el sector financiero.

● Experiencia en integración de APIs de terceros y sistemas de autenticación (OAuth, JWT, SSO).

● Experiencia previa en startups o entornos de rápido crecimiento.

Condiciones

  • La oportunidad de trabajar en una empresa multicultural con proyectos desafiantes e innovadores. 🌍
  • Medio día libre por cumpleaños. 🎉
  • Bonificación en dólares por referidos. 💵
  • Capacitaciones. 📚
  • Línea de carrera y crecimiento profesional. 🚀
  • Buen clima laboral 🏖

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 2000 Tiempo completo
Back-end Engineer
  • Chask
  • Santiago (Hybrid)
Python Git REST API Django

En Chask creemos que la inteligencia artificial debe ser una herramienta cotidiana que libere a las personas de tareas repetitivas y potencie el trabajo creativo. Somos una startup chilena y estamos en plena expansión, colaborando con empresas de distintos tamaños y sectores — retail, servicios, manufactura — que comparten el desafío de operar con procesos más ágiles y centrados en el usuario.

Nuestro equipo combina backgrounds en ciencia de datos, ingeniería de software y producto. Trabajamos con metodología ágil, ciclos cortos y mucha autogestión: cada persona se convierte en “owner” de problemas reales de negocio y ve su impacto en producción en cuestión de días.

© Get on Board. All rights reserved.

Funciones principales

Como Backend Engineer en Chask, serás responsable de diseñar, implementar y mantener sistemas backend robustos y escalables. Participarás en el desarrollo de APIs, servicios y mecanismos de comunicación en tiempo real (por ejemplo, mediante WebSockets) que mejoren la experiencia de nuestros usuarios.

Colaborarás con equipos multidisciplinarios utilizando buenas prácticas de control de versiones (Git), contenedores (Docker), y despliegue continuo (CI/CD). También podrás gestionar recursos en la nube usando servicios de AWS como Lambda, ECS, API Gateway, entre otros.

Descripción del puesto

Buscamos un/a Backend Engineer con experiencia en desarrollo de productos digitales, idealmente en entornos de startups o equipos pequeños. La persona seleccionada será parte de un equipo ágil y multidisciplinario, con un fuerte enfoque en la entrega continua de valor a usuarios reales.

Esperamos que tengas dominio en desarrollo con Python utilizando frameworks como FastAPI o Django, y que estés familiarizado/a con APIs REST, integración de servicios, y automatización de despliegues.

Valoramos especialmente la capacidad de aprender rápido, resolver problemas con autonomía y comunicarte con claridad dentro del equipo.

No necesitas cumplir todos los requisitos para postular: si te interesa lo que estamos construyendo en Chask, queremos conocerte.

Habilidades y conocimientos deseables

  • Experiencia trabajando con servicios en la nube AWS, especialmente Lambda, ECS, API Gateway, RDS, S3 o SQS.
  • Conocimiento de aplicaciones en tiempo real utilizando WebSockets o tecnologías similares.
  • Experiencia implementando pruebas automatizadas y flujos de integración/despliegue continuo (CI/CD).
  • Participación en proyectos que involucren machine learning o inteligencia artificial aplicados a soluciones backend.
  • Buenas prácticas de desarrollo ágil, trabajo colaborativo y comunicación efectiva.

Beneficios

Ofrecemos contrato local en Chile, trabajo 100% remoto dentro de Santiago, y la oportunidad de asistir ocasionalmente a reuniones estratégicas presenciales. Valoramos un entorno innovador, colaborativo y flexible que promueve el desarrollo profesional continuo.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 2000 Tiempo completo
Automations Developer
  • Compara
Java Python Scala Virtualization

En ComparaOnline, una plataforma digital dedicada a cotizar y comparar seguros y productos financieros en Latinoamérica, estamos en búsqueda de un Automations Developer que contribuya a la optimización de nuestras operaciones a través de la automatización de procesos repetitivos. Nos enfocamos en ofrecer a nuestros clientes las mejores opciones en seguros como Automotriz, SOAP, Asistencias en Viaje, así como productos financieros. Nuestro objetivo es utilizar la tecnología para hacer que nuestros servicios sean más eficientes y accesibles. Si te entusiasma encontrar soluciones innovadoras y deseas formar parte de un equipo que valora el crecimiento profesional, ¡te invitamos a unirte a nosotros!

This offer is exclusive to getonbrd.com.

🎯 ¿Qué harás?

  • Automatizar procesos repetitivos para hacer nuestra operación más eficiente.
  • Mantener y mejorar las automatizaciones actuales.
  • Explorar e integrar IA para optimizar nuestros procesos.
  • Identificar oportunidades para automatizar tareas y reducir el trabajo manual.

🔎 ¿A quién buscamos?

Buscamos una persona con experiencia como Python Developer. Es fundamental contar con habilidades en herramientas de automatización incluyendo Playwright, Cypress o Selenium, así como conocimientos en Web Scraping. Adicionalmente, valoramos a los candidatos que tengan experiencia en el manejo de tecnologías como Docker, Kafka y Kubernetes, y que puedan trabajar con librerías como SQLAlchemy (ORM), Requests, Flask y Celery. Si tu pasión es la automatización, la optimización de procesos y el desarrollo en Python, ¡no dudes en postularte!

¡Sería un plus si también manejas!

  • Docker, Kafka y Kubernetes.
  • Librerías como SQLAlchemy (ORM), Requests, Flask y Celery.

🚀Únete a nuestro equipo

En Compara, ofrecemos horarios flexibles y un entorno que favorece el crecimiento profesional. Valoramos la cultura de aprendizaje continuo y el desarrollo de cada miembro del equipo, por lo que proponemos un ambiente donde puedes nutrir tu pasión por la automatización y las tecnologías emergentes. Si estás listo para dar el siguiente paso en tu carrera, ¡esperamos conocerte pronto!

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Compara provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Compara gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Desarrollador Python Experto
  • Agilesoft SpA
  • Santiago (Hybrid)
Python SQL Azure Cloud Computing

Agilesoft SpA, empresa dedicada al desarrollo de software web y móvil, apasionada por las nuevas tecnologías y la innovación. Actualmente, buscamos incorporar a un Desarrollador Python con amplia experiencia para trabajar en el desarrollo de módulos de software enfocados en la identificación, extracción y estructuración de información a partir de documentos digitales o escaneados.

Find this vacancy on Get on Board.

Responsabilidades

  • Desarrollar módulos en Python a nivel experto, focalizados en el consumo de APIs y SDKs de servicios cognitivos.
  • Implementar lógica avanzada para la extracción y procesamiento de información estructurada y semi estructurada, garantizando calidad y precisión en los resultados.
  • Diseñar y ejecutar consultas SQL complejas, optimizando bases de datos y gestionando grandes volúmenes de datos estructurados.
  • Elaborar documentación técnica clara, completa y detallada tanto de levantamiento de requerimientos como del desarrollo realizado.
  • Colaborar estrechamente con el equipo interno para integrar eficientemente los módulos desarrollados dentro de los flujos de trabajo existentes.
  • Aplique buenas prácticas de desarrollo, incluyendo pruebas rigurosas y entrega adecuada de los productos.

Conocimientos y habilidades requeridas

  • Python nivel experto: dominio avanzado de librerías, estructuración de código, buenas prácticas y técnicas de optimización.
  • Experiencia en consumo de APIs REST y SDKs relacionados con servicios cognitivos, preferentemente en el ecosistema Azure.
  • SQL nivel experto: creación de consultas complejas, optimización de bases de datos, manejo avanzado y rendimiento con grandes volúmenes de datos estructurados.
  • Capacidad analítica para interpretar las necesidades de negocio y traducirlas en soluciones técnicas efectivas.
  • Habilidad para generar documentación técnica completa y comprensible, cubriendo desde requerimientos hasta soluciones implementadas.

Beneficios

- Computadora de trabajo.
- Contrato indefinido.
- Modalidad Hibrida (Santiago)
- Caja de compensación Los Andes.
- Seguro complementario de salud y dental.

Partially remote You can work from your home some days a week.
Health coverage Agilesoft SpA pays or copays health insurance for employees.
Computer provided Agilesoft SpA provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Full-Stack Developer (Python + React)
  • Improving South America
JavaScript Python Front-end PostgreSQL

¡Hola! somos Improving South America.

Empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA principalmente.

Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.

Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development y También trabajamos en desarrollo backend.

Valoramos a las personas dinámicas en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Applications are only received at getonbrd.com.

Funciones del cargo

Estamos en búsqueda de un/a Desarrollador/a Full Stack con experiencia para unirse a nuestro equipo y participar activamente en el desarrollo de soluciones tecnológicas escalables e innovadoras. Las principales funciones del rol incluyen:

  • Diseñar, desarrollar y mantener aplicaciones web full stack utilizando Python, Django, React y Next.js.
  • Construir e integrar APIs RESTful y GraphQL.
  • Implementar flujos de trabajo ETL y transformación de datos escalables usando Databricks o plataformas similares.
  • Escribir SQL eficiente y bien estructurado; administrar esquemas de base de datos en PostgreSQL.
  • Desarrollar y ejecutar pruebas unitarias, así como participar en pruebas de integración y end-to-end.
  • Detectar, depurar y resolver problemas complejos a lo largo de toda la pila tecnológica.
  • Asegurar la calidad del código mediante pruebas automatizadas y revisiones de código.
  • Colaborar con equipos multifuncionales para implementar nuevas funcionalidades y lógica de negocio.
  • Comunicarte efectivamente con equipos técnicos y no técnicos.
  • Brindar mentoría y soporte a desarrolladores junior.

Requerimientos del cargo

  • Contar con un nivel de inglés intermedio/avanzado (B2/C1). Excluyente.
  • +5 años de experiencia como Desarrollador Full Stack.
  • Dominio de React y JavaScript/TypeScript moderno.
  • Nivel avanzado en Python.
  • Experiencia en desarrollo e integración de APIs REST.
  • Conocimiento sólido en SQL y PostgreSQL (diseño de esquemas y optimización de consultas).
  • Fuertes habilidades de resolución de problemas y depuración.
  • Experiencia en pruebas unitarias, desarrollo guiado por pruebas (TDD) y frameworks como pytest, unittest o Jest.
  • Familiaridad con servicios en la nube como Azure o AWS.
  • Conocimiento de sistemas de control de versiones como Git, SVN o Mercurial.
  • Experiencia con pipelines de CI/CD (GitHub Actions, GitLab, Bitbucket, Azure DevOps, etc.).
  • Manejo de herramientas de gestión de tareas como Jira, Solar o ServiceNow.
  • Disposición para trabajar de forma colaborativa en sesiones de programación en equipo, especialmente durante el onboarding.

Beneficios

  • 100% Remoto.
  • Vacaciones y PTOs
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Internal talks Improving South America offers space for internal talks or presentations during working hours.
Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Improving South America gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1800 - 2600 Tiempo completo
Python Engineer
  • Abaqus Solutions
  • Santiago (Hybrid)
Python Agile Git Django

En Abaqus Solutions, estamos expandiendo nuestro equipo de tecnología y buscamos ingenieros de software talentosos y apasionados para unirse a nosotros. Creamos soluciones tecnológicas de alto impacto para la industria financiera, con una sólida presencia en Chile y una creciente expansión global con clientes en EE. UU. 🇺🇸, Reino Unido 🇬🇧 y la Unión Europea 🇪🇺.

Si te motivan los desafíos técnicos del mercado financiero y quieres trabajar en un entorno ágil y con visión de futuro, esta es tu oportunidad.

Nuestra Cultura

Valoramos la autonomía, la excelencia y la visión a largo plazo. Fomentamos una cultura de trabajo con una estructura horizontal, donde la colaboración es clave y tendrás la oportunidad de trabajar junto a profesionales de primer nivel, influyendo directamente en el producto y en nuestro crecimiento.

Applications are only received at getonbrd.com.

Responsabilidades del cargo

Como Software Engineer (Python) en Abaqus Solutions, tu objetivo principal será diseñar, desarrollar y mantener aplicaciones robustas y escalables que soporten las operaciones financieras de nuestros clientes. Trabajarás en un equipo multidisciplinario ágil, participando activamente en el ciclo completo de desarrollo de software, desde la definición de requisitos hasta la implementación y despliegue en producción.
Tus responsabilidades incluirán:
  • Desarrollar y mantener sistemas backend utilizando Python y frameworks como Django o FastAPI.
  • Contribuir a la optimización del rendimiento, seguridad y calidad del software.
  • Implementar integraciones con servicios en la nube, especialmente en AWS.
  • Participar en revisiones de código y en la mejora continua de procesos y buenas prácticas de desarrollo.
  • Adaptarte rápidamente a los requerimientos y desafíos técnicos propios del sector financiero.
Este rol ofrece una excelente oportunidad para crecer profesionalmente, aprendiendo de un equipo experimentado y teniendo un impacto real en productos de alta relevancia en la industria.

Requisitos para el puesto de Software Engineer (Python)

Buscamos un profesional con al menos un año de experiencia profesional en desarrollo de software, preferentemente en roles similares. Es fundamental contar con sólidas habilidades técnicas en Python y experiencia práctica con frameworks modernos como Django y FastAPI, que permitan construir y mantener aplicaciones backend confiables y eficientes.
Se valorará especialmente el interés genuino por el sector de finanzas e inversiones, comprendiendo los retos y características propias de estas industrias en el desarrollo tecnológico.
Además, esperamos que el candidato posea habilidades de comunicación efectiva, capacidad para trabajar de forma autónoma y en equipo dentro de un ambiente colaborativo y dinámico. La actitud proactiva, la orientación a resultados y la disposición para aprender y adaptarse rápidamente serán claves para el éxito en este rol.
Competencias técnicas requeridas:
  • Lenguaje Python con experiencia práctica en desarrollo backend.
  • Frameworks web: Django o FastAPI.
  • Conocimientos de bases de datos relacionales y no relacionales.
  • Familiaridad con principios de desarrollo ágil y metodologías Scrum o Kanban.
  • Control de versiones con Git.
Se espera además un nivel intermedio de inglés técnico para la lectura y comprensión de documentación, dado el contexto internacional de la empresa.

Conocimientos y habilidades adicionales valoradas

Son altamente deseables conocimientos y experiencia en las siguientes áreas, aunque no son estrictamente obligatorios:
  • Experiencia en el desarrollo frontend usando React o frameworks similares, para colaborar en la integración full-stack.
  • Familiaridad con servicios en la nube, especialmente Amazon Web Services (AWS) tales como ECS, S3 y RDS.
  • Conocimientos en contenedores y orquestación (Docker, Kubernetes).
  • Capacidad para trabajar en un entorno multinacional y multicultural, con manejo básico o avanzado del inglés hablado y escrito.
  • Habilidades en testing automatizado y buenas prácticas de documentación de código.

Beneficios y ambiente laboral

Entre los beneficios que ofrecemos destacamos:

  • Seguro complementario para cuidar de tu salud.
  • Días adicionales a las vacaciones legales: 10 medios días extra al año.
  • Plan de celular que incluye chip.
  • Acceso gratuito al gimnasio SmartFit.
  • Día libre en tu cumpleaños para celebrar a tu manera.
  • 2 días adicionales libres en caso de pérdida de seres queridos, incluyendo mascotas.
  • 3 semanas sabáticas disponibles tras cumplir 5 años en la empresa.
  • Actividades recreativas periódicas para fomentar un ambiente laboral positivo y colaborativo.

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs Abaqus Solutions covers some computer repair expenses.
Free car parking You can park your car for free at the premises.
Computer provided Abaqus Solutions provides a computer for your work.
Education stipend Abaqus Solutions covers some educational expenses related to the position.
Fitness subsidies Abaqus Solutions offers stipends for sports or fitness programs.
Informal dress code No dress code is enforced.
Vacation over legal Abaqus Solutions gives you paid vacations over the legal minimum.
Beverages and snacks Abaqus Solutions offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Parental leave over legal Abaqus Solutions offers paid parental leave over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero Software Semi Senior
  • Gauss Control
  • Santiago (Hybrid)
JavaScript Java C Python
Gauss Control es una empresa pionera en desarrollar tecnología basada en inteligencia artificial para la predicción y reducción de accidentes causados por errores humanos. Nuestro principal objetivo es salvar vidas y mejorar el desempeño humano a través de un enfoque holístico y centrado en las personas. Hemos creado una plataforma integradora que procesa datos provenientes de múltiples fuentes, principalmente dispositivos de telemetría y sensores propios, para predecir y gestionar riesgos mediante modelos avanzados de IA entrenados con datos reales de accidentes e incidentes. Muchas empresas de reconocimiento nacional e internacional confían en Gauss Control para mantener la seguridad de sus operaciones y conductores, fortaleciendo la misión de transformar la prevención de accidentes en un proceso predictivo y eficiente.

Find this vacancy on Get on Board.

¿Qué es lo que tendrás que hacer?

Como Ingeniero Software Semi Senior en Gauss Control, serás el encargado de desarrollar y mantener aplicaciones que sean estables, eficientes y robustas, asegurando que cumplan con las necesidades de la empresa y mejoren la experiencia de nuestros usuarios. Trabajarás en estrecha colaboración con equipos multidisciplinarios, incluyendo tecnología, UX, Producto, y comercial, para garantizar la coherencia del sistema y aportar valor continuo.
  • Desarrollo de software de calidad: Diseñar, programar y documentar soluciones limpias, eficientes y mantenibles siguiendo las convenciones técnicas y buenas prácticas establecidas por Gauss Control.
  • Gestión de entregas y sprints: Participar activamente en la planificación, ejecución y entrega de sprints, abarcando diseño técnico, estimaciones, pruebas, documentación y seguimiento a través de herramientas como Jira y Confluence.
  • Colaboración y comunicación: Interactuar con el equipo de Producto y técnico para clarificar requisitos, refinar definiciones, presentar propuestas técnicas y fomentar un ambiente de trabajo colaborativo y mejora continua.
  • Calidad y soporte técnico: Ejecutar pruebas internas, apoyar en actividades de aseguramiento de calidad (QA), garantizar la compatibilidad de interfaces y vistas, así como colaborar en la rápida solución de errores y tareas técnicas asignadas.
  • Innovación y mejora continua: Investigar, proponer y aplicar nuevas tecnologías, frameworks y mejoras técnicas que optimicen la eficiencia del desarrollo y la experiencia del usuario final.

¿Qué te ayudará a tener éxito?

Buscamos profesionales con formación en Ingeniería Civil en Computación, Ingeniería en Informática, Ingeniería en Telecomunicaciones o carreras afines, que posean entre 3 y 5 años de experiencia en roles similares. Valoramos profundamente el dominio técnico y las habilidades interpersonales para el trabajo en equipo.
  • Experiencia sólida en lenguajes de programación: SQL, Python, Java, JavaScript y C#.
  • Conocimiento en plataformas cloud: Experiencia trabajando con alguna plataforma en la nube como Google Cloud Platform (GCP), Amazon Web Services (AWS) o Microsoft Azure.
  • Dominio avanzado de bases de datos: Manejo de motores tanto relacionales como no relacionales, incluyendo PostgreSQL, MongoDB y BigQuery.
  • Desarrollo y mantenimiento de microservicios: Entendimiento profundo sobre creación, despliegue y manejo de microservicios.
  • Patrones de diseño y mejores prácticas de desarrollo: Aplicación rigurosa para crear aplicaciones escalables y mantenibles.
  • Conocimientos en arquitectura de software: Capacidad para diseñar soluciones coherentes que cumplan con los estándares actuales y garanticen la calidad.
Además de los conocimientos técnicos, valoramos una actitud proactiva, orientación a resultados, capacidad de trabajo en equipo y comunicación efectiva para interactuar con diversas áreas.

Habilidades y conocimientos deseables

Serán altamente valoradas las cualidades adicionales que complementen el perfil técnico básico, como experiencia previa en entornos ágiles y de gestión con metodologías SCRUM, familiaridad con herramientas de automatización de pruebas y despliegue continuo (CI/CD). El conocimiento de frameworks modernos de desarrollo web y experiencia en la implementación de soluciones basadas en inteligencia artificial y machine learning serán un plus significativo.
El dominio avanzado del idioma inglés para la lectura técnica y la comunicación con proveedores o clientes internacionales será considerado un valor agregado, al igual que la disposición para seguir aprendiendo y adoptar nuevas tecnologías de manera constante.

¡Nuestros Beneficios!

Familia
-Vacaciones: 20 días de vacaciones hábiles anuales (5 días más de disfrute a lo estipulado por la ley).
-Tarde libre mensual: ¿Necesitas hacer algún trámite o simplemente necesitas descansar? Te otorgamos una tarde libre al mes para que la puedas utilizar en lo que necesites!
-¡Viernes de desconexión! Trabajamos hasta las 13:00 pm
Salud y Bienestar
-Frutas, Barras de cereal y variedades de cafés y té.
-Dress code cómodo: siempre y cuando todos en la oficina se sientan cómodos con tu elección.
-Seguro complementario de salud MetLife: tu salud y economía son nuestra prioridad.
-Convenio caja Los Andes: gozarás de todos los beneficios que ofrece la Caja Los Andes para ti!
Recreación
-Happy Hour mensual: ¡nos reunimos y celebramos nuestros logros como equipo!
-Dia de Cumpleaños libre: queremos que sea un día muy especial para ti y puedas celebrar junto a tus seres queridos!

Health coverage Gauss Control pays or copays health insurance for employees.
Computer provided Gauss Control provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Gauss Control gives you paid vacations over the legal minimum.
Beverages and snacks Gauss Control offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2900 - 4500 Tiempo completo
Java Engineer
  • Abaqus Solutions
  • Santiago (Hybrid)
Python Agile Django Virtualization

En Abaqus Solutions, estamos expandiendo nuestro equipo de tecnología y buscamos ingenieros de software talentosos y apasionados para unirse a nosotros. Creamos soluciones tecnológicas de alto impacto para la industria financiera, con una sólida presencia en Chile y una creciente expansión global con clientes en EE. UU. 🇺🇸, Reino Unido 🇬🇧 y la Unión Europea 🇪🇺.

Si te motivan los desafíos técnicos del mercado financiero y quieres trabajar en un entorno ágil y con visión de futuro, esta es tu oportunidad.

Nuestra Cultura

Valoramos la autonomía, la excelencia y la visión a largo plazo. Fomentamos una cultura de trabajo con una estructura horizontal, donde la colaboración es clave y tendrás la oportunidad de trabajar junto a profesionales de primer nivel, influyendo directamente en el producto y en nuestro crecimiento.

Apply to this job opportunity at getonbrd.com.

Responsabilidades y Tareas del Puesto

Como Senior Python Engineer, serás responsable de diseñar, desarrollar y mantener componentes claves de nuestros productos, asegurando robustez, escalabilidad y rendimiento óptimo. Participarás activamente en el ciclo completo de desarrollo ágil, desde el análisis de requerimientos hasta la implementación y despliegue de soluciones.

  • Desarrollar y optimizar servicios backend usando Python y frameworks asociados como Django y FastAPI.
  • Participar en el diseño arquitectónico y definición de mejores prácticas de desarrollo.
  • Integrar soluciones con servicios cloud de AWS (ECS, S3, RDS), garantizando seguridad y eficiencia.
  • Mentorar a desarrolladores junior y promover la mejora continua dentro del equipo.
  • Colaborar en la definición de requisitos técnicos y funcionales con áreas de negocio y producto.
  • Realizar análisis y resolución de incidencias en entornos productivos.
  • Contribuir a mantener la documentación técnica actualizada.

Perfil Requerido para el Cargo

Buscamos un profesional con sólida experiencia en desarrollo con Python, capaz de trabajar en entornos dinámicos y con capacidad para asumir retos técnicos complejos. Valoramos el interés genuino por el sector financiero, especialmente en temas relacionados con inversiones y mercados, así como la mentalidad proactiva y colaborativa.

  • Al menos 6 años de experiencia profesional en desarrollo de software, con al menos 5 años específicos en Python.
  • Dominio avanzado de frameworks web en Python, preferentemente Django y FastAPI.
  • Experiencia con servicios cloud de AWS, incluyendo orquestación con ECS, almacenamiento en S3 y bases de datos RDS.
  • Conocimientos sólidos en buenas prácticas de desarrollo, testing automatizado, integración continua y despliegue continuo (CI/CD).
  • Capacidad para trabajar en equipos ágiles y metodologías Scrum o Kanban.
  • Excelentes habilidades de comunicación, autonomía y orientación a resultados.
  • Inglés técnico para la lectura y comprensión de documentación.

Además, valoramos un perfil que tenga iniciativa para proponer mejoras y soluciones innovadoras, y que se adapte fácilmente a un entorno de rapidísimo crecimiento y evolución tecnológica.

Conocimientos y Experiencias Deseables

Contar con experiencia en tecnologías frontend como React es un plus que aporta a la versatilidad del equipo. También se valora experiencia previa en ambientes fintech o proyectos vinculados al sector financiero.
Experiencia adicional en arquitectura de microservicios, manejo avanzado de bases de datos relacionales y no relacionales, así como conocimientos en seguridad informática aplicada a desarrollo serán considerados positivamente.

Beneficios y Condiciones Laborales

En Abaqus Solutions ofrecemos un ambiente de trabajo que combina profesionalismo y un entorno amigable para el crecimiento personal y profesional. Nuestro modelo de trabajo es híbrido, permitiendo un mínimo de un día presencial semanal en oficinas ubicadas a pasos del Metro El Golf en Santiago.
Beneficios destacados:
  • Seguro complementario de salud.
  • 10 medios días adicionales sobre vacaciones legales al año.
  • Plan de celular con chip incluido.
  • Acceso a gimnasio SmartFit.
  • El día de tu cumpleaños libre.
  • Dos días libres por duelo, incluyendo la pérdida de mascotas.
  • Tres semanas sabáticas tras 5 años en la empresa.
  • Actividades lúdicas y de integración periódicas.
Nos destacamos por una cultura horizontal, centrada en la autonomía, la excelencia técnica y el trabajo colaborativo. Ofrecemos oportunidades reales de desarrollo profesional en un ambiente ágil con alcance internacional.

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Abaqus Solutions offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Health coverage Abaqus Solutions pays or copays health insurance for employees.
Computer repairs Abaqus Solutions covers some computer repair expenses.
Free car parking You can park your car for free at the premises.
Computer provided Abaqus Solutions provides a computer for your work.
Education stipend Abaqus Solutions covers some educational expenses related to the position.
Fitness subsidies Abaqus Solutions offers stipends for sports or fitness programs.
Informal dress code No dress code is enforced.
Vacation over legal Abaqus Solutions gives you paid vacations over the legal minimum.
Beverages and snacks Abaqus Solutions offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Parental leave over legal Abaqus Solutions offers paid parental leave over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2900 - 4500 Tiempo completo
Senior Python Engineer
  • Abaqus Solutions
  • Santiago (Hybrid)
Python Agile Django Virtualization

En Abaqus Solutions, estamos expandiendo nuestro equipo de tecnología y buscamos ingenieros de software talentosos y apasionados para unirse a nosotros. Creamos soluciones tecnológicas de alto impacto para la industria financiera, con una sólida presencia en Chile y una creciente expansión global con clientes en EE. UU. 🇺🇸, Reino Unido 🇬🇧 y la Unión Europea 🇪🇺.

Si te motivan los desafíos técnicos del mercado financiero y quieres trabajar en un entorno ágil y con visión de futuro, esta es tu oportunidad.

Nuestra Cultura

Valoramos la autonomía, la excelencia y la visión a largo plazo. Fomentamos una cultura de trabajo con una estructura horizontal, donde la colaboración es clave y tendrás la oportunidad de trabajar junto a profesionales de primer nivel, influyendo directamente en el producto y en nuestro crecimiento.

Apply to this job opportunity at getonbrd.com.

Responsabilidades y Tareas del Puesto

Como Senior Python Engineer, serás responsable de diseñar, desarrollar y mantener componentes claves de nuestros productos, asegurando robustez, escalabilidad y rendimiento óptimo. Participarás activamente en el ciclo completo de desarrollo ágil, desde el análisis de requerimientos hasta la implementación y despliegue de soluciones.

  • Desarrollar y optimizar servicios backend usando Python y frameworks asociados como Django y FastAPI.
  • Participar en el diseño arquitectónico y definición de mejores prácticas de desarrollo.
  • Integrar soluciones con servicios cloud de AWS (ECS, S3, RDS), garantizando seguridad y eficiencia.
  • Mentorar a desarrolladores junior y promover la mejora continua dentro del equipo.
  • Colaborar en la definición de requisitos técnicos y funcionales con áreas de negocio y producto.
  • Realizar análisis y resolución de incidencias en entornos productivos.
  • Contribuir a mantener la documentación técnica actualizada.

Perfil Requerido para el Cargo

Buscamos un profesional con sólida experiencia en desarrollo con Python, capaz de trabajar en entornos dinámicos y con capacidad para asumir retos técnicos complejos. Valoramos el interés genuino por el sector financiero, especialmente en temas relacionados con inversiones y mercados, así como la mentalidad proactiva y colaborativa.

  • Al menos 6 años de experiencia profesional en desarrollo de software, con al menos 5 años específicos en Python.
  • Dominio avanzado de frameworks web en Python, preferentemente Django y FastAPI.
  • Experiencia con servicios cloud de AWS, incluyendo orquestación con ECS, almacenamiento en S3 y bases de datos RDS.
  • Conocimientos sólidos en buenas prácticas de desarrollo, testing automatizado, integración continua y despliegue continuo (CI/CD).
  • Capacidad para trabajar en equipos ágiles y metodologías Scrum o Kanban.
  • Excelentes habilidades de comunicación, autonomía y orientación a resultados.
  • Inglés técnico para la lectura y comprensión de documentación.

Además, valoramos un perfil que tenga iniciativa para proponer mejoras y soluciones innovadoras, y que se adapte fácilmente a un entorno de rapidísimo crecimiento y evolución tecnológica.

Conocimientos y Experiencias Deseables

Contar con experiencia en tecnologías frontend como React es un plus que aporta a la versatilidad del equipo. También se valora experiencia previa en ambientes fintech o proyectos vinculados al sector financiero.
Experiencia adicional en arquitectura de microservicios, manejo avanzado de bases de datos relacionales y no relacionales, así como conocimientos en seguridad informática aplicada a desarrollo serán considerados positivamente.

Beneficios y Condiciones Laborales

En Abaqus Solutions ofrecemos un ambiente de trabajo que combina profesionalismo y un entorno amigable para el crecimiento personal y profesional. Nuestro modelo de trabajo es híbrido, permitiendo un mínimo de un día presencial semanal en oficinas ubicadas a pasos del Metro El Golf en Santiago.
Beneficios destacados:
  • Seguro complementario de salud.
  • 10 medios días adicionales sobre vacaciones legales al año.
  • Plan de celular con chip incluido.
  • Acceso a gimnasio SmartFit.
  • El día de tu cumpleaños libre.
  • Dos días libres por duelo, incluyendo la pérdida de mascotas.
  • Tres semanas sabáticas tras 5 años en la empresa.
  • Actividades lúdicas y de integración periódicas.
Nos destacamos por una cultura horizontal, centrada en la autonomía, la excelencia técnica y el trabajo colaborativo. Ofrecemos oportunidades reales de desarrollo profesional en un ambiente ágil con alcance internacional.

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Abaqus Solutions offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Health coverage Abaqus Solutions pays or copays health insurance for employees.
Computer repairs Abaqus Solutions covers some computer repair expenses.
Free car parking You can park your car for free at the premises.
Computer provided Abaqus Solutions provides a computer for your work.
Education stipend Abaqus Solutions covers some educational expenses related to the position.
Fitness subsidies Abaqus Solutions offers stipends for sports or fitness programs.
Informal dress code No dress code is enforced.
Vacation over legal Abaqus Solutions gives you paid vacations over the legal minimum.
Beverages and snacks Abaqus Solutions offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Parental leave over legal Abaqus Solutions offers paid parental leave over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Developer Back-end Python con Experiencia en AWS
  • Dynamic Devs
  • Santiago (Hybrid)
Python Agile MySQL PostgreSQL

Somos una empresa de servicios de tecnología que busca proyectos de alto impacto haciendo de la innovación y transformación digital parte de diferentes empresas principalmente transnacionales latinoamericanas de diversos sectores económicos como retail, seguros, distribución de equipos médicos, banca y productos digitales masivos utilizados por los consumidores. en todo el continente

Somos partidarios de la excelencia técnica, DevOps, Entrega Continua e Integración Continua, conformando equipos de alto desempeño en proyectos desafiantes, orientados al crecimiento e implementación de nuevas tecnologías. Más importante aún, ofrecemos un entorno colaborativo y multicultural donde puedes aprender, disfrutar y crecer como profesional.

📢 En Dynamic Devs buscamos a Developer Backend Python con experiencia en AWS.
Serás responsable de desarrollar servicios robustos y escalables en la nube, alineados con los objetivos del proyecto.

This job offer is available on Get on Board.

Funciones del cargo

  • Diseñar, desarrollar y mantener componentes backend con python, utilizando frameworks como Flask o FastAPI.
  • Diseñar, consultar y optimizar estructuras de datos utilizando bases de datos SQL y NoSQL.
  • Participar activamente en todas las fases del desarrollo, desde la definición y análisis de requisitos hasta pruebas, despliegue y mantenimiento del producto.
  • Diseñar y configurar arquitecturas escalables y elásticas que respondan a requerimientos funcionales y no funcionales.
  • Desarrollar y modelar servicios web basados en REST, con posible uso de SOAP, para integración con frontend y sistemas externos.
  • Generar documentación técnica que faciliten el entendimiento del desarrollo.
  • Ejecutar despliegues utilizando herramientas como FTP, CLI y pipelines automatizados.
  • Manejar repositorios Git con estrategias avanzadas de branching como Github flow para una gestión eficiente del código.
  • Asegurar la implementación de buenas prácticas en seguridad, protección de datos y almacenamiento.
  • Documentar APIs mediante herramientas como Postman y OpenAPI (Swagger), garantizando la calidad y comprensión de las interfaces desarrolladas.
  • Integrar productos digitales con plataformas y herramientas de terceros usando tecnologías como, por ejemplo: APIs, Webhooks, FTP o colas de mensajes.
  • Utilizar frameworks de pruebas unitarias e integración.
  • Conocimiento en la aplicación de patrones de diseño y buenas prácticas de arquitectura de software.
  • Conocimiento de técnicas de caching (Redis, HTTP caching, control de headers, etc.) para mejorar el rendimiento del backend.

Requerimientos del cargo

  • +3 años de experiencia con python y frameworks como: Flask o FastAPI
  • Experiencia con bases de datos SQL y NoSQL (Oracle, MySQL, Postgres, DynamoDB o Mongo)
  • Conocimiento avanzado en Pyhton.
  • Conocimiento en arquitectura de microservicios y orientada a eventos, con enfoque en escalabilidad y desacoplamiento.
  • Dominio de principios de diseño como Clean Code, SOLID y patrones arquitectónicos como arquitectura hexagonal.
  • Creación y diseño de APIs REST.
  • Control de versiones con Git.
  • Conocimiento en Docker y CI/CD.
  • Familiaridad con metodologías ágiles (Scrum/Kanban).
  • Haber trabajado en entornos cloud (AWS, GCP o Azure).
  • Requisito excluyente: Contar con RUT chileno vigente.

Opcionales

  • Certificaciones en la nube (AWS, Google Cloud, Azure) es un plus.
  • Deseable, Experiencia en infraestructura Cloud (preferentemente AWS o Azure), incluyendo servicios backend escalables y notificaciones push.

Condiciones

💻 Beneficio Bring Your Own Device (A partir del 4to mes trabajando con nosotros, podrás adquirir un computador propio)
⌚ Horario flexible 🕒
🚀 Haz un impacto. Trabaja en proyectos desafiantes
📚 IT Training: acceso a más de 500 cursos actualizados cada semana 📖
🎤 Dev Talks: conferencias exclusivas con expertos del sector
🎉 Día especial: 🎂 ¡Día libre por cumpleaños!
👥 Trabaja en un equipo talentoso y multicultural usando tecnología increíble
🎙️ Escucha nuestro podcast aquí: 🔗 Escuchar Podcast
🌐 Visítanos en nuestra web: 🔗 Dynamic Devs

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Dynamic Devs offers space for internal talks or presentations during working hours.
Life insurance Dynamic Devs pays or copays life insurance for employees.
Digital library Access to digital books or subscriptions.
Computer provided Dynamic Devs provides a computer for your work.
Education stipend Dynamic Devs covers some educational expenses related to the position.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Full-Stack Developer
  • The Optimal
  • Santiago (Hybrid)
JavaScript Ruby on Rails HTML5 CSS

The Optimal es una empresa líder en servicios tecnológicos e innovadores orientados al apoyo en la toma de decisiones en Logística de carga y pasajeros en Chile, Colombia, Ecuador y Perú (pronto mucho más🚀).

Parte importante de nuestros proyectos apuntan a reducir costos de transporte, mejorar la visibilidad de la cadena de abastecimiento y ofrecer soluciones tecnológicas para la optimización de rutas, automatización de procesos y análisis de datos para nuestros clientes.

© getonbrd.com.

¿Qué desafíos tendrás? 💪

Buscamos un/a Desarrollador/a Full Stack con sólidos conocimientos en tecnología web, especialmente en Ruby on Rails, JavaScript y React, habilidades indispensables para el cargo.

El perfil ideal tiene hasta 5 años de experiencia, y muchas ganas de crecer, aprender y aportar en un entorno dinámico y colaborativo. Valoramos más la actitud y el compromiso que la cantidad exacta de años en el rubro.

Esperamos que la persona esté dispuesta a aprender y adaptarse a nuevas tecnologías según las necesidades del proyecto.

Se consideran deseables conocimientos en React Native, Python, C# y Expo, así como experiencia con bases de datos PostgreSQL y, opcionalmente, SQL Server.

En cuanto a habilidades blandas, valoramos la atención al detalle, el pensamiento crítico, la capacidad para trabajar en equipo y comunicarse de forma efectiva. La proactividad, la responsabilidad, el aprendizaje continuo y la iniciativa para resolver problemas son fundamentales para el rol.

¿Qué buscamos en ti? 🚀

Desarrollo Front-end:

  • HTML, CSS, JavaScript
  • React (indispensable)
  • React Native (deseable)

Desarrollo Back-end:

  • Ruby on Rails (indispensable)
  • Python, C# (deseables)

Frameworks y Librerías:

  • React, React Native, Expo (deseables)
  • Conocimientos generales en frameworks modernos es un plus

Bases de Datos:

  • PostgreSQL (deseable)
  • SQL Server (opcional)

Control de versiones:

  • Git

Pruebas y depuración:

  • Minitest, RSpec (deseables)
  • Buenas prácticas de testing y revisión de código

Herramientas de desarrollo:

  • Visual Studio Code
  • Docker (deseable)
  • CLI (Command Line Interface)

Otros conocimientos valorados:

  • Patrones de diseño
  • Arquitectura basada en microservicios (plus)

Conditions

Wellness program The Optimal offers or subsidies mental and/or physical health activities.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage The Optimal pays or copays health insurance for employees.
Computer provided The Optimal provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Beverages and snacks The Optimal offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2700 - 3200 Tiempo completo
Integrations Engineer
  • LabLab
  • Santiago (Hybrid)
JavaScript Python Git Node.js

En LabLab somos una empresa de outplacement, líder en el uso de inteligencia laboral en Chile. Además de acompañar a personas en sus procesos de transición laboral, hemos desarrollado diversas soluciones tecnológicas, tales como Guru.ai, con el objetivo de convertirse en el repositorio de empleos más completo del país. Hoy estamos en una fase clave: queremos llevar a MiGuru al siguiente nivel, para disponibilizar las mejores tecnologías en cada etapa del proceso de búsqueda laboral.
Buscamos a una persona con experiencia e interés en investigar, evaluar e integrar las mejores soluciones existentes con los desarrollos y sistemas internos. Este es un rol ideal para alguien que quiera crecer junto con un producto en evolución, tomar decisiones técnicas y construir desde lo fundamental.

Apply from getonbrd.com.

Lo que harás en este rol

  • Investigarás, evaluarás y recomendarás tecnologías externas (APIs, servicios, herramientas), en línea con la estrategia de crecimiento de la empresa.
  • Participarás en decisiones clave sobre desarrollo interno e integraciones, alineando roadmap de integraciones con la arquitectura establecida y los objetivos de cada proyecto.
  • Diseñarás y desarrollarás la integración de las tecnologías elegidas con nuestros sistemas, liderando los procesos de integración, testing y mantenimiento.
  • Liderarás la comunicación con las contrapartes técnicas de los proyectos de integración, entendiendo dependencias, SLAs y medición de KPIs.
  • Contribuirás a la evolución de nuestra arquitectura técnica, con foco en eficiencia, calidad, escalabilidad y sostenibilidad.

Lo que necesitamos de ti

  • Estudios en Ingeniería Civil Informática o similar.
  • Desde 5 años de experiencia en proyectos de integración de datos y APIs.
  • Experiencia desarrollando servicios backend con tecnologías como Python y Node.
  • Conocimiento y manejo de APIs REST y flujos de integración de datos entre sistemas.
  • Manejo de herramientas como Git y Docker.
  • Capacidad para trabajar de forma autónoma, investigar tecnologías nuevas y diagnosticar, descomponer y resolver problemas complejos.
  • Habilidades de gestión del tiempo para manejar múltiples clientes externos e internos.
  • Buen criterio técnico e interés en participar de decisiones de arquitectura.

Plus que suman puntos

  • Conocimientos de sistemas de cola, como Celery.
  • Haber trabajado en entornos de Cloud Computing (AWS, Terraform, etc.).
  • Experiencia con CI/CD, administración de repositorios GitHub y servidores Linux.
  • Manejo de bases de datos relacionales y no relacionales.
  • Ganas de trabajar con usuarios y participar activamente en reuniones de equipo.

Lo que te ofrecemos

  • Sueldo competitivo, a convenir según experiencia.
  • Modalidad full-time y trabajo híbrido, para fortalecer la colaboración en oficina, sin dejar de lado el balance entre tu vida personal y profesional.
  • 3 días libres adicionales a las vacaciones legales + tu día de cumpleaños libre.
  • Presupuesto anual de 500 USD para inversión en gadgets, cursos, libros, hardware o software de tu interés.
  • Equipamiento de laptop para trabajo remoto.
  • Aguinaldos en fiestas patrias y navidad.
  • Código de vestimenta informal, porque valoramos tu contribución por encima de la ropa que uses.

Outdoors The premises have outdoor spaces such as parks or terraces.
Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Computer provided LabLab provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal LabLab gives you paid vacations over the legal minimum.
Beverages and snacks LabLab offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo