No encontramos ningún resultado.

Prueba con otro grupo de palabras.

Si crees que esto es un error, por favor contáctanos.

Gross salary $1500 - 2000 Tiempo completo
Data Scientist
  • Artefact LatAm
Python Analytics Git SQL

Somos Artefact, una consultora líder a nivel mundial en crear valor a través del uso de datos y las tecnologías de IA. Buscamos transformar los datos en impacto comercial en toda la cadena de valor de las organizaciones, trabajando con clientes de diversos tamaños, rubros y países. Nos enorgullese decir que estamos disfrutando de un crecimiento importante en la región, y es por eso que queremos que te sumes a nuestro equipo de profesionales altamente capacitados, a modo de abordar problemas complejos para nuestros clientes.

Nuestra cultura se caracteriza por un alto grado de colaboración, con un ambiente de aprendizaje constante, donde creemos que la innovación y las soluciones vienen de cada integrante del equipo. Esto nos impulsa a la acción, y generar entregables de alta calidad y escalabilidad.

Official source: getonbrd.com.

Tus responsabilidades serán:

  • Recolectar, limpiar y organizar grandes volúmenes de datos provenientes de diversas fuentes, como bases de datos, archivos planos, APIs, entre otros. Aplicando técnicas de análisis exploratorio para identificar patrones y resumir las características principales de los datos, así como para entender el problema del cliente.
  • Desarrollar modelos predictivos utilizando técnicas avanzadas de aprendizaje automático y estadística para predecir tendencias, identificar patrones y realizar pronósticos precisos
  • Optimizar algoritmos y modelos existentes para mejorar la precisión, eficiencia y escalabilidad, ajustando parámetros y explorando nuevas técnicas
  • Crear visualizaciones claras y significativas para comunicar los hallazgos y resultados al cliente, de manera efectiva
  • Comunicar los resultados efectivamente, contando una historia para facilitar la comprensión de los hallazgos y la toma de decisiones por parte del cliente
  • Diseñar y desarrollar herramientas analíticas personalizadas y sistemas de soporte para la toma de decisiones basadas en datos, utilizando lenguaje de programación como Python, R o SQL
  • Trabajo colaborativo: colaborar con equipos multidisciplinarios para abordar problemas complejos y proporcionar soluciones integrales al cliente, además de participar en proyectos de diversa complejidad, asegurando la calidad de los entregables y el cumplimiento de los plazos establecidos.
  • Investigar y mantenerse actualizado en análisis de datos, inteligencia artificial y metodologías para mejorar las capacidades analíticas, adquiriendo rápidamente conocimientos sobre diversas industrias y herramientas específicas

Los requisitos del cargo son:

  • Conocimientos demostrables en analítica avanzada, sean por estudios o experiencia laboral.
  • Manejo de Python, SQL y Git.
  • Conocimiento de bases de datos relacionales
  • Conocimiento de:
    • Procesamiento de datos (ETL)
    • Machine Learning
    • Feature engineering, reducción de dimensiones
    • Estadística y analítica avanzada

Algunos deseables no excluyentes:

Experiencia con:

  • Herramientas de BI (Power BI o Tableau)
  • Servicios cloud (Azure, AWS, GCP)
  • Conocimiento de bases de datos no relacionales (ej: Mongo DB)
  • Conocimiento en optimización

Algunos de nuestros beneficios:

  • Presupuesto de 500 USD al año para capacitaciones, sean cursos, membresías, eventos u otros.
  • Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Hasta 11 días de vacaciones adicionales a lo legal. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por utilidades de la empresa, además de bonos por trabajador referido y por cliente.
  • Medio día libre de cumpleaños, además de un regalito.
  • Almuerzos quincenales pagados con el equipo en nuestros hubs (Santiago, Bogotá, Lima y Ciudad de Mexico).
  • Flexibilidad horaria y trabajo por objetivos.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Bogotá, Lima y Ciudad de Mexico).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)

...y más!

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Meals provided Artefact LatAm provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Company retreats Team-building activities outside the premises.
Computer repairs Artefact LatAm covers some computer repair expenses.
Computer provided Artefact LatAm provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Vacation over legal Artefact LatAm gives you paid vacations over the legal minimum.
Beverages and snacks Artefact LatAm offers beverages and snacks for free consumption.
Parental leave over legal Artefact LatAm offers paid parental leave over the legal minimum.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $4850 - 7000 Tiempo completo
Senior Database Engineer/architect
  • Krunchbox
Java Python Analytics SQL

Krunchbox is transforming retail analytics with our next-generation platform (Krunchbox 2.0). We are migrating from 800 hardcoded ETLs to a modern, real-time analytics architecture powered by ClickHouse. This greenfield initiative aims to architect the analytical backbone for 100+ enterprise clients while maintaining and optimizing our existing SQL Server infrastructure during the transition. The Senior Database Engineer/Architect will lead the database transformation and operations across both legacy and modern systems, owning the analytical data layer, and delivering a scalable, multi-tenant ClickHouse architecture alongside ongoing SQL Server maintenance.

© Get on Board.

Key Responsibilities

  • ClickHouse Implementation (New Architecture): take over from initial consulting work to build production ClickHouse system; design and implement multi-tenant architecture with partition isolation; migrate from SQL Server to ClickHouse optimizing for columnar storage; create materialized views for KPI calculations and dashboards; implement data retention policies and TTL strategies; optimize query performance for complex analytical workloads; design backup, recovery, and high-availability strategies.
  • SQL Server Management (Legacy Systems): maintain and optimize existing SQL Server infrastructure during transition; lead ETL modernization from 800 hardcoded processes to automated pipelines; perform database performance tuning and troubleshooting; manage legacy architecture decisions and technical debt; ensure data integrity and availability during migration; optimize existing queries and stored procedures.
  • Leadership & Architecture: provide database leadership across legacy and modern platforms; mentor on SQL and ClickHouse best practices; design migration strategies minimizing downtime and risk; collaborate with development teams on data architecture decisions; create documentation and best practices for a hybrid database environment; lead knowledge transfer and retention efforts during transition.
  • Collaboration & Delivery: work closely with existing team members to ensure continuity and minimize disruption; partner with Event Hubs team for real-time data ingestion; contribute to roadmap and architecture decisions that support scalable analytics for 100M+ rows daily across tenants.

What you’ll bring

Required Qualifications

  • ClickHouse Expertise: 3+ years of production ClickHouse experience; strong background with large-scale migrations from relational to columnar databases; deep understanding of ClickHouse internals (MergeTree engines, partitioning, sharding); expertise in materialized views, projections, and aggregation optimizations; experience with ClickHouse Cloud or managing ClickHouse clusters.
  • SQL Server & Traditional DB Skills: 5+ years of SQL Server production experience in enterprise environments; expert-level SQL programming and query optimization; experience with ETL pipeline design and optimization; database administration including backup, recovery, and performance tuning; experience leading migrations and modernization projects.
  • General Qualifications: proficiency in SQL and ClickHouse-specific extensions; experience with multi-tenant data architectures; strong problem-solving capabilities for complex data challenges; excellent cross-team communication.

Preferred Qualifications

  • Experience with Azure Event Hubs or Kafka integration; knowledge of CDC patterns and real-time data synchronization; retail or e-commerce analytics domain experience; experience with time-series data and IoT workloads; contributions to ClickHouse community or open source; experience with Azure SQL Database and cloud migrations; familiarity with Python/FastAPI for database integration; knowledge of data warehousing and OLAP concepts.

Desirable but not required

Desirable but not required skills:

  • Hands-on experience in modern data platforms and cloud-native architectures; prior leadership role in data platform transformations; experience with multi-region deployments and governance; ability to translate business requirements into scalable data models; passion for scalable performance optimization and data quality.

Benefits

  • Competitive compensation package.
  • Local health coverage (if required)
  • Opportunity to scale and lead a global SaaS platform that solves real-world customer challenges.
  • A direct, impactful role in shaping the future of AI-powered supplier-retailer collaboration.

Fully remote You can work from anywhere in the world.
Health coverage Krunchbox pays or copays health insurance for employees.
Computer provided Krunchbox provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Krunchbox gives you paid vacations over the legal minimum.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $2300 - 3000 Tiempo completo
Data Engineer
  • Coderslab.io
Python SQL Artificial Intelligence Machine Learning

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente nos encontramos apuntando al crecimiento de nuestros equipos de manera global con el objetivo de posicionarnos con nuestros productos en más países de Latinoamérica, es por ello que estamos en búsqueda de un DATA ENGINEERpara sumarse a nuestro equipo.

Te sumarás a un equipo desafiante y ambicioso con ganas de renovar el mercado, por lo que tus propuestas serán de mucho valor para el negocio.

¡Postula para este tremendo desafío!

© Get on Board.

Funciones del cargo

  • Desarrollo de ingestas de Datos a GCP
  • Diseñar y construir pipelines de datos robustos para procesos de ingesta, transformación y carga (ETL/ELT).
  • Aplicar buenas prácticas en el manejo de datos: seguridad, gobernanza y cumplimiento.
  • Trabajar con sistemas de procesamiento distribuido para manejar grandes volúmenes de datos
  • Colaborar con equipos interdisciplinarios para impulsar decisiones basadas en datos.
  • Implementar soluciones escalables y eficientes utilizando herramientas de Google Cloud Platform (GCP).

Requerimientos del cargo

- Dominio del lenguaje de programación Python y Lenguaje de Consulta Estructurado (SQL).
- Experiencia trabajando con plataformas de datos en la nube como Snowflake o tecnologías similares.
- Conocimiento de los pipelines de aprendizaje automático y capacidad para apoyar el desarrollo de modelos utilizando herramientas como Amazon SageMaker.
- Familiaridad con procesos de integración de datos como Extraer-Transformar-Cargar (ETL) o Extraer-Cargar-Transformar (ELT).

Condiciones

Nivel de Ingles : Avanzado

Fully remote You can work from anywhere in the world.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Ingeniero de Datos para Cloud Azure
  • Coderslab.io
Python SQL NoSQL Azure

CodersLab es una empresa dedicada al desarrollo de soluciones dentro del rubro IT y actualmente nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Ingeniero de Datos para Cloud Azure para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Applications are only received at getonbrd.com.

Funciones del cargo

i. Crear productos de datos que ayuden al negocio a lograr sus objetivos con fines analíticos.

ii. Diseñar, diseñar, construir y mantener soluciones de canalización de datos (Data Pipelines) / ETLs batch o streaming.

iii. Construir código para ingestar y actualizar grandes conjuntos de datos en bases de datos relacionales y no relacionales e incluso data No Estructurada.

iv. Aplicar buenas prácticas de Azure DevOps para facilitar el despliegue continuo de nuevas versiones de las canalizaciones y soluciones de datos a través de Pull-Request.

v. Desarrollar Modelos de Datos que permitan gestionar los datos a escala, de manera óptima de cara a grandes volúmenes de datos (Modelo de Datos Data Vault), así como, Modelos de Datos Optimizados para consumos (Modelos de Datos Estrella y Copo de Nieve).

vi. Desarrollar Productos de Datos bajo la Arquitectura Lakehouse y aplicando buenas prácticas de Data Mesh.

vii. Trabajar con las áreas de negocios para comprender los objetivos, recopilar los requisitos iniciales para desarrollar y recomendar soluciones adecuadas.

viii. Participar en la planificación y ejecución de proyectos de ingeniería de datos, coordinando actividades y asegurando el cumplimiento de los plazos.

ix. Colaborar con los científicos de datos para comprender los requisitos específicos de datos necesarios para modelos de inteligencia artificial (IA) y aprendizaje automático (ML).

Requerimientos del cargo

i. Preferente Microsoft Certified: Azure Data Engineer Associate

ii. Preferente Databricks Certified: Data Engineer Associate

iii. Conocimiento avanzado en bases de datos relacionales y lenguaje SQL.

iv. Conocimiento avanzado en bases de datos NoSql.

v. Conocimiento avanzado de procesos y herramientas de ETL, principalmente enfocado a Azure.

vi. Conocimiento en procesamiento de datos batch, streaming, API.

vii. Conocimiento intermedio en programación Python y avanzado en el uso de la biblioteca pyspark.

viii. Conocimientos avanzados en el modelado de datos Data Vault para arquitecturas Data Lakehouse.

ix. Conocimientos avanzados en el modelado de datos Estrella y Copo de Nieve para arquitecturas Data Warehouse.

x. Conocimiento conceptual en gobierno de datos, seguridad de los datos y calidad de los datos.

PROCESO

El proceso de selección consta de una única prueba técnica en vivo con el equipo. No habrá entrevistas previas.

Fully remote You can work from anywhere in the world.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $2500 - 3000 Tiempo completo
Data Engineer (Bilingüe)
  • Adecco
  • Santiago (Hybrid)
Java Python Analytics SQL

Somos Adecco Chile, la filial local del líder mundial en servicios de Recursos Humanos, con más de 35 años de presencia en el país y una sólida trayectoria apoyando a empresas en su gestión de talento. Adecco Chile está comprometida con ofrecer soluciones integrales y personalizadas, destacándose en áreas como Selección de Personal, Staffing, Payroll Services y Training & Consulting. Nuestro equipo trabaja con altos estándares de calidad, respaldados por la certificación ISO 9001:2015, y con presencia en las principales ciudades del país. Actualmente, buscamos incorporar un Data Engineer para un proyecto estratégico de un cliente que involucra la construcción y optimización de pipelines de datos en cloud, con especial foco en tecnologías Google Cloud Platform y arquitecturas modernas de procesamiento y orquestación.

Exclusive to Get on Board.

Responsabilidades y Funciones Principales

En esta posición, el Data Engineer tendrá como objetivo principal diseñar, implementar y mantener pipelines de datos robustos y escalables para soportar las necesidades de inteligencia de negocio y análisis avanzado. Trabajará estrechamente con equipos de Data Science, BI y desarrollo para asegurar que los flujos de datos estén optimizados y disponibles para los diferentes consumidores.
  • Diseñar y desarrollar pipelines de ingesta, procesamiento y distribución de datos en la nube, utilizando tecnologías de Google Cloud Platform y frameworks open source.
  • Gestionar entornos de desarrollo para asegurar la reproducibilidad y escalabilidad con herramientas como venv, pip y poetry.
  • Implementar orquestadores de workflows como Cloud Composer (Airflow) y plataformas de AI pipelines para automatizar procesos de data engineering.
  • Optimizar el rendimiento de los clusters y pipelines de datos, tanto batch como streaming, aplicando conocimientos avanzados de Apache Spark, Apache Beam o Apache Flink.
  • Aplicar técnicas de feature engineering y gestión avanzada de datos para maximizar el valor analítico.
  • Administrar almacenamiento y bases de datos en GCP, como CloudSQL, BigQuery, Cloud Bigtable, Cloud Spanner y bases de datos vectoriales.
  • Coordinar la integración de microservicios y mensajería en tiempo real mediante Pub/Sub, Kafka y Kubernetes Engine.
  • Asegurar que los procesos CI/CD para pipelines de datos estén correctamente implementados con herramientas como GitHub, Jenkins, GitLab y Terraform.
  • Participar en el diseño y escalabilidad de arquitecturas distribuidas, garantizando la resiliencia y optimización del uso de recursos cloud.

Requisitos y Competencias

Buscamos profesionales con conocimientos sólidos y experiencia comprobable en el área de ingeniería de datos, con capacidad para trabajar en entornos dinámicos y multidisciplinarios. Es fundamental tener un dominio avanzado de la programación, experiencia práctica en la nube, y un amplio entendimiento de las arquitecturas modernas de datos.
  • Dominio del inglés, tanto escrito como verbal, para comunicación efectiva dentro de equipos y documentación técnica.
  • Experiencia avanzada en lenguajes de programación Python y Java, aplicados en el desarrollo y mantenimiento de pipelines de datos.
  • Experiencia práctica en entornos cloud, preferentemente Google Cloud Platform (GCP), utilizando servicios como CloudSQL, BigQuery, Cloud Storage, Pub/Sub, Cloud Functions y Kubernetes Engine.
  • Conocimiento profundo en manejo de contenedores Docker y gestión de entornos virtuales con herramientas como venv, pip y poetry.
  • Amplia experiencia en orquestación de workflows con Airflow, Vertex AI pipelines u otros orquestadores equivalentes.
  • Competencia en técnicas de ingeniería de datos, feature engineering, y frameworks de procesamiento distribuido en Batch y Streaming como Apache Spark, Apache Beam o Apache Flink.
  • Dominio avanzado de SQL y conceptos de streaming (windowing, triggers, late arrival) para estructurar y manipular datos en tiempo real.
  • Experiencia en integración continua y despliegue continuo (CI/CD) con herramientas como GitHub, Jenkins, GitLab, y conocimientos en infraestructura como código usando Terraform.
  • Capacidad para diseñar arquitecturas de datos distribuidas y optimizadas, con comprensión de criterios para selección de opciones de almacenamiento y cómputo.
  • Habilidades analíticas y mentalidad de negocio para interpretar el uso de los datos en procesos de Business Intelligence y Analítica avanzada.

Competencias Deseables

  • Experiencia práctica en sistemas distribuidos, escalables y resilientes.
  • Experiencia laboral en diseño y arquitectura de soluciones de datos end-to-end que incluyan transacciones y múltiples fuentes basadas en APIs.
  • Buen entendimiento de estrategias para la optimización de rendimiento en clusters y pipelines de datos.
  • Exposición a tecnologías GCP para pipelines de datos de extremo a extremo.
  • Experiencia con Kubernetes para orquestación y administración de contenedores a gran escala.
  • Experiencia con bases de datos vectoriales, en particular Qdrant, para casos avanzados de búsqueda y análisis.

¿Qué ofrecemos?

- Un ambiente de trabajo desafiante y dinámico que fomenta tu desarrollo profesional.
- Oportunidad de formar parte de un equipo altamente cualificado y profesional en nuestro cliente
- Formación continua para mantenerte actualizado en las tecnologías más modernas.
- Oportunidades claras de crecimiento dentro de la empresa y el sector tecnológico.
- Contrato inicialmente a plazo fijo, con posibilidad de pasar a indefinido con el cliente final.
- Modalidad híbrida de trabajo: 1 días presencial en oficina y 4 días remoto.

VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Data Management
  • Banco Santander Chile
  • Santiago (Hybrid)
Python Data Analysis SQL Business Intelligence

Banco Santander Chile es una institución financiera líder en el país, reconocida por su enfoque en ayudar a personas y empresas a progresar mediante soluciones innovadoras y personalizadas. El área de banca comercial se dedica a diseñar y ejecutar estrategias comerciales que optimizan la rentabilidad de la cartera de clientes, utilizando tecnología avanzada para la gestión de datos y el desarrollo de herramientas propias que potencian la toma de decisiones y la experiencia del cliente.

Este equipo trabaja en la constante búsqueda y aplicación de nuevas tecnologías para mejorar las acciones comerciales y asegurar que las iniciativas estén disponibles y sean efectivas en los diferentes canales digitales y presenciales del banco.

This posting is original from the Get on Board platform.

Responsabilidades principales

Como data management, tus responsabilidades incluirán:

  • Participar en la generación de fuentes de información con los distintos atributos y variables calculadas.
  • Automatizar el despliegue de las acciones comerciales con los distintos actores de canales del banco.
  • Recomendar nuevas tecnologías para mejorar el despliegue y la búsqueda de nuevas acciones de las campañas dentro del equipo de inteligencia comercial.
  • Coordinar y desplegar las ofertas y/o campañas a los distintos canales del banco Santander.
  • Automatizar el despliegue de los Journeys (con Salesforce Marketing Cloud y Adobe Experience Platform - AJO) en base a los distinto eventos de nuestros clientes.

Perfil y experiencia requerida

Buscamos profesionales con experiencia en programación orientada a la gestión comercial en el sector financiero o afines. Se valoran conocimientos sólidos en análisis de datos, manejo de bases de datos y desarrollo de software aplicado a procesos comerciales.

Entre las habilidades técnicas y competencias destacan:

  • Experiencia en lenguajes de programación y explotación de datos, de al menos, 1 año.
  • SQL avanzado
  • Python avanzado en análisis de datos
  • Manejo de Tableau
  • Manejo de Power BI
  • Proactividad en la búsqueda constante de innovación tecnológica aplicable a la función.

Se valoran además habilidades blandas como la adaptación al cambio, resiliencia, y pensamiento crítico orientado a la mejora continua.

Conocimientos y experiencia complementarios

Será un plus contar con experiencia previa en bancos o instituciones financieras y manejo de herramientas como SalesForce Marketing Cloud y AJO de Adobe Experience Platform . Conocimientos en metodologías ágiles para proyectos de desarrollo tecnológico también serán bien valorados.

Habilidades adicionales en visualización de datos, para impulsar la innovación en las acciones comerciales serán una ventaja competitiva.

Beneficios y oportunidades de crecimiento

  • Formar parte de la principal empresa financiera de Chile y uno de los mejores lugares para trabajar en el país.
  • Aprendizaje mediante la experiencia práctica, con múltiples oportunidades de desarrollo, formación continua y movilidad interna.
  • Beneficios orientados a mejorar la calidad de vida y el desarrollo profesional del colaborador.
  • Contrato indefinido que aporta estabilidad laboral y seguridad.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Banco Santander Chile pays or copays health insurance for employees.
Computer provided Banco Santander Chile provides a computer for your work.
Vacation over legal Banco Santander Chile gives you paid vacations over the legal minimum.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $2000 - 3000 Tiempo completo
Ingeniero/a de Datos / AI
  • Devups
Python Agile MySQL PostgreSQL
Devups es una empresa dedicada al staffing tecnologico, focalizados con una vision de proveer a nuestros clientes con talento de calidad pero priorizando el bienestar de nuestros recursos. Para nosotros el cliente es importante, pero el desarrollador aun mas por eso actuamos como representantes de talentos y trabajamos para mejorar la calidad de vida de estos.
DevUps nace de la famosa frase de Barney Stinson, Suit Up.

Apply directly at getonbrd.com.

Job functions

  • Definir y diseñar pipelines de datos junto al PM asignado.
  • Colaborar en la validación, limpieza y testing de datasets.
  • Reportes diarios: lo que hiciste hoy, qué harás mañana y tus bloqueadores.
  • Asistir al menos a 2 llamadas semanales con el equipo de planificación Devups.

Qualifications and requirements

El perfil que buscamos deberá comprender la arquitectura de data lakes y warehouses, aplicando patrones de ETL/ELT probados. Deberá contar con experiencia en optimización de performance de procesamiento masivo y la habilidad para comunicar claramente desafíos técnicos de AI/ML. Experiencia trabajando en entornos ágiles y altamente iterativos es deseable.
Nivel de inglés: B2+.
Se debe cumplir con al menos (1) de los siguientes:
Python & Frameworks:

  • Pandas, NumPy, PySpark
  • Airflow o Prefect
Big Data / Databases:

  • Hadoop, Spark
  • SQL (PostgreSQL, MySQL) o NoSQL (MongoDB, Cassandra)

Desirable skills

  • Experiencia en AWS/GCP (Redshift, BigQuery, S3).
  • Conocimientos de TensorFlow, PyTorch o scikit-learn.
  • Implementación de APIs de inferencia en FASTAPI o Flask.

Conditions

Fully remote You can work from anywhere in the world.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $3100 - 4500 Tiempo completo
Data Engineer
  • Haystack News
  • Lima (Hybrid)
Python SQL Machine Learning A/B Testing

Haystack News is the leading local & world news service on Connected TVs reaching millions of users! This is a unique opportunity to work at Haystack News, one of the fastest-growing TV startups in the world. We are already preloaded on 37% of all TVs shipped in the US!

Be part of a Silicon Valley startup and work directly with the founding team. Jumpstart your career by working with Stanford & Carnegie Mellon alumni and faculty who have already been part of other successful startups in Silicon Valley.

You should join us if you're hungry to learn how Silicon Valley startups thrive, you like to ship quickly and often, love to solve challenging problems, and like working in small teams.

See Haystack's feature at this year's Google IO:

Job source: getonbrd.com.

Job functions

  • Analyze large data sets to get insights using statistical analysis tools and techniques
  • Collaborate with the Marketing, Editorial and Engineering teams on dataset building, querying and dashboard implementations
  • Support the data tooling improvement efforts and help increase the company data literacy
  • Work with the ML team on feature engineering and A/B testing for model building and improvement
  • Design, test and build highly scalable data management and monitoring systems
  • Build high-performance algorithms, prototypes and predictive models

Qualifications and requirements

  • Strong written and spoken English is a must!
  • Bachelor's degree in Computer Science, Statistics, Math, Economics or related field
  • 2+ years experience doing analytics in a professional setting
  • Advanced SQL skills, including performance troubleshooting
  • Experience with data warehouses (e.g. Snowflake, BigQuery, Redshift)
  • Proficient in Python including familiarity with Jupyter notebooks
  • Strong Math/Stats background with statistical analysis experience on big data sets
  • Strong communication skills, be able to communicate complex concepts effectively.

Conditions

  • Unlimited vacations :)
  • Travel to team's offsite events
  • 100% paid Uber rides to go to the office
  • Learn about multiple technologies

Accessible An infrastructure adequate for people with special mobility needs.
Relocation offered If you are moving in from another country, Haystack News helps you with your relocation.
Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Meals provided Haystack News provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Company retreats Team-building activities outside the premises.
Computer repairs Haystack News covers some computer repair expenses.
Commuting stipend Haystack News offers a stipend to cover some commuting costs.
Computer provided Haystack News provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $1800 - 3000 Tiempo completo
Jefe de Proyecto
  • Microsystem
  • Santiago (Hybrid)
Python Agile Virtualization Project Manager

🚀 ¡En Microsystem Lab buscamos a nuestro próximo Jefe de Proyectos! 💡
Somos el partner tecnológico que las empresas necesitan para estar dentro de la vanguardia tecnológica. Co-creamos soluciones donde la IA, el Desarrollo de Software y los Datos convergen.

Buscamos a un Jefe de Proyecto que sea el pilar de comunicación de nuestros proyectos. Necesitamos a alguien expresivo, que entienda que una comunicación clara y constante es el pilar fundamental para la realización de un buen proyecto. Le tiene que apasionar la computación, debe entender la lógica técnica de lo que construimos (desde arquitecturas multi-agentes y RAGs hasta Data Lakehouses en AWS) y traducir este mundo complejo tanto al equipo como al cliente.

Si te apasiona estar "sobre la ola" de la vanguardia tecnológica, estás orientado a compromisos y sabes mover las piezas necesarias para que el equipo llegue a la meta en la fecha pactada, ¡queremos que seas parte de nuestro equipo! 💪

© getonbrd.com.

Responsabilidades del Puesto

  1. *Comunicación como Eje Central *🗣️: Liderar la comunicación del proyecto de forma expresiva y constante, asegurando que el cliente y el equipo estén siempre alineados y sin puntos ciegos.
  2. *Gestión de Compromisos y "Enforcer" de Plazos *⏱️: Velar por el cumplimiento de las fechas. Tu misión es asegurar que los hitos se alcancen, empujando al equipo con liderazgo para cumplir los compromisos adquiridos.
  3. *Gestión Híbrida de Proyectos* 🔄: Orquestar el trabajo usando metodologías ágiles para el desarrollo interno y metodologías convencionales para el control de hitos y reportabilidad estratégica hacia el cliente.
  4. *Traducción Técnica y Consultoría* 💻: Entender qué estamos haciendo a nivel de código y arquitectura para gestionar expectativas reales y proponer soluciones valiosas.
  5. *Gestión de Stakeholders (Cliente + Equipo)* 🤝: Actuar como el puente de confianza, gestionando la presión externa y motivando al equipo técnico hacia la excelencia en el delivery.

Funciones del cargo

Requisitos Técnicos (Hard Skills)

  • Formación: Ingeniería en Computación, Civil, Industrial o carrera afín con fuerte base tecnológica.
  • Experiencia: 2+ años gestionando proyectos de software, IA o datos.
  • Pasión por la Computación: Debes conocer conceptos como GenIA, RAGs, Python, Cloud (AWS) y pipelines de datos. No programarás, pero sí debes entender y disfrutar la conversación técnica.
  • Metodologías: Dominio de Scrum/Kanban y gestión tradicional (Gantt, ruta crítica).
  • Herramientas: Jira, Project y sistemas a fines.

Requisitos Interpersonales (Soft Skills)

  • Comunicador Nato: Capacidad expresiva sobresaliente, asertividad y proactividad.
  • Orientación al Delivery: Enfoque en el cumplimiento de fechas y resultados de calidad.
  • Liderazgo de Ejecución: Capacidad para tomar el mando, inspirar responsabilidad en el equipo y que se orienten a los resultados sin perder la colaboración.

Suma puntos

  • Certificaciones Oficiales: PMP (PMI), CSM (Certified Scrum Master) o certificaciones en metodologías ágiles a escala.
  • Dominio de CRISP-DM: Entender el ciclo de vida de un proyecto de ciencia de datos es un plus gigante para hablar el mismo idioma que el equipo Lab.
  • Inglés Intermedio/Avanzado: Capacidad para leer documentación técnica y, eventualmente, interactuar con partners o clientes internacionales.
  • Experiencia en Consultoría: Haber trabajado directamente con clientes externos de industrias como Banca, Retail, Pesca o Salud (nuestros sectores fuertes).
  • Manejo de herramientas de visualización: Si sabes moverte en Power BI, Tableau o Looker Studio para presentar resultados, nos encantará.
  • Conocimiento en Nube: Estar familiarizado con el ecosistema AWS (nuestra base) o Azure.

Lo Que Ofrecemos

💫Nuestro equipo ofrece soluciones completas, por lo que te tocará aprender desde cómo levantar un servicio a cómo ir mejorándolo.
🧔‍♀️Al ser una área dentro de una empresa más grande y madura, existen muchos colaboradores dispuestos a compartir su experiencia y ayudar en el aprendizaje.
😎Somos relajados, entendemos si tienes alguna urgencia durante el día o trámites que hacer, lo que nos importa es que te puedas comprometer con las entregas.
🧑‍🎤Puedes venir como quieras a la oficina, mientras tengas algo puesto.
📈 Tendrás oportunidades de aprender, mejorar y crecer dentro de un equipo que valora el conocimiento compartido y la evolución profesional.

Accessible An infrastructure adequate for people with special mobility needs.
Life insurance Microsystem pays or copays life insurance for employees.
Meals provided Microsystem provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Microsystem pays or copays health insurance for employees.
Computer provided Microsystem provides a computer for your work.
Fitness subsidies Microsystem offers stipends for sports or fitness programs.
Informal dress code No dress code is enforced.
Shopping discounts Microsystem provides some discounts or deals in certain stores.
Beverages and snacks Microsystem offers beverages and snacks for free consumption.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Product Analyst
  • Wherex
  • Santiago (Hybrid)
Python Data Analysis SQL Power BI

Wherex es una plataforma web de licitaciones industriales en crecimiento, que conecta empresas y proveedores, integrando pagos y gestión inteligente en un ecosistema SaaS+fintech.
En este rol, trabajarás dentro del equipo de Product para construir y operar un sistema de métricas robusto que permita aprender rápido, monitorear objetivos y entregar feedback continuo sobre desempeño.
Colaborarás estrechamente con Producto, Ingeniería y RevOps para alinear métricas con decisiones estratégicas y priorizar iniciativas de alto impacto en una estructura de negocio en expansión en LatAm.

© Get on Board.

¿Qué harás en este rol?

  • 📊 Sistema de métricas de producto

Diseñar y evolucionar el framework de métricas (KPIs, OKRs, health metrics) que mida adopción, uso, conversión, performance y crecimiento en un entorno SaaS + fintech.

  • 🔍 Análisis de comportamiento y funnels

Analizar funnels y comportamiento de usuarios para detectar fricciones, oportunidades de optimización y señales tempranas de éxito o riesgo.

  • 🎯 Monitoreo y visibilidad estratégica

Dar seguimiento al cumplimiento de metas de producto, alertando desviaciones y riesgos, entregando visibilidad clara al equipo de Producto, Ingeniería y stakeholders.

  • 📈 Dashboards accionables

Construir dashboards escalables (ej. Power BI) y reportes que traduzcan datos en insights priorizables y accionables.

  • 🚀 Experimentación y MVPs

Apoyar la definición y medición de experimentos y nuevas funcionalidades, asegurando ciclos cortos de aprendizaje.

  • 🤝 Trabajo cross-functional

Colaborar con Producto, Ingeniería, Data, RevOps y áreas de negocio para alinear métricas con decisiones estratégicas.

  • 🧠 Evolución analítica

Proponer mejoras en la forma en que medimos el producto a medida que Wherex crece y complejiza su modelo fintech.

Forma parte de una cultura de trabajo en equipo, colaboración y buena onda, junto a profesionales de alto nivel técnico que te desafían a crecer.

Descripción

Buscamos un/a analista con entre 1 y 3 años de experiencia en roles similares (Product Analyst, Product Ops Analyst, Data Analyst con foco en producto o RevOps).
Formación en Ingeniería Civil, Ingeniería Comercial o carrera afín.
Experiencia trabajando con métricas de producto, análisis de funnels y conocimiento de ingeniería de datos.
Debes ser capaz de moverte entre negocio y tecnología, identificar métricas estratégicas e influir en el roadmap con evidencia.

Requisitos deseables

Conocimiento en análisis de datos avanzados, experiencia con herramientas de visualización avanzadas, y capacidad para trabajar con equipos distribuidos.
- Conocimiento deseable en:

SQL
Python
Power BI

Se valora orientación a resultados, pensamiento crítico y habilidades de comunicación para traducir datos complejos en insights claros para stakeholders.
Capacidad de gestionar prioridades en un entorno dinámico y enfocado en crecimiento.

Beneficios

🏖️ Días adicionales de descanso para equilibrar vida personal y trabajo.
🏥 Seguro complementario de salud para bienestar continuo.
⌚ Flexibilidad horaria que favorece autonomía y gestión del tiempo.
😷 Licencia médica pagada durante dos días para apoyo en momentos de menor salud.
😎 Trabajo híbrido que combina autonomía con colaboración presencial.
📍 Ubicación: Las Condes, Santiago.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Wherex pays or copays health insurance for employees.
Computer provided Wherex provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Wherex gives you paid vacations over the legal minimum.
Beverages and snacks Wherex offers beverages and snacks for free consumption.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $3000 - 5000 Tiempo completo
Technical Product Lead
  • Flat Fee Shipping
Python SQL Virtualization Amazon Web Services

THE ROLE
We are looking for a Technical Product Lead to serve as the central orchestrator between our fulfillment operations team, our account managers, and our four development teams. This is a high-impact leadership role for someone who can translate complex logistics and ecommerce workflows into clear, actionable technical specifications, project scopes, and visual mockups that our development teams can execute against. You need to be genuinely great with people and skilled at navigating the dynamics that come with leading technical teams. Developers can be passionate and opinionated, and sometimes that shows up as pushback, defensiveness, or a default to “we can’t do it.” You know how to push teams to move fast while keeping morale and trust intact. You earn respect through competence and fairness, not authority. If you’re the kind of leader who gets the best out of people even when the work is hard and the pace is relentless, this is your role.

Apply to this job opportunity at getonbrd.com.

What You Will Do

  • Orchestrate four development teams (≈10 developers) across OMS, WMS, IMS, and the client portal to ensure alignment, clear handoffs, and accountability.
  • Translate business requirements into technical specs by partnering with the fulfillment team and account managers; document each workflow with detailed, developer-ready instructions.
  • Define and standardize terminology to create a shared language for operations, account management, and engineering.
  • Build mockups and visual prototypes using AI-powered tools (e.g., Bolt, Replit, Lovable, Claude Code) to communicate design and functionality before development begins.
  • Scope and manage projects with detailed briefs, milestones, deliverables, acceptance criteria, and timelines.
  • Drive feature development end-to-end—from concept through specification, development, QA, and deployment.
  • Hold teams accountable, run regular progress check-ins, remove blockers, and ensure on-time delivery to specification.
  • Serve as the primary liaison between non-technical stakeholders and technical teams to prevent miscommunication and align expectations.

Required Skills & Experience

We are seeking a semi-technical leader who can read code, understand APIs and database schemas, and communicate fluently about Python, SQL, AWS, and modern development workflows. Candidates should be proficient with AI-powered prototyping tools and have direct experience in ecommerce or fulfillment technology. Experience in 3PL or fulfillment platforms is a strong plus. You must be an exceptional communicator capable of translating complex technical concepts for non-technical stakeholders, with thorough, unambiguous documentation. English fluency (spoken, verbal, listening) is non-negotiable, as you will collaborate with operations teams, account managers, developers, and leadership daily. You should be self-driven, accountable, and able to manage multiple workstreams in a fast-paced environment. Prior leadership of technical teams, without relying on authority, is highly valued.

Desirable Qualifications

Experience in ecommerce fulfillment or logistics tech, a track record leading multi-disciplinary teams, and comfort with shifting priorities in a growing startup. Hands-on familiarity with OMS/WMS/IMS ecosystems, strong documentation practices, and the ability to influence product direction through data-driven decision-making are highly desirable. Exposure to AI-assisted design and development tools, and experience communicating across cross-functional groups in remote environments, will help you thrive in this role.

Benefits & How to Join

We offer a fully remote, fast-moving environment with direct access to the founder and a significant influence on product and technology roadmap. This is a ground-floor opportunity to shape enterprise-grade software at a rapidly growing company, with performance-based bonuses tied to milestones. You will be the pivotal bridge between operations and technology and will contribute to a high-impact product used by hundreds of ecommerce brands. Our compensation is tied to results, with a clear path for growth. This is a fully remote role and a critical early hire in our scale-up journey.

Fully remote You can work from anywhere in the world.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $3500 - 4500 Tiempo completo
Product Owner – C1do1.AI
  • Training Competence Spa
  • Santiago (Hybrid)
JavaScript Ruby on Rails UX UI Design

Training Competence Spa gestiona C1DO1.ai, una plataforma educativa basada en feedback digital potenciado por IA. Nuestro objetivo es transferir habilidades prácticas de forma remota y asincrónica, mediante una metodología centrada en la repetición de procedimientos: el aprendiz graba su desempeño, se carga a la nube y recibe feedback estructurado de un profesor a través de herramientas digitales. El proceso se repite hasta dominar la habilidad, con un enfoque en aprendizaje medible y resultados reales. Trabajamos en la intersección de educación, tecnología, data e IA, priorizando impacto y mejora continua. Buscamos un Product Owner que lidere la evolución del producto, conectando necesidades de usuarios, negocio y tecnología, con visión de escalabilidad y enfoque data-driven. Trabajarás directamente con el CEO/CTO y el equipo de desarrollo para construir una plataforma robusta, adaptable y centrada en el aprendizaje efectivo.

This posting is original from the Get on Board platform.

Funciones y responsabilidades

  • Definir y priorizar el backlog del producto alineado a la visión de C1DO1.ai, traduciendo necesidades de usuarios (aprendices, docentes e instituciones) en historias claras y accionables.
  • Gestionar ceremonias Scrum: planificación, daily, revisión y retrospectiva; asegurar entregas con valor para el usuario y el negocio.
  • Tomar decisiones basadas en métricas de producto (activación, retención, engagement, tasa de finalización y loops de feedback).
  • Trabajar con datos y analytics para analizar comportamiento de usuarios, validar hipótesis y medir impacto de nuevas funcionalidades.
  • Colaborar estrechamente con diseño, desarrollo y stakeholders educativos para impulsar mejoras centradas en la experiencia de aprendizaje.
  • Apoyar la definición y mejora continua de flujos de feedback digital e integración de IA.
  • Documentar avances de producto y comunicar de forma clara y efectiva a equipos y ejecutivos.
  • Proponer visión a futuro del producto potenciado con IA

Requisitos y perfil

Experiencia documentada como Product Owner o Product Manager, preferiblemente en startups o productos digitales. Sólido manejo de metodologías Scrum/Agile y experiencia trabajando con herramientas de analytics de producto (GA4, Mixpanel, Amplitude, Metabase, Looker, entre otras). Capacidad para convertir métricas en decisiones y priorización efectiva. Inglés intermedio para lectura de documentación y reuniones puntuales.

Experiencia comprobable en diseño y gestión de soluciones con agentes inteligentes / multiagentes IA, incluyendo su integración, definición de flujos de inferencia y colaboración con equipos técnicos.

Se valorará experiencia en EdTech, HealthTech o productos de aprendizaje, conocimientos básicos de UX/UI y diseño centrado en el usuario.

Conocimientos de programación (Python, react, ruby on rails, uso de APIs de IA/ML, comprensión de pipelines de modelos).

Perfil buscado: mentalidad data-driven, curiosidad, enfoque en impacto, habilidad para priorizar en contextos de incertidumbre, comunicación clara entre perfiles técnicos y no técnicos, autonomía, sentido de ownership y pasión por educación, transferencia de habilidades e IA

Deseables

Experiencia demostrable en proyectos de aprendizaje y plataformas educativas. Familiaridad con herramientas de IA aplicadas a feedback y mejora continua. Trayectoria trabajando en equipos multidisciplinarios y capacidad para impulsar iniciativas desde la concepción hasta la ejecución. Conocimiento de metodologías de diseño centrado en usuario y buenas prácticas de UX/UI.

Beneficios

Rol clave en una startup tecnológica con impacto real en educación. Trabajo directo con fundadores (CEO/CTO). Modalidad híbrida y flexibilidad. Espacio para proponer, experimentar y construir producto desde cero. Proyección de crecimiento profesional a medida que la empresa escala, con foco en aprendizaje práctico y desarrollo de habilidades.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Informal dress code No dress code is enforced.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $50000 - 50000 USD/year Tiempo completo
AI Software Engineer (Hands on)
  • Dante Title
  • McAllen, Texas (In-office)
Python Artificial Intelligence Machine Learning Natural Language Processing

AI Software Engineer – On-site Texas, USA
We are an established company in the real estate and financial services sector seeking a hands-on AI Software Engineer to design, build, and deploy end-to-end software systems. You will work with backend services, unstructured data, APIs, and third-party integrations, collaborating closely with business teams to deliver reliable, scalable solutions. This role offers direct involvement in production systems and opportunities to grow as the platform evolves. Visa sponsorship, full relocation support, and company-provided housing included. Candidates must be based in Mexico and fluent in English.

Job source: getonbrd.com.

What you’ll do

  • Design, build, and implement AI-powered components used in internal platforms.
  • Develop backend services and APIs that integrate AI with business workflows.
  • Work with unstructured and document-based data to extract actionable insights.
  • Integrate third-party services, including payment systems and external software.
  • Collaborate directly with business stakeholders to translate needs into working solutions.
  • Contribute hands-on to system architecture, deployment, and continuous improvement of the platform.

What we’re looking for

We’re seeking an experienced AI-focused software engineer with a strong background in Applied AI, Machine Learning, or AI-driven software development. The ideal candidate will have:

  • Strong proficiency in Python.
  • Experience building backend systems and APIs.
  • Familiarity with NLP and/or LLM-based tools.
  • Experience handling unstructured or document-based data in production environments.
  • Ability to integrate production software systems with external services and data sources.
  • Comfort with ambiguous problems and delivering practical, maintainable solutions.
  • Fluent English (written and spoken).

Nice to have

Experience with document intelligence, OCR, or Retrieval-Augmented Generation (RAG) systems. Web development experience (React or similar). Cloud platforms (AWS, Azure, or GCP). Background in regulated industries (financial services, insurance, legal, real estate).

Compensation & benefits

Base salary USD 50,000 per year. Visa sponsorship provided. Full relocation support. Company-provided housing (100% covered). Opportunity for long-term growth as the platform and team expand.

Relocation offered If you are moving in from another country, Dante Title helps you with your relocation.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $50000 - 50000 USD/year Tiempo completo
Senior Full-Stack Engineer, AI & Product (Python, Go, Flutte
  • MacrosFirst
Python Artificial Intelligence Machine Learning Natural Language Processing

MacrosFirst is building the world’s leading nutrition app to help people live healthier lives and achieve fitness goals through a balanced diet. We’re bootstrapped, profitable, and focused on scaling to eight-figure ARR while keeping the team small and nimble.

You’ll join a team of 6 engineers and work closely with the co-founders, design, marketing, and customers to craft features that move the needle for our engaged user base. The project slate centers on an AI-powered Nutrition Copilot, a multi-agent system using LLMs for real-time nutritional coaching, plus ongoing Flutter-based frontend efforts and backend evolution.

Apply to this posting directly on Get on Board.

What you’ll tackle

  • Architect and scale our AI-driven "Nutrition Copilot" – You will lead the development of an intelligent, multi-agent system that utilizes LLMs to provide real-time nutritional coaching. This includes building the conversational UI, implementing a robust Tool Manager for RAG against our food and user databases, and engineering the backend orchestration layer that handles complex tasks. It’s a really fun and ambitious project.
  • Flutter development – Ship new features and maintain our existing codebase serving iOS, Android and Web, all written in Flutter and following atomic design with reusable components.
  • Backend migration – Steer our migration from FastAPI to golang, starting with building a new backend for a brand new product offering. An exciting blank slate to make your mark.
  • Automation – Explore and experiment with AI tools, custom-built internal software, and other automations to amplify the company’s effectiveness.

Who we’re looking for

  • You have a strong software engineering background, with at least 5 years of experience writing production code across frontend and backend.
  • You have experience with AI orchestration frameworks (e.g., LangChain, CrewAI, or building custom agentic logic)
  • You have a strong understanding of RAG and optimizing LLM performance through tool-calling and prompt engineering.
  • You have experience building high-concurrency backends to support real-time AI interactions and data streaming.
  • Advanced written and spoken English (C1)
  • You thrive in fast paced, nimble startup environments.
  • You have a demonstrable track record of shipping.
  • You have an entrepreneurial mindset, whether you’ve created your own products, worked at startups, or have dreams to do so.
  • You're hungry for impact and ownership, and you enjoy wearing multiple hats and learning new things.
  • You consider yourself a generalist, not tied to any one technology, but excited to tackle new technical challenges.
  • You have an appreciation and passion for great design, whether product, brand, or UI.
  • You feel confident making decisions amid ambiguity.

Nice-to-have

  • You’ve launched your own app, product, or other project.
  • You’ve worked on subscription apps before, and words like “RevenueCat”, “paywall test”, and “MMP” mean something to you.
  • You have some proficiency in design and feel comfortable tweaking Figma mockups and making design decisions when specs aren’t fully complete.
  • You’ve integrated AI effectively into your workflows and are tuned into the latest AI tooling.
  • You’ve worked on AI consumer products.

Why MacrosFirst

  • Competitive salary
  • Product-led. Both founders come from product management and engineering, each with 15 years of experience, so you’ll be in good company.
  • No bureaucracy. You’ll be making top-level decisions alongside the founders every day.
  • Maximum impact. You’ll be taking the lead on an app with over 1 million downloads and 25,000 subscribers, and you’ll help drive double or triple-digit % growth.
  • High growth potential. We're aiming for 10x (100x!) growth. You’ll directly contribute to that.
  • Positive mission. Our goal is to improve people’s wellness through nutrition. We hear stories every week of the life changing impact MacrosFirst has had on our community’s health, confidence, sports performance, mental health, and overall wellbeing.

Fully remote You can work from anywhere in the world.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
AI Software Automation Engineer
  • Signant Health
JavaScript Python Git REST API
Are you ready for the Most Impactful Work of Your Life?
Signant Health is a global evidence generation company. We’re helping our customers digitally enable their clinical trial programs, meeting patients where they are, driving change through technology and innovations, and reimagining the path to proof.
Where do you fit in?
Signant Health is seeking an AI Pathway Engineer to manage, optimize, and expand our SHAI (AI Helpdesk Assistant) platform powered by Bland AI. SHAI operates across voice, chat, and email channels, handling thousands of clinical trial support inquiries monthly through integrations with Genesys contact center, ServiceNow ITSM, and production platforms like ID Portal. This role combines conversational AI design, API integration expertise, and automation engineering to ensure SHAI delivers accurate, efficient customer support while continuously improving through data-driven optimization.

This job is exclusive to getonbrd.com.

Job functions

  • Design, build and maintain SHAI conversational pathways in the Bland AI platform across voice, chat and email.
  • Implement multi‑language logic and localization quality for 15+ languages.
  • Continuously optimize conversation flows using analytics, A/B testing and user feedback.
  • Implement complex conditional logic (multi‑step authentication, account unlocks, ticket creation).
  • Define escalation and transfer triggers that hand off to Genesys queues for human agents.
  • Curate, structure and maintain the SHAI knowledge base content.
  • Version, test and validate pathway releases in sandbox before production deployment.
  • Troubleshoot pathway failures, logic errors and unexpected branches; perform root‑cause analysis.
  • Maintain and extend API integrations with ServiceNow (validation, study lookups, ticketing).
  • Build/optimize API connections with ID Portal (account unlocks, password resets, invitation resends).
  • Configure SHAI↔Genesys integrations for call transfers, queue routing and metadata handoff.
  • Monitor API reliability (latency, rate limits, error rates) and manage auth (OAuth, API keys, webhooks).
  • Document integrations (endpoints, payloads, retry/timeout strategies and error handling).
  • Build automated QA using n8n/Make and scripts; implement synthetic testing across languages and scenarios.
  • Develop transcript analytics and quality scoring using LLM pipelines; publish dashboards and reports for stakeholders.
  • Research, prototype and deliver enhancements leveraging new Bland AI/LLM capabilities and internal platform needs.

Qualifications and requirements

  • Strong REST API skills: JSON, OAuth, webhooks; proficient with Postman/cURL and debugging.
  • Conversational AI design expertise: intents, entities, dialog policy, escalation design.
  • Workflow automation with n8n/Make/Zapier; building reliable, monitored jobs.
  • Scripting in Python or JavaScript for automation, ETL and QA.
  • Advanced Excel/spreadsheet analysis (pivots, formulas, charts) for operational reporting.
  • Dashboard/BI experience (e.g., Grafana/Tableau/Power BI) to visualize KPIs.
  • Git version control and structured documentation practices.
  • Data analysis of conversation logs to detect patterns, gaps and improvements.
  • Rigorous problem‑solving, attention to detail and bias for action.
  • Clear written and verbal communication; customer empathy and cross‑functional collaboration.

Desirable skills

  • Hands‑on with Bland AI (or Voiceflow/Dialogflow) for pathway design and deployment.
  • Experience using CURSOR or AI‑assisted IDEs (GitHub Copilot, Replit).
  • Working knowledge of Claude or similar LLMs for transcript scoring and analysis.
  • HTML/CSS/JavaScript for lightweight internal tools and dashboards.
  • Deeper BI tool proficiency (Power BI, Looker) and data modeling.
  • NLP concepts (sentiment, NER, semantic similarity, RAG, function calling).
  • Healthcare/clinical trial or other regulated industry experience.
  • Localization/translation workflows and quality evaluation for multilingual CX.
  • ServiceNow and Genesys API experience and contact‑center concepts.
  • Experience designing synthetic.

VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Senior AI Engineer
  • Improving South America
Python Azure Machine Learning Cloud Computing

Improving South America es una empresa líder en servicios de TI que busca transformar positivamente la percepción del profesional de TI mediante consultoría de tecnología, desarrollo de software y formación ágil. Somos una organización con una cultura que fomenta el trabajo en equipo, la excelencia y la diversión, inspirando a nuestro equipo a establecer relaciones duraderas mientras ofrecemos soluciones tecnológicas de vanguardia. Nuestra misión está alineada con el movimiento de Capitalismo Consciente, promoviendo un entorno de trabajo excepcional que impulsa el crecimiento personal y profesional dentro de una atmósfera abierta, optimista y colaborativa.

Apply to this job without intermediaries on Get on Board.

Job functions

En Improving South America buscamos GenAI Engineers para sumarse a un proyecto de Agentic AI en etapa MVP. El rol estará orientado a diseñar y construir agentes inteligentes que reduzcan el tiempo de pre-detailing dentro de procesos de manufactura de acero, integrándolos en endpoints REST y evolucionando un framework agentic ya existente. La persona trabajará en user stories de backend, colaborará de forma directa con el cliente mediante actualizaciones diarias y aportará criterio técnico para extender capacidades del producto con servicios de Azure AI.

Qualifications and requirements

  • Experiencia sólida en Python backend orientado a desarrollo de aplicaciones (no perfil puramente AI/ML research).
  • Experiencia práctica en Generative AI y uso de LLMs para flujos con entradas variables y generación de salidas dinámicas.
  • Dominio de FastAPI para construcción de APIs REST.
  • Manejo de Pydantic y experiencia en orquestación de agentes con Pydantic AI (o experiencia equivalente con LangChain, LlamaIndex o CrewAI).
  • Experiencia con Azure OpenAI y/o Anthropic desplegado sobre Azure.
  • Conocimiento de Azure AI Search como motor/vector store para capacidades de búsqueda y recuperación.
  • Buen manejo de stack complementario: SQLAlchemy, Alembic, Uvicorn y observabilidad (idealmente Logfire).
  • Experiencia trabajando en entorno Azure Cloud y en equipos con contacto directo con cliente.
  • Nivel de inglés B2+ (requisito excluyente) para comunicación fluida en contexto técnico y con stakeholders.

Conditions

  • Contrato a largo plazo.
  • 100% Remoto.
  • Vacaciones y PTOs
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo
  • mucho mas..

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Improving South America offers space for internal talks or presentations during working hours.
Digital library Access to digital books or subscriptions.
Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Arquitecto de Datos Sr. (Data & AI)
  • Grupo Mariposa
Python Analytics Data Analysis NoSQL

Grupo Mariposa es una corporación multinacional de bebidas y alimentos fundada en 1885, con operaciones en más de 14 países y más de 15,000 colaboradores. Contamos con el portafolio de bebidas más grande de la región y partnerships con líderes globales como PepsiCo y AB InBev. En los últimos años nos hemos expandido globalmente y reorganizado en cuatro unidades de negocio: apex (transformación), cbc (distribución), beliv (innovación en bebidas) y bia (alimentos). Buscamos talentos para potenciar nuestra estrategia de crecimiento y llevar alegría y desarrollo a lo largo de la organización. En este rol, tendrás la oportunidad de liderar la arquitectura de datos e IA, diseñando soluciones escalables que habiliten análisis a gran escala y la operacionalización de modelos de ML/IA en entornos de producción.

This job is exclusive to getonbrd.com.

Funciones y responsabilidades

  • Diseñar e implementar arquitecturas de Datos e IA híbridas y escalables (Lakehouse) para soportar ingestión masiva y cargas de trabajo de ML/IA.
  • Definir y estandarizar flujos de trabajo para Data Science, asegurando un ciclo de vida de modelos (MLOps) ágil y robusto.
  • Actuar como referente técnico en Databricks (Unity Catalog, Delta Lake, MLflow), garantizando buenas prácticas de código y rendimiento.
  • Modelar y optimizar esquemas NoSQL para aplicaciones de alto rendimiento y baja latencia.
  • Establecer políticas de gobierno de datos que cubran datasets tradicionales, feature stores y registros de modelos.
  • Colaborar estrechamente con Data Engineers y Data Scientists para cerrar la brecha entre prototipado y despliegue en producción.
  • Liderar iniciativas de arquitectura orientadas a IA, incluyendo patrones de inferencia batch vs. real-time y escalabilidad de modelos.

Descripción y requisitos

Buscamos un Arquitecto de Datos Senior con visión estratégica para liderar el diseño de nuestra plataforma de Datos.
Tu misión será construir cimientos que permitan no solo el análisis de datos a escala, sino también la operacionalización eficiente de modelos de Datos, Machine Learning y soluciones de IA. Debes dominar Databricks y demostrar experiencia llevando modelos a producción, gestionando arquitecturas que soporten analítica avanzada, Se valorará capacidad para definir estrategias de gobierno de datos, MLOps y colaboración transversal entre equipos.

Requerimientos:

  • Más de 5 años de experiencia en Ingeniería de Datos, Arquitectura de Datos o ML Engineering.
  • Dominio experto de Databricks (Unity Catalog, Delta Lake, MLflow).
  • Programación avanzada en PySpark y Python para ingeniería de datos.
  • Experiencia sólida en o integraciones con bases de datos (diseño de esquemas, optimización de queries y escalabilidad).
  • Conocimientos en entornos Cloud (Azure, AWS o GCP).

Deseables:

  • Experiencia con Feature Stores.
  • Conocimiento de herramientas de orquestación (Airflow, Prefect, etc.).
  • Experiencia en architecturas de IA y ML, con prácticas de MLOps (entrenamiento, versionado, despliegue y monitoreo).
  • Familiaridad con despliegue de LLMs o IA Generativa.
  • Certificaciones en Databricks (Data Engineer o ML Practitioner).

Perfil deseable

Se valoran certificaciones en Databricks y experiencia demostrable liderando proyectos de IA en entornos de producción. Capacidad para comunicar resultados técnicos a stakeholders no técnicos y para liderar equipos multidisciplinarios. Enfocado en resultados, con pensamiento analítico y enfoque práctico para resolver problemas complejos de datos a escala.

Beneficios

  • Trabajo remoto
  • Excelente ambiente para proponer e innovar tecnológicamente
  • Ambiente de trabajo colaborativo y dinámico
  • Desarrollo profesional y oportunidades de crecimiento
  • Flexibilidad de horarios y equilibrio entre vida laboral y personal

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Grupo Mariposa provides a computer for your work.
Informal dress code No dress code is enforced.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Senior AI Developer
  • Improving South America
JavaScript Python Analytics Front-end

Improving South America es una empresa líder en servicios de TI que busca transformar positivamente la percepción del profesional de TI mediante consultoría de tecnología, desarrollo de software y formación ágil. Somos una organización con una cultura que fomenta el trabajo en equipo, la excelencia y la diversión, inspirando a nuestro equipo a establecer relaciones duraderas mientras ofrecemos soluciones tecnológicas de vanguardia. Nuestra misión está alineada con el movimiento de Capitalismo Consciente, promoviendo un entorno de trabajo excepcional que impulsa el crecimiento personal y profesional dentro de una atmósfera abierta, optimista y colaborativa.

Apply through Get on Board.

Responsabilidades del puesto

En Improving South America buscamos un/a Senior AI Developer para diseñar y construir funcionalidades avanzadas impulsadas por LLMs que transformen datos de ingeniería en insights accionables para líderes técnicos. Este rol combina AI/LLM engineering, análisis de datos, desarrollo frontend y principios de AI responsable, con alto nivel de ownership e impacto directo en el producto.

🛠️ Responsabilidades del rol

  • Diseñar y desarrollar features AI/LLM usando OpenAI, Google Gemini y LangChain.
  • Crear pipelines RAG y optimizar interacciones con LLMs (latencia, costos, precisión).
  • Transformar datos de ingeniería y analítica para que los modelos generen insights (riesgos, anomalías, forecasting).
  • Desarrollar componentes UI en Vue.js que integren outputs de IA en dashboards y visualizaciones.
  • Implementar controles de AI responsable: explicabilidad, sesgos, privacidad y gobernanza.
  • Colaborar con Producto, Data y Engineering, y brindar mentoría en IA y LLM workflows.

Requerimientos indispensables

  • 10+ años de experiencia en ingeniería de software.
  • 2+ años de experiencia desarrollando aplicaciones con IA / LLMs.
  • Inglés intermedio/avanzado (** Indispensable **)
  • Experiencia profunda en Python (procesamiento de datos, integración de modelos, transformación analítica).
  • Experiencia hands-on con Vue.js (Vue 2 y/o Vue 3).
  • Conocimiento sólido de OpenAI GPT, Google Gemini u otras plataformas de IA generativa.
  • Experiencia práctica con LangChain (LCEL, agentes, tools, retrievers, RAG).
  • Entendimiento profundo de cómo funcionan los LLMs internamente:
    • Tokens, embeddings, context windows
    • Prompts de sistema
    • Fine-tuning y evaluación de modelos
  • Experiencia creando features de IA sobre datasets reales, complejos y desordenados (analytics u operational data).
  • Conocimiento de AI risk, ética, sesgos y gobernanza.
  • Fuerte capacidad analítica para interpretar datos de ingeniería y convertirlos en insights accionables.
  • Alto nivel de ownership y autonomía.
  • Capacidad para comunicar conceptos complejos de IA a audiencias técnicas y no técnicas.
  • Mentalidad de producto y foco en impacto real.
  • Interés por construir IA responsable y confiable.

Requerimientos deseables

  • Experiencia con herramientas del SDLC.
  • Uso de retrieval basado en embeddings.
  • Conocimientos en evaluación de modelos de ML / LLMs.
  • Experiencia en visualización de datos.
  • Background en engineering analytics.
  • Experiencia construyendo servicios de IA escalables en producción.

Beneficios que ofrecemos

  • Contrato a largo plazo.
  • 100% Remoto.
  • Vacaciones y PTOs
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo
  • mucho mas..

Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $3000 - 4000 Tiempo completo
Generative AI Engineer
  • Genesys Tecnologías de Inform. SpA
  • Santiago (Hybrid)
Python Virtualization Amazon Web Services Azure
Genesys Tecnologías de Información SpA es una empresa con 35 años de trayectoria en el mercado tecnológico, enfocada en desarrollo de software y servicios de outsourcing TI para desafíos de alto impacto. En este rol participarás en proyectos de Inteligencia Artificial Generativa, colaborando con equipos globales y clientes para convertir modelos avanzados en soluciones productivas. Formarás parte de un equipo multidisciplinario, con matriz en Santiago y operaciones en varias ciudades, orientado a la innovación y la mejora continua. El objetivo es entregar soluciones de IA responsables, escalables y alineadas a las necesidades del negocio.
El proyecto principal implica diseñar, desarrollar e integrar soluciones de IA Generativa, trabajar con modelos LLM y herramientas de MLOps, y contribuir al ciclo completo desde la investigación hasta la puesta en producción. Colaborarás con profesionales de la India y con equipos internos para garantizar entregas de alto impacto y calidad.

Opportunity published on Get on Board.

Funciones principales

  • Participar en el diseño y desarrollo de soluciones de IA Generativa para casos de negocio reales.
  • Trabajar con equipos multifuncionales para definir requisitos, arquitectura y plan de implementación.
  • Apoyar la integración de modelos de IA en entornos productivos y optimizar su rendimiento.
  • Contribuir a la adopción de MLOps, prácticas de IA responsable y seguridad de datos.
  • Investigar nuevas tendencias, proponer mejoras y compartir conocimiento con el equipo.
  • Colaborar con equipos de desarrollo y operaciones para entregar soluciones escalables.

Perfil y requisitos

Buscamos profesionales curiosos y orientados al aprendizaje, con base técnica sólida y motivación real por crecer en IA Generativa. No es necesario dominar todas las herramientas desde el primer día: valoramos el potencial, la curiosidad y la actitud proactiva para aprender y escalar en proyectos complejos.
Formación: Área afín a Computación, Ingeniería, IA o carreras equivalentes.
Experiencia: experiencia inicial en Python y Machine Learning (académica o laboral).
Conocimientos deseados: IA Generativa y LLMs, NLP o Deep Learning; frameworks como PyTorch o TensorFlow; bases de datos vectoriales; herramientas de frameworks de agentes IA; experiencia con nubes (Cloud) como AWS, Azure o GCP; y fundamentos de MLOps. Buena comunicación, actitud proactiva y mentalidad de crecimiento.
Se valora la voluntad de aprender, trabajar con equipos de alta experiencia y la capacidad de generar alto valor mediante soluciones creativas y responsables.

Competencias deseables

Experiencia previa en proyectos de IA Generativa y deployment de modelos en ambientes productivos. Conocimientos en herramientas de orquestación de flujos de trabajo en IA y buenas prácticas de observabilidad y monitoreo. Habilidad para trabajar con equipos distribuidos y comunicarse en inglés título y escrito.

Beneficios y oportunidades

Ofrecemos modalidad de trabajo en sistema «hybrido», combinando presencia en oficinas y trabajo remoto cuando sea posible. Contamos con aprendizaje continuo, acompañamiento de profesionales senior y proyectos desafiantes con impacto real. Buscamos fomentar un excelente ambiente de trabajo, con oportunidades de desarrollo profesional y crecimiento dentro de una empresa con presencia consolidada en Latinoamérica.

VER TRABAJO POSTULAR VÍA WEB
Gross salary $6000 - 9000 Tiempo completo
Senior Back-end Engineer Agentic AI Systems
  • VONQ
Python Django Celery Back-end
Company & Project Overview
VONQ AI Labs is at the forefront of recruitment technology, delivering AI-powered platforms that streamline the candidate journey. We are expanding into Agentic AI systems to power an agentic recruitment platform built on LLMs, multi-agent architectures, and event-driven backends. This project emphasizes delivering fast, reliable software to customers and shaping the next generation of recruitment automation. As part of a high-performance team, you’ll own critical backend components and contribute to the platform’s evolution from prototype to production-grade systems that customers rely on daily.

Applications are only received at getonbrd.com.

What You’ll Do

  • Own backend systems end-to-end using Python and Django, designing clean, pragmatic architectures that scale with the product.
  • Build and maintain event-driven architectures (Celery, messaging queues, asynchronous workflows) to support fast feature delivery.
  • Make fast, informed trade-offs to ship features quickly while maintaining reliability and observability.
  • Operate and improve what you build: performance, reliability, monitoring, and incident response.
  • Design and implement agentic architectures using frameworks such as LangChain, LangGraph, or equivalents.
  • Develop stateful, multi-step, multi-agent workflows; implement planning, orchestration, memory, and tool use.
  • Integrate agent systems with backend services, queues, and external APIs; ensure production-grade quality.
  • Collaborate in short, outcome-driven cycles and take ownership of live deployments.

What We’re Looking For

We seek senior backend engineers with a strong track record of designing scalable systems and shipping production-ready software. Key requirements include deep experience with Python and Django, hands-on work building event-driven systems (e.g., Celery), and familiarity with agentic AI concepts (LangChain, LangGraph) or similar frameworks. You should have demonstrated ownership of complex systems in startup environments, a bias toward delivery, and comfort working with ambiguity and evolving requirements. Fluent English communication is essential.

Desirable Experience

Experience designing multi-agent or stateful AI systems; prior work translating experiments into robust customer-facing features; comfort with rapid iteration and operating in high-trust, ownership-driven workplaces. Personal projects involving LangChain or related agentic tooling are a plus. Strong teamwork and the ability to collaborate across product, backend, and frontend without silos.

Benefits & What We Offer

Fully remote with flexible working hours in a high-trust, high-ownership culture. Competitive compensation with a strong emphasis on impact, real agentic AI production, and a small team delivering outsized results. You’ll work on a leading-edge platform and contribute directly to customer value, with opportunities for career growth and learning. Join a team that values shipping functional software over rhetoric and invites you to own what you build from day one.

Fully remote You can work from anywhere in the world.
Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
AI Engineer (RAG & Intelligent Agents)
  • Dynamic Devs
  • Santiago (Hybrid)
JavaScript Java Python Agile

Somos una empresa de servicios de tecnología que busca proyectos de alto impacto haciendo de la innovación y transformación digital parte de diferentes empresas principalmente transnacionales latinoamericanas de diversos sectores económicos como retail, seguros, distribución de equipos médicos, banca y productos digitales masivos utilizados por los consumidores. en todo el continente

📢 En Dynamic Devs estamos buscando a un AI Engineer con experiencia en el desarrollo de agentes inteligentes basados en LLMs, RAG y automatización de procesos. Serás responsable de diseñar, construir e implementar soluciones que transformen requerimientos de negocio en agentes accionables, confiables y escalables.

This posting is original from the Get on Board platform.

Funciones del cargo

  • Desarrollar agentes inteligentes basados en LLMs para casos de uso corporativos.
  • Implementar RAG (Retrieval-Augmented Generation) para acceso controlado a conocimiento y datos internos.
  • Diseñar y estructurar prompts, roles, límites operativos y flujos de interacción entre agentes y usuarios.
  • Realizar ajustes de modelos (fine-tuning ligero, prompt tuning o adapters), evaluación y optimización según el caso de uso.
  • Automatizar procesos mediante agentes orientados a análisis, validación, generación de contenido y mejora continua.
  • Optimizar costo, tiempos de respuesta y performance en pipelines de IA.
  • Construir y mantener pipelines CI/CD para modelos y agentes.
  • Realizar pruebas funcionales y de seguridad orientadas a soluciones de IA.
  • Trabajar con equipos de producto, seguridad, arquitectura y DevOps para asegurar integraciones estables y seguras.
  • Traducir requerimientos de negocio en especificaciones técnicas y prototipos funcionales.

Requerimientos del cargo

  • +3 años de experiencia en roles de desarrollo de software (Python, Node.js, Go, Java o similar). y al menos 1 año trabajando con sistemas de IA/LLMs en entornos productivos o experimentales avanzados.
  • Experiencia construyendo soluciones con LLMs, embeddings y vector stores.
  • Conocimiento en RAG, diseño de prompts y agentes estructurados.
  • Experiencia con CI/CD y buenas prácticas de despliegue en entornos productivos.
  • Conocimiento en prácticas de calidad: testing, documentación, seguridad y control de versiones.

Tecnologías con las que trabajarás:

  • LLMs: OpenAI, Anthropic, Cohere, Mistral, Llama
  • RAG: Embeddings, pipelines de recuperación y bases vectoriales
  • Frameworks: LangChain, LlamaIndex, Semantic Kernel
  • Infraestructura: Docker, Kubernetes, CI/CD
  • Metodologías: Git, Jira/YouTrack, metodologías ágiles

Opcionales

  • Experiencia con LangChain, LlamaIndex o Semantic Kernel.
  • Experiencia en bases vectoriales (Pinecone, Weaviate, ChromaDB, Qdrant).
  • Experiencia en MLOps o LLMOps (monitorización, métricas, ajustes en producción).
  • Familiaridad con arquitectura de microservicios y APIs REST.
  • Comprensión de NLP, embeddings y métricas de evaluación de modelo

Condiciones

💻 Beneficio Bring Your Own Device (A partir del 4to mes trabajando con nosotros, podrás adquirir un computador propio)
⌚ Horario flexible 🕒
🚀 Haz un impacto. Trabaja en proyectos desafiantes
📚 IT Training: acceso a más de 500 cursos actualizados cada semana 📖
🎤 Dev Talks: conferencias exclusivas con expertos del sector
🎉 Día especial: 🎂 ¡Día libre por cumpleaños!
👥 Trabaja en un equipo talentoso y multicultural usando tecnología increíble
🎙️ Escucha nuestro podcast aquí: 🔗 Escuchar Podcast
🌐 Visítanos en nuestra web: 🔗 Dynamic Devs

Internal talks Dynamic Devs offers space for internal talks or presentations during working hours.
Life insurance Dynamic Devs pays or copays life insurance for employees.
Partially remote You can work from your home some days a week.
Digital library Access to digital books or subscriptions.
Education stipend Dynamic Devs covers some educational expenses related to the position.
Vacation on birthday Your birthday counts as an extra day of vacation.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $3000 - 3500 Tiempo completo
Senior AI Engineer
  • Niuro
Python Virtualization Amazon Web Services Docker
Niuro connects projects with elite tech teams to deliver cutting-edge technological solutions for leading U.S. companies. As part of our AI-focused initiatives, you’ll join a global team building autonomous, agent-based AI systems and maintaining production-grade AI services. You will work on industrial data projects that demand high reliability, scalability, and robust operational practices. The role emphasizes collaboration with core engineers, product, and leadership to ensure AI systems significantly improve business outcomes while staying aligned with strategic goals. This position offers ongoing training, leadership development, and the opportunity to contribute to long-term, high-impact projects in a fully remote environment.

This company only accepts applications on Get on Board.

What You’ll Do

  • Design, build, and improve AI-driven systems, including agent-based workflows, to solve real-world problems.
  • Hands-on debugging, refactoring, and stabilizing existing AI/LLM systems in production to reduce debt and improve reliability.
  • Develop and integrate AI capabilities through REST APIs and service-oriented architectures (e.g., FastAPI or equivalent).
  • Deploy, monitor, and operate AI services in AWS, ensuring performance, cost-efficiency, and security.
  • Collaborate with engineers to address technical debt, optimize pipelines, and enhance system observability.
  • Communicate progress, risks, and trade-offs clearly to stakeholders and leadership.

Requirements

  • Fluent English (written and spoken).
  • Strong programming skills in Python.
  • Experience working with LLMs (e.g., OpenAI, Anthropic, Bedrock, or similar).
  • Ability to design and build APIs and services (FastAPI or equivalent).
  • Experience deploying and operating services in AWS or other cloud platforms.
  • Hands-on mindset and comfort working in messy, real-world systems.

Nice to Have

  • Experience with agent or multi-agent frameworks (LangGraph, LlamaIndex, LangChain, MCP, etc.).
  • Docker and containerized deployments (Docker, ECS, Gunicorn).
  • Familiarity with monitoring and observability (CloudWatch, Prometheus, Grafana).
  • Experience with semantic search, embeddings, or vector databases.
  • Knowledge of document processing or extraction tools (e.g., Textract).
  • Experience with testing (pytest, Playwright) and basic CI/CD workflows.

Benefits

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $3500 - 4000 Tiempo completo
Generative AI Engineer
  • Genesys Tecnologías de Inform. SpA
  • Santiago (Hybrid)
Python Virtualization Amazon Web Services Azure
Somos una empresa con 35 años en el mercado, con una fábrica de desarrollo de software y servicios de outsourcing. Nuestra matriz está en Concepción y operamos desde Santiago. Buscamos incorporar a un/una Generative AI Engineer para unirse a nuestro equipo de innovación y desarrollo de soluciones avanzadas de Inteligencia Artificial. El proyecto implica diseñar, desarrollar y desplegar soluciones de IA generativa, con foco en modelos de lenguaje de gran tamaño (LLMs), IA multimodal y pipelines escalables que se integren en entornos productivos. Colaborarás con equipos multidisciplinarios para identificar casos de uso, aplicar técnicas de ML y asegurar el cumplimiento de estándares éticos y de privacidad. Este rol te permitirá trabajar en proyectos desafiantes dentro de un entorno dinámico y orientado a la transformación digital de nuestros clientes en Latinoamérica.

Send CV through Get on Board.

Funciones

Desarrollar, ajustar (fine-tuning) y optimizar modelos de IA generativa (LLMs, modelos de difusión, etc.) para distintos casos de uso. Implementar pipelines de IA escalables e integrar los modelos en entornos productivos. Colaborar con equipos multidisciplinarios para identificar casos de uso y entregar soluciones basadas en IA. Investigar tendencias emergentes en IA generativa y aplicar técnicas innovadoras para mejorar el rendimiento de los modelos. Asegurar el cumplimiento de principios éticos de IA y estándares de privacidad de datos. Participar en la definición de roadmaps tecnológicoss y participar en revisiones de código y pruebas de rendimiento.

Descripción

Requisitos y Habilidades: Título profesional o magíster en Computación, Inteligencia Artificial o carrera afín. 5 a 8 años de experiencia en desarrollo AI/ML, con al menos 2 años trabajando en IA generativa. Dominio de Python, TensorFlow y/o PyTorch. Experiencia con bases de datos vectoriales: Azure AI Search, OpenSearch, PgVector, ChromaDB, entre otras. Conocimiento de frameworks de IA agéntica como LangGraph, CrewAI, Autogen u otros. Manejo avanzado de herramientas de desarrollo asistido por IA como Cursor, Claude Code o GitHub Copilot. Fuerte comprensión de LLMs, transformers y modelos de difusión. Experiencia en plataformas cloud (AWS, Azure o GCP) y herramientas de MLOps. Buenas habilidades de comunicación y resolución de problemas. Deseable: experiencia en prompt engineering y RLHF. Conocimientos en IA multimodal (texto, imagen, audio).

Deseables

Experiencia en prompt engineering y RLHF (Reinforcement Learning from Human Feedback). Conocimientos en IA multimodal (texto, imagen, audio). Experiencia trabajando en entornos de desarrollo colaborativo y metodologías ágiles. Capacidad para aprender rápidamente y adaptarse a cambios en un entorno tecnológico en constante evolución.

Beneficios

Ofrecemos contratación por proyecto con condiciones claras en un ambiente laboral dinámico y orientado al desarrollo profesional. Formarás parte de una empresa consolidada en Latinoamérica con más de tres décadas de experiencia, que valora el talento y fomenta la innovación. Contamos con equipo multidisciplinario y comunicación diaria con nuestra matriz en Santiago y otras operaciones, lo que facilita la colaboración y el soporte técnico. Si te sumas a nuestro equipo, tendrás la oportunidad de crecer y contribuir al desarrollo de soluciones innovadoras en IA para nuestros clientes.

VER TRABAJO POSTULAR VÍA WEB
Gross salary $3700 - 5800 Tiempo completo
AI / Machine Learning Lead
  • Krunchbox
  • Santiago (Hybrid)
Python Analytics Artificial Intelligence Machine Learning
Krunchbox is a retail analytics SaaS platform helping brands increase sell-through, prevent stockouts, and uncover lost revenue across major retailers. We are launching Krunchbox Reimagined — a modern, AI-enabled platform that moves beyond dashboards into predictive, prescriptive, and agent-driven decision support. Our AI/ML function is central to this transformation. As AI/ML Lead, you will shape and scale the applied AI strategy, guiding production-grade ML systems that directly drive customer value, including predictive analytics, agentic AI workflows, and customer-facing AI experiences (agents, chatbots, insights engines). You will collaborate with Product, Data Engineering, and the executive team to deliver measurable business impact.

Find this vacancy on Get on Board.

AI & ML Strategy

  • Define and execute Krunchbox’s applied AI roadmap aligned to commercial outcomes (sell-through lift, lost-sales recovery, forecast accuracy).
  • Identify where traditional ML, time-series forecasting, and LLM-based agents create value, and translate customer problems into scalable ML solutions embedded in the product.
  • Lead the design and deployment of predictive analytics, agentic AI workflows, and customer-facing AI experiences (agents, chatbots, insights engines).
  • Collaborate with Product, Data Engineering, and leadership to ensure AI initiatives drive measurable business results.

What you’ll own

  • Own end-to-end ML lifecycle: feature engineering, model training, evaluation, deployment, monitoring, and governance to ensure reliability and explainability.
  • Build production-grade models for demand forecasting, lost-sales estimation, stockout risk, inventory optimization, and anomaly detection, incorporating external signals (weather, promotions, calendar effects).
  • Design and implement agentic AI workflows that monitor data conditions, generate proactive insights, and recommend actions (e.g., reorder, rebalancing, investigation).
  • Develop internal and customer-facing AI agents that reason over Krunchbox data, metadata, and business rules; build conversational AI experiences for insights and self-service analytics, plus internal support tooling.
  • Ensure safe integration of LLMs with structured retail data (POS, inventory, product/store master) and collaborate with Data Engineering on scalable pipelines (ClickHouse, Spark, cloud data stacks).
  • Provide technical leadership and mentorship to engineers and analysts as the AI function scales; shape AI-driven features and roadmap decisions in partnership with Product.

What we value

6+ years in applied machine learning / data science with a strong background in time-series forecasting, statistical modeling, feature engineering at scale, and deploying ML models to production. Proficiency in Python for ML and data pipelines, plus experience with large, messy real-world datasets. Ability to explain complex models to non-technical stakeholders. Desirable: experience with retail, supply chain, or POS data; building LLM-powered systems or chatbots; familiarity with modern data stacks (ClickHouse, Spark, cloud data warehouses); exposure to MLOps, monitoring, model governance, and cloud orchestration. Startup or SaaS scale-up experience is a plus.

Benefits

  • Competitive compensation package and comprehensive health benefits.
  • Opportunity to lead and scale AI for a global SaaS platform.
  • Hybrid work model with a Chilean engineering hub; collaborative, in-person teamwork emphasis.
  • Direct, impactful role shaping the future of AI-powered retail analytics and supplier-retailer collaboration.
  • Supportive environment to own AI at the core of a revenue-driving product; potential for leadership growth within Krunchbox.

Relocation offered If you are moving in from another country, Krunchbox helps you with your relocation.
Partially remote You can work from your home some days a week.
Computer provided Krunchbox provides a computer for your work.
Informal dress code No dress code is enforced.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
AI Architect Senior
  • Improving South America
JavaScript Java Python Virtualization

Improving South America es una empresa líder en servicios de TI que busca transformar positivamente la percepción del profesional de TI mediante consultoría de tecnología, desarrollo de software y formación ágil. Somos una organización con una cultura que fomenta el trabajo en equipo, la excelencia y la diversión, inspirando a nuestro equipo a establecer relaciones duraderas mientras ofrecemos soluciones tecnológicas de vanguardia. Nuestra misión está alineada con el movimiento de Capitalismo Consciente, promoviendo un entorno de trabajo excepcional que impulsa el crecimiento personal y profesional dentro de una atmósfera abierta, optimista y colaborativa.

Apply directly through getonbrd.com.

Funciones del cargo

Estamos en la búsqueda de un AI Architect SR con manejo de inglés para sumarse a un proyecto de la manos con un cliente enfocado en proporcionar a las empresas herramientas y experiencia necesarias para alcanzar el éxito, cumpliendo con:

  • Diseñar y ejecutar soluciones de IA/ML de punta a punta en plataformas cloud (GCP, AWS), incluyendo ingestión de datos, desarrollo de modelos, despliegue y monitoreo.
  • Liderar y guiar equipos de ingeniería multifuncionales, fomentando un entorno colaborativo y de alto rendimiento.
  • Colaborar con stakeholders para recopilar requisitos, definir el alcance del proyecto y alinear las soluciones técnicas con los objetivos del negocio.
  • Supervisar la modernización y migración de sistemas legacy hacia arquitecturas nativas en la nube, aprovechando tecnologías serverless y basadas en contenedores.
  • Diseñar y gestionar pipelines de CI/CD para flujos de trabajo de ML, asegurando despliegues automatizados, robustos y seguros.
  • Evaluar y seleccionar los frameworks, herramientas y tecnologías de IA/ML más adecuados (por ejemplo, TensorFlow, Scikit-learn, Vertex AI, Generative AI).
  • Desarrollar y aplicar buenas prácticas para la gestión de datos, entrenamiento, validación y gobernanza de modelos.
  • Impulsar la innovación explorando e integrando tecnologías y metodologías emergentes en IA/ML.
  • Garantizar el cumplimiento de estándares de privacidad y seguridad de datos, especialmente en industrias reguladas (por ejemplo, salud, finanzas).

Requerimientos del cargo

  • Nivel de Inglés oral y escrito B2/C1 (intermedio /avanzado) Excluyente.
  • Más de 7 años de experiencia en ingeniería de software, con al menos 4 años en arquitectura de soluciones de IA/ML en la nube.
  • Experiencia comprobada liderando equipos de ingeniería y gestionando proyectos complejos.
  • Amplia experiencia en plataformas cloud (GCP, AWS), incluyendo trabajo práctico con servicios como Vertex AI, Lambda, Cloud Functions, BigQuery, DynamoDB, entre otros.
  • Dominio de lenguajes de programación como Python, Java, JavaScript/TypeScript.
  • Sólido conocimiento de frameworks y herramientas de ML: Generative AI, Document AI.
  • Experiencia con contenedores y orquestación (Docker, Kubernetes, Terraform, Helm).
  • Sólida comprensión de procesos y herramientas de CI/CD (GitLab, AWS CodePipeline, Cloud Build).
  • Excelentes habilidades de comunicación, gestión de stakeholders y planificación de proyectos.

Conditions

  • 100% Remoto.
  • Vacaciones y PTOs.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Internal talks Improving South America offers space for internal talks or presentations during working hours.
Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Improving South America gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $3300 - 3600 Tiempo completo
Software Engineer Senior – Python & AI Integration
  • Maxxa
  • Santiago (Hybrid)
Python PostgreSQL Flask Microservices

Maxxa es una Fintech de Chile en etapa scaleup, afianzando nuestro posicionamiento regional en México.
Nuestra misión es eliminar la mortalidad de las pymes de Latam, construyendo tecnología que les habilite para acceder a financiamiento y ordenar sus finanzas y operación.

Cuidamos a nuestro activo más valioso: el equipo (Top 3 Building Happiness by Buk 2025) demostrando que el alto rendimiento convive con la confianza. Aquí aportas visión de ingeniería para potenciar una plataforma de impacto regional, que innova constantemente integrando IA y Data en sus procesos clave.

Somos sponsor de Platanus Hack 25 por una convicción: el talento real está donde se construyen cosas.
Vivimos en la intersección donde la agilidad del negocio encuentra la madurez técnica. Para sostener el crecimiento, las soluciones rápidas no bastan. Estamos en etapa de consolidación, priorizando discusiones de fondo: cada implementación debe fortalecer nuestra capacidad de escalar y ser saludable a largo plazo.

Apply directly through getonbrd.com.

Funciones y responsabilidades

  • Impulsar la evolución del motor de scoring de financiamiento hacia una arquitectura escalable y de alto rendimiento, asegurando transparencia de reglas y algoritmos, y habilitando su configuración dinámica por parte de tomadores de decisión.
  • Colaborar con equipo de Data Analytics para optimizar y mantener pipelines de despliegue de modelos predictivos, garantizando infraestructura para integrar nuevos modelos de forma autónoma y escalable.
  • Investigar e integrar herramientas de IA en el ciclo de vida de desarrollo para optimizar tiempos, mejorar la calidad del código y potenciar las capacidades técnicas del equipo.
  • Apoyar y mejorar el workflow de apertura de créditos, incorporando controles y validaciones a lo largo del ciclo de vida de la operación, asegurando consistencia y trazabilidad desde la evaluación hasta el cierre.
  • Co-difundir la hoja de ruta tecnológica a mediano y largo plazo, asegurando arquitectura que soporte escalabilidad y expansión del negocio.
  • Liderar prácticas de ingeniería como Clean Architecture, pruebas automatizadas y revisiones de código, actuando como mentor técnico para perfiles menos experimentados.
  • Vigilar la tecnología con foco en IA y automatización y proponer pruebas de concepto que se traduzcan en mejoras de rendimiento y productividad.
  • Colaborar estrechamente con Producto, Data, Riesgo, Operaciones y Finanzas para traducir necesidades operativas complejas en soluciones tecnológicas eficientes.

Descripción y requisitos

Requisitos Técnicos y Académicos

  • Formación Académica:
    Ingeniero Civil en Computación, Ingeniería Civil Informática, Ingeniería Civil Industrial con minor en Tecnologías de la Información o Magíster en Ciencias de la Computación.
  • Experiencia Profesional:
    Mínimo 4 años de experiencia en desarrollo de software backend, con una capacidad demostrada para modelar e implementar lógica de negocio compleja y reglas de decisión.

Conocimientos Técnicos:

  • Lenguajes y Frameworks: Dominio experto de Python (Excluyente). Es deseable contar con experiencia en Flask y Pydantic.
  • Arquitectura y Diseño: Diseño sólido de APIs REST, Microservicios y aplicación de Clean Architecture. Deseable manejo de patrones de diseño.
  • Base de Datos: Manejo de SQLAlchemy y PostgreSQL. Fuerte capacidad para la elaboración de consultas complejas y optimización de performance.
  • Integración de IA/ML: Entendimiento funcional de librerías como scikit-learn, pandas o PyTorch. El foco es la lectura, carga e inferencia de modelos para su integración en el software (no el entrenamiento ni desarrollo de modelos).
  • Calidad de Software: Experiencia implementando pruebas unitarias (pytest o unittest) y de integración.
  • Fundamentos: Sólidos conocimientos en diseño y análisis de algoritmos.

Competencias Conductuales y Habilidades Blandas

  • Mindset de Aprendizaje Continuo: Curiosidad intelectual proactiva. Capacidad para investigar, aprender y adoptar rápidamente nuevas tecnologías (como herramientas de IA) y mantenerse actualizado en tendencias de la industria.
  • Liderazgo Técnico y Mentoría: Habilidad para guiar y elevar el nivel técnico del equipo mediante el ejemplo, la revisión de código y la transferencia de conocimientos, fomentando la colaboración sin necesidad de una jerarquía formal.
  • Comunicación y Puente Técnico: Capacidad para articular ideas complejas de forma clara, facilitando el entendimiento entre áreas técnicas y de negocio.
  • Adaptabilidad y Autonomía: Disposición para trabajar en entornos dinámicos, ajustando prioridades y proponiendo soluciones ante cambios en el negocio.

Habilidades y experiencia deseables

  • Integración con Burós de Crédito (ej: Equifax, Sinacofi) o fuentes de datos externas.
  • Participación en proyectos del sector Fintech o banca.
  • Colaboración en la implementación técnica de modelos de IA/Machine Learning.

Beneficios

Te unirás a una fintech donde tu esfuerzo y energía se ven recompensados.
Nos eligieron top 3 del ranking de The Building Happiness de Buk. ¡Tu bienestar es parte de nuestro desafío!

Beneficios:

  • Flexibilidad laboral: Trabajo mayormente remoto con 1 día presencial en nuestra oficina en Las Condes. Ofrecemos total flexibilidad para cambiar tu día o acordar semanas 100% remotas.
  • Tiempo de bienestar —¡con metas cumplidas, sales 30 min antes todos los días!— Días administrativos, tarde libre por cumpleaños y día de mudanza.
  • Asignación de almuerzo.
  • Un muy potente Seguro Complementario de salud, dental y vida (al pasar a indefinido).
  • Aguinaldos, Bonos de matrimonio, nacimiento, escolaridad, entre otros.
  • Capacitaciones continuas en UBITS para que nunca dejes de crecer.
  • En oficina corporativa, muchos beneficios: Snack Saludable todos los días, salita de descanso con cafetería ilimitada, actividades para compartir, ¡entre muchos más!

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Maxxa pays or copays health insurance for employees.
Computer provided Maxxa provides a computer for your work.
Informal dress code No dress code is enforced.
Beverages and snacks Maxxa offers beverages and snacks for free consumption.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $3000 - 3500 Tiempo completo
Senior Machine Learning Engineer – Computer Vision
  • Niuro
Python 3D Git DevOps
Niuro connects projects with elite tech teams, delivering autonomous, high-performance engineering groups to top U.S. companies. In this engagement, you will lead the design, implementation, and operation of end-to-end ML solutions for image and video analytics within a mining-industry context. The project emphasizes scalable ML pipelines, robust model quality, and strong MLOps practices to ensure reliable production deployment. You will collaborate closely with cross-functional teams to produce impactful ML products and maintain production-grade delivery standards.

Job opportunity on getonbrd.com.

Key Responsibilities

  • Design and implement robust Computer Vision architectures for training and inference, building end-to-end data pipelines for image and video data.
  • Develop production-grade Python code with testing, logging, documentation, and engineering best practices.
  • Own and advance MLOps practices: CI/CD pipelines, dataset and model versioning, environment management, and monitoring for models and data in production.
  • Optimize models for latency, throughput, and hardware efficiency (GPU/CPU) while maintaining high accuracy through systematic experimentation.
  • Deploy and operate models in production—exposed APIs, batch processing, streaming, or edge deployments.
  • Collaborate with product, data, and business stakeholders to translate requirements into scalable ML solutions and drive continuous improvement.

Requirements

✅ Bachelor’s degree in Engineering, Computer Science, Mathematics, or related field.
✅ 5+ years of experience in Machine Learning / Deep Learning with a strong focus on Computer Vision (object detection, segmentation, tracking, pose estimation, 3D/stereo vision, or video understanding).
✅ Expert Python developer with hands-on experience in at least one DL framework (PyTorch, TensorFlow/Keras, JAX, etc.).
✅ Practical experience with CV libraries such as OpenCV, scikit-image, or similar tools.
✅ Proficient in Docker, Git, and CI/CD or MLOps platforms (e.g., Azure DevOps, GitLab CI, GitHub Actions, MLflow, Kubeflow).
✅ Proven track record deploying and operating ML models in production environments.
✅ Fluent in Spanish (required).

Nice-to-Have

🔸 Experience applying ML in industrial, mining, or edge environments.
🔸 Familiarity with cloud platforms (AWS, Azure, GCP).
🔸 Strong background in model monitoring, data quality, or ML observability.

Benefits

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
VER TRABAJO POSTULAR VÍA WEB
$$$ Tiempo completo
Senior Gen AI Engineer
  • Niuro
Python Flask Back-end FastAPI
Niuro partners with elite U.S. companies to deliver autonomous, high-performance tech teams. This role sits within our Gen AI / AI systems squad, focused on building scalable AI-powered solutions for complex business problems. You will contribute to a global, remote-friendly delivery model, collaborating with cross-functional teams to design, prototype, and deploy LLM-driven applications. The project scope includes creating PoCs, iterating quickly based on feedback, and ensuring robust integration with multiple model providers and data sources. Niuro offers ongoing professional growth, leadership development, and a strong administrative backbone to enable engineers to focus on impact.

Send CV through getonbrd.com.

What you'll do

  • Lead the design and implementation of Generative AI solutions and LLM-driven applications, with emphasis on reliability, scalability, and usability.
  • Develop and maintain backend services (Python-based) using FastAPI/Flask, integrate with model APIs (OpenAI, Anthropic, etc.), and build supporting tooling (memory, prompting strategies, tools, and evaluations).
  • Build and orchestrate multi-framework AI stacks (e.g., LangChain, LangGraph, Pydantic AI, CrewAI, AutoGen, LlamaIndex, Haystack) and ensure effective observability and monitoring (LLM observability, performance metrics).
  • Implement RAG pipelines, prompt engineering patterns, and multi-agent systems to solve complex tasks with high autonomy.
  • Create simple UIs for internal testing and demonstration (Streamlit, Gradio) and collaborate with frontend teams (React/Next.js) when needed.
  • Drive PoC deliveries within ~2 weeks, then iterate rapidly based on feedback and business value realization.
  • Collaborate across LATAM time zones with Spanish fluency, maintaining high autonomy, speed, and results orientation.

Required skills and experience

  • 1+ year of hands-on experience with large language models and Generative AI frameworks.
  • Practical experience with at least two frameworks from the following: LangChain, LangGraph, Pydantic AI, CrewAI, AutoGen, LlamaIndex, Haystack, or similar.
  • Proficiency in Python with backend experience using FastAPI, Flask, or equivalent.
  • Experience implementing LLM-powered applications (prompting, tools, memory, evaluations) and knowledge of memory management strategies for AI systems.
  • Knowledge of multi-agent systems and retrieval-augmented generation (RAG) pipelines.
  • Experience integrating with model APIs (OpenAI, Anthropic, etc.).
  • Ability to work on backend tasks and contribute to simple UIs (Streamlit or Gradio).
  • Fluent Spanish with ability to collaborate within Chile/LATAM time zones.
  • High level of autonomy, speed, and a results-driven mindset.

Nice to have

  • Experience with Azure or other cloud deployment platforms.
  • Familiarity with React or Next.js for frontend integration.
  • Experience with LLM observability tools (LangSmith, Weights & Biases, Arize/Phoenix, OpenTelemetry).
  • Exposure to CI/CD pipelines and deployment infrastructure.

What we offer

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $4500 - 7500 Tiempo completo
Head of Artificial Intelligence
  • Niuro
Python Virtualization Amazon Web Services Artificial Intelligence
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality. The Head of AI will join Niuro’s remote-first environment to define and drive the AI strategy across the organization, partnering with the CEO to align technology with business goals. You will lead the design and deployment of scalable, secure AI platforms, modernizing legacy systems while delivering transformative AI capabilities for our clients. This role sits at the intersection of strategic leadership and hands-on technical execution, guiding cross-functional teams and ensuring that AI initiatives translate into measurable business outcomes. You will also help nurture a global, high-performance workforce through mentorship, training, and strong governance around AI programs.

This company only accepts applications on Get on Board.

Key Responsibilities

  • Vision & Strategy: Partner with the CEO to define and execute Niuro's AI roadmap, ensuring alignment with business objectives and market opportunities. Translate strategy into actionable programs with clear milestones and metrics.
  • Architecture Leadership: Serve as the chief AI architect, designing scalable, secure AI-driven systems. Lead the transition from legacy platforms to modern infrastructure while ensuring reliability and compliance.
  • Innovation & Delivery: Drive rapid development of new AI-powered features and services, balancing speed with maintainability and long-term support.
  • Technology Oversight: Guide the use of cloud-based technologies (AWS, Terraform, Kubernetes, Python, Windows Server/IIS, FastAPI). Implement monitoring (CloudWatch, Grafana) and data pipelines (AWS Glue/Lambda) to ensure scalability and observability.
  • People & Stakeholders: Communicate complex technical concepts clearly to executives, clients, and internal teams. Mentor senior engineers and foster a culture of scientific rigor and responsible AI.

Required Skills & Experience

8+ years in software engineering, data science, or AI with at least 3+ years in leadership. Proven track record deploying AI/ML solutions at scale in production environments. Strong systems design background and experience with cloud platforms (AWS preferred). Advanced Python programming skills; experience with modern AI frameworks and LLMs. Demonstrated success modernizing legacy platforms and delivering scalable, maintainable AI solutions. Exceptional executive-level communication abilities and a talent for translating technical concepts into business value. Fluent in English; Spanish or Portuguese is a plus.

Desirable Skills & Experience

Experience in regulated industries (fintech, govtech) and products with active users and customer support operations. Familiarity with AWS AI services, container orchestration (Kubernetes/ECS), and MLOps. Exposure to LLM-based automation and data engineering workflows. A proactive, entrepreneurial mindset with a bias for action and strong collaboration skills.

Benefits & Perks

We offer the chance to participate in impactful, technically rigorous industrial data projects that drive innovation and professional growth. Niuro supports a 100% remote work model, enabling global flexibility. We invest in career development through ongoing training and leadership opportunities, ensuring continuous growth. Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment. Joining Niuro means being part of a global community with strong administrative support that enables you to focus on impactful work.

Fully remote You can work from anywhere in the world.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $2000 - 3000 Tiempo completo
AI Engineer
  • Niuro
Python Virtualization Amazon Web Services Docker
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality. Niuro empowers projects by providing autonomous, high-performance tech teams specialized in partnering with top-tier U.S. companies. We focus on innovative and challenging projects that foster continuous professional growth and technological excellence.

Apply to this job opportunity at getonbrd.com.

About the Role:

We’re looking for an AI Engineer to help us develop intelligent agent systems that automate the processing of structured and semi-structured documents. Your work will improve user experience and internal workflows, focusing on automation, accuracy, and scalability.

Requirements:

  • Fluent English (written and spoken)
  • Strong programming skills in Python
  • Experience working with large language models (LLMs) such as OpenAI API or similar
  • Ability to design and build APIs using FastAPI
  • Familiarity with AWS or other cloud platforms

Nice-to-have:

  • Experience with Docker, Gunicorn, and Amazon ECS
  • Knowledge of Amazon Bedrock, Amazon Textract, BAML, and Pydantic AI
  • Familiarity with Aestiva HTML/OS and Streamlit for prototyping
  • Experience with frontend testing using Playwright and backend testing using pytest
  • Experience with monitoring tools like CloudWatch, Prometheus, and Grafana

Benefits:

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
VER TRABAJO POSTULAR VÍA WEB
Gross salary $2500 - 3500 Tiempo completo
AI Engineer Especialista en Llms y Transformers
  • Devups
Python Git Virtualization Amazon Web Services
En Devups, somos una empresa especializada en servicios de staff augmentation que permite a las compañías incorporar rápidamente desarrolladores y especialistas tecnológicos sin la complejidad asociada al reclutamiento tradicional. Nuestro enfoque se basa en proporcionar talento altamente calificado de forma flexible y escalable para potenciar el crecimiento y éxito de nuestros clientes. Actualmente, estamos trabajando con clientes en el desarrollo e integración de soluciones basadas en inteligencia artificial avanzada, particularmente en el área de modelos de lenguaje grandes (LLMs) y arquitecturas Transformer. Estos proyectos buscan innovar en el procesamiento y generación de lenguaje natural, optimizar pipelines de recuperación aumentada de generación (RAG) y desplegar sistemas inteligentes que impacten directamente en productos y servicios de última generación.

Apply without intermediaries from Get on Board.

Responsabilidades principales

  • Diseñar, desarrollar y mantener pipelines eficientes para modelos de lenguaje, especialmente para tareas de fine-tuning y adaptación usando frameworks como Hugging Face.
  • Implementar y optimizar técnicas de RAG (Retrieval-Augmented Generation) para mejorar la integración de datos externos y contexto en los modelos.
  • Gestionar bases de datos vectoriales y embeddings con herramientas como FAISS o Pinecone para facilitar búsquedas semánticas efectivas.
  • Desarrollar APIs robustas para exponer modelos y servicios mediante frameworks Python como FastAPI o Flask.
  • Configurar y desplegar aplicaciones en entornos cloud escalables, utilizando principalmente AWS o Google Cloud Platform.
  • Colaborar en la integración continua y control de versiones mediante Git y Docker para garantizar la reproducibilidad y portabilidad del software.
  • Participar en la evaluación de modelos, experimentando con entrenamientos distribuidos y herramientas avanzadas como DeepSpeed o BitsAndBytes para mejorar la eficiencia y precisión.
  • Trabajar en equipo coordinadamente, aportando feedback, documentando buenas prácticas y manteniendo altos estándares de calidad en el desarrollo.

Perfil y requisitos técnicos

Buscamos ingenieros en inteligencia artificial con experiencia demostrable en el trabajo con modelos de lenguaje grandes (LLMs) y arquitecturas Transformer, que tengan pasión por la innovación y la implementación de soluciones escalables y bajo producción. El candidato ideal deberá contar con:
  • Experiencia práctica utilizando librerías y frameworks de última generación como Hugging Face, realizando fine-tuning con técnicas avanzadas como LoRA, QLoRA o PEFT.
  • Dominio de conceptos y herramientas para Retrieval-Augmented Generation (RAG), junto con manejo de embeddings y bases de datos vectoriales (FAISS, Pinecone).
  • Competencia avanzada en Python y desarrollo de APIs con FastAPI o Flask.
  • Experiencia en contenedorización con Docker, control de versiones con Git y despliegue en AWS o Google Cloud Platform.
  • Conocimientos en evaluación y benchmarking de modelos de IA, así como en entrenamiento distribuido y optimización usando herramientas como DeepSpeed o BitsAndBytes, que se valorarán altamente.
  • Nivel de inglés intermedio-alto (B2 o superior) para comunicarse de manera efectiva en equipos técnicos internacionales.
  • Capacidad de trabajo autónomo y remoto, proactividad en resolución de problemas y actitud colaborativa para trabajar en equipos distribuidos.
Valoramos especialmente la experiencia en modelado y evaluación rigurosa, así como el interés en seguir aprendiendo y aplicando tecnologías emergentes en el campo de la inteligencia artificial.

Habilidades y conocimientos adicionales valorados


  • Experiencia previa en entrenamiento y ajuste fino de modelos a gran escala en entornos de producción.
  • Conocimientos de optimización de modelos para eficiencia de inferencia y consumo de recursos.
  • Manejo de infraestructura en la nube orientada a machine learning, incluidos pipelines de MLOps.
  • Familiaridad con frameworks complementarios como LangChain para creación de cadenas conversacionales y RAG.
  • Capacidades básicas en otras áreas de la IA, como visión computacional o aprendizaje reforzado.
  • Habilidades comunicativas y capacidad para documentar procesos técnicos de forma clara y precisa.

Qué ofrecemos

Formarás parte de Devups, un entorno de trabajo flexible que impulsa la innovación, el crecimiento profesional y el aprendizaje continuo. Como empresa de staff augmentation, ofrecemos modalidad 100% remota en toda Latinoamérica, facilitando un equilibrio óptimo entre vida laboral y personal.
Promovemos el desarrollo profesional mediante capacitaciones y certificaciones en tecnologías punteras, asegurando que nuestro talento se mantenga a la vanguardia.
Además, nuestro modelo flexible te permite integrarte rápidamente a proyectos desafiantes con gran impacto, participando en la construcción de soluciones avanzadas en inteligencia artificial.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Vacation over legal Devups gives you paid vacations over the legal minimum.
VER TRABAJO POSTULAR VÍA WEB