No encontramos ningún resultado.

Prueba con otro grupo de palabras.

Si crees que esto es un error, por favor contáctanos.

Gross salary $2600 - 3500 Tiempo completo
Product Owner – Rubro Seguros
  • coderslab.io
UX UI Design Agile Data Analysis

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Product Owner – Rubro Seguros para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

© Get on Board.

Funciones del cargo

  • Detectar y analizar necesidades, oportunidades y riesgos específicos del sector seguros que contribuyan al cumplimiento de los objetivos comerciales y regulatorios del producto.
  • Levantar, definir y priorizar, en colaboración con el equipo técnico y stakeholders del negocio, los requerimientos funcionales y no funcionales para el desarrollo de nuevas funcionalidades.
  • Planificar y coordinar los ciclos de trabajo (sprints), asegurando el cumplimiento de hitos técnicos, regulatorios y metas de negocio.
  • Especificar de forma clara y detallada los requerimientos y criterios de aceptación para las tareas a ejecutar por el equipo de desarrollo, considerando aspectos de seguridad, cumplimiento normativo y experiencia de usuario.
  • Priorizar la carga de trabajo del equipo buscando maximizar el valor entregado, alineando el roadmap del producto con las estrategias comerciales y regulatorias del sector seguros.
  • Actuar como enlace principal entre stakeholders del negocio, usuarios finales, reguladores y el equipo de desarrollo, promoviendo una visión compartida y facilitando la comunicación efectiva.
  • Supervisar el seguimiento y análisis de métricas clave (KPIs) para evaluar el desempeño del producto y tomar decisiones informadas para su mejora continua.
  • Garantizar que las soluciones desarrolladas cumplan con estándares de calidad, seguridad y normativas vigentes en el sector seguros.
  • Facilitar la adopción de metodologías ágiles y promover la cultura DevOps dentro del equipo.

Requerimientos del cargo

Formación Académica

  • Profesional titulado en Ingeniería, Administración de Empresas, Tecnología, Seguros o carreras afines.

Experiencia

  • Mínimo 3 años liderando equipos o gestionando productos digitales, preferentemente en el sector seguros o servicios financieros regulados.
  • Experiencia comprobada en gestión de productos digitales con enfoque en cumplimiento normativo y seguridad.

Conocimientos Técnicos Deseables

  • Metodologías ágiles (Scrum, Kanban) y herramientas de gestión de producto (Jira, Confluence, Trello, etc.).
  • Fundamentos sólidos de UX/UI y diseño centrado en el usuario.
  • Análisis de datos, interpretación de métricas y KPIs para toma de decisiones.
  • Conocimiento básico de normativas y regulaciones aplicables al sector seguros (ej. Ley de Protección de Datos, normativas de seguros locales).
  • Familiaridad con procesos de desarrollo seguro y gestión de riesgos tecnológicos.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Product Owner
  • ICONSTRUYE
  • Bogotá (Hybrid)
Agile Excel SQL DevOps

En iConstruye, nos posicionamos como la empresa líder en soluciones y servicios tecnológicos innovadores, trabajando con un enfoque en el suministro y la gestión de la construcción, así como en industrias con alta complejidad logística. Nuestro equipo está comprometido a diseñar e implementar soluciones efectivas y escalables, ayudando a nuestros clientes a alcanzar sus objetivos de manera eficiente y con éxito.

Tu misión: Responsable de la construcción del producto, generando valor al desarrollo y velando por la satisfacción de los clientes. Diseña, modela, construye, le da valor, entrega y mejora permanentemente los productos, basándose en las necesidades de nuestros clientes, conectándose con los objetivos de nuestra compañía y siendo partner de las demás áreas de la empresa.

© getonbrd.com. All rights reserved.

Tus funciones:

  • Participar en el proceso creativo del producto, colaborando con el PM y el CX para diseñar la experiencia de usuario y definir los requisitos comerciales, generando el backlog.
  • Diseñar épicas y redactar historias de usuario.
  • Liderar la célula de trabajo, supervisando el cumplimiento de los puntos de historia asignados.
  • Definir y asegurar el cumplimiento de las fechas de entrega de los productos.
  • Priorizar características a implementar que generen valor al desarrollo.
  • Resolver dudas del equipo con respecto al desarrollo, buscando información de los Stakeholders.
  • Ajustar características y prioridades en cada iteración del producto.
  • Garantizar la calidad del producto entregado.
  • Conocer y comprender los indicadores de éxito del cliente, como NPS y CSAT.

Requerimientos:

  • Experiencia comprobada en metodología Agile; se valora tener certificación de PO (no excluyente).
  • Conocimientos en Excel, tablas dinámicas e idealmente SQL.
  • Dominio de MS Office y Google Docs.
  • Experiencia en herramientas como Whimsical, Notion y plataformas similares a Azure DevOps.
  • Dominio del idioma inglés.
  • Experiencia demostrable en equipos Scrum, así como en la entrega de resultados a través de gráficos de Burn Down y productividad.
  • Experiencia en la industria de la construcción será considerada un plus.
  • Conocimientos sobre sistemas de medición de NPS y CSAT.

Deseable:

Si cuentas con experiencia en la industria de la construcción, sería un gran aporte para nuestro equipo. Además, el conocimiento en sistemas de medición de la satisfacción, como NPS y CSAT, enriquecería tu perfil y contribuiría significativamente al éxito en el rol.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Machine Learning Engineer Sr
  • CMPC
  • Santiago (Hybrid)
Python Analytics Agile Git

Responsable de la concepción, elaboración y despliegue de soluciones analíticas robustas y escalables en producción, priorizando la eficiencia, facilidad de mantenimiento y rapidez en la entrega. Centrado en el desarrollo en la nube, utilizando estadística, Machine Learning clásico, Deep Learning y/o Inteligencia Artificial Generativa (Gen AI). Responsable de asegurar altos niveles de calidad, rendimiento e integridad en modelos y pipelines implementados. Trabaja en estrecha colaboración con Ingenieros de Datos, Desarrolladores, DevOps, Arquitectos, Product Managers, Líderes Técnicos, Científicos de Datos y profesionales del negocio, promoviendo iniciativas estratégicas de la organización mediante la implementación de soluciones analíticas en producción.

Apply through Get on Board.

Funciones del cargo

  • Crear Pipelines de Machine Learning completos: diseña, implementa y mantiene flujos de entrenamiento, validación y despliegue garantizando trazabilidad, reproducibilidad y monitoreo continuo en producción bajo principios de MLOps.
  • Gestiónar datos: Lidera procesos ETL para el entrenamiento y serving, asegurando calidad y disponibilidad mediante pipelines automatizados y versionados en el data warehouse.
  • Exponer modelos de Machine Learning: Despliega y opera modelos (propios, de terceros y gen-AI) como APIs seguras, escalables y monitorizadas, integradas con las aplicaciones analíticas de la gerencia.
  • Optimizar modelos de Machine Learning: realiza fine-tuning y aplica buenas prácticas (prompt management, feature store, RAG, etc.) para maximizar desempeño y eficiencia.
  • Aportar en la evolución del framework de MLOps: impulsa la mejora continua de estándares CI/CD, infra serverless, gobernanza de features y automatización de procesos.
  • Liderazgo técnico: Actúa como referente y agente de cambio digital, promoviendo buenas prácticas y documentación rigurosa en todo el equipo.

Requerimientos del cargo

Formación: Ingeniería informática, ingeniería matemática, ingeniería industrial, estadística o similar.

Experiencia:

  • 5 años o más como machine, learning engineer o equivalente.

Conocimiento específico:

  • Herramientas Cloud para Machine Learning y analítica, de preferencia Vertex AI o en su defecto, experiencia en kuberflow (Excluyente).
  • Control de versión con Git (Excluyente).
  • Experiencia creando pipelines de CI/CD (Excluyente).
  • Dominio en Gitlab /Github o similar (Excluyente).
  • Deseable Metodologías agiles (Scrum, Kanban).
  • Deseable experiencia comprobada en desarrollo de aplicaciones basadas en Gen IA (conocimiento de ADK preferente o LangGraph).
  • Deseable dominio de Terraform.
  • Deseable experiencia con solvers de optimización lineal entera de preferencia Gurobi.
  • Deseable experiencia con docker.
  • Deseable experiencia con Arquitectura serverless.

Computación:

  • Python Avanzado (Excluyente)
  • SQL (Excluyente)

Condiciones

  • Contrato: Indefinido
  • Ubicación: Santiago
  • Modalidad: 4x1( 4 días presencial, 1 día online)

Health coverage CMPC pays or copays health insurance for employees.
Computer provided CMPC provides a computer for your work.
Beverages and snacks CMPC offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 3000 Tiempo completo
Data Engineer Inteligencia Artificial
  • DSS S.A.
Python PostgreSQL SQL Virtualization

Somos DSS, una consultora ambiental con 22 años de experiencia y más de 100 colaboradores. Apoyamos a nuestros clientes a cumplir con la normativa ambiental, contribuyendo a un desarrollo sustentable. Actualmente, estamos desarrollando plataformas para la gestión ambiental que incluyen herramientas de Inteligencia Artificial. Si te interesa aplicar tus conocimientos en tema ambientales y contribuir en la lucha al cambio climático, este es el lugar.

Job opportunity on getonbrd.com.

Tus Funciones

Buscamos un/a Data Engineer Senior con foco en IA, que se una a nuestro equipo para liderar el diseño y automatización de pipelines de datos, y contribuir directamente en la infraestructura que habilita nuestros sistemas de machine learning y procesamiento de lenguaje natural.

  • Diseñar y optimizar pipelines de datos (ETL/ELT) para alimentar modelos de inteligencia artificial.
  • Colaborar con científicos de datos e ingenieros de ML en la preparación, validación y entrega de datasets de entrenamiento.
  • Automatizar procesos de extracción, transformación y carga masiva de datos desde múltiples fuentes.
  • Administrar bases de datos en entornos cloud (Azure) y locales (PostgreSQL).
  • Participar en el diseño de arquitecturas modernas (data lakehouse, medallion) para estructuración eficiente de datos.
  • Orquestar workflows de datos con herramientas como Azure Data Factory o similares (Airflow, Prefect, etc.), que se integren a pipelines CI/CD en Azure DevOps para el ciclo completo de datos.

Requerimientos del cargo

  • Al menos 3 años de experiencia como Data Engineer, con participación en proyectos de IA o machine learning.
  • Dominio avanzado de Python (pandas, NumPy, PySpark) y SQL.
  • Experiencia con herramientas de orquestación de datos como Azure Data Factory o similares (Airflow, Prefect, etc.).
  • Conocimiento de arquitecturas de datos en la nube (idealmente en Azure, pero también valoramos experiencia en AWS o GCP).
  • Experiencia trabajando con grandes volúmenes de datos estructurados y no estructurados.
  • Familiaridad con conceptos de machine learning y pipelines de entrenamiento.

Deseables

  • Experiencia en la construcción y optimización de pipelines para big data.
  • Manejo de pipelines de MLOps.
  • Familiaridad con frameworks complementarios como LangChain para creación de cadenas conversacionales y RAG.

Condiciones

  • Trabajo remoto, con algunas reuniones presenciales a la semana (internas y con clientes).
  • Contamos con oficinas en Concepción y Santiago.
  • No tenemos código de vestimenta.
  • Estamos afiliados a caja de compensación, donde podrás acceder a beneficios.
  • Tenemos convenio para seguro de salud.
  • Celebramos almuerzos mensuales, aniversario y otras actividades.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage DSS S.A. pays or copays health insurance for employees.
Computer provided DSS S.A. provides a computer for your work.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Integrador(a) / Instructor de Automatización N8n
  • Dania Ai
Linux JSON Virtualization Docker

En Dania Ai nos dedicamos a diseñar e implementar soluciones de automatización utilizando la plataforma n8n. Nuestro equipo desarrolla workflows end-to-end que integran múltiples aplicaciones y APIs para optimizar procesos de negocio. Además, ofrecemos formación interna y para clientes a través de workshops impartidos por nuestros especialistas. Buscamos profesionales que compartan nuestra visión de optimizar operaciones mediante tecnología low-code y un enfoque metódico en la documentación y buenas prácticas.

Apply only from getonbrd.com.

Responsabilidades clave

  • Diseñar y construir workflows multi-aplicación utilizando n8n junto con REST/APIs.
  • Integrar y mantener la infraestructura básica requerida, incluyendo Docker, VPS y la instancia self-host de n8n.
  • Optimizar y depurar procesos existentes para mejorar eficiencia y confiabilidad.
  • (Opcional) Impartir workshops internos o a clientes, grabar tutoriales y mentorear a miembros junior del equipo.
  • Documentar cada solución conforme a las guías internas de Dania Ai para garantizar claridad y replicabilidad.

Requisitos indispensables

  • Experiencia mínima de 2 años trabajando con n8n o plataformas similares de automatización.
  • Dominio de JSON, webhooks y métodos de autenticación API como tokens y OAuth.
  • Conocimientos sólidos en Linux y Docker para despliegue y mantenimiento de la infraestructura.
  • Español nativo y nivel técnico de inglés suficiente para lectura de documentación y recursos técnicos.
  • Disponibilidad para dedicar entre 10 y 30 horas semanales, siguiendo el horario laboral de México (UTC-6).

Requisitos deseables

  • Fundamentos en ingeniería de software y ciclo de vida del desarrollo (SDLC).
  • Manejo de metodologías ágiles como Scrum y Kanban, y buenas prácticas en documentación técnica.
  • Conocimientos básicos de DevOps incluyendo CI/CD, Docker Compose, Kubernetes, monitoreo y alertas.
  • Conocimientos en seguridad y privacidad de datos, incluyendo ciberseguridad, cumplimiento de GDPR y controles OWASP.
  • Experiencia en testing automatizado, control de calidad y manejo robusto de errores.
  • Uso de sistemas de control de versiones con Git y flujos GitFlow.
  • Familiaridad con otras plataformas low-code o RPA como Make y Zapier.
  • Competencia en scripting con Python o JavaScript/TypeScript para tareas auxiliares.
  • Conocimientos sobre principios de inteligencia artificial generativa, procesamiento de lenguaje natural (NLP) y modelos conversacionales.

Cómo aplicar


Bandas de tarifa

Banda | Rango (USD / hora)
Intermedio | 25 – 35
Avanzado | 35 – 50

Los siguientes pasos en caso de aplicar incluyen una breve entrevista y un test técnico/docente para validar tu experiencia.

Partially remote You can work from your home some days a week.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Machine Learning Engineer
  • NeuralWorks
  • Santiago (Hybrid)
C Python SQL Virtualization

NeuralWorks es una compañía de alto crecimiento fundada hace 3 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

Apply without intermediaries from Get on Board.

Descripción del trabajo

El equipo de Data y Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.

Trabajarás transformando los procesos a MLOps y creando productos de datos a la medida basados en modelos analíticos, en su gran mayoría de Machine Learning, pero pudiendo usar un espectro de técnicas más amplio.

Dentro del equipo multidisciplinario con Data Scientist, Translators, DevOps, Data Architect, tu rol será extremadamente importante y clave para el desarrollo y ejecución de los productos, pues eres quien conecta la habilitación y operación de los ambientes con el mundo real. Te encargarás de aumentar la velocidad de entrega, mejorar la calidad y la seguridad del código, entender la estructura de los datos y optimizar los procesos para el equipo de desarrollo.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Como MLE, tu trabajo consistirá en:

  • Trabajar directamente con el equipo de Data Scientists para poner en producción modelos de Machine Learning utilizando y creando pipelines de ML.
  • Recolección de grandes volúmenes y variados conjuntos de datos.
  • Recolección de interacción con la realidad para su posterior reentrenamiento.
  • Construir las piezas necesarias para servir nuestros modelos y ponerlos a interactuar con el resto de la compañía en un entorno real y altamente escalable.
  • Trabajar muy cerca de los Data Scientists buscando maneras eficientes de monitorear, operar y darle explicabilidad a los modelos.
  • Promover una cultura técnica impulsando los productos de datos con las prácticas DevSecOps, SRE y MLOps.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia práctica de al menos 3 años en entornos de trabajo como Software Engineer, ML Engineer, entre otros.
  • Experiencia con Python.
  • Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida optimización de consultas.
  • Experiencia usando pipelines de CI/CD y Docker.
  • Pasión en problemáticas de procesamiento de datos.
  • Experiencia con servidores cloud (GCP, AWS o Azure, de preferencia GCP), especialmente el conjunto de servicios de procesamiento de datos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.
  • Habilidades de comunicación y trabajo colaborativo.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” Gaucher, D., Friesen, J., & Kay, A. C. (2011).

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.
  • Stack orientado a modelos econométricos (statsmodels, pyfixest), serialización.
  • Experiencia con algún motor de datos distribuido como pyspark, dask, modin.
  • Interés en temas "bleeding edge" de Inferencia Causal: (Técnicas Observacionales, Inferencia basada en diseño, Probabilidad y Estadística [Fuerte énfasis en OLS y sus distintas expansiones]).

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Vestimenta informal
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2500 - 3000 Tiempo completo
Data Scientist & Machine Learning Engineer
  • Niuro
Python SQL Django DevOps
Niuro is a company dedicated to connecting elite technology teams with leading companies in the U.S. We specialize in providing autonomous, high-performance tech teams focused on delivering innovative solutions globally. Our projects typically involve industrial data initiatives that demand technical excellence and innovation. The role will contribute to advanced machine learning and data science projects that aim to drive business value and technological advancement for top-tier U.S. clients. Our teams benefit from a collaborative environment with continuous professional development and administrative support, enabling a focus on impactful and challenging work.

This job is published by getonbrd.com.

Key Responsibilities

As a Data Scientist & Machine Learning Engineer at Niuro, you will play a crucial role in developing, deploying, and maintaining machine learning models and data-driven solutions. Your responsibilities include:
  • Designing and implementing machine learning pipelines and models using Python with a focus on production readiness.
  • Collaborating with cross-functional teams to understand data requirements and deliver scalable solutions that solve complex problems.
  • Integrating ML models into production environments with the help of MLOps practices and DevOps methodologies.
  • Working with large language models (LLMs) and Retrieval-Augmented Generation (RAG) techniques to enhance conversational AI and data accessibility.
  • Monitoring model performance, retraining and optimizing as needed to maintain high accuracy and robustness.
  • Documenting workflows and solutions clearly for team communication and knowledge sharing.

Required Qualifications and Skills

We are seeking an expert Python developer with proven hands-on experience and certification to lead our machine learning projects. The ideal candidate must also possess strong expertise in ML and Data Science, demonstrating a solid understanding of algorithms, data processing, and statistical modeling.
Additional required skills include familiarity with MLOps and DevOps practices to streamline development and deployment cycles effectively. Experience with large language models (LLMs) and Retrieval-Augmented Generation (RAG) is important to support our conversational AI initiatives.
Effective communication skills in English at a conversational level are necessary to collaborate efficiently within our distributed, international teams.
Technical requirements: Expert-level Python programming skills (certified preferred); solid experience with machine learning frameworks and libraries; familiarity with software development best practices in an ML context.

Preferred Skills & Additional Experience

While not mandatory, the following skills would be valuable:
  • Experience with Python web frameworks such as Django and FastAPI.
  • Working knowledge of SQL databases for data querying and manipulation.
  • Practical experience with Docker containerization to support reproducible environments.
  • Familiarity with version control using Git, and Python data validation tools like Pydantic.
  • Understanding of the Gunicorn application server for deploying Python web applications.

Benefits and Work Environment

At Niuro, you will have the opportunity to work 100% remotely from LATAM, providing full flexibility and work-life balance. We offer competitive compensation aligned with experience and skills.
We invest in continuous training and leadership development to help you grow professionally while working on impactful and technically rigorous data projects.
We foster a culture of collaboration, innovation, and technical excellence, supported by a robust administrative infrastructure so you can focus purely on your technical challenges.
Upon successful completion of the initial contract, there is a strong opportunity for long-term, stable full-time employment with Niuro.

Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2500 - 3000 Tiempo completo
Lead Data Scientist – GenAI & Applied ML
  • Niuro
Python SQL Django DevOps
Niuro is a company dedicated to connecting elite technology teams with leading companies in the U.S. We specialize in providing autonomous, high-performance tech teams focused on delivering innovative solutions globally. Our projects typically involve industrial data initiatives that demand technical excellence and innovation. The role will contribute to advanced machine learning and data science projects that aim to drive business value and technological advancement for top-tier U.S. clients. Our teams benefit from a collaborative environment with continuous professional development and administrative support, enabling a focus on impactful and challenging work.

This job is published by getonbrd.com.

Key Responsibilities

As a Data Scientist & Machine Learning Engineer at Niuro, you will play a crucial role in developing, deploying, and maintaining machine learning models and data-driven solutions. Your responsibilities include:
  • Designing and implementing machine learning pipelines and models using Python with a focus on production readiness.
  • Collaborating with cross-functional teams to understand data requirements and deliver scalable solutions that solve complex problems.
  • Integrating ML models into production environments with the help of MLOps practices and DevOps methodologies.
  • Working with large language models (LLMs) and Retrieval-Augmented Generation (RAG) techniques to enhance conversational AI and data accessibility.
  • Monitoring model performance, retraining and optimizing as needed to maintain high accuracy and robustness.
  • Documenting workflows and solutions clearly for team communication and knowledge sharing.

Required Qualifications and Skills

We are seeking an expert Python developer with proven hands-on experience and certification to lead our machine learning projects. The ideal candidate must also possess strong expertise in ML and Data Science, demonstrating a solid understanding of algorithms, data processing, and statistical modeling.
Additional required skills include familiarity with MLOps and DevOps practices to streamline development and deployment cycles effectively. Experience with large language models (LLMs) and Retrieval-Augmented Generation (RAG) is important to support our conversational AI initiatives.
Effective communication skills in English at a conversational level are necessary to collaborate efficiently within our distributed, international teams.
Technical requirements: Expert-level Python programming skills (certified preferred); solid experience with machine learning frameworks and libraries; familiarity with software development best practices in an ML context.

Preferred Skills & Additional Experience

While not mandatory, the following skills would be valuable:
  • Experience with Python web frameworks such as Django and FastAPI.
  • Working knowledge of SQL databases for data querying and manipulation.
  • Practical experience with Docker containerization to support reproducible environments.
  • Familiarity with version control using Git, and Python data validation tools like Pydantic.
  • Understanding of the Gunicorn application server for deploying Python web applications.

Benefits and Work Environment

At Niuro, you will have the opportunity to work 100% remotely from LATAM, providing full flexibility and work-life balance. We offer competitive compensation aligned with experience and skills.
We invest in continuous training and leadership development to help you grow professionally while working on impactful and technically rigorous data projects.
We foster a culture of collaboration, innovation, and technical excellence, supported by a robust administrative infrastructure so you can focus purely on your technical challenges.
Upon successful completion of the initial contract, there is a strong opportunity for long-term, stable full-time employment with Niuro.

Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3500 - 4200 Tiempo completo
Full-Stack AI & Python Bilingüe
  • Genesys Tecnologías de Inform. SpA
  • Santiago (Hybrid)
Python Django Go DevOps
Somos una empresa con 30 años en el mercado Latinoamericano dedicada al desarrollo de software y servicios TI, con especialización en tecnologías como Cloud, Data Analytics, Inteligencia Artificial y Automatización de Procesos. Contamos con una fábrica de desarrollo de software y prestación de servicios profesionales mediante Outsourcing, con operaciones en Concepción y Santiago. Nuestra matriz está en Concepción y trabajamos continuamente para elevar el estándar tecnológico de las empresas, acompañándolas en su camino hacia la Transformación Digital.

Applications at getonbrd.com.

Responsabilidades:

  • Liderazgo y Arquitectura en GenAI: Diseñar y entregar aplicaciones GenAI sofisticadas orientadas al usuario, aprovechando soluciones avanzadas basadas en modelos de lenguaje (LLM) para abordar necesidades complejas de clientes.
  • Desarrollo e Integración Backend: Crear servicios backend robustos con Python (FastAPI) para integrar LLMs en diversas plataformas.
  • Diseño Avanzado de Workflows: Arquitectura de flujos de trabajo dinámicos, modulares y agentivos, incluyendo técnicas de Generación Aumentada por Recuperación (RAG) con opciones de LLM como OpenAI, Gemini y Claude.
  • Especialización en Ingeniería de Prompts: Aplicar técnicas avanzadas de prompts, incluyendo patrones React y Reflex, para optimizar salidas de LLM y mejorar la interacción con usuarios.
  • Gestión de Datos y Modelos: Integrar y administrar búsquedas vectoriales y almacenes de datos híbridos (Pinecone, Elastic Search, Azure AI Search), así como implementar modelos de embeddings avanzados (text-ada-embedding y similares).
  • Despliegue y Gobernanza de IA: Orquestar despliegues en contenedores utilizando Kubernetes y Terraform; implementar controles semánticos (guardrails) con herramientas como Langsmith y Datadog para asegurar gobernanza y observabilidad.
  • Mentoría y Guía Técnica: Brindar soporte técnico, fomentar buenas prácticas y mentoría a equipos de ingeniería en flujos GenAI, asegurando calidad e innovación constante.

Requisitos Excluyentes:

  • Nivel de inglés conversacional obligatorio.
  • Dominio experto en Python; familiaridad con Go es una ventaja.
  • Experiencia amplia en frameworks web: FastAPI, Flask y Django.
  • Experiencia práctica con plataformas GenAI y LLMs como OpenAI, Gemini y Claude.
  • Conocimiento profundo y aplicación práctica de metodologías GenAI: RAG, Tree-of-Thoughts, Few-Shot Prompting y flujos de trabajo con agentes.
  • Experiencia con almacenes de datos vectoriales: Azure AI Search, AWS OpenSearch, Pinecone y Elastic Search.
  • Conocimiento y experiencia en guardrails y gobernanza IA: Semantic Router, Nemo Guardrails, Azure Semantic Routers, Langsmith.
  • Competencia en desplegar IA en al menos una plataforma cloud principal (Azure, AWS, GCP).
  • Conocimiento en librerías y frameworks: LangChain, LangGraph, NLTK, PyTorch, TensorFlow.
  • Familiaridad con DevOps y CI/CD: Kubernetes, Terraform, CircleCI y Datadog para orquestación y monitoreo.
Buscamos un profesional que combine habilidad técnica avanzada con capacidad de liderazgo e innovación, orientado a la calidad, trabajo en equipo, y la mentoría continua de sus pares.

Deseable:

Conocimientos adicionales en Go para complementar el stack de desarrollo. Experiencia previa en proyectos relacionados con inteligencia artificial aplicada y automatización de procesos. Capacidad de trabajo en entornos multidisciplinarios y manejo de metodologías ágiles de desarrollo. Habilidades de comunicación efectiva para interactuar con distintos equipos y stakeholders.

Beneficios:

Ofrecemos un contrato por proyecto que garantiza estabilidad y condiciones claras dentro de un ambiente laboral dinámico, colaborativo y enfocado en el desarrollo profesional constante.
Formarás parte de una empresa consolidada en Latinoamérica con más de tres décadas de experiencia, que valora el talento y fomenta la innovación.
Contamos con un equipo multidisciplinario y una comunicación diaria con nuestra matriz en Santiago y otras operaciones, lo que facilita la colaboración continua y el apoyo técnico.
Trabajo híbrido con 3 días presenciales en Providencia o Concepción y 2 días remotos.
¡Esperamos que te unas a nuestro equipo para crecer juntos! 😊

Health coverage Genesys Tecnologías de Inform. SpA pays or copays health insurance for employees.
Computer provided Genesys Tecnologías de Inform. SpA provides a computer for your work.
Shopping discounts Genesys Tecnologías de Inform. SpA provides some discounts or deals in certain stores.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Experto en Agentes de IA
  • Moventi
JavaScript Python Agile REST API
Moventi es una empresa líder dedicada a ayudar a organizaciones a liderar la transformación tecnológica con una mentalidad innovadora. Nos enfocamos en proyectos que integran tecnologías emergentes como inteligencia artificial y automatización para generar impactos positivos en el negocio. Nuestra área de trabajo se sustenta en equipos multidisciplinarios que colaboran de manera ágil en una oficina céntrica equipada para facilitar la creatividad y el trabajo en equipo, combinando encuentros presenciales con trabajo remoto. El proyecto para el cual buscamos un experto en agentes de IA se enfoca en el desarrollo e implementación de workflows avanzados para la automatización mediante la plataforma n8n, integrando múltiples APIs y modelos de inteligencia artificial para optimizar procesos empresariales y potenciar resultados de alto valor.

Applications at getonbrd.com.

Responsabilidades principales

  • Diseñar, desarrollar y mantener workflows avanzados utilizando n8n para automatizar procesos complejos dentro de la organización y proyectos de clientes.
  • Integrar diversas APIs y modelos de inteligencia artificial, asegurando una comunicación eficiente y robusta entre sistemas.
  • Implementar agentes de IA capaces de ejecutar tareas automatizadas con un alto nivel de autonomía y precisión.
  • Colaborar con equipos multidisciplinarios para identificar oportunidades de automatización e innovación mediante IA.
  • Analizar y optimizar continuamente los flujos de trabajo para mejorar la eficiencia y escalabilidad de las soluciones implementadas.
  • Documentar las arquitecturas, procesos y soluciones desarrolladas para asegurar la transferencia de conocimiento dentro del equipo.

Requisitos y habilidades

Buscamos un profesional con amplia experiencia en el desarrollo de workflows avanzados usando n8n, con conocimientos sólidos en la integración de APIs RESTful y otros protocolos relevantes.
Es indispensable contar con una comprensión profunda de los modelos de inteligencia artificial actuales y su aplicación práctica en agentes autónomos o asistentes virtuales.

Además, valoramos habilidades analíticas, capacidad para resolver problemas complejos y un enfoque orientado a resultados. Se requiere un nivel alto de autonomía en la gestión de proyectos, excelentes habilidades comunicativas para trabajar en equipos multidisciplinarios.

Un perfil con experiencia en programación, manejo de bases de datos, y familiaridad con herramientas de DevOps será altamente beneficioso.

Habilidades y experiencias deseables

Experiencia previa en proyectos de automatización dentro de sectores como marketing o finanzas una ventaja. Conocimiento en lenguajes de programación como Python o JavaScript para extender funcionalidades complementarias a n8n.

Familiaridad con plataformas de nube (AWS, Azure o Google Cloud) y metodologías ágiles de desarrollo.

Tener experiencia en machine learning y manejo de frameworks para entrenamiento y despliegue de modelos también aportará un valor diferencial.

Beneficios y cultura

  • Oportunidades continuas de crecimiento profesional y aprendizaje en un ambiente multidisciplinario.
  • Participación en proyectos retadores que impulsan la innovación y el desarrollo de habilidades técnicas.

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $4000 - 5500 Tiempo completo
Sr. Full-Stack Data Scientist
  • TECLA
PostgreSQL Django Machine Learning Data Science
TECLA is a fully remote software development company with a diverse and highly skilled team of 100+ experts across Latin America. We specialize in AI, cloud, automation, and DevOps, building innovative solutions for high-growth startups and established mid-market technology companies in the U.S.
Our work culture is agile, collaborative, and fast-paced—we take our work seriously while keeping the environment fun and engaging. As a remote-first company, we emphasize strong teamwork and close collaboration, working seamlessly with our U.S. partners as one integrated unit. Whether optimizing cloud environments, developing AI-driven applications, or enhancing DevOps automation, TECLA is at the forefront of technical innovation, solving complex challenges with cutting-edge technology.

Find this job on getonbrd.com.

Job Details:

We are growing to the next level of maturity, having found early success and market validation. We are seeking a stellar Full-Stack Data Scientist to lead the development of data-driven features and insights that will shape our core product and elevate customer decision-making. The selected candidate will work directly with senior leadership and will own the machine learning and data roadmap, from problem definition to production deployment. If you have world-class data science skills, thrive in ambiguity, move fast, and are excited about building technology that makes a difference, this role is for you.

What You’ll Do:

  • Design and implement the ML, AI and data science solutions that power customer-facing features.
  • Own the full ML lifecycle, from data expiration and modelling to deployment and monitoring.
  • Translate customer problems into scalable, data-driven solutions.
  • Contribute to our overall data and ML infrastructure, including tooling and deployment pipelines.
  • Collaborate cross-functionally to ensure insights are delivered effectively and reliably.
  • Help define our data strategy.

What You Bring:

  • BS or MS in Data Science, Machine Learning, Computer Science, or a related field.
  • 5+ years of proven track record delivering ML/AI-driven products in commercial environments.
  • Expertise in both supervised and unsupervised learning techniques, including model selection, tuning, and evaluation.
  • Strong skills across machine learning, statistical modeling, and data engineering.
  • Experience working with LLMs for summarization, generation, and agentic workflows.
  • Experience shipping models to production, including deployment, monitoring, and versioning.
  • Proven ability to work independently in a fast-paced, ambiguous, early-stage environment.
  • Strong communication and interpersonal skills.

Bonus Points For:
  • Familiarity with MLOps.
  • Comfort working across backend infrastructure (e.g., Django, APIs, PostgreSQL).
  • Prior experience in Fintech.

Benefits:

  • A fully remote position with a structured schedule that supports work-life balance.
  • The opportunity to make a huge impact by contributing to cutting-edge technology and product innovation.
  • Two weeks of paid vacation per year.
  • 10 paid days for local holidays.
*Please note we are only looking for full-time dedicated team members who are eager to fully integrate within our team.

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
MLOps Engineer
  • Niuro
Python Linux DevOps Docker
At Niuro, we are dedicated to connecting projects with elite tech teams, working collaboratively with leading companies in the U.S. Our AI team is expanding, and we are seeking a proactive MLOps Engineer to help us build and maintain robust machine learning pipelines. You will play a critical role in ensuring that our models are production-ready and scalable within dynamic environments, contributing to the successful execution of innovative projects.

© Get on Board.

Responsibilities

  • Pipeline Management & Automation: Build and maintain ML pipelines using Databricks and MLflow. Automate data workflows and ensure reproducibility of experiments.
  • Model Deployment & Monitoring: Deploy models to production and monitor their performance over time. Implement best practices for CI/CD in machine learning using Bitbucket.
  • Infrastructure & Environment Management: Manage and monitor batch jobs on Linux environments. Collaborate with data scientists to ensure smooth transitions from notebooks to production-grade code.
  • Collaboration & Documentation: Work closely with international teams to align on MLOps strategies and solutions. Document workflows and setups to ensure maintainability and transparency.

Requirements

  • Experience: 3+ years working in MLOps, DevOps, or related roles with machine learning pipelines.
  • Technologies: Hands-on experience with Databricks, MLflow, Python, Bitbucket, Batch processing, and Linux.
  • English: Intermediate-advanced written and spoken English (required) to work with international teams.
  • Mindset: Strong problem-solving skills and a passion for automation, performance, and scalability.

Preferred Qualifications

  • Experience working in remote, agile teams with international clients.
  • Familiarity with cloud services (AWS, Azure, or GCP).
  • Knowledge of Docker, Kubernetes, or Terraform is a plus.

What We Offer

  • 🌎 100% Remote – Work from anywhere!
  • 📈 Professional Growth – Join an innovative and collaborative AI-driven environment.

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo