No encontramos ningún resultado.

Prueba con otro grupo de palabras.

Si crees que esto es un error, por favor contáctanos.

Gross salary $1800 - 3000 Tiempo completo
Ingeniero/a de Datos para Asistente Conversacional IA
  • Lisit
Python PostgreSQL SQL MongoDB
Lisit es una empresa dedicada a la creación, desarrollo e implementación de servicios de software que brindan herramientas de automatización y optimización para sus clientes, manteniendo un fuerte enfoque en la innovación y la pasión por resolver desafíos tecnológicos complejos. Buscamos incorporar talento para trabajar en un proyecto puntero que consiste en el desarrollo de un asistente conversacional inteligente basado en inteligencia artificial.
El proyecto se centra en la construcción de un sistema capaz de procesar lenguaje natural (NLP) utilizando datos de diversas fuentes, para lo cual se requiere una infraestructura de datos sólida, escalable y fiable que permita alimentar los modelos inteligentes de lenguaje y mejorar continuamente la interacción conversacional, aportando valor a nuestros clientes mediante soluciones eficientes y tecnológicamente avanzadas.

Applications at getonbrd.com.

Descripción del rol y responsabilidades

Como Ingeniero/a de Datos en este proyecto, serás responsable de diseñar, construir y mantener pipelines ETL/ELT que permitan la ingesta y procesamiento eficiente de datos diversos y no estructurados, como chats, correos electrónicos y logs, transformándolos en formatos precisos y útiles para el entrenamiento y operación de modelos de procesamiento de lenguaje natural (NLP).
Asimismo, integrarás fuentes de datos externas a través de APIs RESTful, gestionarás bases de datos relacionales como PostgreSQL y NoSQL como MongoDB, y optimizarás el almacenamiento de grandes volúmenes de datos en soluciones cloud como S3, BigQuery o Redshift. También garantizarás la calidad, trazabilidad y gobernanza de los datos para mantener la confiabilidad del sistema.
El rol incluye implementar medidas de anonimización y protección para los datos sensibles, asegurando el cumplimiento de normativas vigentes en materia de privacidad y manejo ético de la información, y colaborarás con el equipo multidisciplinario para cumplir con los objetivos tecnológicos y de negocio del proyecto.

Requisitos y habilidades esenciales

Buscamos un profesional con experiencia sólida en Python, utilizando librerías especializadas como Pandas, PySpark o Dask para el procesamiento y transformación de datos a gran escala. Es necesario tener un dominio avanzado en SQL y experiencia práctica con bases de datos relacionales y NoSQL, especialmente PostgreSQL y MongoDB.
Se requiere conocimiento comprobable en herramientas de orquestación de flujos de trabajo de datos, como Apache Airflow, y manejo de almacenamiento en la nube en plataformas como Azure, AWS S3 o Google Cloud Storage (GCS).
Es fundamental contar con experiencia en el procesamiento de datos no estructurados aplicados a modelos de NLP y manejo adecuado de APIs RESTful para la integración de diferentes fuentes y servicios.
Además de las habilidades técnicas, valoramos competencias orientadas a la gestión minuciosa de la calidad y gobernanza de datos, capacidad analítica y pensamiento crítico para mantener estándares rigurosos que garanticen la efectividad del asistente conversacional inteligente.

Conocimientos y experiencia deseables

Se valorará experiencia previa en proyectos relacionados con asistentes virtuales o tecnologías de procesamiento de lenguaje natural (NLP), así como familiaridad con prácticas DataOps para la gestión eficiente de pipelines y control de versiones de datos.
El conocimiento de normativas internacionales de privacidad y protección de datos, como GDPR e HIPAA, junto con técnicas avanzadas de anonimización, será un plus muy importante para desempeñarse con éxito en el cargo.

Beneficios y ambiente laboral

Ofrecemos la oportunidad de participar en proyectos tecnológicos desafiantes y de largo plazo dentro de un equipo técnico colaborativo, en un ambiente laboral amigable y profesional.

El trabajo es 100% remoto, lo cual fomenta la conciliación entre la vida personal y profesional sin perder la comunicación fluida y el compromiso con el equipo.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Senior Data Engineer
  • Playbypoint
Python SQL Machine Learning Kafka
🏓 Senior Data Engineer
📍 Remote | Full-time
Join us in building the future of racquet sports.

🧠 About the Team & Project
At Playbypoint, we're on a mission to transform the racquet sports industry with powerful, intuitive software. From tennis to pickleball, our platform helps clubs thrive by elevating player engagement and simplifying operations. As part of our Data & Insights team, you’ll work alongside backend engineers, product leaders, and business stakeholders to turn raw data into actionable insights that shape our product strategy and operational decisions.
Our team plays a critical role in helping the company scale. We believe that better data leads to better decisions—and we're building the infrastructure to make that possible.

Exclusive to Get on Board.

🔧 What You’ll Do

As a Senior Data Engineer, you'll design, develop, and maintain scalable data pipelines to support our real-time and batch analytics needs. You’ll take ownership of how data flows through our system, ensuring it’s clean, accessible, and reliable for use across engineering, product, and business teams.
You’ll:
  • Build and optimize data pipelines using Kafka, Airflow, and cloud-native tools.
  • Manage data lakes and warehouses using Apache Iceberg, Amazon S3, and ClickHouse or Snowflake.
  • Ensure data integrity and quality across all stages of our pipeline.
  • Collaborate closely with analysts and engineers to support key business metrics and machine learning workflows.
  • Contribute to internal tooling that improves data observability and developer experience.
Your success will be measured by the reliability, scalability, and performance of the data infrastructure you build—as well as your ability to empower others with trusted data.

✅ What We’re Looking For

We’re looking for someone who thrives in a fast-paced startup environment and is passionate about building systems that scale.
Required:
  • 5+ years of experience in Data Engineering
  • Strong experience with streaming technologies like Kafka
  • Proficiency in Python and SQL
  • Solid experience with workflow orchestration tools (e.g., Airflow)
  • Familiarity with OLAP databases such as Snowflake, Clickhouse, or Redshift
  • Experience managing data workflows in a cloud environment (preferably AWS)

Desirable skills

Nice to Have:
  • Experience with ClickHouse
  • Certifications in AWS, Snowflake, or similar platforms
  • Hands-on knowledge of DataOps or ML Ops at scale
  • Experience with LLMs &/or Agents building
  • Familiarity with data versioning and formats like Parquet, Iceberg, or Delta Lake

🌍 Why Playbypoint?

We're not just building tools—we're building a movement to connect people through the joy of sports. You’ll join a collaborative, ambitious team where your work directly impacts thousands of players and clubs across the world. Plus, we’re remote-first and flexible, so you can work from wherever you do your best thinking.
🎯 Ready to serve up your next challenge?
Apply now and help shape the future of racquet sports.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Company retreats Team-building activities outside the premises.
Computer provided Playbypoint provides a computer for your work.
Conference stipend Playbypoint covers tickets and/or some expenses for conferences related to the position.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Junior Data Analyst & Automation
  • Banco Santander Chile
  • Santiago (Hybrid)
Python Data Analysis SQL Power BI

Banco Santander Chile es una organización internacional líder en el sector financiero con presencia en más de 20 países, reconocida por su compromiso con el desarrollo profesional, el aprendizaje continuo y la movilidad interna. La Vicepresidencia de Tecnología y Operaciones del banco es un área estratégica que impulsa la innovación tecnológica, la optimización y mejora de procesos con el objetivo de contribuir al progreso de las personas y empresas. Este departamento está enfocado en liderar iniciativas tecnológicas de vanguardia que fortalecen la posición de Santander como líder en el sector financiero chileno y a nivel internacional, promoviendo un ambiente de trabajo colaborativo, desafío constante y crecimiento profesional.

Apply directly on the original site at Get on Board.

Misión del cargo

Buscamos jóvenes profesionales comprometidos y flexibles para integrarse al equipo de Tecnología y Operaciones, donde contribuirán a la optimización y mejora continua de procesos mediante el uso de tecnologías punteras.

El rol implica colaborar en proyectos estratégicos que impulsen la innovación tecnológica dentro del banco, trabajando estrechamente con diferentes áreas para apoyar la transformación digital y la eficiencia operativa.

Además, se espera que el candidato participe activamente en el aprendizaje permanente y el desarrollo de competencias técnicas y colaborativas, favoreciendo un ambiente dinámico y orientado al trabajo en equipo.

Qué te ayudará a tener éxito en el proceso

  • Para tener éxito en esta posición, buscamos egresados de carreras como Ingeniería Civil Industrial, Ingeniería Civil en Informática o afines, con no más de un año de experiencia profesional, ya que aspiramos a formar jóvenes talentos que aporten con nuevas ideas y ganas de aprender.
  • Debe contar con formación o experiencia en automatización de procesos, analítica avanzada y manejo de datos, con conocimientos intermedios en SQL, Power BI y/o Tableau. Se valoran conocimientos deseables en Python, Spark y Appian, orientados a potenciar habilidades técnicas y tecnológicas en análisis de datos.
  • El candidato debe tener un nivel intermedio de inglés (B1), mostrando capacidad para manejar información en este idioma y comunicarse de forma básica en el contexto laboral.
  • Buscamos personas con interés genuino en las herramientas tecnológicas de análisis de datos, motivadas a contribuir en un entorno desafiante y colaborativo, con habilidades blandas como adaptabilidad, actitud proactiva y capacidad de trabajo en equipo.
  • Se requiere disponibilidad para incorporarse en junio de 2025.

Conocimientos y habilidades deseables

  • Nos interesa especialmente candidatos que hayan desarrollado conocimientos en programación avanzada, analítica de datos con Python y Spark, así como familiaridad con plataformas de automatización como Appian.
  • Valoramos la capacidad para desenvolverse en entornos multidisciplinarios, con habilidades comunicativas y de gestión del tiempo, que contribuyan a un equipo colaborativo y efectivo.
  • Además, la experiencia en proyectos relacionados con la transformación digital y optimización de procesos se considera un plus importante, aunque no es requisito excluyente.

¿Qué te ofrecemos?

  • Formar parte de la principal empresa financiera de Chile y uno de los mejores lugares para trabajar en el país.
  • Aprendizaje mediante la experiencia práctica, con múltiples oportunidades de desarrollo, formación continua y movilidad interna para participar en proyectos estratégicos.
  • Acompañamiento formativo durante el proceso de adaptación y desarrollo del rol, asegurando una integración exitosa y crecimiento profesional.
  • Redes internas de colaboración que potencian el aprendizaje, la creación de vínculos profesionales y la expansión de la mirada laboral.
  • Beneficios orientados a mejorar la calidad de vida y el desarrollo profesional del colaborador.
  • Contrato indefinido que aporta estabilidad laboral y seguridad.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer
  • Niuro
Python MySQL Git Docker
At Niuro, we connect elite tech teams with top-tier U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality. We empower projects by providing autonomous, high-performance tech teams, and we offer continuous professional growth opportunities to ensure everyone involved is set for success in innovative and challenging projects.

© getonbrd.com.

Key Responsibilities

  • Ingest, process, and integrate data from multiple systems and platforms using Big Data tools.
  • Design and implement data pipelines to transfer data from source to destination systems, ensuring alignment with integration standards and existing frameworks.
  • Guarantee high data quality, availability, and compliance across applications and digital products.
  • Collaborate with product teams to identify required datasets and evaluate existing sources (e.g., update frequency, data reliability, known issues).
  • Contribute to the delivery of scalable, strategic data engineering solutions aligned with our data roadmap.

Requirements

🔹 Experience: 3+ years in data engineering or a similar role.
🔹 Tech Stack:
  • Cloud & Big Data: Proficient with AWS services including Lambda, S3, Glue.
  • Data Orchestration: Experience designing and managing workflows using Airflow.
  • Data Modeling & Transformation: Hands-on experience with dbt.
  • Data Warehousing: Solid knowledge of Snowflake.
  • Databases: Experience with MySQL or SQL Server.
  • Programming: Strong Python skills, including scripting, automation, and unit testing.
🔹 Other Skills:
  • Good understanding of data quality and governance practices.
  • Familiarity with various data sources and types in data mining and analytics.
  • Intermediate to advanced English for international team collaboration.

Nice to Have

🔸 Experience deploying dbt in production environments.
🔸 Knowledge of Data Lake and Lakehouse architectures.
🔸 Familiarity with CI/CD tools and Git-based version control (GitHub, GitLab, or Azure DevOps).
🔸 Experience with Docker for containerized data workflows.

What We Offer

  • 🌍 100% Remote – Work from anywhere in the world.
  • 🚀 Growth Opportunities – Be part of shaping a robust and modern data ecosystem.

Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2400 - 2600 Tiempo completo
Data Engineer AWS
  • BC Tecnología
  • Santiago (Hybrid)
Python Data Analysis SQL Web server
En BC Tecnología, nos especializamos en la consultoría de TI, ofreciendo un amplio rango de servicios para adaptarnos a las necesidades específicas de nuestros clientes, principalmente en finanzas, seguros, retail y gobierno. Nuestro equipo trabaja mediante metodologías ágiles, lo que nos permite diseñar e implementar soluciones tecnológicas efectivas y dirigidas al cliente. Actualmente, estamos buscando un Data Engineer con experiencia en AWS para sumarse a nuestro equipo y contribuir a proyectos innovadores en la gestión y explotación de datos.

Send CV through Get on Board.

Responsabilidades del Cargo

  • Desarrollar y gestionar procesos de ETL, asegurando la calidad y fiabilidad de los datos.
  • Optimizar la explotación de datos a través de técnicas de Tuning.
  • Implementar soluciones utilizando herramientas de AWS, incluyendo Glue, Lambda, S3, Redshift y DynamoDB.
  • Colaborar con los equipos de desarrollo de software para asegurar la integración de datos eficiente.
  • Realizar análisis y visualización de datos para apoyar en la toma de decisiones.
  • Mantener un enfoque en la innovación y la mejora continua de los procesos y herramientas utilizadas.

Descripción del Cargo

Buscamos un Data Engineer AWS con un mínimo de 3 años de experiencia en el manejo de datos. El candidato ideal tendrá conocimientos sólidos en:
  • Explotación de datos y Tuning.
  • Diseño e implementación de procesos ETL.
  • Desarrollo de consultas efectivas en SQL.
  • Programación en Python.
  • Uso de herramientas de orquestación como Apache Airflow (deseable).
Valoramos habilidades como el trabajo en equipo, la proactividad y la capacidad para adaptarse a nuevas tecnologías. La combinación de habilidades técnicas y soft skills es esencial para unirse a nuestro equipo dinámico.

Habilidades Deseables

Además de los requisitos mencionados, sería beneficioso contar con experiencia en:
  • Integraciones y gestión de datos en múltiples fuentes.
  • Implementación de soluciones en la nube de AWS.
  • Conocimientos en herramientas de visualización de datos.
Estas habilidades ayudarán al candidato a integrarse de manera efectiva en nuestros equipos de trabajo y contribuir a proyectos futuros.

Beneficios de Trabajar con Nosotros

En BC Tecnología, valoramos a nuestro equipo y ofrecemos un entorno flexible y beneficios atractivos:
  • Contrato indefinido.
  • Modalidad híbrida, combinando trabajo remoto y en oficina.
  • Paquete de beneficios corporativos que incluye salud prepaga de primer nivel para el empleado y su familia.
  • Un día de home office a la semana, junto con desayunos y un comedor en la planta.
  • Acceso a un Sport Club y asistencia de un nutricionista.
¡Únete a nosotros y marca una diferencia en el mundo de la tecnología! 🎉

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2200 - 2600 Tiempo completo
Data Analytics Residente Uruguay
  • BC Tecnología
Python Analytics Data Analysis SQL
En BC Tecnología, somos una consultora de TI especializada en diversas áreas tecnológicas, con más de seis años de experiencia diseñando soluciones adecuadas a las necesidades de nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestro enfoque incluye consultoría y diseño de soluciones, formación de equipos, desarrollo de proyectos y servicios de soporte y administración IT.

Originally published on getonbrd.com.

Responsabilidades principales:

  • Extraer y procesar datos desde diversas fuentes mediante SQL y Python (PySpark).
  • Diseñar y optimizar modelos de datos en Power BI para reportes avanzados.
  • Implementar y mejorar flujos ETL para la integración de datos.
  • Colaborar con áreas de negocio para entender necesidades analíticas y generar soluciones BI.
  • Asegurar la calidad y disponibilidad de los datos en los reportes.

Requisitos:

  • SQL Avanzado: Creación, optimización y modelado de datos.
  • Python (PySpark): Procesamiento y transformación de datos en entornos Big Data.
  • Power BI: Nivel medio-alto en creación de reportes y dashboards interactivos.
  • Databricks: Deseable, con experiencia en plataformas de datos en la nube.
  • Experiencia mínima de 3 años en roles de BI, Data Analytics o similares.
  • Habilidades de comunicación y trabajo en equipo para traducir necesidades de negocio en soluciones BI.

Deseable:

  • Experiencia con Databricks sería un plus, mostrando la capacidad de trabajar con plataformas de datos en la nube.

Condiciones

  • Trabajo 100% remoto.
  • El cargo puede ser desempeñado desde cualquier lugar del mundo.
En BC Tecnología, fomentamos un entorno laboral flexible que impulsa el crecimiento profesional. Si te consideras una mente analítica que quiere marcar la diferencia, ¡te invitamos a ser parte de nuestro equipo y a impulsar la transformación organizacional! 🚀✨

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer Azure
  • Factor IT
  • Santiago (Hybrid)
Python Agile SQL NoSQL
En FactorIT, buscamos un Ingeniero de Datos con experiencia en banca y entidades financieras para liderar y ejecutar proyectos de Data & Analytics. Te unirás a un equipo innovador en el que tu trabajo impactará directamente en la transformación digital de importantes instituciones en el sector financiero.
Este rol es clave para potenciar el uso de datos dentro de la banca, asegurando que la infraestructura y los procesos estén alineados con los objetivos estratégicos del negocio. Tendrás la oportunidad de trabajar con tecnologías de vanguardia, incluyendo Azure Databricks y otros servicios en la nube, asegurando soluciones escalables y seguras que optimicen la toma de decisiones.

This company only accepts applications on Get on Board.

Responsabilidades:

  • Diseñar y desarrollar soluciones de ingestión, transformación y modelado de datos en Azure Databricks y otras tecnologías relacionadas.
  • Optimizar procesos de ETL/ELT, asegurando calidad, integridad y eficiencia en el procesamiento de datos.
  • Colaborar con equipos de negocio para entender sus necesidades, identificar oportunidades y proponer soluciones basadas en datos.
  • Implementar arquitecturas de datos escalables que soporten analítica avanzada, machine learning e inteligencia de negocio.
  • Garantizar la seguridad y el cumplimiento normativo en el manejo de datos, siguiendo estándares bancarios y regulatorios.
  • Desarrollar y optimizar pipelines de datos para la explotación en entornos analíticos y de reportes.
  • Documentar procesos, arquitecturas y modelos de datos, asegurando buenas prácticas de gobernanza.
  • Trabajar en conjunto con equipos de Data Science, BI y Tecnología para garantizar la disponibilidad y calidad de los datos.

Requisitos Técnicos y Habilidades:

Buscamos un profesional con un mínimo de 3 años de experiencia en ingeniería de datos, idealmente en el sector financiero. Debe poseer un conocimiento avanzado en:
  • Azure Databricks, Spark y servicios de datos en la nube como Azure Data Factory, Azure Synapse y Data Lake.
  • Modelado de datos, optimización de consultas y bases de datos en SQL y NoSQL.
  • Programación en Python y/o Scala para el desarrollo de pipelines y procesamiento de datos.
  • Arquitecturas de datos escalables y distribuidas.
  • Principios de seguridad y cumplimiento normativo en banca (ej. GDPR, PCI-DSS, BCBS 239).
  • Herramientas de orquestación y automatización de flujos de datos.
Además, necesitaremos que cuentes con habilidades blandas como excelente comunicación, pensamiento analítico, proactividad y capacidad de trabajo en equipo en entornos ágiles y dinámicos.

Habilidades Deseables:

Sería un plus contar con experiencia previa en proyectos de transformación digital en el sector bancario, así como familiaridad con herramientas de visualización de datos y reportes. La capacidad para adaptarse rápidamente a nuevas tecnologías y seguir aprendiendo continuamente es muy valorada dentro de nuestra cultura.

Beneficios:

En FactorIT, brindamos un entorno de trabajo dinámico y colaborativo donde puedes trabajar con tecnologías de punta. Ofrecemos un plan de crecimiento profesional, capacitaciones en IA y automatización, y un salario competitivo acorde a tu experiencia.
Promovemos el equilibrio entre la vida personal y laboral mediante trabajo 100% remoto 🌍 y flexibilidad laboral. Únete a nosotros y sé parte de un equipo que está transformando el futuro de la tecnología en la región.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Computer provided Factor IT provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2500 Tiempo completo
Analista de BI Latam
  • BC Tecnología
Python Analytics Data Analysis SQL

En BC Tecnología, somos una consultora de TI especializada en diversas áreas tecnológicas, ofreciendo un entorno de trabajo colaborativo donde se valora el compromiso y el desarrollo profesional. Trabajamos con clientes en los sectores de servicios financieros, seguros, retail y gobierno, diseñando soluciones adecuadas a sus necesidades desde hace más de seis años. Nuestro enfoque incluye consultoría y diseño de soluciones, formación de equipos, desarrollo de proyectos, y servicios de soporte y administración IT.

© getonbrd.com.

Responsabilidades principales:

  • Extraer y procesar datos desde diversas fuentes mediante SQL y Python (PySpark).
  • Diseñar y optimizar modelos de datos en Power BI para reportes avanzados.
  • Implementar y mejorar flujos ETL para la integración de datos.
  • Colaborar con áreas de negocio para entender necesidades analíticas y generar soluciones BI.
  • Asegurar la calidad y disponibilidad de los datos en los reportes.

Requisitos:

  • SQL Avanzado – Creación, optimización y modelado de datos.
  • Python (PySpark) – Procesamiento y transformación de datos en entornos Big Data.
  • Power BI (Nivel medio-alto) – Creación de reportes y dashboards interactivos.
  • Databricks (Deseable) – Experiencia en plataformas de datos en la nube.
  • Experiencia mínima de 3 años en roles de BI, Data Analytics o similares.
  • Habilidades de comunicación y trabajo en equipo para traducir necesidades de negocio en soluciones BI.

Deseable:

Experiencia con Databricks sería un plus, mostrando la capacidad de trabajar con plataformas de datos en la nube.

Conditions

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Power BI Analyst Sr
  • Improving South America
Data Analysis SQL Big Data BigQuery
Leniolabs_ es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA.
Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.
Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.

Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Opportunity published on Get on Board.

Funciones del cargo

En Leniolabs estamos en la búsqueda de un SR Power BI Analyst.

El candidato ideal debe contar con un mínimo de 6 años de experiencia, el equipo está buscando recursos para ayudar a satisfacer las necesidades de sus clientes internos de EE. UU. Los miembros de nuestro equipo recibirán tickets de solución de ServiceNow y ejecutarán informes/consultas centrados en los datos de uso del cliente, la validación de datos, etc.

El objetivo es crear un equipo de mejora. Este grupo quiere familiarizarse y sentirse cómodo con la mejora.

El rol implica colaborar estrechamente con arquitectos, ingenieros y propietarios de producto para diseñar soluciones técnicas que soporten altos niveles de disponibilidad y consistencia.

Buscamos perfiles con un compromiso claro con la excelencia técnica, la innovación y un interés genuino en las últimas tecnologías, capaces de trabajar en un entorno ágil y de alto rendimiento.

Requerimientos del cargo

  • Contar con mínimo 6 años de experiencia trabajando con Power BI y SQL.
  • Manejo de Google Cloud Platform (GCP) y BigQuery.
  • Experiencia en ETL (idealmente con Talend) y capacidad para trabajar con grandes volúmenes de datos (terabytes).
  • Sólidas habilidades de redacción y comunicación, además de iniciativa.
  • Nivel de inglés intermedio-avanzado (B2/C1).

Beneficios

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Internal talks Improving South America offers space for internal talks or presentations during working hours.
Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Improving South America gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2300 Tiempo completo
Data Engineer – Proyecto de 6 Meses
  • BC Tecnología
  • Santiago (Hybrid)
Python Git SQL Scala
En BC Tecnología, somos una consultora de TI comprometida con ofrecer soluciones innovadoras y adaptadas a las necesidades de nuestros clientes. Con más de 6 años de experiencia en el sector, trabajamos con empresas en diferentes industrias, incluyendo servicios financieros, seguros, retail y gobierno. En este proyecto de Data Engineering, tendrás la oportunidad de contribuir al diseño y construcción de pipelines de datos para nuestros clientes, utilizando metodologías ágiles y colaborando con equipos altamente especializados.

Official job site: Get on Board.

Responsabilidades del Rol

  • Diseñar y construir pipelines de datos efectivos para cumplimentar las necesidades analíticas de nuestros clientes.
  • Programar usando lenguajes como Python, Scala o SQL para manipulación y transformación de datos.
  • Implementar y gestionar herramientas de orquestación de pipelines, como Airflow, Mage, NiFi o similares.
  • Colaborar en prácticas de CI/CD, incluidos conocimientos básicos en Git y versionado de código.
  • Integrar arquitecturas de datos, con un enfoque en Datalakes, Datawarehouses o Lakehouse.
  • Participar en modelado de datos utilizando técnicas dimensional, estrella y copo de nieve, si es requerido.

Requisitos y Habilidades

Buscamos candidatos que cuenten con al menos 2 años de experiencia en el área de Data Engineering. Deberán tener competencias en diseño y construcción de pipelines de datos, así como experiencia con lenguajes de programación pertinentes como Python, Scala o SQL.
Es esencial dominar herramientas de orquestación de datos, y tener un conocimiento básico sobre integraciones de CI/CD y flujos de trabajo de versionamiento de código. Adicionalmente, es deseable contar con experiencia en arquitecturas de datos y modelado, incluidos Datalakes y técnicas de modelado específicas.
La modalidad de trabajo es híbrida, lo que permitirá equilibrar la colaboración en persona con flexibilidad laboral.

Habilidades Deseables

Si bien no es un requisito, consideraremos positivamente la experiencia previa con Datalakes y Datawarehouses, así como familiaridad con técnicas de modelado como dimensional, estrella o copo de nieve. Esto contribuirá a un mejor entendimiento del contexto de las soluciones que desarrollaremos.

Beneficios y Condiciones

Ofrecemos un contrato por proyecto de 6 meses, con posibilidad de extensión. Los empleados disfrutarán de un sueldo a convenir, además de beneficios adicionales como:
  • Seguro complementario.
  • Amipass de $4,500 por día laborado.
  • Convenciones, actividades y bonos.
Estamos ubicados en Alto Las Condes, permitiendo un ambiente de trabajo funcional y moderno. ¡Nos encantaría contar contigo en nuestro equipo! 🌟

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2300 Tiempo completo
Data Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Python Git SQL Scala
En BC Tecnología, somos una consultora de TI que cuenta con un equipo experto en diversas áreas tecnológicas. Nuestra misión es brindar soluciones personalizadas que se adapten a las necesidades de nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Actualmente, buscamos incorporar un Data Engineer para diseñar, construir y mantener pipelines de datos, utilizando tecnologías modernas.
Contamos con un enfoque ágil y orientado al cliente, lo que nos permite ofrecer servicios de consultoría, desarrollo de proyectos y administración IT de alta calidad.

Send CV through getonbrd.com.

✅ Funciones

  • Diseñar y construir pipelines de datos eficientes para mover y transformar datos.
  • Garantizar que los procesos de datos sean consistentes y confiables en el tiempo.
  • Implementar flujos de trabajo de CI/CD para la integración con ambientes de desarrollo y productivos.
  • Colaborar con el equipo para mejorar la calidad y eficiencia de los procesos de datos.
  • Apoyarse en líderes técnicos para lineamientos y mejores prácticas en el desarrollo.

✅ Requerimiento:

Se requiere entre 1 a 2 años de experiencia en diseño y construcción de pipelines de datos. Consideraciones específicas incluyen:
  • Lenguajes de programación: Python, Scala o SQL.
  • Herramientas de orquestación de pipelines: Airflow, Mage, NiFi o similares.
  • CI/CD: Conocimientos básicos en Git y flujos de trabajo de versionamiento de código.

Deseables:

  • Arquitectura de datos: Familiaridad con Datalakes, Datawarehouses o Lakehouse.
  • Modelado de datos: Conocimiento en técnicas como dimensional, estrella, copo de nieve.

✅ Condiciones:

El contrato es por proyecto, estimado en 3 meses, con metodología de trabajo híbrido en Alto las Condes (2 a 3 veces por semana). Los postulantes deben tener disponibilidad de lunes a viernes. Sueldo a convenir y disfrutará de beneficios como seguro complementario, Amipass de $4,500 por día laborado, convenios, actividades y bonos. 🌟

POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 1700 Tiempo completo
Analista de Datos
  • BC Tecnología
  • Buenos Aires (Hybrid)
Python Data Analysis SQL Business Intelligence
En BC Tecnología, somos una consultora especializada en servicios IT, trabajando con clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestro equipo de BI & Analytics juega un papel crucial en la optimización de procesos y toma de decisiones informadas mediante la administración y análisis de datos. Buscamos un Analista de Datos que se una a nuestro equipo, aportando experiencia y conocimiento en herramientas clave.

This posting is original from the Get on Board platform.

Responsabilidades

Como Analista de Datos, serás el representante del equipo de BI & Analytics en Argentina. Tus responsabilidades incluirán:
  • Desarrollar y optimizar consultas SQL para la extracción y transformación de datos.
  • Implementar y gestionar pipelines de datos en Databricks.
  • Aplicar Python para el procesamiento y análisis avanzado de datos.
  • Servir como enlace entre el equipo de BI & Analytics y las áreas de negocio en el país, asegurando que las iniciativas de BI estén alineadas con las necesidades estratégicas de la empresa.
  • Asegurar la calidad y disponibilidad de los datos para la toma de decisiones.
  • Colaborar con equipos multidisciplinarios para definir y mejorar modelos analíticos.

Requisitos

  • Experiencia sólida en desarrollo BI con SQL avanzado.
  • Conocimiento y experiencia en Databricks (deseable).
  • Habilidad en Python para manipulación y análisis de datos.
  • Experiencia en entornos de análisis y procesamiento de datos en la nube (Azure, AWS, GCP es un plus).

Habilidades Deseables

Buscamos a alguien que no solo cumpla con los requisitos técnicos, sino que también posea habilidades interpersonales para colaborar efectivamente con equipos diversos y facilitar la comunicación entre departamentos. La adaptabilidad y una mentalidad centrada en soluciones son altamente valoradas en nuestra cultura de trabajo.

Beneficios

En BC Tecnología, te ofrecemos un entorno laboral dinámico y colaborativo, con un modelo de trabajo híbrido que idealiza la integración entre lo presencial y lo remoto. Además, tendrás acceso a oportunidades de capacitación continua, un ambiente que fomenta la innovación y centenares de oportunidades para crecer profesionalmente al lado de expertos. Valoramos a nuestros colaboradores y buscamos su desarrollo constante.

Health coverage BC Tecnología pays or copays health insurance for employees.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Microsoft Power BI Developer
  • Improving South America
SQL SAP Big Data Azure

Leniolabs_ es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA.

Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.

Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.

Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Job opportunity published on getonbrd.com.

Funciones del cargo

En Leniolabs estamos en la búsqueda de un SSR/SR Microsoft Power BI Developer.

El candidato ideal debe contar con un mínimo de 5 años de experiencia. Además de conocimientos y experiencia en informes analíticos, es fundamental que tenga experiencia en SQL, ya que en el proyecto deberá trabajar en reportes, realizar extracción y manejo de datos en SQL.

El rol implica colaborar estrechamente con arquitectos, ingenieros y propietarios de producto para diseñar soluciones técnicas que soporten altos niveles de disponibilidad y consistencia.

Buscamos perfiles con un compromiso claro con la excelencia técnica, la innovación y un interés genuino en las últimas tecnologías, capaces de trabajar en un entorno ágil y de alto rendimiento.

Requerimientos del cargo

  • Contar con aproximadamente 5 años de experiencia como Data Engineer.
  • Manejo de Power BI y SQL (Excluyente).
  • Experiencia con Synapse y Azure Data Factory.
  • Es deseable la experiencia con Data Lake y SAP SCM
  • Habilidad para crear documentación técnica.
  • Inglés avanzado.

Beneficios

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo,

Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Improving South America gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2500 - 2800 Tiempo completo
Data Scientist
  • Niuro
Python SQL Azure Artificial Intelligence
At Niuro, we are dedicated to connecting cutting-edge projects with elite tech teams, collaborating closely with leading U.S. companies. Our mission revolves around simplifying global talent acquisition through innovative solutions that enhance efficiency and quality. As part of our team, you will engage in dynamic and challenging projects that are pivotal to our clients' success.
By providing autonomous, high-performance tech teams, we empower our professionals through continuous training in both technical and soft skills, along with leadership development. Our structure supports collaborative growth and excellence.

© Get on Board.

Responsibilities:

  • Design, develop, and evaluate machine learning and statistical models aimed at enhancing various business processes.
  • Analyze large datasets to derive insights and formulate data-driven strategies.
  • Deploy models into production utilizing tools such as TensorFlow, PyTorch, or Scikit-learn.
  • Create dashboards and reports via visualization tools like Tableau, Power BI, or Looker.
  • Collaborate with engineering teams to optimize data pipelines and model infrastructures.
  • Deliver findings and recommendations to non-technical stakeholders in a clear and concise manner.

Requirements:

  • 3-5 years of experience in data science, machine learning, and statistical analysis.
  • Proficiency in Python with solid knowledge of data science libraries including Pandas, Polars, Scikit-learn, TensorFlow, and PyTorch.
  • Experience with SQL and both relational and non-relational databases.
  • Knowledge of feature engineering, model selection, and cross-validation techniques.
  • Experience with Generative AI frameworks and libraries, such as Hugging Face Transformers and LangChain, alongside API usage and prompt engineering skills.
  • Able to visualize data with tools like Matplotlib, Seaborn, and Plotly.
  • Strong communication skills with a knack for data storytelling.
  • Intermediate to advanced English proficiency (written and spoken).

Nice-to-Haves:

  • Experience with cloud computing platforms such as AWS, GCP, or Azure.
  • Familiarity with real-time data processing using tools like Apache Kafka or Spark Streaming.
  • Working knowledge of deep learning frameworks.
  • Understanding of MLOps techniques for deploying models effectively.
  • Curiosity and enthusiasm for exploring the latest trends in Generative AI within the field of data analysis.

Salary & Benefits:

We offer a competitive salary ranging from $2,500 to $2,800 USD per month, depending on your experience. Our organization embraces a fully remote work environment, paired with flexible working hours to enhance your work-life balance.
At Niuro, you will find ample opportunities for professional development, along with access to training in advanced data analysis tools. Join us, and be part of a team that values continuous learning and growth!

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero/a de Estudios Actuariales Senior
  • BNP Paribas Cardif
  • Santiago (Hybrid)
C Python Data Analysis Excel
¿Quieres ser parte de los líderes en la revolución de los seguros?
BNP Paribas Cardif está presente en más de 30 países en América, Europa y Asia, contamos con 25 años de trayectoria en Chile y nuestra misión es hacer los seguros más accesibles, justos y valiosos.
✅ Por nuestro ambiente laboral único, somos una organización centrada en el bienestar de las personas y nuestro espíritu Cardif está presente en la oficina y fuera de ella.
✅ Porque el deporte y sus valores son parte de nuestra cultura: la colaboración, la empatía y el respeto guían nuestro trabajo.
✅ Por la cercanía con nuestros líderes, somos una organización que cree en el talento y damos las oportunidades para desarrollarte y aprender juntos.
✅ Por nuestro modelo de trabajo mixto, teletrabajando tres días a la semana.
✅ Estamos comprometidos con el medio ambiente.
✅ Estamos comprometidos con la diversidad, equidad e inclusión, siendo ésta parte de nuestra cultura y estrategia de la compañía.

This offer is exclusive to getonbrd.com.

Funciones del cargo

Hoy buscamos a un Ingeniero(a) de Estudios Actuariales que se sume al equipo de Modelos de Riesgos y Estudios, de la Gerencia Técnica - Financiera, donde tú misión será proveer a las distintas áreas de la gerencia técnica y de la compañía con parámetros técnicos, a través de estudios y herramientas, con el fin que se puedan tomar las decisiones correctas a la hora de evaluar rentabilidad de los productos.
Además de:
• Analizar grandes volúmenes de datos en SAS, Excel y Python, para estudiar el comportamiento de las coberturas de seguros a través de parámetros técnicos, con el fin de entregárselos a pricing y distintas áreas de la compañía para la toma de decisiones.
• Proveer de herramientas al área técnica de la compañía, con el fin de facilitar la toma de decisiones, a través de actualizaciones de Dashboard o creación de nuevas herramientas.
• Seguimiento, estudio y control, de los diferentes riesgos que enfrenta la compañía.
• Gestionar y analizar los datos de la compañía con el fin de abordar distintas problemáticas actuariales que permitan apoyar el proceso de transformación.
• Participar activamente en proyectos transversales tanto a la gerencia técnica como a nivel compañía, aportando desde el punto de vista técnico y financiero.
• Buscar la mejora continua de los procesos y procedimientos del área, buscando la agilidad y perfeccionamiento de las metodologías de cálculo, ya sea proponiendo nuevas herramientas o modelos o mejorando los utilizados actualmente.

Requisitos Mínimos

a. Formación

- Ingeniería Civil Industrial, Ingeniería en Estadística o afín.
b. Experiencia Requerida

- Deseable: Experiencia previa en áreas de analisis de datos, ya sea en manejo de grandes volumenes de datos, reporterías, monitoreos de KPI’s, modelación estadística o similares.
Tiempo: 0 – 2 años
c. Conocimientos y Habilidades

- Conocimiento avanzado de Excel, SAS y Python.
- Conocimiento Básico – Intermedio de Power BI.
- Nivel de inglés intermedio – avanzado.
- Conocimiento del ámbito asegurador
- Alta capacidad de síntesis y análisis
- Autonomía y autogestión
- Proactividad
- Capacidad de trabajo en equipo.
- Habilidades comunicacionales orales y escritas.
- Capacidad de generar ideas y mejoras continuas
- Orientación a resultados.
- Efectividad en presentaciones.
- Capacidad de planificación y seguimiento.

Beneficios

  • Trabajamos eficientemente: 40 horas semanales en horarios flexibles y los viernes salimos a las 14:00.
  • ¡Tenemos más vacaciones y días libres! Una semana adicional de vacaciones + 1 día libre considerando tu cumpleaños y quehaceres personales.
  • Apoyamos tu formación profesional: Acceso ilimitado a nuestra plataforma Coursera y dos días libres al año por estudios.
  • Cardif te cuida: Contarás con telemedicina gratis, seguro de vida, de salud y dental.
  • Queremos que seas tú mismo: Contamos con política de vestimenta flexible.
Y muchos otros beneficios que podrás conocer al avanzar en nuestro proceso de selección

¿Te sumas a la revolución de la industria del seguro?

Esperamos tu postulación ¡seguro y con todo!

“Todas las contrataciones están sujetas a la ley 21015. En BNP Paribas Cardif creemos en lugares de trabajos inclusivos y diversos, donde todas las personas son bienvenidas. En caso de necesitar adaptaciones para ser parte de nuestro proceso de selección, favor comunicarlo en la sección de preguntas.”

POSTULAR VÍA WEB Ver trabajo
Gross salary $3100 - 4500 Tiempo completo
Data Engineer
  • Haystack News
  • Lima (Hybrid)
Python Analytics Data Analysis SQL

Haystack News is the leading local & world news service on Connected TVs reaching millions of users! This is a unique opportunity to work at Haystack News, one of the fastest-growing TV startups in the world. We are already preloaded on 37% of all TVs shipped in the US!

Be part of a Silicon Valley startup and work directly with the founding team. Jumpstart your career by working with Stanford & Carnegie Mellon alumni and faculty who have already been part of other successful startups in Silicon Valley.

You should join us if you're hungry to learn how Silicon Valley startups thrive, you like to ship quickly and often, love to solve challenging problems, and like working in small teams.

See Haystack's feature at this year's Google IO:

Applications at getonbrd.com.

Job functions

  • Analyze large data sets to get insights using statistical analysis tools and techniques
  • Collaborate with the Marketing, Editorial and Engineering teams on dataset building, querying and dashboard implementations
  • Support the data tooling improvement efforts and help increase the company data literacy
  • Work with the ML team on feature engineering and A/B testing for model building and improvement
  • Design, test and build highly scalable data management and monitoring systems
  • Build high-performance algorithms, prototypes and predictive models

Qualifications and requirements

  • Strong written and spoken English is a must!
  • Bachelor's degree in Computer Science, Statistics, Math, Economics or related field
  • 2+ years experience doing analytics in a professional setting
  • Advanced SQL skills, including performance troubleshooting
  • Experience with data warehouses (e.g. Snowflake, BigQuery, Redshift)
  • Proficient in Python including familiarity with Jupyter notebooks
  • Strong Math/Stats background with statistical analysis experience on big data sets
  • Strong communication skills, be able to communicate complex concepts effectively.

Conditions

  • Unlimited vacations :)
  • Travel to team's offsite events
  • 100% paid Uber rides to go to the office
  • Learn about multiple technologies

Accessible An infrastructure adequate for people with special mobility needs.
Relocation offered If you are moving in from another country, Haystack News helps you with your relocation.
Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Meals provided Haystack News provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Company retreats Team-building activities outside the premises.
Computer repairs Haystack News covers some computer repair expenses.
Commuting stipend Haystack News offers a stipend to cover some commuting costs.
Computer provided Haystack News provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2200 - 2700 Tiempo completo
Senior Business Development Consultant
  • MAS Analytics
  • Santiago (Hybrid)
Python SQL Business Intelligence Virtualization
En MAS Analytics nos dedicamos a desarrollar proyectos de Data Science, Gen AI, Cloud Architecture y Business Intelligence. Somos una consultora joven, tecnológica y emprendedora con gran crecimiento. Hoy en día tenemos muchos proyectos con grandes clientes de muchos rubros distintos y necesitamos ingenieras/os apasionados que estén buscando aprender y desafiarse trabajando en equipo.
Si estás buscando profundizar y trabajar aplicando tus conocimientos día a día, dentro de un equipo joven, de mucho talento, y alto rendimiento, este puesto es lo que estás buscando. El área de Business Development de MAS Analytics cumple un rol clave para el desarrollo y crecimiento de la empresa, y así lograr la misión de ser la empresa líder de consultoría en Transformación Digital.

Apply directly at getonbrd.com.

Funciones del cargo

Sobre el Rol

Buscamos un Ingeniero que se quiera integrar al equipo comercial de consultores de Business Development tomando un rol activo en la estrategia y el diseño de las soluciones para los clientes.

Responsabilidades del Cargo
- Entender los problemas del cliente de diversas industrias y diseñar soluciones: desarrollo de propuestas funcionales y técnicas, diseño de soluciones de Analytics en ecosistemas Cloud (Azure, GCP, AWS), desarrollo de pruebas de concepto, búsqueda y levantamiento de oportunidades en clientes actuales, relación frecuente y buena comunicación con la alta dirección y los ejecutivos de diferentes empresas.
- Desarrollo de competencias cloud
- Investigación: tecnologías emergentes, nuevas funcionalidades, productos y servicios cloud
- Rol Comercial / Estratégico: Retención de clientes, diseño de planes de venta, account manager (responsabilidad de ciertas cuentas existentes), promover y mantener el nivel de calidad y confiabilidad de la empresa

Requerimientos del cargo

- Ingeniero civil industrial con 1 - 3 años de experiencia, idealmente en consultoría.

Herramientas y metodologías:
Conocimientos deseables:
- Conocimiento básico de herramientas Cloud (Azure, AWS, GCP)
- Conocimiento de herramientas de BI (PowerBI, Tableau, Data Studio)
- Experiencia con metodologías ágiles de desarrollo
- Conocimiento de lenguajes de base de datos (SQL)
- Conocimiento básico de lenguajes de programación (Python)

Competencias

- Interés Activo en Tecnologías emergentes
- Mucha proactividad, automotivación y autodisciplina
- Capacidad de aprendizaje veloz y entendimiento de ls distintas industrias
- Habilidades comunicacionales (presentación y venta)
- Ganas de trabajar en un área de comercial y venta

Condiciones

- Trabajo flexible
- Ambiente laboral joven
- Sistema de beneficios por puntaje (días libre, bonos, aguinaldos)
- Ayudas monetarias y de estudio para capacitaciones y certificados
- Viernes se trabaja medio día
- MUCHO aprendizaje y desarrollo profesional

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage MAS Analytics pays or copays health insurance for employees.
Computer provided MAS Analytics provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal MAS Analytics gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Analista de Planificación Financiera
  • Assetplan
  • Santiago (Hybrid)
Python Data Analysis SQL Power BI

Assetplan es una empresa líder en el sector de renta residencial en Chile, con presencia también en Perú. Con más de 35.000 propiedades bajo gestión y operando más de 80 edificios multifamily, Assetplan se destaca por su innovación tecnológica y enfoque centrado en las personas dentro del mercado inmobiliario. La compañía se caracteriza por una cultura joven, horizontal y colaborativa, fomentando la proactividad y el aprendizaje continuo para impulsar su crecimiento y el de sus colaboradores.

El área de Control de Gestión es clave para apoyar la planificación estratégica y operacional de la empresa, proporcionando información financiera y análisis que facilitan la toma de decisiones y el desarrollo de nuevos negocios y productos innovadores en la industria inmobiliaria.

Apply through Get on Board.

Responsabilidades del puesto

Como Analista de Control de Gestión Junior, serás responsable de apoyar la planificación, evaluación de proyectos y el control de gestión integral vinculados a las operaciones y estrategias de Assetplan. Tus funciones incluirán:
  • Elaborar reportes internos y externos que sirvan como base para la toma de decisiones financieras y operativas.
  • Evaluar financieramente nuevos negocios, productos y oportunidades de mercado que aporten valor a la compañía.
  • Participar en procesos especiales como due diligence, análisis e integración de carteras inmobiliarias.
  • Monitorear el cumplimiento de KPIs, objetivos y métricas clave mediante la implementación y seguimiento de indicadores de gestión.
  • Identificar las necesidades de las áreas operativas para diseñar prototipos, maquetas o MVPs de soluciones basadas en datos (reportes, dashboards) que mejoren la eficiencia y el control.
  • Coordinar con el equipo de Datos y Tecnología la implementación efectiva de herramientas tecnológicas y soluciones innovadoras.
En este rol, tu aporte será fundamental para garantizar la alineación entre los objetivos estratégicos y operativos, facilitando la mejora continua y el éxito del negocio.

Requisitos y habilidades

Formación académica: Título profesional en Ingeniería Civil Industrial o Ingeniería Comercial.
Experiencia: De 0 a 2 años de experiencia profesional, incluyendo prácticas profesionales o programas de trainees.
Conocimientos técnicos y habilidades:
  • Dominio avanzado de Google Workspace y Microsoft Office para la gestión documental y creación de presentaciones.
  • Conocimiento alto en Power BI para el desarrollo de reportes y dashboards interactivos.
  • Capacidad avanzada en manejo de bases de datos y consultas en SQL para análisis de información.
  • Competencia alta en análisis de datos y modelación financiera para evaluar proyectos y productos.
  • Nivel intermedio en Python para automatización y procesamiento de datos.
  • Comprensión intermedia de metodologías de evaluación de proyectos y planificación estratégica.
  • Habilidades comunicativas para crear presentaciones claras y efectivas, facilitando la comunicación entre áreas.
Competencias blandas: Proactividad, capacidad analítica, orientación al detalle, trabajo en equipo, compromiso con los valores organizacionales, y ganas de aprender y desarrollarse en un ambiente dinámico y colaborativo.

Competencias y conocimientos deseables

Es valorable contar con experiencia previa en el sector inmobiliario o en control de gestión financiera dentro de empresas de servicios o bienes raíces. Además, el conocimiento de herramientas adicionales de análisis de datos, como Tableau o R, y experiencia en metodologías ágiles para la gestión de proyectos, serán un plus para desempeñarse de manera exitosa en este rol.
Igualmente, tener habilidades en negociación y gestión de proyectos, así como un enfoque innovador y orientado a la mejora continua, contribuirán a potenciar tu crecimiento profesional y el aporte a Assetplan.

Beneficios y cultura de trabajo

En Assetplan valoramos el esfuerzo y dedicación de nuestros colaboradores, creando un ambiente laboral positivo basado en el respeto mutuo y la colaboración.
Ofrecemos:
  • Días extras de vacaciones por años de antigüedad.
  • Modalidad de trabajo híbrido que permite flexibilidad para gestiones personales.
  • Monto mensual para snacks en la oficina, fomentando un ambiente ameno.
  • Medio día libre en tu cumpleaños para celebrar a tu manera.
  • Copago en seguro complementario de salud para tu bienestar y el de tu familia.
  • Reajuste anual de renta basado en IPC, asegurando la valoración constante de tu remuneración.
  • Bono anual por desempeño que premia tu compromiso y resultados.
  • Eventos corporativos y happy hours financiados por la empresa para fortalecer el equipo.
  • Acceso a plataforma de cursos de formación y desarrollo continuo.
  • Convenios con gimnasios y descuentos en diversos servicios.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Assetplan pays or copays health insurance for employees.
Computer provided Assetplan provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Assetplan gives you paid vacations over the legal minimum.
Beverages and snacks Assetplan offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3500 - 4000 Tiempo completo
Marketing Operations / Growth Technologist
  • Zaelot
UI Design Python Marketing Web design
Zaelot is a dynamic, team-building company that develops scalable, enterprise-grade solutions. With over 90 experts across 9 countries, Zaelot fosters a culture rooted in trust, reliability, and collaboration. Our cross-functional teams of analysts, designers, and software engineers work together to create innovative products that anticipate and meet evolving market demands. We continuously invest in expanding knowledge and technological expertise, empowering our team to deliver exceptional results for our clients while cultivating an empowering and growth-oriented environment.

Send CV through getonbrd.com.

Key Responsibilities

  • Assist in mapping Customer Data Platform (CDP) traits to marketing platform audiences to optimize segmentation and targeting strategies.
  • Coordinate the activation of campaign-specific events and traits to ensure precise campaign execution and audience engagement.
  • Continuously monitor and analyze performance and engagement metrics across multiple marketing channels to evaluate campaign effectiveness and suggest improvements.
  • Collaborate with marketing, analytics, and technology teams to align data infrastructure with campaign goals and growth initiatives.
  • Support the implementation of marketing automation and growth technologies to streamline operations and maximize ROI.
  • Participate in troubleshooting and resolving data or activation issues to maintain seamless campaign workflows.

Qualifications and Requirements

We are looking for a Growth Technologist with a strong understanding of marketing operations, data mapping, and campaign execution. The ideal candidate will have practical experience working with Customer Data Platforms (CDPs), marketing automation tools, and audience segmentation.
Must have strong analytical skills and the ability to monitor performance data critically to drive informed marketing decisions. Familiarity with event-based tracking and trait activation within marketing systems is essential.
Soft skills include a proactive problem-solving mindset, excellent communication skills, and the ability to collaborate effectively across cross-functional teams. The candidate should be comfortable working in a fast-paced, evolving environment and have a passion for leveraging technology to drive growth.
Previous exposure to tools such as Segment, Tealium, HubSpot, or Adobe Experience Platform and proficiency with data visualization or BI tools will be a strong asset.

Preferred Skills and Experience

Experience with SQL, Python, or similar scripting languages to automate and enhance marketing data workflows.
Knowledge of customer lifecycle management and advanced attribution modeling techniques.
Background in digital marketing campaign management and A/B testing methodologies.
Familiarity with compliance regulations around data privacy (GDPR, CCPA) and their impact on marketing technologies.

Why Join Zaelot?

  • 20 days of paid vacation after one year to ensure a healthy work-life balance.
  • Referral and finder's fee programs to recognize and reward talent acquisition contributions.
  • Continuous training and certification programs to support your professional growth.
  • Work-from-home support to optimize remote work comfort and productivity.
  • English language classes to enhance communication and career opportunities.
  • Fitness programs promoting a healthy lifestyle.
  • Profit sharing reflecting our shared commitment to company success.
  • Coaching sessions aimed at both personal and professional development.
Join Zaelot to be part of an innovative and supportive community where collaboration and continuous learning drive our shared success! 🚀

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Flutter Mobile Developer
  • Improving South America
Java Android iOS Python

¡Hola! somos Improving South America.

Empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA principalmente.

Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.

Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development y También trabajamos en desarrollo backend.

Valoramos a las personas dinámicas en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Apply only from getonbrd.com.

Funciones del cargo

Serás parte del equipo mobile responsable de desarrollar aplicaciones Android e iOS de alta calidad utilizando Flutter. Estas apps integran nuestro SDK interno, ofreciendo funcionalidades de telepeaje y geolocalización GPS de manera fluida para los usuarios. Trabajarás en estrecha colaboración con ingenieros del SDK, desarrolladores backend y product managers para asegurar una experiencia confiable y sin fricciones, cumpliendo con las siguientes responsabilidades:

  • Diseñar, desarrollar y mantener aplicaciones móviles en Flutter para plataformas Android e iOS.
  • Integrar nuestro SDK interno para habilitar funciones de telepeaje y rastreo por GPS.
  • Colaborar con desarrolladores backend para consumir APIs RESTful, incluyendo servicios desarrollados en Python.
  • Garantizar una experiencia UI/UX fluida en distintos dispositivos y versiones de sistema operativo.
  • Escribir código limpio, mantenible y testeable, siguiendo buenas prácticas.
  • Identificar y resolver errores de forma rápida para mantener la estabilidad y el rendimiento de las apps.
  • Participar en revisiones de código y contribuir en discusiones sobre arquitectura.
  • Trabajar con el equipo de producto para aclarar requisitos y entregar funcionalidades a tiempo.

Requerimientos del cargo

  • Experiencia comprobada desarrollando apps Flutter en producción.
  • Sólidos conocimientos en desarrollo nativo Android (Kotlin/Java) y/o iOS (Swift/Objective-C).
  • Familiaridad con la integración de SDKs móviles.
  • Conocimiento de APIs RESTful y su consumo en Flutter.
  • Experiencia con manejo de estado (por ejemplo, Provider, Bloc, Riverpod).
  • Conocimiento de procesos de despliegue y publicación en tiendas de apps.
  • Manejo de Git u otro sistema de control de versiones.
  • Buenas habilidades de resolución de problemas y depuración.
  • Disposición para trabajar de forma sincrónica (pair & mob programming), incluso después del período de onboarding.
  • Inglés intermedio-avanzado o avanzado (indispensable)

Opcionales

  • Experiencia en desarrollo backend con Python (Flask, Django, FastAPI).
  • Conocimiento sobre GPS, APIs de mapas o logística de transporte.
  • Familiaridad con procesos de CI/CD para apps móviles.
  • Experiencia escribiendo tests unitarios e integrales para apps móviles.
  • Conocimiento de buenas prácticas en manejo seguro de datos y privacidad.

Beneficios

  • Contrato a largo plazo.
  • 100% Remoto.
  • Vacaciones y PTOs
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo
  • mucho mas..

POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 2000 Tiempo completo
Flutter Developer
  • Niuro
Python PostgreSQL Node.js React
Niuro connects elite tech teams with leading U.S. companies, focusing on simplifying global talent acquisition through innovative solutions to maximize efficiency and quality. We empower high-performance, autonomous tech teams to work on innovative and challenging projects in collaboration with top-tier U.S. companies. Our environment promotes continuous professional growth, technical and soft skills training, and leadership development, ensuring team members thrive and deliver exceptional results without administrative distractions.

Apply through Get on Board.

Flutter Developer

As a Flutter Developer, you will join our global, collaborative team working 100% remotely from LATAM, developing high-quality mobile applications using Dart and Flutter. Your primary responsibilities include designing, building, and maintaining performant and visually appealing mobile apps that meet client requirements. You will collaborate closely with U.S.-based teams, ensuring clear communication and alignment on project goals.
Your role involves not only coding but also contributing to architecture decisions, participating in code reviews, and continuously improving the mobile development process to deliver reliable and scalable solutions. You will engage in problem-solving and offer technical insights to enhance app performance and user experience.

Requirements

  • Proven mobile development experience using Dart and Flutter.
  • Conversational English proficiency to effectively communicate and collaborate with U.S.-based teams.
We expect developers who are proactive, detail-oriented, and able to work autonomously in a remote environment. Strong problem-solving skills and a collaborative mindset are essential to succeed in this role. Experience in delivering production-ready applications with a focus on performance, maintainability, and code quality is critical.

Nice to Have

  • Experience with backend technologies such as Python, FastAPI, and PostgreSQL.
  • Familiarity with frontend frameworks and runtimes like Node.js, Deno, Bun, as well as UI frameworks such as Svelte or React.

Why Join Niuro?

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3400 - 4000 Tiempo completo
Especialista en Gestión de Identidad y Accesos (IAM)
  • Adecco
  • Santiago (Hybrid)
English Cybersecurity Continual improvement process Audit

Adecco Chile, líder mundial en servicios de recursos humanos con más de 35 años de presencia en el país, está conectado con empresas de diversos sectores brindando soluciones integrales de selección, staffing, nómina y capacitación. Actualmente, colaboramos con una importante empresa minera, un sector estratégicamente relevante en la economía chilena, para incorporar un Especialista en Gestión de Identidad y Accesos (IAM). Este proyecto se enmarca en la innovación y seguridad tecnológica dentro de la minería, una industria que requiere altos estándares de cumplimiento, integridad de los sistemas y controles estrictos de acceso para proteger información crítica y garantizar la continuidad operacional.

© Get on Board.

Responsabilidades del puesto

  • Diseñar, implementar, gestionar y mantener soluciones de gestión de identidad y accesos (IAM), incluyendo provisión, desprovisión, autenticación y autorización.
  • Integrar sistemas IAM con aplicaciones empresariales y plataformas en la nube como Azure Active Directory y AWS IAM.
  • Desarrollar y aplicar políticas de control de acceso y modelos de roles (RBAC) acordes a normativas corporativas y regulatorias.
  • Monitorear y auditar accesos y permisos de usuarios para asegurar el cumplimiento de políticas de seguridad y requerimientos regulatorios.
  • Colaborar estrechamente con áreas de TI, Recursos Humanos y unidades de negocio para optimizar procesos del ciclo de vida de identidades.
  • Identificar, diagnosticar y resolver problemas relacionados con sistemas IAM y responder a incidentes de seguridad relacionados.
  • Actualizar periódicamente configuraciones y documentación técnica asociada a la plataforma IAM.
  • Participar activamente en evaluaciones de seguridad, auditorías internas y externas, así como en actividades de respuesta a incidentes.

Perfil requerido

Buscamos un profesional con más de 10 años de experiencia en el área de Seguridad Informática, especializado en Gestión de Identidad y Accesos (IAM). El candidato debe poseer conocimientos sólidos en protocolos de seguridad, redes y tecnologías IAM, así como capacidades técnicas avanzadas para diseño de soluciones (HLD y LLD) y ejecución de planes de transición a operaciones (TTO).

Es imprescindible manejo fluido, tanto oral como escrito, del inglés y español, ya que la entrevista y la comunicación diaria se realizan en ambos idiomas. El nivel mínimo de inglés requerido es B2. Además, se valora experiencia previa en el sector minero, dado que la empresa cliente se desempeña en esta industria.

Asimismo, se requieren habilidades interpersonales destacadas, orientadas a la colaboración efectiva con diversas áreas, atención al detalle para auditorías y documentación, así como proactividad para responder a situaciones emergentes de seguridad. Se valoran cualidades como responsabilidad, capacidad para trabajar bajo presión y enfoque en la mejora continua de procesos y controles.

Debe contar con residencia definitiva en Chile o ser chileno, ya que el contrato es indefinido y la modalidad de trabajo es híbrida (dos días en oficina y tres días remotos) en la comuna de Las Condes.

Competencias y conocimientos adicionales deseables

Se valorará experiencia con plataformas específicas de IAM como SailPoint, Okta, o IBM Security Identity Manager. Conocimientos de normativas y estándares internacionales de seguridad informática como ISO 27001, NIST y GDPR serán un plus.

Además, habilidades en automatización de procesos mediante scripting (PowerShell, Python) y experiencia en integración con sistemas de gestión de identidades basados en la nube aportarán significativamente al desarrollo óptimo del rol.

También es deseable experiencia previa en proyectos de transformación digital dentro de entornos mineros o industriales y capacidad para liderar iniciativas interdisciplinarias.

Qué ofrecemos

Te ofrecemos un ambiente de trabajo desafiante y dinámico que fomenta tu desarrollo profesional constante. Formarás parte de un equipo altamente calificado y profesional, con acceso a formación continua para mantenerte actualizado en las últimas tecnologías.

POSTULAR VÍA WEB Ver trabajo
Gross salary $2600 - 3500 Tiempo completo
DevSecOps
  • Buk
Ruby Ruby on Rails Python Linux

En Buk, estamos en una misión audaz 💪🌎:
¡Transformar los entornos laborales en lugares más felices y productivos! Somos un equipo joven, lleno de energía y pasión por revolucionar la gestión de RRHH en Latinoamérica. La tecnología es nuestra herramienta principal, y nos esforzamos por la excelencia en cada aspecto de nuestra plataforma.

Con presencia en Chile, Colombia, México y Perú y próximos a iniciar operaciones en Brasil ¡estamos listos para atraer mentes brillantes que nos ayuden a seguir alcanzando muchas metas con miras al infinito y más allá! si quieres saber cómo es un día de trabajo con nosotros, no dudes en echar un vistazo al siguiente video: https://www.youtube.com/watch?v=jBxmAcOrMZU

Por ello, estamos en búsqueda de nuestro próximo devsecops, queremos ingenierons que piensen como founders!

This company only accepts applications on Get on Board.

Funciones del cargo

  • Integrar controles de seguridad automatizados en pipelines CI/CD.
  • Diseñar y mantener herramientas y procesos para escaneo de vulnerabilidades en código, dependencias, contenedores e infraestructura.
  • Monitorear amenazas y vulnerabilidades, proponiendo medidas de mitigación efectivas.
  • Colaborar con los equipos de desarrollo para promover una cultura de seguridad desde la etapa de diseño hasta la implementación .
  • Asegurar el cumplimiento de estándares de seguridad
  • Responder ante incidentes de seguridad relacionados con el entorno de desarrollo o infraestructura.
  • Automatizar procesos, políticas y buenas prácticas de seguridad para las diferentes equipos

Requerimientos del cargo

  • Experiencia con herramientas de CI/CD (GitHub Actions, GitLab CI, Jenkins, CircleCI, etc.).
  • Conocimientos en análisis estático/dinámico de código (SAST, DAST), escaneo de dependencias (SCA) y escaneo de imágenes de contenedores, herramientas como (Synk, SonarQube, Trivi, etc)
  • Experiencia en hardening de entornos cloud (preferencia AWS).
  • Conocimiento en servicios de seguridad de AWS (AWS Config, Security Hub, Inspector, Guard Duty, IAM roles)
  • Conocimiento en gestión de secretos (Vault, AWS Secrets Manager, etc.).
  • Conocimientos de Docker, Kubernetes y herramientas de orquestación.
  • Experiencia con IaC y su seguridad (Terraform, Pulumi, CloudFormation).
  • Familiaridad con lenguajes de programación (ej: Python, Go, Bash, Rails, etc.).

Opcionales

  • Conocimiento en monitoreo (Prometheus, Elasticsearch, Grafana, CloudWatch , Datadog)
  • Buenas prácticas de seguridad en sistemas de control de versiones como Git .
  • Buenas prácticas en gestión de accesos e identidades (principio de menor privilegio, roles, MFA, control de secretos).
  • Familiaridad con herramientas de análisis de infraestructura como código (Checkov, tfsec, TFLint).
  • Habilidades de scripting para automatización de tareas (Bash, Python, Ansible).

Condiciones

- Cultura de Innovación: Libertad para proponer nuevas ideas y estrategias que impacten directamente en nuestra misión.
- Desarrollo profesional: Trabajarás junto a un equipo de talento excepcional que te permitirá potenciar tus habilidades y crecer profesionalmente. Además, contarás con una plan de carrera para que puedas alcanzar tu potencial y crecer dentro de Buk.
- Potenciamos tu aprendizaje: ¡Te ofrecemos más de 400 cursos a través de nuestra plataforma Bukplay para que puedas aprender y capacitarte en lo que tú quieras!
- Programa 'Buk Culture Internship' y 'Exchange': Postula y participa de intercambios culturales en los países donde operamos.
- Flexibilidad con Responsabilidad: Tendrás la flexibilidad de trabajar desde donde te sientas más cómodo, siempre con la responsabilidad de alcanzar los objetivos.
- Beneficios Revolucionarios: Desde vacaciones ilimitadas, stock options y 5 semanas de post natal parental, y un plan de beneficios con puntos personalizado

Fully remote You can work from anywhere in the world.
Equity offered This position includes equity compensation (in the form of stock options or another mechanism).
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Buk offers space for internal talks or presentations during working hours.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Buk pays or copays health insurance for employees.
Computer provided Buk provides a computer for your work.
Fitness subsidies Buk offers stipends for sports or fitness programs.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Vacation over legal Buk gives you paid vacations over the legal minimum.
Beverages and snacks Buk offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero de Sistemas CDN
  • Mediastream
  • Bogotá &nbsp Santiago (Hybrid)
Ruby Python Linux Web server

Mediastream es una empresa líder con más de 16 años de experiencia en tecnología de streaming, dedicada a proveer soluciones integrales y de alta calidad para la administración, distribución y producción audiovisual. Trabajamos con importantes empresas y emisoras a nivel mundial, conectando a nuestros clientes con sus audiencias de manera sencilla y efectiva para generar nuevas fuentes de ingresos. Nuestra plataforma end-to-end está diseñada para optimizar la experiencia de usuario y satisfacer las necesidades dinámicas de la audiencia digital, respaldada por soporte técnico 24/7 y atención personalizada.

Originally published on getonbrd.com.

Responsabilidades

  • Diseñar, configurar y optimizar la infraestructura de la CDN para mejorar la velocidad y la seguridad de la entrega de contenido.
  • Supervisar continuamente el rendimiento de la CDN, identificar cuellos de botella y realizar ajustes para garantizar la continuidad y velocidad operativas.
  • Rotar turnos de guardia y supervisar de forma sincronizada los eventos de streaming de alta concurrencia.
  • Implementar medidas de seguridad robustas para proteger la CDN contra amenazas, incluyendo ataques DDoS u otros.
  • Colaborar estrechamente con los equipos de desarrollo de aplicaciones y ciberseguridad para garantizar la integración eficiente de la CDN y la implementación de políticas de seguridad.
  • Trabajar en colaboración con los equipos de desarrollo y contenido para asegurar que el contenido esté optimizado para su entrega a través de la CDN.
  • Investigar y evaluar nuevas tecnologías, tendencias y mejores prácticas en el ámbito de las soluciones CDN y, posteriormente, proponer, acordar, implementar, documentar e impartir la capacitación necesaria.

Requisitos del cargo

Requisitos mínimos:

  • Sistemas operativos: Servidor Linux (Ubuntu, Debian, CentOS, etc.)
  • Administración y soporte de infraestructura de red (BGP, HTTP, DNS, DHCP, NTP, TCP/IP, FTP, firewalls, entre otros)
  • Herramientas de monitorización de aplicaciones y redes (Deseable: Datadog)
  • Programación de scripts en BASH, Ruby, Python u otros
  • Administración de servidores web (Nginx)
  • AWS, Amazon CloudFront y Route 53
  • Video encoding and transcoding
  • Titulo en Ingeniería Informática, Sistemas, Redes o campo afín
  • Certificaciones adicionales: Nube, Cisco, Linux, Redes, Nginx, Docker
  • Otros conocimiento deseables: Tecnologías de streaming

Requisitos deseables

Se valorarán conocimientos adicionales en herramientas avanzadas de monitorización y análisis de tráfico, experiencia con otras plataformas de nube y CDN, así como habilidades para la automatización de procesos. Además, habilidades blandas como capacidad de trabajo en equipo, comunicación efectiva, y orientación a la solución de problemas en entornos críticos serán altamente apreciadas.

Beneficios

En Mediastream ofrecemos un entorno laboral dinámico y colaborativo que fomenta la innovación constante y el crecimiento profesional continuo. Promovemos una cultura inclusiva basada en el apoyo mutuo y el desarrollo tanto personal como profesional. Contamos con amplias oportunidades de capacitación en tecnologías de vanguardia y trabajamos en conjunto con un equipo de alto nivel para enfrentar desafíos relevantes dentro de la industria del streaming y distribución audiovisual.

Health coverage Mediastream pays or copays health insurance for employees.
Computer provided Mediastream provides a computer for your work.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Technical Account Manager
  • GeoVictoria
  • Bogotá (Hybrid)
Python Microservices Director de Cuentas SaaS

Somos una multinacional donde puedes ser tú mismo y tus ideas importan. Priorizamos el mérito sobre la jerarquía, celebramos los valores y somos una jungla de diversidad.

¿Qué valores? Las 4H 😍: Somos Happy, Honestos, Humildes y Hungry por crecer en todo el mundo. Queremos conquistar el mundo con nuestro increíble talento: ¡entregar servicios de software a más de 20 países! 🏆🌎

Descripción del cargo:

¿Te apasiona la tecnología y resolver problemas de clientes? En GeoVictoria buscamos un Technical Account Manager (TAM) para sumarse a nuestro equipo. Serás el puente entre nuestros clientes estratégicos y nuestras soluciones técnicas, asegurando que cada experiencia con nuestra plataforma sea excepcional.

Apply through Get on Board.

¿Qué harás en este rol?

  • Serás el experto técnico en nuestra plataforma, asegurando que los clientes saquen el máximo provecho de nuestras soluciones.
  • Resolverás problemas críticos y coordinarás equipos multidisciplinarios para garantizar una respuesta rápida y eficiente.
  • Apoyarás técnicamente al equipo KAM en el cierre de ventas y en la gestión de clientes.
  • Analizarás y escalarás tickets dentro de la organización, asegurando su correcta priorización.
  • Actuarás como líder técnico interno en la relación con los clientes, gestionando expectativas y brindando un servicio técnico excepcional.

Lo que buscamos de ti

  • Experiencia previa en gestión de cuentas o consultoría técnica.
  • Experiencia en desarrollo de Software, ideal experiencia en Python.
  • Conocimiento técnico en plataformas SaaS o tecnologías similares.
  • Conocimiento en arquitectura basada en microservicios.
  • Conocimiento en bases de datos.
  • Habilidades de resolución de problemas y capacidad de actuar con autonomía.
  • Excelente manejo de relaciones con clientes y equipos internos.
  • Capacidad para priorizar y escalar casos dentro de la organización.
  • Disponibilidad para trabajar en modalidad híbrida.

Beneficios

  • Vestimenta libre, acá puedes ser tú mismo 😊
  • Medio día libre en tu cumpleaños, para que puedas celebrar 🎉
  • Cultura de empresa horizontal, donde tu talento te hace crecer 📈
  • Eventos de celebración de cumplimiento de metas trimestrales, team buildings y más en todas las oficinas a nivel global 🌎
  • Oficina Pet Friendly 🐶

¡Únete a nuestro diverso y talentoso equipo y sé parte de una de las áreas más estratégicas de GeoVictoria!

Si avanzas, por correo te comunicaremos los siguientes pasos del proceso, ¡no olvides revisar la sección de "Spam"!

POSTULAR VÍA WEB Ver trabajo
Gross salary $2500 - 3000 Tiempo completo
MLOps Engineer
  • Niuro
Python Linux Sysadmin Artificial Intelligence
Niuro is a global technology company dedicated to connecting elite tech teams with leading U.S. enterprises. We focus on delivering innovative industrial data projects that drive transformation and foster innovation. By partnering with top-tier companies in the United States, we enable our teams to work on impactful challenges in a collaborative and technically rigorous environment. Our projects typically involve developing scalable, automated machine learning pipelines, leveraging cloud services, and integrating cutting-edge MLOps tools to ensure continuous delivery and operational excellence.
As part of Niuro, you will contribute to these projects with a strong emphasis on automation, reliability, and scalability of ML solutions, while benefiting from our commitment to professional growth, training, and leadership development.

Job source: getonbrd.com.

Role and Responsibilities

As a Senior MLOps Engineer at Niuro, you will be responsible for designing, implementing, and maintaining robust machine learning operations pipelines to support large-scale data and ML workflows.
  • Build and manage end-to-end ML lifecycle automation using tools like Databricks and MLflow.
  • Collaborate closely with data scientists, software engineers, and project stakeholders to streamline model deployment, monitoring, and versioning.
  • Develop and optimize batch processing pipelines on Linux environments to ensure efficient data throughput.
  • Implement best practices for CI/CD within ML workflows using Bitbucket repositories and automated testing frameworks.
  • Ensure infrastructure reliability, scalability, and security for ML production environments.
  • Troubleshoot and resolve operational issues related to ML systems and data workflows.
  • Contribute to the team's continuous improvement by sharing knowledge, mentoring juniors, and participating in architecture discussions.

Required Skills and Experience

We are looking for experienced MLOps engineers with a strong technical background in operationalizing machine learning models and workflows in production environments. The ideal candidate will have:
  • Deep hands-on experience with Databricks for big data processing and ML model management.
  • Proficiency in using MLflow for experiment tracking, model registry, and deployment pipelines.
  • Strong Python programming skills, especially for scripting automation tasks and pipeline development.
  • Experience working with Bitbucket for source code management and CI/CD integration.
  • In-depth knowledge of designing and managing batch processing systems, optimizing job scheduling and resource allocation.
  • Comfortable working in Linux environments, with solid command-line skills and system administration basics.
  • Good conversational English skills to effectively communicate with our U.S.-based teams and stakeholders.
  • Strong problem-solving skills, attention to detail, and ability to work autonomously in a remote setting.
  • Prior experience in collaborative remote teams and agile methodologies is a plus.
We value individuals who are proactive learners and continuously seek innovative solutions to complex ML operational challenges.

Preferred Qualifications


  • Experience with cloud platforms such as AWS, Azure, or GCP, especially their ML and data pipeline services.
  • Familiarity with containerization tools like Docker and orchestration frameworks such as Kubernetes.
  • Knowledge of infrastructure-as-code (IaC) tools like Terraform or CloudFormation.
  • Exposure to real-time data streaming technologies such as Kafka or AWS Kinesis.
  • Background in software engineering practices including unit testing, code reviews, and design patterns.
  • Previous experience in mentoring or leading technical teams.

What We Offer

At Niuro, we provide a fully remote work environment with a flexible schedule that allows you to work from anywhere within the LATAM region. We believe in fostering a culture of continuous learning and professional development through ongoing training programs in both technical and leadership skills.
We offer the opportunity to join projects that are technically challenging and impactful in the industrial data space, enabling you to grow your skill set and advance your career. Our supportive infrastructure handles all administrative tasks including hiring, payments, and training so you can focus entirely on your core responsibilities.
Successful collaboration on initial contracts often leads to longer-term, stable employment opportunities, reinforcing our commitment to our team members’ career paths.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Machine Learning Engineer Sr
  • CMPC
  • Santiago (Hybrid)
Python Analytics Agile Git

Responsable de la concepción, elaboración y despliegue de soluciones analíticas robustas y escalables en producción, priorizando la eficiencia, facilidad de mantenimiento y rapidez en la entrega. Centrado en el desarrollo en la nube, utilizando estadística, Machine Learning clásico, Deep Learning y/o Inteligencia Artificial Generativa (Gen AI). Responsable de asegurar altos niveles de calidad, rendimiento e integridad en modelos y pipelines implementados. Trabaja en estrecha colaboración con Ingenieros de Datos, Desarrolladores, DevOps, Arquitectos, Product Managers, Líderes Técnicos, Científicos de Datos y profesionales del negocio, promoviendo iniciativas estratégicas de la organización mediante la implementación de soluciones analíticas en producción.

Apply through Get on Board.

Funciones del cargo

  • Crear Pipelines de Machine Learning completos: diseña, implementa y mantiene flujos de entrenamiento, validación y despliegue garantizando trazabilidad, reproducibilidad y monitoreo continuo en producción bajo principios de MLOps.
  • Gestiónar datos: Lidera procesos ETL para el entrenamiento y serving, asegurando calidad y disponibilidad mediante pipelines automatizados y versionados en el data warehouse.
  • Exponer modelos de Machine Learning: Despliega y opera modelos (propios, de terceros y gen-AI) como APIs seguras, escalables y monitorizadas, integradas con las aplicaciones analíticas de la gerencia.
  • Optimizar modelos de Machine Learning: realiza fine-tuning y aplica buenas prácticas (prompt management, feature store, RAG, etc.) para maximizar desempeño y eficiencia.
  • Aportar en la evolución del framework de MLOps: impulsa la mejora continua de estándares CI/CD, infra serverless, gobernanza de features y automatización de procesos.
  • Liderazgo técnico: Actúa como referente y agente de cambio digital, promoviendo buenas prácticas y documentación rigurosa en todo el equipo.

Requerimientos del cargo

Formación: Ingeniería informática, ingeniería matemática, ingeniería industrial, estadística o similar.

Experiencia:

  • 5 años o más como machine, learning engineer o equivalente.

Conocimiento específico:

  • Herramientas Cloud para Machine Learning y analítica, de preferencia Vertex AI o en su defecto, experiencia en kuberflow (Excluyente).
  • Control de versión con Git (Excluyente).
  • Experiencia creando pipelines de CI/CD (Excluyente).
  • Dominio en Gitlab /Github o similar (Excluyente).
  • Deseable Metodologías agiles (Scrum, Kanban).
  • Deseable experiencia comprobada en desarrollo de aplicaciones basadas en Gen IA (conocimiento de ADK preferente o LangGraph).
  • Deseable dominio de Terraform.
  • Deseable experiencia con solvers de optimización lineal entera de preferencia Gurobi.
  • Deseable experiencia con docker.
  • Deseable experiencia con Arquitectura serverless.

Computación:

  • Python Avanzado (Excluyente)
  • SQL (Excluyente)

Condiciones

  • Contrato: Indefinido
  • Ubicación: Santiago
  • Modalidad: 4x1( 4 días presencial, 1 día online)

Health coverage CMPC pays or copays health insurance for employees.
Computer provided CMPC provides a computer for your work.
Beverages and snacks CMPC offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2800 - 3000 Tiempo completo
AI Engineer
  • TCIT
  • Santiago (Hybrid)
Python Cloud Computing Back-end Google Cloud Platform
En TCIT, somos líderes en el desarrollo de software en modalidad Cloud, con la misión de transformar digitalmente organizaciones a través de soluciones sostenibles e innovadoras. Nuestro equipo está compuesto por profesionales apasionados y enfocados en generar un impacto positivo. Hemos trabajado en proyectos variados, desde sistemas de gestión agrícola hasta soluciones específicas para la industria judicial. Actualmente colaboramos con importantes partners tecnológicos en ambiciosos proyectos en países como Canadá.

Applications at getonbrd.com.

Funciones del cargo

  • Participar en el desarrollo de un agente conversacional full code en base a una arquitectura ya definida sobre Google Cloud Platform (GCP).
  • Colaborar con el equipo técnico en la implementación de soluciones utilizando Vertex AI, Cloud Functions y Cloud Storage.
  • Aplicar buenas prácticas de desarrollo y documentación técnica.
  • Autogestionarse y colaborar de forma proactiva en un equipo que busca mantener un alto estándar técnico y de innovación.

Requerimientos del cargo

  • Experiencia práctica desarrollando soluciones en GCP (idealmente entre 3 y 6 años)
  • Conocimientos en Vertex AI, Cloud Functions y manejo de Cloud Storage.
  • Experiencia en desarrollo de agentes IA o asistentes conversacionales mediante código (sin plataformas low-code).
  • Dominio en Python para desarrollo backend y procesamiento de datos.
  • Habilidades de autogestión, curiosidad constante y proactividad.

Opcionales

Experiencia en algunas de las siguientes herramientas o librerías:
  • LangChain, Hugging Face, Google PaLM API, OpenAI API, Generative AI Studio
  • FastAPI, Flask, gRPC
  • BigQuery, Firestore, Cloud SQL
  • Integraciones externas como Slack API, Twilio, WhatsApp Business API, Gmail/Calendar API
  • Conocimiento de buenas prácticas en CI/CD con GitHub Actions o Cloud Build
  • Familiaridad con herramientas de monitoreo como Stackdriver

Condiciones

En TCIT, garantizamos un ambiente laboral enriquecedor con:
  • Oficinas accesibles, a solo pasos del metro, para facilitar tu día a día. 🚇
  • Flexibilidad horaria que se adapta a tu estilo de vida, permitiéndote encontrar el equilibrio perfecto. 🕒
  • Aumento en los días de vacaciones para que puedas recargar energías. 🌴
  • Acceso a beneficios exclusivos y oportunidades con Caja de Compensación Los Andes y ACHS. 🎁
  • Oportunidades para certificaciones gratuitas, siendo Google Partners. 🎓
  • Equipamiento y soporte técnico adecuados, asegurando que tengas todo lo necesario para desempeñar tu trabajo. 🔧
  • Un ambiente de trabajo con áreas de descanso y una estación de cafetería para tus momentos de relax. ☕
  • Reuniones y celebraciones informales para fomentar un buen clima laboral. 🎉
¡Esperamos que te unas a la revolución digital de TCIT y a nuestra apasionada comunidad!

Computer provided TCIT provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 3000 Tiempo completo
Data Engineer Inteligencia Artificial
  • DSS S.A.
Python PostgreSQL SQL Virtualization

Somos DSS, una consultora ambiental con 22 años de experiencia y más de 100 colaboradores. Apoyamos a nuestros clientes a cumplir con la normativa ambiental, contribuyendo a un desarrollo sustentable. Actualmente, estamos desarrollando plataformas para la gestión ambiental que incluyen herramientas de Inteligencia Artificial. Si te interesa aplicar tus conocimientos en tema ambientales y contribuir en la lucha al cambio climático, este es el lugar.

Job opportunity on getonbrd.com.

Tus Funciones

Buscamos un/a Data Engineer Senior con foco en IA, que se una a nuestro equipo para liderar el diseño y automatización de pipelines de datos, y contribuir directamente en la infraestructura que habilita nuestros sistemas de machine learning y procesamiento de lenguaje natural.

  • Diseñar y optimizar pipelines de datos (ETL/ELT) para alimentar modelos de inteligencia artificial.
  • Colaborar con científicos de datos e ingenieros de ML en la preparación, validación y entrega de datasets de entrenamiento.
  • Automatizar procesos de extracción, transformación y carga masiva de datos desde múltiples fuentes.
  • Administrar bases de datos en entornos cloud (Azure) y locales (PostgreSQL).
  • Participar en el diseño de arquitecturas modernas (data lakehouse, medallion) para estructuración eficiente de datos.
  • Orquestar workflows de datos con herramientas como Azure Data Factory o similares (Airflow, Prefect, etc.), que se integren a pipelines CI/CD en Azure DevOps para el ciclo completo de datos.

Requerimientos del cargo

  • Al menos 3 años de experiencia como Data Engineer, con participación en proyectos de IA o machine learning.
  • Dominio avanzado de Python (pandas, NumPy, PySpark) y SQL.
  • Experiencia con herramientas de orquestación de datos como Azure Data Factory o similares (Airflow, Prefect, etc.).
  • Conocimiento de arquitecturas de datos en la nube (idealmente en Azure, pero también valoramos experiencia en AWS o GCP).
  • Experiencia trabajando con grandes volúmenes de datos estructurados y no estructurados.
  • Familiaridad con conceptos de machine learning y pipelines de entrenamiento.

Deseables

  • Experiencia en la construcción y optimización de pipelines para big data.
  • Manejo de pipelines de MLOps.
  • Familiaridad con frameworks complementarios como LangChain para creación de cadenas conversacionales y RAG.

Condiciones

  • Trabajo remoto, con algunas reuniones presenciales a la semana (internas y con clientes).
  • Contamos con oficinas en Concepción y Santiago.
  • No tenemos código de vestimenta.
  • Estamos afiliados a caja de compensación, donde podrás acceder a beneficios.
  • Tenemos convenio para seguro de salud.
  • Celebramos almuerzos mensuales, aniversario y otras actividades.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage DSS S.A. pays or copays health insurance for employees.
Computer provided DSS S.A. provides a computer for your work.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2500 - 3500 Tiempo completo
AI Engineer Especialista en Llms y Transformers
  • Devups
Python Git Virtualization Amazon Web Services
En Devups, somos una empresa especializada en servicios de staff augmentation que permite a las compañías incorporar rápidamente desarrolladores y especialistas tecnológicos sin la complejidad asociada al reclutamiento tradicional. Nuestro enfoque se basa en proporcionar talento altamente calificado de forma flexible y escalable para potenciar el crecimiento y éxito de nuestros clientes. Actualmente, estamos trabajando con clientes en el desarrollo e integración de soluciones basadas en inteligencia artificial avanzada, particularmente en el área de modelos de lenguaje grandes (LLMs) y arquitecturas Transformer. Estos proyectos buscan innovar en el procesamiento y generación de lenguaje natural, optimizar pipelines de recuperación aumentada de generación (RAG) y desplegar sistemas inteligentes que impacten directamente en productos y servicios de última generación.

Official source: getonbrd.com.

Responsabilidades principales

  • Diseñar, desarrollar y mantener pipelines eficientes para modelos de lenguaje, especialmente para tareas de fine-tuning y adaptación usando frameworks como Hugging Face.
  • Implementar y optimizar técnicas de RAG (Retrieval-Augmented Generation) para mejorar la integración de datos externos y contexto en los modelos.
  • Gestionar bases de datos vectoriales y embeddings con herramientas como FAISS o Pinecone para facilitar búsquedas semánticas efectivas.
  • Desarrollar APIs robustas para exponer modelos y servicios mediante frameworks Python como FastAPI o Flask.
  • Configurar y desplegar aplicaciones en entornos cloud escalables, utilizando principalmente AWS o Google Cloud Platform.
  • Colaborar en la integración continua y control de versiones mediante Git y Docker para garantizar la reproducibilidad y portabilidad del software.
  • Participar en la evaluación de modelos, experimentando con entrenamientos distribuidos y herramientas avanzadas como DeepSpeed o BitsAndBytes para mejorar la eficiencia y precisión.
  • Trabajar en equipo coordinadamente, aportando feedback, documentando buenas prácticas y manteniendo altos estándares de calidad en el desarrollo.

Perfil y requisitos técnicos

Buscamos ingenieros en inteligencia artificial con experiencia demostrable en el trabajo con modelos de lenguaje grandes (LLMs) y arquitecturas Transformer, que tengan pasión por la innovación y la implementación de soluciones escalables y bajo producción. El candidato ideal deberá contar con:
  • Experiencia práctica utilizando librerías y frameworks de última generación como Hugging Face, realizando fine-tuning con técnicas avanzadas como LoRA, QLoRA o PEFT.
  • Dominio de conceptos y herramientas para Retrieval-Augmented Generation (RAG), junto con manejo de embeddings y bases de datos vectoriales (FAISS, Pinecone).
  • Competencia avanzada en Python y desarrollo de APIs con FastAPI o Flask.
  • Experiencia en contenedorización con Docker, control de versiones con Git y despliegue en AWS o Google Cloud Platform.
  • Conocimientos en evaluación y benchmarking de modelos de IA, así como en entrenamiento distribuido y optimización usando herramientas como DeepSpeed o BitsAndBytes, que se valorarán altamente.
  • Nivel de inglés intermedio-alto (B2 o superior) para comunicarse de manera efectiva en equipos técnicos internacionales.
  • Capacidad de trabajo autónomo y remoto, proactividad en resolución de problemas y actitud colaborativa para trabajar en equipos distribuidos.
Valoramos especialmente la experiencia en modelado y evaluación rigurosa, así como el interés en seguir aprendiendo y aplicando tecnologías emergentes en el campo de la inteligencia artificial.

Habilidades y conocimientos adicionales valorados


  • Experiencia previa en entrenamiento y ajuste fino de modelos a gran escala en entornos de producción.
  • Conocimientos de optimización de modelos para eficiencia de inferencia y consumo de recursos.
  • Manejo de infraestructura en la nube orientada a machine learning, incluidos pipelines de MLOps.
  • Familiaridad con frameworks complementarios como LangChain para creación de cadenas conversacionales y RAG.
  • Capacidades básicas en otras áreas de la IA, como visión computacional o aprendizaje reforzado.
  • Habilidades comunicativas y capacidad para documentar procesos técnicos de forma clara y precisa.

Qué ofrecemos

Formarás parte de Devups, un entorno de trabajo flexible que impulsa la innovación, el crecimiento profesional y el aprendizaje continuo. Como empresa de staff augmentation, ofrecemos modalidad 100% remota en toda Latinoamérica, facilitando un equilibrio óptimo entre vida laboral y personal.
Promovemos el desarrollo profesional mediante capacitaciones y certificaciones en tecnologías punteras, asegurando que nuestro talento se mantenga a la vanguardia.
Además, nuestro modelo flexible te permite integrarte rápidamente a proyectos desafiantes con gran impacto, participando en la construcción de soluciones avanzadas en inteligencia artificial.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Vacation over legal Devups gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
AI Engineer Microsoft Copilot Studio Integration
  • Moventi
JavaScript C Python C#
Moventi is a technology-forward company dedicated to helping organizations lead through innovation and the smart application of technology. We foster a multidisciplinary environment where learning and professional growth are at the forefront. Our client, Acumen, is focusing on optimizing document management and review processes by leveraging cutting-edge AI technologies, specifically Microsoft's latest Copilot Studio. The project involves developing and integrating an AI agent capable of accessing SharePoint document repositories, tracking document version changes, and providing summarized comparative analyses within a user-friendly interface.

Send CV through Get on Board.

Role and Responsibilities

As an AI Engineer on this project, you will be responsible for designing, building, and integrating an AI agent that connects with a SharePoint site containing FDA documents. Your core task will be to develop functionality that analyzes all versions of stored documents and generates clear, tabular summaries of changes across versions.
You will collaborate closely with the development team responsible for the Word plug-in used by Acumen, ensuring seamless integration of the AI functionality within the existing tool.
The role demands thorough understanding of Microsoft Copilot Studio capabilities, development of AI-based summarization models or solutions, and strong software integration skills to embed the AI agent effectively in the Word environment.
Additional responsibilities include testing the integration, troubleshooting, and optimizing performance for end-user efficiency. Continuous communication with stakeholders and team members to align technical solutions with business needs is essential.

Skills and Experience Required

We are looking for an AI engineer or developer with practical experience using Microsoft Copilot Studio, preferably with prior work integrating AI agents into Microsoft Word plug-ins or Office 365 environments.
Key technical requirements include:
  • Proficiency in Microsoft Copilot Studio and its integration frameworks.
  • Strong experience working with SharePoint APIs to retrieve and analyze document versions.
  • Experience in natural language processing (NLP) techniques to summarize and compare document changes.
  • Proficiency in relevant programming languages such as C#, Python, or JavaScript, especially in the context of Microsoft 365 add-ins.
  • Understanding of Office Add-in development and deployment.
Soft skills required:
  • Ability to work autonomously and collaboratively in a remote, multicultural team.
  • Good communication skills to translate complex technical information into clear summaries.
  • Problem-solving mindset and adaptability to evolving project requirements.
  • Commitment to innovation, transparency, and continuous learning.

Desirable Skills and Qualifications

Additional desirable skills include:
  • Experience with FDA or regulated document processes.
  • Familiarity with Microsoft Azure AI services and cloud integration.
  • Knowledge of version control systems and document lifecycle management.
  • Background in compliance or quality assurance technologies is a plus.
  • Previous involvement in AI-assisted document review or legal tech applications.

Why Join Moventi?

  • Continuous opportunities for professional growth and ongoing learning within a multidisciplinary environment.
  • Flexible remote work arrangements allowing a healthy work-life balance.
  • Engage in cutting-edge, challenging projects that enhance your skills and foster innovation.
  • Collaborate with a diverse and supportive team committed to transparency and creativity.

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Integrador(a) / Instructor de Automatización N8n
  • Dania Ai
Linux JSON Virtualization Docker

En Dania Ai nos dedicamos a diseñar e implementar soluciones de automatización utilizando la plataforma n8n. Nuestro equipo desarrolla workflows end-to-end que integran múltiples aplicaciones y APIs para optimizar procesos de negocio. Además, ofrecemos formación interna y para clientes a través de workshops impartidos por nuestros especialistas. Buscamos profesionales que compartan nuestra visión de optimizar operaciones mediante tecnología low-code y un enfoque metódico en la documentación y buenas prácticas.

Apply only from getonbrd.com.

Responsabilidades clave

  • Diseñar y construir workflows multi-aplicación utilizando n8n junto con REST/APIs.
  • Integrar y mantener la infraestructura básica requerida, incluyendo Docker, VPS y la instancia self-host de n8n.
  • Optimizar y depurar procesos existentes para mejorar eficiencia y confiabilidad.
  • (Opcional) Impartir workshops internos o a clientes, grabar tutoriales y mentorear a miembros junior del equipo.
  • Documentar cada solución conforme a las guías internas de Dania Ai para garantizar claridad y replicabilidad.

Requisitos indispensables

  • Experiencia mínima de 2 años trabajando con n8n o plataformas similares de automatización.
  • Dominio de JSON, webhooks y métodos de autenticación API como tokens y OAuth.
  • Conocimientos sólidos en Linux y Docker para despliegue y mantenimiento de la infraestructura.
  • Español nativo y nivel técnico de inglés suficiente para lectura de documentación y recursos técnicos.
  • Disponibilidad para dedicar entre 10 y 30 horas semanales, siguiendo el horario laboral de México (UTC-6).

Requisitos deseables

  • Fundamentos en ingeniería de software y ciclo de vida del desarrollo (SDLC).
  • Manejo de metodologías ágiles como Scrum y Kanban, y buenas prácticas en documentación técnica.
  • Conocimientos básicos de DevOps incluyendo CI/CD, Docker Compose, Kubernetes, monitoreo y alertas.
  • Conocimientos en seguridad y privacidad de datos, incluyendo ciberseguridad, cumplimiento de GDPR y controles OWASP.
  • Experiencia en testing automatizado, control de calidad y manejo robusto de errores.
  • Uso de sistemas de control de versiones con Git y flujos GitFlow.
  • Familiaridad con otras plataformas low-code o RPA como Make y Zapier.
  • Competencia en scripting con Python o JavaScript/TypeScript para tareas auxiliares.
  • Conocimientos sobre principios de inteligencia artificial generativa, procesamiento de lenguaje natural (NLP) y modelos conversacionales.

Cómo aplicar


Bandas de tarifa

Banda | Rango (USD / hora)
Intermedio | 25 – 35
Avanzado | 35 – 50

Los siguientes pasos en caso de aplicar incluyen una breve entrevista y un test técnico/docente para validar tu experiencia.

Partially remote You can work from your home some days a week.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Machine Learning Engineer
  • NeuralWorks
  • Santiago (Hybrid)
C Python SQL Virtualization

NeuralWorks es una compañía de alto crecimiento fundada hace 3 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

Apply without intermediaries from Get on Board.

Descripción del trabajo

El equipo de Data y Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.

Trabajarás transformando los procesos a MLOps y creando productos de datos a la medida basados en modelos analíticos, en su gran mayoría de Machine Learning, pero pudiendo usar un espectro de técnicas más amplio.

Dentro del equipo multidisciplinario con Data Scientist, Translators, DevOps, Data Architect, tu rol será extremadamente importante y clave para el desarrollo y ejecución de los productos, pues eres quien conecta la habilitación y operación de los ambientes con el mundo real. Te encargarás de aumentar la velocidad de entrega, mejorar la calidad y la seguridad del código, entender la estructura de los datos y optimizar los procesos para el equipo de desarrollo.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Como MLE, tu trabajo consistirá en:

  • Trabajar directamente con el equipo de Data Scientists para poner en producción modelos de Machine Learning utilizando y creando pipelines de ML.
  • Recolección de grandes volúmenes y variados conjuntos de datos.
  • Recolección de interacción con la realidad para su posterior reentrenamiento.
  • Construir las piezas necesarias para servir nuestros modelos y ponerlos a interactuar con el resto de la compañía en un entorno real y altamente escalable.
  • Trabajar muy cerca de los Data Scientists buscando maneras eficientes de monitorear, operar y darle explicabilidad a los modelos.
  • Promover una cultura técnica impulsando los productos de datos con las prácticas DevSecOps, SRE y MLOps.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia práctica de al menos 3 años en entornos de trabajo como Software Engineer, ML Engineer, entre otros.
  • Experiencia con Python.
  • Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida optimización de consultas.
  • Experiencia usando pipelines de CI/CD y Docker.
  • Pasión en problemáticas de procesamiento de datos.
  • Experiencia con servidores cloud (GCP, AWS o Azure, de preferencia GCP), especialmente el conjunto de servicios de procesamiento de datos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.
  • Habilidades de comunicación y trabajo colaborativo.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” Gaucher, D., Friesen, J., & Kay, A. C. (2011).

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.
  • Stack orientado a modelos econométricos (statsmodels, pyfixest), serialización.
  • Experiencia con algún motor de datos distribuido como pyspark, dask, modin.
  • Interés en temas "bleeding edge" de Inferencia Causal: (Técnicas Observacionales, Inferencia basada en diseño, Probabilidad y Estadística [Fuerte énfasis en OLS y sus distintas expansiones]).

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Vestimenta informal
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1000 - 1500 Tiempo completo
Desarrollador/a Joven de IA
  • Catchai
  • Santiago (Hybrid)
JavaScript Python Front-end Node.js

En CatchAI es cri bir a Andres 9 catchai punto ai estamos construyendo el futuro del trabajo con agentes de inteligencia artificial que ya están operando en empresas reales de América Latina. No hablamos de promesas: ya estamos automatizando procesos de venta, postventa, análisis de datos y más, generando ahorro de tiempo y aumento de productividad real para nuestros clientes.

Estamos formando un equipo técnico ágil y creativo que diseñe, entrene y despliegue agentes de IA en ambientes productivos, utilizando herramientas modernas como OpenAI, LangChain, n8n y servicios cloud. Nuestro foco es claro: resolver problemas reales con tecnología simple, rápida y efectiva.

Queremos sumar a personas que no solo sepan programar, sino que tengan curiosidad, autonomía y ganas de probar, fallar, iterar y lanzar. Si te motiva el mundo de la IA aplicada y quieres trabajar en productos que impactan hoy (no en 10 años), te estamos buscando.

© Get on Board. All rights reserved.

¿Qué valoramos en ti?

  • Bases sólidas en Python y/o JavaScript (Node.js, React)
  • Experiencia integrando APIs RESTful
  • Conocimiento básico en Docker, redes, cloud y microservicios
  • Capacidad de autogestión e investigación técnica
  • GitHub con proyectos propios, pruebas o prototipos
  • Buena comunicación remota y experiencia en equipos ágiles, incluso si es en proyectos personales

🧠 ¿Qué ofrecemos?

Buscamos un/a desarrollador/a con ganas de aprender rápidamente y con actitud startup: resolver problemas, lanzar productos y mejorar constantemente. Valoramos la curiosidad y el empuje para crecer profesionalmente en un entorno dinámico con impacto real. La experiencia en desarrollo de software se combina con habilidades de autogestión y comunicación efectiva para integrarse en un equipo pequeño y flexible.

Además, es importante contar con bases técnicas sólidas en Python y/o JavaScript (Node.js y React), tener experiencia en la integración de APIs RESTful, y un conocimiento básico de herramientas y conceptos como Docker, redes, cloud y microservicios. La participación activa en comunidades tecnológicas o proyectos personales demostrables en GitHub es un plus.

✨ Bonus que nos encantan (no excluyentes):

  • Experiencia probando tecnologías como OpenAI, HuggingFace, LangChain, LlamaIndex y n8n
  • Trabajo con automatización o herramientas no-code/low-code
  • Participación en hackathons, emprendimientos o side-projects

Ofrecemos un espacio para crecer rápidamente con impacto real, trabajo remoto y horario flexible. Somos un equipo pequeño, dinámico y sin burocracia, con buen clima laboral. El sueldo es competitivo y existe la posibilidad de acceso a participación accionaria (equity) en el futuro.

POSTULAR VÍA WEB Ver trabajo
Gross salary $2500 - 3000 Tiempo completo
Data Scientist & Machine Learning Engineer
  • Niuro
Python SQL Django DevOps
Niuro is a company dedicated to connecting elite technology teams with leading companies in the U.S. We specialize in providing autonomous, high-performance tech teams focused on delivering innovative solutions globally. Our projects typically involve industrial data initiatives that demand technical excellence and innovation. The role will contribute to advanced machine learning and data science projects that aim to drive business value and technological advancement for top-tier U.S. clients. Our teams benefit from a collaborative environment with continuous professional development and administrative support, enabling a focus on impactful and challenging work.

This job is published by getonbrd.com.

Key Responsibilities

As a Data Scientist & Machine Learning Engineer at Niuro, you will play a crucial role in developing, deploying, and maintaining machine learning models and data-driven solutions. Your responsibilities include:
  • Designing and implementing machine learning pipelines and models using Python with a focus on production readiness.
  • Collaborating with cross-functional teams to understand data requirements and deliver scalable solutions that solve complex problems.
  • Integrating ML models into production environments with the help of MLOps practices and DevOps methodologies.
  • Working with large language models (LLMs) and Retrieval-Augmented Generation (RAG) techniques to enhance conversational AI and data accessibility.
  • Monitoring model performance, retraining and optimizing as needed to maintain high accuracy and robustness.
  • Documenting workflows and solutions clearly for team communication and knowledge sharing.

Required Qualifications and Skills

We are seeking an expert Python developer with proven hands-on experience and certification to lead our machine learning projects. The ideal candidate must also possess strong expertise in ML and Data Science, demonstrating a solid understanding of algorithms, data processing, and statistical modeling.
Additional required skills include familiarity with MLOps and DevOps practices to streamline development and deployment cycles effectively. Experience with large language models (LLMs) and Retrieval-Augmented Generation (RAG) is important to support our conversational AI initiatives.
Effective communication skills in English at a conversational level are necessary to collaborate efficiently within our distributed, international teams.
Technical requirements: Expert-level Python programming skills (certified preferred); solid experience with machine learning frameworks and libraries; familiarity with software development best practices in an ML context.

Preferred Skills & Additional Experience

While not mandatory, the following skills would be valuable:
  • Experience with Python web frameworks such as Django and FastAPI.
  • Working knowledge of SQL databases for data querying and manipulation.
  • Practical experience with Docker containerization to support reproducible environments.
  • Familiarity with version control using Git, and Python data validation tools like Pydantic.
  • Understanding of the Gunicorn application server for deploying Python web applications.

Benefits and Work Environment

At Niuro, you will have the opportunity to work 100% remotely from LATAM, providing full flexibility and work-life balance. We offer competitive compensation aligned with experience and skills.
We invest in continuous training and leadership development to help you grow professionally while working on impactful and technically rigorous data projects.
We foster a culture of collaboration, innovation, and technical excellence, supported by a robust administrative infrastructure so you can focus purely on your technical challenges.
Upon successful completion of the initial contract, there is a strong opportunity for long-term, stable full-time employment with Niuro.

Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2500 - 3000 Tiempo completo
Lead Data Scientist – GenAI & Applied ML
  • Niuro
Python SQL Django DevOps
Niuro is a company dedicated to connecting elite technology teams with leading companies in the U.S. We specialize in providing autonomous, high-performance tech teams focused on delivering innovative solutions globally. Our projects typically involve industrial data initiatives that demand technical excellence and innovation. The role will contribute to advanced machine learning and data science projects that aim to drive business value and technological advancement for top-tier U.S. clients. Our teams benefit from a collaborative environment with continuous professional development and administrative support, enabling a focus on impactful and challenging work.

This job is published by getonbrd.com.

Key Responsibilities

As a Data Scientist & Machine Learning Engineer at Niuro, you will play a crucial role in developing, deploying, and maintaining machine learning models and data-driven solutions. Your responsibilities include:
  • Designing and implementing machine learning pipelines and models using Python with a focus on production readiness.
  • Collaborating with cross-functional teams to understand data requirements and deliver scalable solutions that solve complex problems.
  • Integrating ML models into production environments with the help of MLOps practices and DevOps methodologies.
  • Working with large language models (LLMs) and Retrieval-Augmented Generation (RAG) techniques to enhance conversational AI and data accessibility.
  • Monitoring model performance, retraining and optimizing as needed to maintain high accuracy and robustness.
  • Documenting workflows and solutions clearly for team communication and knowledge sharing.

Required Qualifications and Skills

We are seeking an expert Python developer with proven hands-on experience and certification to lead our machine learning projects. The ideal candidate must also possess strong expertise in ML and Data Science, demonstrating a solid understanding of algorithms, data processing, and statistical modeling.
Additional required skills include familiarity with MLOps and DevOps practices to streamline development and deployment cycles effectively. Experience with large language models (LLMs) and Retrieval-Augmented Generation (RAG) is important to support our conversational AI initiatives.
Effective communication skills in English at a conversational level are necessary to collaborate efficiently within our distributed, international teams.
Technical requirements: Expert-level Python programming skills (certified preferred); solid experience with machine learning frameworks and libraries; familiarity with software development best practices in an ML context.

Preferred Skills & Additional Experience

While not mandatory, the following skills would be valuable:
  • Experience with Python web frameworks such as Django and FastAPI.
  • Working knowledge of SQL databases for data querying and manipulation.
  • Practical experience with Docker containerization to support reproducible environments.
  • Familiarity with version control using Git, and Python data validation tools like Pydantic.
  • Understanding of the Gunicorn application server for deploying Python web applications.

Benefits and Work Environment

At Niuro, you will have the opportunity to work 100% remotely from LATAM, providing full flexibility and work-life balance. We offer competitive compensation aligned with experience and skills.
We invest in continuous training and leadership development to help you grow professionally while working on impactful and technically rigorous data projects.
We foster a culture of collaboration, innovation, and technical excellence, supported by a robust administrative infrastructure so you can focus purely on your technical challenges.
Upon successful completion of the initial contract, there is a strong opportunity for long-term, stable full-time employment with Niuro.

Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3500 - 4200 Tiempo completo
Full-Stack AI & Python Bilingüe
  • Genesys Tecnologías de Inform. SpA
  • Santiago (Hybrid)
Python Django Go DevOps
Somos una empresa con 30 años en el mercado Latinoamericano dedicada al desarrollo de software y servicios TI, con especialización en tecnologías como Cloud, Data Analytics, Inteligencia Artificial y Automatización de Procesos. Contamos con una fábrica de desarrollo de software y prestación de servicios profesionales mediante Outsourcing, con operaciones en Concepción y Santiago. Nuestra matriz está en Concepción y trabajamos continuamente para elevar el estándar tecnológico de las empresas, acompañándolas en su camino hacia la Transformación Digital.

Applications at getonbrd.com.

Responsabilidades:

  • Liderazgo y Arquitectura en GenAI: Diseñar y entregar aplicaciones GenAI sofisticadas orientadas al usuario, aprovechando soluciones avanzadas basadas en modelos de lenguaje (LLM) para abordar necesidades complejas de clientes.
  • Desarrollo e Integración Backend: Crear servicios backend robustos con Python (FastAPI) para integrar LLMs en diversas plataformas.
  • Diseño Avanzado de Workflows: Arquitectura de flujos de trabajo dinámicos, modulares y agentivos, incluyendo técnicas de Generación Aumentada por Recuperación (RAG) con opciones de LLM como OpenAI, Gemini y Claude.
  • Especialización en Ingeniería de Prompts: Aplicar técnicas avanzadas de prompts, incluyendo patrones React y Reflex, para optimizar salidas de LLM y mejorar la interacción con usuarios.
  • Gestión de Datos y Modelos: Integrar y administrar búsquedas vectoriales y almacenes de datos híbridos (Pinecone, Elastic Search, Azure AI Search), así como implementar modelos de embeddings avanzados (text-ada-embedding y similares).
  • Despliegue y Gobernanza de IA: Orquestar despliegues en contenedores utilizando Kubernetes y Terraform; implementar controles semánticos (guardrails) con herramientas como Langsmith y Datadog para asegurar gobernanza y observabilidad.
  • Mentoría y Guía Técnica: Brindar soporte técnico, fomentar buenas prácticas y mentoría a equipos de ingeniería en flujos GenAI, asegurando calidad e innovación constante.

Requisitos Excluyentes:

  • Nivel de inglés conversacional obligatorio.
  • Dominio experto en Python; familiaridad con Go es una ventaja.
  • Experiencia amplia en frameworks web: FastAPI, Flask y Django.
  • Experiencia práctica con plataformas GenAI y LLMs como OpenAI, Gemini y Claude.
  • Conocimiento profundo y aplicación práctica de metodologías GenAI: RAG, Tree-of-Thoughts, Few-Shot Prompting y flujos de trabajo con agentes.
  • Experiencia con almacenes de datos vectoriales: Azure AI Search, AWS OpenSearch, Pinecone y Elastic Search.
  • Conocimiento y experiencia en guardrails y gobernanza IA: Semantic Router, Nemo Guardrails, Azure Semantic Routers, Langsmith.
  • Competencia en desplegar IA en al menos una plataforma cloud principal (Azure, AWS, GCP).
  • Conocimiento en librerías y frameworks: LangChain, LangGraph, NLTK, PyTorch, TensorFlow.
  • Familiaridad con DevOps y CI/CD: Kubernetes, Terraform, CircleCI y Datadog para orquestación y monitoreo.
Buscamos un profesional que combine habilidad técnica avanzada con capacidad de liderazgo e innovación, orientado a la calidad, trabajo en equipo, y la mentoría continua de sus pares.

Deseable:

Conocimientos adicionales en Go para complementar el stack de desarrollo. Experiencia previa en proyectos relacionados con inteligencia artificial aplicada y automatización de procesos. Capacidad de trabajo en entornos multidisciplinarios y manejo de metodologías ágiles de desarrollo. Habilidades de comunicación efectiva para interactuar con distintos equipos y stakeholders.

Beneficios:

Ofrecemos un contrato por proyecto que garantiza estabilidad y condiciones claras dentro de un ambiente laboral dinámico, colaborativo y enfocado en el desarrollo profesional constante.
Formarás parte de una empresa consolidada en Latinoamérica con más de tres décadas de experiencia, que valora el talento y fomenta la innovación.
Contamos con un equipo multidisciplinario y una comunicación diaria con nuestra matriz en Santiago y otras operaciones, lo que facilita la colaboración continua y el apoyo técnico.
Trabajo híbrido con 3 días presenciales en Providencia o Concepción y 2 días remotos.
¡Esperamos que te unas a nuestro equipo para crecer juntos! 😊

Health coverage Genesys Tecnologías de Inform. SpA pays or copays health insurance for employees.
Computer provided Genesys Tecnologías de Inform. SpA provides a computer for your work.
Shopping discounts Genesys Tecnologías de Inform. SpA provides some discounts or deals in certain stores.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Experto en Agentes de IA
  • Moventi
JavaScript Python Agile REST API
Moventi es una empresa líder dedicada a ayudar a organizaciones a liderar la transformación tecnológica con una mentalidad innovadora. Nos enfocamos en proyectos que integran tecnologías emergentes como inteligencia artificial y automatización para generar impactos positivos en el negocio. Nuestra área de trabajo se sustenta en equipos multidisciplinarios que colaboran de manera ágil en una oficina céntrica equipada para facilitar la creatividad y el trabajo en equipo, combinando encuentros presenciales con trabajo remoto. El proyecto para el cual buscamos un experto en agentes de IA se enfoca en el desarrollo e implementación de workflows avanzados para la automatización mediante la plataforma n8n, integrando múltiples APIs y modelos de inteligencia artificial para optimizar procesos empresariales y potenciar resultados de alto valor.

Applications at getonbrd.com.

Responsabilidades principales

  • Diseñar, desarrollar y mantener workflows avanzados utilizando n8n para automatizar procesos complejos dentro de la organización y proyectos de clientes.
  • Integrar diversas APIs y modelos de inteligencia artificial, asegurando una comunicación eficiente y robusta entre sistemas.
  • Implementar agentes de IA capaces de ejecutar tareas automatizadas con un alto nivel de autonomía y precisión.
  • Colaborar con equipos multidisciplinarios para identificar oportunidades de automatización e innovación mediante IA.
  • Analizar y optimizar continuamente los flujos de trabajo para mejorar la eficiencia y escalabilidad de las soluciones implementadas.
  • Documentar las arquitecturas, procesos y soluciones desarrolladas para asegurar la transferencia de conocimiento dentro del equipo.

Requisitos y habilidades

Buscamos un profesional con amplia experiencia en el desarrollo de workflows avanzados usando n8n, con conocimientos sólidos en la integración de APIs RESTful y otros protocolos relevantes.
Es indispensable contar con una comprensión profunda de los modelos de inteligencia artificial actuales y su aplicación práctica en agentes autónomos o asistentes virtuales.

Además, valoramos habilidades analíticas, capacidad para resolver problemas complejos y un enfoque orientado a resultados. Se requiere un nivel alto de autonomía en la gestión de proyectos, excelentes habilidades comunicativas para trabajar en equipos multidisciplinarios.

Un perfil con experiencia en programación, manejo de bases de datos, y familiaridad con herramientas de DevOps será altamente beneficioso.

Habilidades y experiencias deseables

Experiencia previa en proyectos de automatización dentro de sectores como marketing o finanzas una ventaja. Conocimiento en lenguajes de programación como Python o JavaScript para extender funcionalidades complementarias a n8n.

Familiaridad con plataformas de nube (AWS, Azure o Google Cloud) y metodologías ágiles de desarrollo.

Tener experiencia en machine learning y manejo de frameworks para entrenamiento y despliegue de modelos también aportará un valor diferencial.

Beneficios y cultura

  • Oportunidades continuas de crecimiento profesional y aprendizaje en un ambiente multidisciplinario.
  • Participación en proyectos retadores que impulsan la innovación y el desarrollo de habilidades técnicas.

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
AI Engineer
  • Niuro
JavaScript UX HTML5 Python
Niuro is a company that connects projects with elite tech teams, collaborating with leading U.S. companies to simplify global talent acquisition. Our mission is to provide autonomous, high-performance tech teams that partner with top-tier U.S. companies. We emphasize continuous professional growth, technical and soft skills training, and leadership development. We also take care of all administrative tasks, such as hiring, payments, and training, so our teams can focus on delivering exceptional results. This AI Engineer position is part of our efforts to develop intelligent agent systems that automate processing of structured and semi-structured documents, improving platform user experience, internal workflows, and ensuring data accuracy and security.

Apply at the original job on getonbrd.com.

About the Role:

We are looking for an experienced AI Engineer to lead the development of intelligent agent systems that automate the processing of structured and semi-structured documents. The role aims to enhance the user experience on our platform by streamlining internal processes such as information validation and extraction. The AI Engineer will focus on improving accuracy, efficiency, and protecting sensitive data.
The engineer will be responsible for designing, implementing, and maintaining automation solutions using AI technologies and ensuring seamless integration within the platform's architecture. They will also collaborate with cross-functional teams to optimize workflows and monitor system performance through advanced monitoring tools.

Requirements:

  • Fluent English (both written and spoken) to communicate effectively in a distributed international team.
  • Proven experience building intelligent agents for document automation, demonstrating mastery of related AI concepts and frameworks.
  • Strong skills in improving user experience (UX) and internal workflows through automation, focusing on delivering value and efficiency.
  • Prioritize cost-efficiency, accuracy, and the protection of sensitive data when designing and deploying solutions.
  • Experience with the following technology stack:
    • Languages: Python, HTML, JavaScript
    • AI/Agent Frameworks: BAML, Pydantic AI, Amazon Bedrock, Amazon Textract
    • Infrastructure: FastAPI, Gunicorn, Docker, Amazon ECS
    • Frontend: Aestiva HTML/OS, Streamlit (primarily for prototyping)
    • Testing frameworks: pytest (backend), Playwright (frontend)
    • Monitoring tools: CloudWatch, Prometheus, Grafana

Benefits:

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3000 - 4000 Tiempo completo
Data Engineer / Machine Learning Engineer
  • Lilo AI
Python PostgreSQL SQL NoSQL
Lilo AI is an innovative startup dedicated to transforming procurement for Commercial Real Estate (CRE) businesses by creating the most hassle-free procurement platform globally. Our platform leverages artificial intelligence to automate and optimize various procurement workflows, including invoicing, vendor management, and price comparisons. Serving diverse sectors such as hotels, gyms, schools, and senior living homes, our solutions save clients valuable time and money while improving operational efficiency. Our major clients include prestigious brands such as Fairfield, Hampton Inn, and Hilton. By joining Lilo AI, you will contribute to revolutionizing procurement processes at scale through cutting-edge AI technologies.

This job offer is on Get on Board.

About the Role

As a Data Engineer / Machine Learning Engineer at Lilo AI, you will play a pivotal role in advancing and deploying machine learning solutions that enhance our procurement platform. Your primary responsibilities will include:
  • Designing, developing, and implementing machine learning models to optimize procurement workflows, such as price prediction algorithms, anomaly detection systems, and recommendation engines.
  • Building and maintaining robust data pipelines to efficiently preprocess and cleanse both structured and unstructured datasets.
  • Collaborating closely with engineers, product managers, and business stakeholders to integrate AI-driven insights seamlessly into our platform environment.
  • Optimizing model performance and reliability, including contributing to monitoring strategies and retraining pipelines to sustain production quality.
  • Keeping abreast of the latest developments in AI, machine learning, and data science to continually enhance our technology stack.
  • Supporting the deployment of machine learning models into production environments and improving MLOps workflows to increase operational efficiency.
This role requires a proactive mindset, a passion for AI applications in real-world business contexts, and the ability to thrive in a dynamic, fast-paced, and collaborative global team.

What You Will Need

To succeed in this role, candidates should demonstrate strong technical proficiency and relevant experience as detailed below:
  • A minimum of 2 years of professional experience in machine learning, data science, or closely related fields.
  • Proficiency in Python programming and familiarity with prominent ML frameworks and libraries such as Scikit-Learn, TensorFlow, or PyTorch.
  • Hands-on experience with both SQL and NoSQL databases, including but not limited to MongoDB and PostgreSQL.
  • Solid understanding of data preprocessing techniques, feature engineering, and model evaluation methodologies essential for robust ML model development.
  • Basic knowledge or experience with containerization (Docker), cloud computing platforms (AWS, Google Cloud Platform, or Azure), and MLOps tools is highly desirable.
  • Analytical mindset with strong problem-solving skills, able to handle and extract insights from large datasets effectively.
  • A continuous learner attitude, eager to develop technical and professional skills while contributing to team goals.
We value curiosity, collaboration, and adaptability, wanting individuals who are ready to grow alongside our rapidly expanding company.

Desirable Skills and Experience

While not mandatory, the following skills and experiences will give candidates an edge:
  • Experience working with time-series data, demand forecasting, or procurement-related AI models.
  • Familiarity with advanced ML techniques such as deep learning, reinforcement learning, or natural language processing.
  • Hands-on exposure to MLOps pipelines, automated model deployment, and monitoring platforms.
  • Knowledge of data engineering tools and frameworks like Apache Airflow, Spark, or Kafka.
  • Prior experience in the hospitality or Commercial Real Estate sectors.
  • Strong communication skills to effectively articulate technical concepts to non-technical stakeholders.

Why Lilo AI?

Joining Lilo AI offers a unique opportunity to make a significant impact at a fast-growing US-based startup while enjoying the flexibility of remote work from Latin America. We provide:
  • A high-impact role within a pioneering team revolutionizing procurement with AI.
  • Possibility to grow professionally with opportunities to increase responsibilities over time.
  • Stock options available for the right candidate, sharing in our long-term success.
  • A collaborative, global, and multi-cultural work environment fostering innovation and continuous learning.

Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Lilo AI pays or copays health insurance for employees.
Company retreats Team-building activities outside the premises.
Dental insurance Lilo AI pays or copays dental insurance for employees.
Computer provided Lilo AI provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Lilo AI gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
AI Engineer
  • Improving South America
Python Artificial Intelligence Machine Learning Deep Learning

Somos Improving South America!

Somos una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA principalmente.

Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.

Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development y También trabajamos en desarrollo backend.

Valoramos a las personas dinámicas en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Find this job and more on Get on Board.

Funciones del cargo

En Improving South America, estamos en búsqueda de un Ingeniero de IA Semi-Senior que esté entusiasmado por unirse a nuestro equipo. Este rol es ideal para alguien que desea contribuir con sus conocimientos en inteligencia artificial y colaborar en proyectos innovadores que marcan la diferencia en diversas industrias.

Desarrollar y entrenar modelos de Machine Learning, asegurando su correcta implementación, validación y ajuste según los objetivos del negocio.

Diseñar e implementar modelos de forecasting utilizando enfoques tanto tradicionales (ARIMA, Prophet) como avanzados (RNN, LSTM, Transformers), enfocados en series temporales y datos multivariables de gran escala.

Aplicar técnicas de Procesamiento del Lenguaje Natural (NLP) para resolver problemas complejos, integrando LLMs, RAGs, embeddings y arquitecturas de agentes inteligentes.

Construir y mantener pipelines de Machine Learning eficientes, escalables y automatizados para el procesamiento de grandes volúmenes de datos.

Implementar buenas prácticas de observabilidad y monitoreo en modelos desplegados, incluyendo tracking de métricas clave, alertas y registros.

Realizar pruebas, mediciones de performance y mejoras continuas de accuracy en los modelos existentes.

Colaborar con equipos multidisciplinarios (científicos de datos, ingenieros, producto) para alinear soluciones técnicas con necesidades estratégicas.

Utilizar herramientas y librerías en Python como TensorFlow, PyTorch, Scikit-learn, entre otras, para el desarrollo de soluciones de inteligencia artificial.

Requerimientos del cargo

  • Nivel de inglés: Intermedio/avanzado (B2/C1).
  • Experiencia en Machine Learning, incluyendo desarrollo y entrenamiento de modelos.
  • Experiencia en AI Forecasting (excluyente), específicamente con:
    • Modelos de series temporales tradicionales (ARIMA, Prophet).
    • Redes neuronales recurrentes (RNN, LSTM).
    • Transformers aplicados a predicción.
    • Modelos multivariables para forecasting sobre grandes volúmenes de datos.
  • Experiencia en NLP (Procesamiento del Lenguaje Natural):
    • LLMs (Large Language Models).
    • RAGs (Retrieval-Augmented Generation).
    • Embeddings.
    • Arquitecturas de agentes inteligentes.
    • Buenas prácticas de observabilidad y monitoreo.
    • Medición de métricas, testing y mejora de accuracy.
    • Sólido manejo de Python y librerías como TensorFlow, PyTorch, Scikit-learn, entre otras.
    • Experiencia trabajando con grandes volúmenes de datos y construcción de pipelines de ML.

Beneficios

  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Internal talks Improving South America offers space for internal talks or presentations during working hours.
Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Improving South America gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3000 - 3200 Tiempo completo
Full-Stack AI &Amp; Python Bilingüe
  • Genesys Tecnologías de Inform. SpA
Python Docker Microservices GraphQL
Genesys Tecnologías de Inform. SpA es una compañía con más de 30 años en el mercado latinoamericano, especializada en desarrollo de software y servicios tecnológicos avanzados. Con sede principal en Concepción y operaciones importantes en Santiago, trabajamos en la transformación digital de empresas a través de soluciones innovadoras como RPA, Inteligencia Artificial, QA Automation, Cloud y Staff Augmentation.
El proyecto actual está orientado al desarrollo y mantenimiento de sistemas inteligentes integrados con modelos de lenguaje (LLMs), apoyando la evolución tecnológica de nuestros clientes en Latinoamérica mediante aplicaciones de IA prácticas y efectivas.

Job opportunity published on getonbrd.com.

Funciones del Cargo

Buscamos un ingeniero de Inteligencia Artificial con habilidades en Python, LangChain y LangGraph para formar parte de nuestro equipo especializado en construir soluciones inteligentes. Esta posición se enfoca en desarrollar y orquestar pipelines de procesamiento de lenguaje natural, diseñar agentes conversacionales complejos y sistemas inteligentes que respondan a necesidades reales.
  • Diseñar, desarrollar y mantener pipelines de procesamiento de lenguaje con LangChain y LangGraph.
  • Implementar chatbots inteligentes, asistentes autónomos, clasificadores y sistemas de búsqueda con técnicas de Recuperación Basada en Generación (RAG).
  • Orquestar flujos de decisiones con manejo de memoria contextual, persistencia de estado y control de errores usando LangGraph.
  • Integrar múltiples APIs externas, bases de datos y modelos locales para potenciar las capacidades de los sistemas.
  • Colaborar estrechamente con equipos de producto y diseño para convertir requisitos en soluciones AI efectivas y productivas.

Descripción y Requisitos del Cargo

El candidato ideal debe contar con conocimientos avanzados en Python y experiencia práctica con herramientas modernas de la pila LLM, especialmente LangChain y LangGraph, para la construcción de agentes y workflows complejos de IA. Es fundamental poseer un alto nivel de inglés, ya que es un requisito excluyente para desempeñar esta función.
  • Experiencia en desarrollo de software con Python, incluyendo desarrollo modular, manejo asincrónico, integración con APIs y procesamiento de texto (NLP).
  • Experiencia trabajando con modelos de lenguaje y tecnologías LLM.
  • Experiencia demostrable en proyectos utilizando LangChain para crear agentes, cadenas personalizadas, herramientas externas, pipelines RAG e integración con bases vectoriales.
  • Conocimiento en LangGraph para diseñar y administrar workflows de IA complejos con control de estados, branching y lógica conversacional.
  • Capacidad para implementar soluciones usando LLMs de OpenAI y otros proveedores, aplicando técnicas de prompt engineering, fine-tuning ligero y personalización de modelos Open Source.
  • Deseable experiencia en sistemas de recuperación semántica basados en embeddings para mejorar la precisión y relevancia de las respuestas.
  • Conocimientos básicos o intermedios en APIs REST y GraphQL, así como en contenedores Docker y despliegue de microservicios, son altamente valorados.
Además de las habilidades técnicas, buscamos personas con capacidad para trabajar en equipo, comunicarse efectivamente, adaptarse a tecnologías emergentes y contribuir al desarrollo de soluciones innovadoras en un entorno dinámico y colaborativo.

Habilidades y Experiencias Deseables

Se valorará positivamente la experiencia adicional en la implementación de soluciones de recuperación semántica basadas en embeddings, desarrollo y despliegue con Docker y microservicios, así como un conocimiento intermedio en APIs REST y GraphQL para mejorar la integración y escalabilidad de las aplicaciones.
También es deseable la familiaridad con técnicas avanzadas en prompt engineering, fine-tuning avanzado de modelos de lenguaje, y la capacidad para diseñar flujos conversacionales complejos que impliquen lógica de negocio y control de estado persistente.

Beneficios y Condiciones

Ofrecemos un contrato por proyecto que garantiza estabilidad y condiciones claras para nuestros colaboradores en un ambiente laboral dinámico, colaborativo y enfocado en el desarrollo profesional constante.

Formarás parte de una empresa consolidada en Latinoamérica con más de tres décadas de experiencia, que valora el talento y fomenta la innovación.

Contamos con un equipo multidisciplinario y una comunicación diaria con nuestra matriz en Santiago y otras operaciones, lo que facilita la colaboración continua y el apoyo técnico.

¡Esperamos que te unas a nuestro equipo para crecer juntos! 😊

Health coverage Genesys Tecnologías de Inform. SpA pays or copays health insurance for employees.
Computer provided Genesys Tecnologías de Inform. SpA provides a computer for your work.
Shopping discounts Genesys Tecnologías de Inform. SpA provides some discounts or deals in certain stores.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Machine Learning Engineer
  • Haystack News
  • Lima (Hybrid)
Python SQL NoSQL Big Data

Haystack News is the leader in transitioning younger audiences to a next-generation TV news product. We empower users to watch the news they care about with a personalized headline news channel. Our personalization and big data technology enable a seamless lean-back experience reaching millions of users. In 2020, we streamed billions of minutes of news to users around the globe.

We're available on a variety of TV platforms (Roku, Fire TV, Android TV, Apple TV, Chromecast, Vizio) as well as mobile, tablet, and desktop.

Find this job and more on Get on Board.

Job functions

We are looking for an outstanding machine learning engineer to join Haystack and help improve the experience of millions of users that rely on Haystack to get the news every day.

Within the team you’ll find many opportunities to work on various aspects of Machine Learning and Data Engineering. The job offers the opportunity of generating a major impact on the product while working with an awesome and talented team, using the latest technologies.

You will:

  • Analyze large data sets to get insights using statistical analysis tools and techniques
  • Build, evaluate and deploy machine learning models
  • Maintain ongoing reliability, performance, and support of the data infrastructure, providing solutions based on application needs and anticipated growth.
  • Work with tools to configure, monitor and orchestrate data infrastructure and pipelines.
  • Run and monitor AB Tests
  • Build and manage APIs

Qualifications and requirements

  • Bachelor's degree in Computer Science, Statistics, Math or related field.
  • 3+ years experience writing software in a professional setting
  • Knowledge of AWS and Python
  • Strong Math/Stats background with statistical analysis experience on big data sets
  • Experience with SQL and NoSQL (e.g. MongoDb or DynamoDB)
  • Big Plus: Experience with data warehouses (e.g. Snowflake, Big Query, Redshift)
  • Exposure to ML/AI libraries such as sklearn, LightGBM and, XGBoost.
  • Travel Visa to the US (desired)

Conditions

Uber rides to come to the office!
Travel to team's offsite events
Learn about multiple technologies

Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Meals provided Haystack News provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Company retreats Team-building activities outside the premises.
Computer repairs Haystack News covers some computer repair expenses.
Commuting stipend Haystack News offers a stipend to cover some commuting costs.
Computer provided Haystack News provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Conference stipend Haystack News covers tickets and/or some expenses for conferences related to the position.
Informal dress code No dress code is enforced.
Vacation over legal Haystack News gives you paid vacations over the legal minimum.
Beverages and snacks Haystack News offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Practicante Ing Informática para Desarrollo e IA Generativa
  • BICE VIDA
  • Santiago (In-office)
Python Back-end Generative AI SER

En BICE VIDA somos líderes en el rubro de las aseguradoras y queremos satisfacer las necesidades de seguridad, prosperidad y protección de nuestros clientes. Estamos apostando por la transformación digital, buscando nuevas formas de realizar el negocio, para mantenernos vigente y responder a los constantes cambios que el entorno nos exige.

¡Únete a un equipo apasionado y altamente motivado por brindar soluciones innovadoras a sus clientes!

“Esta oferta se enmarca en la ley 21.015 que incentiva la inclusión laboral de personas en situación de discapacidad. Aquellos interesados, contarán con el apoyo de la Compañía para realizar un proceso inclusivo y en igualdad de condiciones. BICE Vida se compromete a resguardar la información que postulantes en situación de discapacidad proporcionen de manera voluntaria”.

This job offer is available on Get on Board.

¿Qué buscamos?

En BICE Vida nos encontramos en búsqueda de un Alumno en Práctica de las carreras de Ingeniería Informática, Industrial o carrera afín, para apoyar en la Sugerencia de Sistemas Financieros de la Gerencia de Sistemas en la implemementación de agente Copílot Studio basado en IA generativa para ser habilitado a Mesa de Ayuda y Servicio al Cliente.

En este rol deberás:

  • Implementar agente Copílot Studio basado en IA generativa.
  • Realizar laboreas de programación y finetuninng en plataforma Copilot studio.
  • Ir documentando el proceso

¿Qué necesitamos?

  • Formación académica: Ingeniería Informática, Industrial o carrera afín.
  • Ser alumno regular o egresado en búsqueda de su práctica profesional, como requisito para su título.
  • Conocimientos de IA generativa ,MY APPS, BBDD, Python.

¿Cómo es trabajar en BICE Vida?

  • Trabajamos en horario de oficina de lunes a jueves hasta las 18:00 hrs y los viernes hasta las 16.00 hrs ⌚.
  • Estamos ubicados en Av. Providencia, a pasos del metro Pedro de Valdivia.
  • Tendrás la posibilidad de contar con almuerzo gratuito 🍲 en las dependencias de la compañía cuando asistas presencial. Además, contamos con menú vegetariano y viernes de barra no fit 😜.
  • La práctica considera un bono mensual 💸.

POSTULAR VÍA WEB Ver trabajo
Gross salary $1800 - 3000 Tiempo completo
Ingeniero/a de NLP – Asistente Conversacional con IA
  • Lisit
Python Docker Azure Google Cloud Platform
Lisit es una empresa especializada en la creación, desarrollo e implementación de servicios de software innovadores, orientados a proveer herramientas de automatización y optimización para sus clientes. Con un fuerte enfoque en la innovación y la pasión por superar desafíos tecnológicos, Lisit acompaña a sus clientes mediante consultoría y la integración de variadas prácticas y herramientas tecnológicas, asegurando la ejecución exitosa de procesos de transformación digital a través de estrategias integrales.

Actualmente, el equipo de Lisit desarrolla un proyecto enfocado en la creación de un asistente conversacional basado en inteligencia artificial, empleando tecnologías avanzadas de procesamiento de lenguaje natural (NLP). Este proyecto busca potenciar la interacción entre usuarios y sistemas mediante la comprensión y generación de lenguaje natural, integrando modelos de última generación y soluciones tecnológicas robustas para mejorar la experiencia del usuario final.

Apply to this job opportunity at getonbrd.com.

Responsabilidades principales

En este rol como Ingeniero/a de NLP, serás responsable de diseñar e implementar modelos avanzados de procesamiento de lenguaje natural que permitan comprender y generar lenguaje natural con alta precisión. Deberás integrar modelos preentrenados como GPT o BERT, y trabajar con servicios de inteligencia artificial de plataformas como OpenAI o Hugging Face.
Además, desarrollarás flujos conversacionales inteligentes que manejan contexto e identifican intenciones de forma efectiva, integrando el asistente con APIs, diversas plataformas de mensajería (Slack, WhatsApp, Teams, entre otras) y bases de datos para asegurar una experiencia de usuario fluida y completa.
Serás responsable de la evaluación continua de los modelos mediante métricas estándares como precisión y F1, colaborando estrechamente con equipos de desarrollo, experiencia de usuario (UX) y áreas de negocio para asegurar que las soluciones implementadas estén alineadas con los objetivos estratégicos y necesidades del cliente.

Descripción del puesto y requisitos

Buscamos un/a profesional con experiencia sólida en Python y en el manejo de librerías especializadas en NLP, tales como spaCy, NLTK y Transformers. Además, es necesario contar con conocimientos prácticos en frameworks para asistentes conversacionales como Rasa o Dialogflow, así como experiencia en diseño y manejo del contexto en sistemas conversacionales.
El candidato ideal debe poseer conocimientos técnicos en la integración de APIs RESTful y en la implementación de asistentes a través de múltiples plataformas de mensajería populares, incluyendo Slack, WhatsApp y Microsoft Teams. Valoramos también la familiaridad con herramientas de contenedorización como Docker y prácticas de integración y despliegue continuo (CI/CD), así como experiencia con servicios en la nube tales como AWS, Azure o Google Cloud Platform.
Adicionalmente, se valoran las competencias en proyectos relacionados con grandes modelos de lenguaje (LLMs) como GPT o Claude, la capacidad para diseñar flujos conversacionales empáticos y funcionales, y el conocimiento en técnicas de prompt engineering para optimizar la interacción con modelos de IA generativa.

Conocimientos y habilidades deseables

Se considerará un plus la experiencia previa en proyectos que involucren grandes modelos de lenguaje (LLMs) como GPT o Claude, así como la habilidad para diseñar flujos de conversación que sean tanto funcionales como empáticos, mejorando la experiencia del usuario final.
El conocimiento en el área de prompt engineering para mejorar el rendimiento de modelos generativos, así como el dominio de herramientas para la automatización de despliegues en entornos de producción (Docker, CI/CD) y manejo de infraestructuras en la nube (AWS, Azure, GCP) también serán muy valorados.

Beneficios y entorno laboral

Ofrecemos la oportunidad de trabajar en proyectos desafiantes y de largo plazo dentro de un equipo técnico colaborativo y con un ambiente laboral excelente y amigable. Promovemos la estabilidad laboral, ofreciendo múltiples oportunidades de desarrollo profesional y crecimiento dentro de la compañía.
El trabajo es 100% remoto, idealmente dirigido a candidatos residentes en Chile, lo cual facilita la conciliación entre la vida personal y profesional sin perder el compromiso ni la comunicación estrecha con el equipo.

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer Inteligencia Artificial
  • Factor IT
Java Python SQL Web server
FactorIT es un líder en tecnología con presencia en 8 países y se dedica a ofrecer soluciones innovadoras en Data y Analytics, Transformación Digital e Inteligencia Artificial. Estamos buscando un profesional talentoso para unirse a nuestro equipo en el desarrollo de infraestructuras de datos específicas para proyectos de IA, lo que representa una gran oportunidad para participar en iniciativas desafiantes y significativas que tendrán un impacto en múltiples industrias.

Apply without intermediaries through Get on Board.

Responsabilidades:

En esta función, el candidato será responsable de:
  • Desarrollar y optimizar pipelines de datos para modelos de IA.
  • Colaborar con arquitectos de datos y científicos de datos para construir soluciones escalables y eficientes.
  • Gestionar la integración y almacenamiento de grandes volúmenes de datos utilizando diversas herramientas y plataformas de IA.
  • Mejorar la calidad de los datos garantizando su adecuada preparación para el entrenamiento de modelos de Machine Learning.
  • Implementar procesos automatizados para la recolección y el procesamiento de datos.

Requisitos:

Buscamos a alguien que cumpla con las siguientes calificaciones:
  • Experiencia mínima de 4 años en ingeniería de datos con un énfasis en Inteligencia Artificial.
  • Conocimientos técnicos en herramientas de procesamiento de datos como Apache Spark, Kafka, Hadoop, entre otros.
  • Experiencia trabajando con grandes volúmenes de datos y tecnologías de almacenamiento en la nube.
  • Dominio de lenguajes de programación como Python, SQL y otros orientados a la manipulación de datos.
  • Conocimiento práctico en la implementación de Machine Learning y Deep Learning.

Deseable:

Experiencia en entornos de trabajo ágil y capacidad para gestionar múltiples proyectos simultáneamente. La pasión por la innovación y el deseo de aprendizaje continuo son altamente valorados.

Ofrecemos:

En FactorIT, promovemos un entorno dinámico y de innovación tecnológica. Ofrecemos:
  • Capacitación continua en tecnologías emergentes, especialmente en IA.
  • Flexibilidad y opción de trabajo remoto, permitiendo un mejor balance entre la vida personal y laboral.
  • Oportunidades de crecimiento profesional en un ambiente inclusivo que valora la creatividad y el trabajo en equipo.
¡Si eres un experto en ingeniería de datos con pasión por la Inteligencia Artificial, te estamos esperando! 🚀

Fully remote You can work from anywhere in the world.
Computer provided Factor IT provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3000 - 5000 Tiempo completo
R & D Engineer (Pytorch)
  • Softserve
Python Big Data R English

WE ARE

SoftServe is a leading advisory and IT development services company that assists clients in constructing cutting-edge and innovative solutions while delivering exceptional value. Together with you, we establish and achieve goals to foster mutual growth, learning from successes and mistakes.

Our R&D team applies deep learning and computer vision expertise to cross-disciplinary research from human-computer interaction and bioinformatics to computational finance. We run multiple technology and academic partnerships and expose our research at global events and conferences.

Exclusive offer from getonbrd.com.

Job functions

  • Develop innovative agentic AI solutions across diverse applications throughout the SDLC
  • Proactively propose and implement emerging technologies, studying and adapting to market needs and industry trends
  • Define and execute the technological vision in new research areas by prototyping and developing advanced technological demos
  • Coordinate and deliver presentations at external events, including conferences, meetups, and specialized gatherings
  • Advise external and internal clients on technologies, solutions, and trends to foster innovation and strategic decision-making
  • Align research fields with business needs, ensuring technological advancements address key industry demands
  • Apply proven innovation consulting methodologies to design cutting-edge technological solutions for customer challenges
  • Support business development efforts through marketing, presentations, and presales activities to drive growth and engagement

Qualifications and requirements

  • Experienced with over 6 years in Python and PyTorch
  • Proficient in building and optimizing AI models
  • Knowledgeable in Large Language Models (LLMs) and Vision-Language Models (VLMs), with hands-on experience in their applications
  • Skilled and hands-on with LLMs and prompting techniques, including Chain-of-Thought and Tree-of-Thought reasoning, to enhance model performance
  • Accustomed to the software development lifecycle (SDLC) and programming best practices, ensuring efficient and scalable solutions
  • Proficient in developing applications with web interfaces or user-interactive components, with a solid grasp of architecture and functionality
  • Skilled in Python backend frameworks like FastAPI, with experience in building efficient and scalable APIs
  • Familiar with tools like LangChain, LangGraph, and various agentic frameworks for AI development
  • Comfortable working with modern software development company operations, including workflows, collaboration, and deployment strategies
  • A strong professional, capable of working independently, making decisions, and collaborating in a team-oriented environment
  • A critical thinker and problem-solver, skilled in analyzing complex AI challenges and devising effective solutions
  • Capable of daily communication in English at an upper-intermediate level (written and spoken)

Together we will

  • Empower you to scale your expertise with others by joining the R&D team
  • Excel business of our clients from startups and ISVs to Enterprise and Fortune 500 companies
  • Care for your wellness with a health insurance package
  • Be a part of something bigger than a single project in the professional community
  • Access local-grown, yet global IT minds and exclusive networking opportunities with expert groups and professional events

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Senior Computer Vision Engineer
  • Niuro
C C++ Python Big Data

At Niuro, we connect elite tech teams with innovative projects in collaboration with leading U.S. companies. Our mission emphasizes simplifying global talent acquisition through efficient and high-quality solutions. We empower our teams by providing opportunities for continuous professional growth, ensuring success in technologically challenging projects. As such, we handle all administrative aspects including hiring and payments, allowing our professionals to focus on achieving outstanding results in their respective fields.

Official source: getonbrd.com.

Responsibilities

  • Model Development & Optimization: Enhance accuracy and speed of YOLO (or similar models) through advanced CNN architectures and optimization techniques.
  • Dataset Management & Augmentation: Expand and refine datasets, utilizing data augmentation techniques to enhance model robustness.
  • Model Training & Evaluation: Train and validate models against key metrics (precision, recall, mAP) to ensure reliable performance in real-world scenarios.
  • Deployment on Embedded Hardware: Optimize and deploy models on Jetson Orin Nano (or similar) using TensorRT for high-speed inference.
  • Real-World Validation: Test models in sterilization and surgical environments, iterating and refining based on real-world performance feedback.

Requirements

  • Computer Vision Expertise: 5+ years in deep learning and computer vision.
  • Model Development: Strong experience with YOLO, Faster R-CNN, EfficientDet, or similar architectures.
  • Deep Learning Frameworks: Proficiency in PyTorch or TensorFlow for model training and optimization.
  • Data Handling: Experience managing large datasets and applying data augmentation techniques.
  • Performance Optimization: Knowledge of model quantization, pruning, and employing TensorRT for real-time inference.
  • Embedded AI: Proven experience deploying models on NVIDIA Jetson devices.
  • Evaluation & Metrics: Strong familiarity with key performance metrics including mAP, IoU, recall, and precision.
  • Software Development Skills: Proficiency in Python, with experience in C++ being a plus.
  • Problem-Solving & Debugging: Ability to fine-tune models based on real-world feedback.
  • OpenCV Expertise: Demonstrable experience with OpenCV for advanced image processing and real-time computer vision applications.

Nice to Have

  • Experience with ONNX, OpenVINO, or similar model optimization tools.
  • Familiarity with ROS (Robot Operating System) for robotics applications.
  • Experience in medical imaging or AI applications within healthcare.
  • Knowledge of sensor fusion technologies such as LiDAR and depth cameras.

What We Offer

🌎 100% Remote – Work from anywhere in the world!
📈 Cutting-Edge AI Projects – Engage in real-world AI applications specifically oriented towards the medical field.
💰 Competitive Salary & Performance Reviews – Compensation is tailored according to experience.
🛠 High-Impact Work – Contribute to AI solutions that promote safety and enhance efficiency in surgical environments.
🎓 Learning & Development – Gain access to extensive training, conferences, and mentorship opportunities.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Docente Programación Algoritmos para IoT Sede Plaza Oeste
  • Duoc UC
  • Santiago (In-office)
Java Python Internet of Things IoT
En Duoc UC, una institución de educación superior técnico profesional autónoma y católica con más de 50 años de historia y la máxima acreditación otorgada por la CNA, formamos profesionales preparados para los desafíos actuales. La Escuela de Informática y Telecomunicaciones de la sede Plaza Oeste busca integrar docentes en áreas innovadoras como Programación de Algoritmos para IoT, contribuyendo a la formación integral y técnica de estudiantes en tecnologías emergentes y desarrollo de software especializado.

Apply to this job directly at getonbrd.com.

Responsabilidades principales

Duoc UC Sede Plaza Oeste, Escuela de Informática y Telecomunicaciones requiere contratar docentes para la asignatura de Programación de Algoritmos para IoT con disponibilidad en jornada diurna, que será responsable de liderar el proceso de enseñanza y aprendizaje de acuerdo con el modelo educativo, alineado al marco valórico institucional, movilizando su formación y experiencia profesional, valores y conocimiento disciplinar, para ser un real aporte al aprendizaje de los estudiantes.

Requisitos del cargo

Es requisito contar con:

  • Formación: Ingeniero en Informática, Ingeniero en Computación o Ingeniero en Conectividad y Redes.
  • Experiencia: 3 años de experiencia en tecnologías emergentes TI e IoT. Conocimientos teóricos y prácticos en desarrollo de algoritmos. Dominio avanzado en el área de programación y/o desarrollo de software. Conocimiento avanzado en lenguaje Python.
  • Disponibilidad: Jornada Diurna / Lunes de 12:10hrs a 13:40hrs, Miércoles de 10:41hrs a 12:10hrs.
  • Otros requisitos: Deseable certificación en: Java SE 6 Programmer o superior, Microsoft Technology Associate (MTA), Microsoft Certified Solutions Developer (MCSD)

POSTULAR VÍA WEB Ver trabajo