No encontramos ningún resultado.

Prueba con otro grupo de palabras.

Si crees que esto es un error, por favor contáctanos.

Gross salary $3100 - 4500 Tiempo completo
Data Engineer
  • Haystack News
  • Lima (Hybrid)
Python Analytics Data Analysis SQL

Haystack News is the leading local & world news service on Connected TVs reaching millions of users! This is a unique opportunity to work at Haystack News, one of the fastest-growing TV startups in the world. We are already preloaded on 37% of all TVs shipped in the US!

Be part of a Silicon Valley startup and work directly with the founding team. Jumpstart your career by working with Stanford & Carnegie Mellon alumni and faculty who have already been part of other successful startups in Silicon Valley.

You should join us if you're hungry to learn how Silicon Valley startups thrive, you like to ship quickly and often, love to solve challenging problems, and like working in small teams.

See Haystack's feature at this year's Google IO:

This job is published by getonbrd.com.

Job functions

  • Analyze large data sets to get insights using statistical analysis tools and techniques
  • Collaborate with the Marketing, Editorial and Engineering teams on dataset building, querying and dashboard implementations
  • Support the data tooling improvement efforts and help increase the company data literacy
  • Work with the ML team on feature engineering and A/B testing for model building and improvement
  • Design, test and build highly scalable data management and monitoring systems
  • Build high-performance algorithms, prototypes and predictive models

Qualifications and requirements

  • Strong written and spoken English is a must!
  • Bachelor's degree in Computer Science, Statistics, Math, Economics or related field
  • 2+ years experience doing analytics in a professional setting
  • Advanced SQL skills, including performance troubleshooting
  • Experience with data warehouses (e.g. Snowflake, BigQuery, Redshift)
  • Proficient in Python including familiarity with Jupyter notebooks
  • Strong Math/Stats background with statistical analysis experience on big data sets
  • Strong communication skills, be able to communicate complex concepts effectively.

Conditions

  • Unlimited vacations :)
  • Travel to team's offsite events
  • 100% paid Uber rides to go to the office
  • Learn about multiple technologies

Accessible An infrastructure adequate for people with special mobility needs.
Relocation offered If you are moving in from another country, Haystack News helps you with your relocation.
Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Meals provided Haystack News provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Company retreats Team-building activities outside the premises.
Computer repairs Haystack News covers some computer repair expenses.
Commuting stipend Haystack News offers a stipend to cover some commuting costs.
Computer provided Haystack News provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2800 Tiempo completo
Ingeniero/a de Proyectos
  • Itrend Chile
  • Santiago (Hybrid)

En el Instituto para la Resiliencia ante Desastres (Itrend) estamos dedicados a la creación de bienes y servicios públicos mediante la colaboración y la innovación informadas por el conocimiento científico-tecnológico, con el objetivo de mitigar el impacto de desastres socionaturales en el país. Nuestro equipo especializado se conecta con diversos actores de la sociedad para fomentar un desarrollo sostenible y resiliente. Actualmente, buscamos un/a ingeniero/a de proyectos que se una al área de proyectos de Itrend.

Apply from getonbrd.com.

Funciones del cargo

  • Indagar y levantar información para el desarrollo adecuado de los proyectos. Esto incluye revisar la normativa vigente relacionada a la Gestión del riesgo de desastres.
  • Implementar modelos y realizar análisis, asegurando la calidad de los datos y de los resultados en consistencia con los objetivos establecidos en conjunto con las contrapartes.
  • Diseñar y/o seleccionar metodologías para la modelación y análisis de amenazas naturales y antrópicas.
  • Investigar e integrar nuevas tecnologías y enfoques en la modelación de riesgos para mejorar la precisión y utilidad de los modelos.
  • Comunicar los resultados de los análisis de riesgo a distintos públicos, incluyendo autoridades, comunidades y equipos técnicos, reconociendo supuestos y limitaciones de los modelos desarrollados.
  • Elaborar informes técnicos detallados y documentación de avances y resultados de los proyectos en los que participe.

Requerimientos del cargo

  • Título universitario en ingeniería civil o civil industrial y disciplinas afines a las funciones y desafíos del cargo.
  • Entre 2 a 5 años de experiencia laboral comprobable de preferencia en consultoras, centros de
    investigación, centros de estudios o áreas de I+D en empresas de ingeniería civil.
  • Conocimiento básico de programación científica (deseable Python).
  • Capacidad para comunicar análisis complejos de manera clara y efectiva, tanto a públicos
    técnicos como no técnicos.
  • Conocimiento intermedio del idioma inglés, oral y escrito.
  • Disponibilidad para el trabajo de forma presencial en las oficinas de Itrend, al menos cuatro días
    a la semana.

¿Qué habilidades adicionales serían beneficiosas?

  • Experiencia desarrollando proyectos relacionados a la gestión del riesgo de desastres y/o modelamiento de sistemas, o temáticas afines.
  • Conocimiento y manejo de Sistemas de Información Geográficos (SIG), además de experiencia
    en geoprocesos y manejo de información espacial (ráster y vector). Deseable manejo en QGIS o ArcGIS.
  • Experiencia en desarrollo de investigación científica o de consultorías.

Beneficios de trabajar con nosotros

Ofrecemos un ambiente de trabajo orientado a la colaboración y el crecimiento, con beneficios que incluyen:

  • Modalidad de trabajo híbrido y flexible, permitiendo un día de teletrabajo a la semana.
  • 5 Días de vacaciones adicionales a las legales y vacaciones proporcionales antes de cumplir un año de antigüedad.
  • 5 Días administrativos al año para facilitar trámites personales.
  • Día libre por cumpleaños y días adicionales de postnatal para el padre.
  • Oportunidades de desarrollo profesional y personal, enfocadas en el bienestar de nuestra comunidad.

Itrend es una organización sin fines de lucro enfocada en mejorar la resiliencia de Chile ante
desastres socionaturales. Te ofrecemos la oportunidad de que tu trabajo tenga un impacto real
en el bienestar y seguridad de tu comunidad y todo el país.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance Itrend Chile pays or copays life insurance for employees.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Computer provided Itrend Chile provides a computer for your work.
Vacation over legal Itrend Chile gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2500 Tiempo completo
UI Engineer
  • coderslab.io
JavaScript Ruby HTML5 CSS

At CodersLab, we are currently focused on expanding our teams globally with the goal of positioning our products in more countries across Latin America. That’s why we are looking for a UI Engineer—a motivated individual who is goal-oriented and driven to achieve results.

You will join a dynamic and ambitious team eager to transform the market, where your ideas and proposals will be highly valuable to the business.

Apply now and take on this amazing challenge!

Exclusive to Get on Board.

Job functions

POSITION OVERVIEW
This role is remote. Chairish Inc. is looking for a UI engineer to work on the team developing
our core commerce platform.
As a member of the core platform engineering team you will participate in all stages of the product
development lifecycle from business analysis, requirements development, and, of course, product
development. As a key driver of the product process, this role presents the opportunity to have a
direct and meaningful impact on the business while working to advance the innovation that drives
the home decor industry online at an ever fast pace.

Responsibilities
● Focus on the development and architecture of Chairish's web UI for both mobile and desktop
devices
● Develop and review technical designs and document them
● Participate in code reviews
● Automated unit test creation and manual testing of your code
● Work closely with product management, logistics, and production staff to manage product
scope and requirements
● Continue to be responsible for your code once it's in production

Qualifications and requirements

● At least 3 years of prior software development experience
● Bachelor's degree in Computer Science or a related field (or equivalent experience)
● You love HTML
● You have a deep understanding of CSS
● Strong Javascript skills
● Excellent verbal and written communication
● Natural problem-solver and troubleshooter
● One or more server side scripting languages (e.g. Python, Ruby, PHP, Javascript). We work
primarily in Python but it's easy enough to learn if you've got related experience.
● Comfortable working in a GNU Linux/Unix environment
● Familiarity with one or more relational databases (e.g. MySQL, Postgres, etc...) and solid
knowledge of SQL

Desirable skills

Bonus but not required
● Experience with LESSCSS
● Experience with jQuery, RequireJS, Webpack, Vue, or React
● Experience optimizing front-end performance

Conditions

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3000 - 3200 Tiempo completo
Full-Stack AI &Amp; Python Bilingüe
  • Genesys Tecnologías de Inform. SpA
Genesys Tecnologías de Inform. SpA es una compañía con más de 30 años en el mercado latinoamericano, especializada en desarrollo de software y servicios tecnológicos avanzados. Con sede principal en Concepción y operaciones importantes en Santiago, trabajamos en la transformación digital de empresas a través de soluciones innovadoras como RPA, Inteligencia Artificial, QA Automation, Cloud y Staff Augmentation.
El proyecto actual está orientado al desarrollo y mantenimiento de sistemas inteligentes integrados con modelos de lenguaje (LLMs), apoyando la evolución tecnológica de nuestros clientes en Latinoamérica mediante aplicaciones de IA prácticas y efectivas.

© getonbrd.com.

Funciones del Cargo

Buscamos un ingeniero de Inteligencia Artificial con habilidades en Python, LangChain y LangGraph para formar parte de nuestro equipo especializado en construir soluciones inteligentes. Esta posición se enfoca en desarrollar y orquestar pipelines de procesamiento de lenguaje natural, diseñar agentes conversacionales complejos y sistemas inteligentes que respondan a necesidades reales.
  • Diseñar, desarrollar y mantener pipelines de procesamiento de lenguaje con LangChain y LangGraph.
  • Implementar chatbots inteligentes, asistentes autónomos, clasificadores y sistemas de búsqueda con técnicas de Recuperación Basada en Generación (RAG).
  • Orquestar flujos de decisiones con manejo de memoria contextual, persistencia de estado y control de errores usando LangGraph.
  • Integrar múltiples APIs externas, bases de datos y modelos locales para potenciar las capacidades de los sistemas.
  • Colaborar estrechamente con equipos de producto y diseño para convertir requisitos en soluciones AI efectivas y productivas.

Descripción y Requisitos del Cargo

El candidato ideal debe contar con conocimientos avanzados en Python y experiencia práctica con herramientas modernas de la pila LLM, especialmente LangChain y LangGraph, para la construcción de agentes y workflows complejos de IA. Es fundamental poseer un alto nivel de inglés, ya que es un requisito excluyente para desempeñar esta función.
  • Experiencia en desarrollo de software con Python, incluyendo desarrollo modular, manejo asincrónico, integración con APIs y procesamiento de texto (NLP).
  • Experiencia trabajando con modelos de lenguaje y tecnologías LLM.
  • Experiencia demostrable en proyectos utilizando LangChain para crear agentes, cadenas personalizadas, herramientas externas, pipelines RAG e integración con bases vectoriales.
  • Conocimiento en LangGraph para diseñar y administrar workflows de IA complejos con control de estados, branching y lógica conversacional.
  • Capacidad para implementar soluciones usando LLMs de OpenAI y otros proveedores, aplicando técnicas de prompt engineering, fine-tuning ligero y personalización de modelos Open Source.
  • Deseable experiencia en sistemas de recuperación semántica basados en embeddings para mejorar la precisión y relevancia de las respuestas.
  • Conocimientos básicos o intermedios en APIs REST y GraphQL, así como en contenedores Docker y despliegue de microservicios, son altamente valorados.
Además de las habilidades técnicas, buscamos personas con capacidad para trabajar en equipo, comunicarse efectivamente, adaptarse a tecnologías emergentes y contribuir al desarrollo de soluciones innovadoras en un entorno dinámico y colaborativo.

Habilidades y Experiencias Deseables

Se valorará positivamente la experiencia adicional en la implementación de soluciones de recuperación semántica basadas en embeddings, desarrollo y despliegue con Docker y microservicios, así como un conocimiento intermedio en APIs REST y GraphQL para mejorar la integración y escalabilidad de las aplicaciones.
También es deseable la familiaridad con técnicas avanzadas en prompt engineering, fine-tuning avanzado de modelos de lenguaje, y la capacidad para diseñar flujos conversacionales complejos que impliquen lógica de negocio y control de estado persistente.

Beneficios y Condiciones

Ofrecemos un contrato por proyecto que garantiza estabilidad y condiciones claras para nuestros colaboradores en un ambiente laboral dinámico, colaborativo y enfocado en el desarrollo profesional constante.

Formarás parte de una empresa consolidada en Latinoamérica con más de tres décadas de experiencia, que valora el talento y fomenta la innovación.

Contamos con un equipo multidisciplinario y una comunicación diaria con nuestra matriz en Santiago y otras operaciones, lo que facilita la colaboración continua y el apoyo técnico.

¡Esperamos que te unas a nuestro equipo para crecer juntos! 😊

Health coverage Genesys Tecnologías de Inform. SpA pays or copays health insurance for employees.
Computer provided Genesys Tecnologías de Inform. SpA provides a computer for your work.
Shopping discounts Genesys Tecnologías de Inform. SpA provides some discounts or deals in certain stores.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Machine Learning Engineer
  • Haystack News
  • Lima (Hybrid)
Python SQL NoSQL Big Data

Haystack News is the leader in transitioning younger audiences to a next-generation TV news product. We empower users to watch the news they care about with a personalized headline news channel. Our personalization and big data technology enable a seamless lean-back experience reaching millions of users. In 2020, we streamed billions of minutes of news to users around the globe.

We're available on a variety of TV platforms (Roku, Fire TV, Android TV, Apple TV, Chromecast, Vizio) as well as mobile, tablet, and desktop.

© getonbrd.com. All rights reserved.

Job functions

We are looking for an outstanding machine learning engineer to join Haystack and help improve the experience of millions of users that rely on Haystack to get the news every day.

Within the team you’ll find many opportunities to work on various aspects of Machine Learning and Data Engineering. The job offers the opportunity of generating a major impact on the product while working with an awesome and talented team, using the latest technologies.

You will:

  • Analyze large data sets to get insights using statistical analysis tools and techniques
  • Build, evaluate and deploy machine learning models
  • Maintain ongoing reliability, performance, and support of the data infrastructure, providing solutions based on application needs and anticipated growth.
  • Work with tools to configure, monitor and orchestrate data infrastructure and pipelines.
  • Run and monitor AB Tests
  • Build and manage APIs

Qualifications and requirements

  • Bachelor's degree in Computer Science, Statistics, Math or related field.
  • 3+ years experience writing software in a professional setting
  • Knowledge of AWS and Python
  • Strong Math/Stats background with statistical analysis experience on big data sets
  • Experience with SQL and NoSQL (e.g. MongoDb or DynamoDB)
  • Big Plus: Experience with data warehouses (e.g. Snowflake, Big Query, Redshift)
  • Exposure to ML/AI libraries such as sklearn, LightGBM and, XGBoost.
  • Travel Visa to the US (desired)

Conditions

Uber rides to come to the office!
Travel to team's offsite events
Learn about multiple technologies

Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Meals provided Haystack News provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Company retreats Team-building activities outside the premises.
Computer repairs Haystack News covers some computer repair expenses.
Commuting stipend Haystack News offers a stipend to cover some commuting costs.
Computer provided Haystack News provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Conference stipend Haystack News covers tickets and/or some expenses for conferences related to the position.
Informal dress code No dress code is enforced.
Vacation over legal Haystack News gives you paid vacations over the legal minimum.
Beverages and snacks Haystack News offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Machine Learning Engineer
  • NeuralWorks
  • Santiago (Hybrid)
Python Data Analysis SQL Big Data

NeuralWorks es una compañía de alto crecimiento fundada hace 3 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

© Get on Board. All rights reserved.

Descripción del trabajo

El equipo de Data y Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.

Trabajarás transformando los procesos a MLOps y creando productos de datos a la medida basados en modelos analíticos, en su gran mayoría de Machine Learning, pero pudiendo usar un espectro de técnicas más amplio.

Dentro del equipo multidisciplinario con Data Scientist, Translators, DevOps, Data Architect, tu rol será extremadamente importante y clave para el desarrollo y ejecución de los productos, pues eres quien conecta la habilitación y operación de los ambientes con el mundo real. Te encargarás de aumentar la velocidad de entrega, mejorar la calidad y la seguridad del código, entender la estructura de los datos y optimizar los procesos para el equipo de desarrollo.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Como MLE, tu trabajo consistirá en:

  • Trabajar directamente con el equipo de Data Scientists para poner en producción modelos de Machine Learning utilizando y creando pipelines de ML.
  • Recolección de grandes volúmenes y variados conjuntos de datos.
  • Recolección de interacción con la realidad para su posterior reentrenamiento.
  • Construir las piezas necesarias para servir nuestros modelos y ponerlos a interactuar con el resto de la compañía en un entorno real y altamente escalable.
  • Trabajar muy cerca de los Data Scientists buscando maneras eficientes de monitorear, operar y darle explicabilidad a los modelos.
  • Promover una cultura técnica impulsando los productos de datos con las prácticas DevSecOps, SRE y MLOps.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia práctica de al menos 3 años en entornos de trabajo como Software Engineer, ML Engineer, entre otros.
  • Experiencia con Python.
  • Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida optimización de consultas.
  • Experiencia usando pipelines de CI/CD y Docker.
  • Pasión en problemáticas de procesamiento de datos.
  • Experiencia con servidores cloud (GCP, AWS o Azure, de preferencia GCP), especialmente el conjunto de servicios de procesamiento de datos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.
  • Habilidades de comunicación y trabajo colaborativo.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” Gaucher, D., Friesen, J., & Kay, A. C. (2011).

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.
  • Stack orientado a modelos econométricos (statsmodels, pyfixest), serialización.
  • Experiencia con algún motor de datos distribuido como pyspark, dask, modin.
  • Interés en temas "bleeding edge" de Inferencia Causal: (Técnicas Observacionales, Inferencia basada en diseño, Probabilidad y Estadística [Fuerte énfasis en OLS y sus distintas expansiones]).

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Vestimenta informal
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2600 - 3100 Tiempo completo
AI Data Scientist
  • ComunidadFeliz
Python Data Analysis Microservices Artificial Intelligence

ComunidadFeliz es una empresa SaaS para edificios y condominios.
Nos llamamos Comunidad Feliz porque creemos que podemos cambiar la realidad de las comunidades, darles herramientas para tomar las decisiones correctas, apoyo para una buena gestión y una sana comunicación entre vecinos, finalmente, crear una Comunidad Feliz.

Nuestra misión es generar prosperidad y felicidad a las comunidades del mundo a través de la tecnología y calidad de servicio.

Tenemos un equipo que valora la felicidad, empatía y soluciones reales.

This job is published by getonbrd.com.

¿Qué desafíos deberás enfrentar?

  • Diseño y desarrollo de modelos de inteligencia artificial (IA) y machine learning (ML): Identificar y crear casos de uso innovadores para aplicar IA y ML que mejoren procesos internos y aporten valor significativo al negocio.
  • Mantenimiento y optimización: Documentar y asegurar el correcto mantenimiento, actualización y mejora continua de los modelos implementados para garantizar su efectividad y eficiencia.
  • Desarrollo de reportes y dashboards: Construir dashboards interactivos y reportes automatizados que faciliten la visualización y comprensión de datos complejos para apoyar la toma de decisiones con stakeholders de diversas áreas.
  • Análisis estadístico y exploratorio: Realizar análisis detallados para identificar patrones, tendencias y oportunidades de mejora continua dentro de la unidad de negocio.
  • Comunicación técnica: Traducir resultados y hallazgos técnicos en un lenguaje claro y accesible para equipos no técnicos y la alta dirección.
  • Colaboración interfuncional: Trabajar estrechamente con las áreas de producto, desarrollo y negocio para identificar sinergias y elevar el impacto de las soluciones de IA.
  • Evaluación de impacto y costos: Medir el desempeño y eficacia de los modelos implementados, evaluando costos operativos para maximizar la rentabilidad y eficiencia.

¿Qué necesitas para postular?

Buscamos un profesional con experiencia sólida en IA y ML, capaz de diseñar, implementar y mantener modelos de inteligencia artificial que generen impacto directo en procesos y el negocio. Debe contar con un enfoque analítico y orientado a la mejora continua, así como habilidades para comunicar resultados técnicos a públicos diversos.
El candidato ideal demostrará experiencia en automatización de procesos utilizando IA y ML, manejo avanzado de herramientas de análisis de datos, y una visión estratégica para identificar nuevas oportunidades de aplicación tecnológica. Además, es fundamental que posea alta capacidad de colaboración y empatía, alineado con los valores organizacionales centrados en la felicidad y el bienestar.
Se valoran competencias en estadística, programación en Python o R, manejo de frameworks ML como TensorFlow o PyTorch, y habilidades para crear dashboards con herramientas como Power BI o Tableau.

Suman Puntos Felices


  • Experiencia en integración de agentes de inteligencia artificial conversacionales o chatbots.
  • Conocimientos en arquitecturas de microservicios y APIs para facilitar la integración de modelos inteligentes con sistemas existentes.
  • Familiaridad con metodologías ágiles para el desarrollo colaborativo de proyectos.
  • Capacidad para gestionar proyectos multidisciplinarios y múltiples stakeholders.

Beneficios

Trabajo Remoto 🏠: Tenemos una cultura remota que prioriza los valores y herramientas remotas.

Excelente Cultura 🎉: Mensualmente fomentamos la cultura mediante 2 eventos digitales a nivel empresa y 1 evento a nivel de equipo.

Día Libre el Día de tu Cumpleaños 🎂.

¡Miércoles de Vida! 🏃‍♂️: Te damos 1 hora para que puedas tomar al inicio o al final de tu jornada para que puedas hacer tu deporte favorito.

Viernes Corto 🕔: ¡Los días viernes se sale a las 17:00 hrs!

15 Días de Vacaciones al Año 🌴.

Desarrollo de Carrera 📈: Planes de carrera y cursos formativos.

Días de Salud 💊: Te pagaremos el 100% de los 3 primeros días de una licencia médica que no cubre tu previsión (en cualquier país) cada año.

Provisión de Días de Salud para +3 Días 🏥.

Permisos por Matrimonio, Nacimientos, Lactancia, Adopción 👰🤱.

Bono de Festividades 🎁: Entregamos bono en diciembre.

Digital library Access to digital books or subscriptions.
Health coverage ComunidadFeliz pays or copays health insurance for employees.
Company retreats Team-building activities outside the premises.
Computer provided ComunidadFeliz provides a computer for your work.
Education stipend ComunidadFeliz covers some educational expenses related to the position.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1800 - 2600 Tiempo completo
Senior Computer Vision Engineer Embedded AI
  • Flappie Technologies AG
Python Machine Learning Computer vision PyTorch
Flappie Technologies AG is a pioneering company dedicated to advancing the field of pet care through innovative AI-powered devices. Their flagship product is an AI-enabled catflap that uses embedded computer vision to distinguish between pet cats and potential prey in real time.
🐾 Join the pride at Flappie and build cat-tech purr-fection! 😻
We’re on a mission to give every whiskered adventurer the freedom to roam and keep local wildlife safe. Our AI-powered catflap packs computer-vision magic into a tiny embedded device, spotting feline VIPs and sneaky prey in real time. If you dream in tensors, speak PyTorch fluently, and believe “YOLO” stands for “You Only Lick Once”, come help us push the paws-sibilities of pet care to the next level. 🚀✨

Apply without intermediaries from Get on Board.

Key Responsibilities

  • Lead the development and innovation of state-of-the-art computer vision algorithms for advanced pet care applications, specifically targeting prey detection and smart animal identification.
  • Drive the entire machine learning lifecycle including data pipeline creation, data collection strategy design, model training, deployment, and ongoing monitoring to ensure continuous improvement in real-world settings.
  • Optimize deep learning computer vision models to operate efficiently on resource-constrained embedded devices, focusing on balancing accuracy with computational complexity and energy consumption.
  • Prototype new AI-driven features for future pet care experiences and ensure seamless integration of robust solutions into the existing catflap embedded product.
  • Collaborate with AI research institutes and external partners to foster joint research initiatives and forward-looking advancements in computer vision technologies.
  • Develop and maintain well-documented, high-quality, and maintainable source code following embedded systems coding standards to support the scalability of the engineering team.
  • Work closely with data engineering and software engineering teams to integrate computer vision components within the larger product ecosystem.
  • Represent Flappie’s AI expertise in technical discussions with partners, clients, and at industry conferences, while contributing to the company’s intellectual property portfolio through innovative AI technology.

Required Skills and Experience

  • Master's degree or PhD in Computer Science, Electrical Engineering, or related technical discipline with a strong focus on Computer Vision and Machine Learning methodologies.
  • Expert proficiency in Python programming, including experience optimizing code for embedded systems with constrained resources.
  • Deep theoretical and practical understanding of computer vision fundamentals such as image processing, feature extraction, object detection, vision transformers, and tracking algorithms.
  • Extensive hands-on experience with deep learning frameworks like PyTorch or TensorFlow, with a proven track record of implementing and deploying state-of-the-art neural network architectures.
  • Demonstrated expertise in optimizing machine learning models for deployment on edge devices, including application of model compression techniques and efficient inference algorithms.
  • Strong background in developing and managing scalable data pipelines, with familiarity in big data technologies for processing large-scale image and video datasets.
  • Experience working with embedded Linux platforms and deploying machine learning models on embedded edge devices.
  • Sound software engineering practices including version control systems (e.g., Git), continuous integration workflows, and test-driven development approaches.
  • Proven leadership skills in managing technical projects end-to-end: planning, resource allocation, scheduling, and delivering production-ready solutions.
  • Exceptional analytical and problem-solving abilities, with a passion for innovation and crafting novel solutions for advanced computer vision challenges.
  • Excellent communication skills enabling clear explanation of complex technical topics to both technical teams and non-technical stakeholders alike.

Desirable Skills and Experience

Experience with embedded system software development beyond machine learning, including real-time operating systems and hardware-software co-design, would be beneficial. Knowledge of other programming languages such as C/C++ for embedded applications is an asset. A background in collaborative research projects or contributions to academic publications related to AI and computer vision enhances suitability. Familiarity with cloud-based AI services or tools for model deployment and monitoring could complement this role, as would experience in patent filing and intellectual property management.

Benefits

Flappie Technologies AG offers an exciting opportunity to work remotely from anywhere while contributing to a rapidly growing company at the intersection of AI, embedded systems, and animal welfare. We foster a collaborative, innovative environment where cutting-edge research meets practical product development. Join a passionate team committed to pushing the boundaries of technology to improve the lives of pets and their ecosystems globally.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
Vacation over legal Flappie Technologies AG gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Practicante Ing Informática para Desarrollo e IA Generativa
  • BICE VIDA
  • Santiago (In-office)

En BICE VIDA somos líderes en el rubro de las aseguradoras y queremos satisfacer las necesidades de seguridad, prosperidad y protección de nuestros clientes. Estamos apostando por la transformación digital, buscando nuevas formas de realizar el negocio, para mantenernos vigente y responder a los constantes cambios que el entorno nos exige.

¡Únete a un equipo apasionado y altamente motivado por brindar soluciones innovadoras a sus clientes!

“Esta oferta se enmarca en la ley 21.015 que incentiva la inclusión laboral de personas en situación de discapacidad. Aquellos interesados, contarán con el apoyo de la Compañía para realizar un proceso inclusivo y en igualdad de condiciones. BICE Vida se compromete a resguardar la información que postulantes en situación de discapacidad proporcionen de manera voluntaria”.

Apply through Get on Board.

¿Qué buscamos?

En BICE Vida nos encontramos en búsqueda de un Alumno en Práctica de las carreras de Ingeniería Informática, Industrial o carrera afín, para apoyar en la Sugerencia de Sistemas Financieros de la Gerencia de Sistemas en la implemementación de agente Copílot Studio basado en IA generativa para ser habilitado a Mesa de Ayuda y Servicio al Cliente.

En este rol deberás:

  • Implementar agente Copílot Studio basado en IA generativa.
  • Realizar laboreas de programación y finetuninng en plataforma Copilot studio.
  • Ir documentando el proceso

¿Qué necesitamos?

  • Formación académica: Ingeniería Informática, Industrial o carrera afín.
  • Ser alumno regular o egresado en búsqueda de su práctica profesional, como requisito para su título.
  • Conocimientos de IA generativa ,MY APPS, BBDD, Python.

¿Cómo es trabajar en BICE Vida?

  • Trabajamos en horario de oficina de lunes a jueves hasta las 18:00 hrs y los viernes hasta las 16.00 hrs ⌚.
  • Estamos ubicados en Av. Providencia, a pasos del metro Pedro de Valdivia.
  • Tendrás la posibilidad de contar con almuerzo gratuito 🍲 en las dependencias de la compañía cuando asistas presencial. Además, contamos con menú vegetariano y viernes de barra no fit 😜.
  • La práctica considera un bono mensual 💸.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Senior AI Engineer
  • Moventi
Python Machine Learning Infrastructure as Code AWS Lambda
Moventi is a technology company dedicated to helping organizations lead innovation through advanced technological solutions. We foster a multidisciplinary environment where continuous learning, experimentation, and teamwork are central. Our projects focus on leveraging cutting-edge AI technologies and scalable cloud infrastructure to build impactful, reliable products that push the boundaries of what's possible in AI and ML-driven solutions.
Within the AI Engineering department, the team works on full lifecycle AI product development, from prototyping and proof-of-concepts to the deployment of scalable production systems. We collaborate closely across Product, Research, and Engineering groups to integrate AI capabilities into our core products, driving innovation in fast-paced, demanding contexts.

© getonbrd.com. All rights reserved.

Key Responsibilities

As a Senior AI Engineer at Moventi, you will:
  • Design, build, and deploy AI-driven systems using state-of-the-art tools and frameworks such as OpenAI's APIs, Amazon Bedrock, Langchain, and LangGraph.
  • Develop and optimize vector search algorithms and embedding models using libraries and databases including pgvector, FAISS, and Pinecone.
  • Prototype, fine-tune, and productionize large language model (LLM) solutions and Retrieval-Augmented Generation (RAG) applications while implementing safety and reliability guardrails.
  • Create and maintain robust evaluation pipelines to continuously monitor model performance, detect drift, and ensure alignment with business goals.
  • Implement scalable AI infrastructure on AWS with Python, utilizing Pulumi or CDK for infrastructure as code, and automate workflows via GitHub Actions.
  • Integrate tracing and experiment tracking tools such as Weights & Biases and Langsmith to gather detailed telemetry and performance data.
  • Collaborate effectively with interdisciplinary teams in Product, Research, and Engineering to align AI projects with broader company objectives.
  • Communicate complex technical concepts clearly to both technical and non-technical stakeholders, including executive leadership.
  • Take end-to-end ownership of AI projects, driving solutions from initial prototypes through to fully scalable, production-grade deployments.
  • Contribute to architectural decisions, tooling selection, and strategic technical directions for AI initiatives at Moventi.

Qualifications

We are seeking candidates with a minimum of 5 years of professional experience in software, machine learning, or AI engineering roles. The ideal candidate will have strong proficiency in Python programming, especially in developing backend services and APIs related to AI and ML applications.
Expertise in AWS cloud services such as Lambda, S3, Amazon Bedrock, and ECS is essential, alongside a deep understanding of cloud-native architectures that support scalable and reliable AI systems.
Proven hands-on experience with vector databases and embedding techniques—using pgvector, FAISS, Pinecone, or similar technologies—is required to effectively design and optimize search and retrieval capabilities.
Practical knowledge in building applications powered by OpenAI models and Amazon Bedrock foundation models, leveraging frameworks like Langchain and LangGraph, is critical. The candidate should demonstrate autonomy and accountability by independently taking projects through the full lifecycle, from concept to production.
Excellent communication skills are paramount, as this role involves explaining technical details to a broad range of audiences, including those without a technical background.

Preferred Skills and Experience

Experience in private markets, fintech, or financial services sectors, providing domain knowledge that can drive contextualized AI solutions.
Prior involvement in integrating AI/ML technologies into production systems at scale, highlighting familiarity with operational challenges and best practices.
Exposure to Retrieval-Augmented Generation (RAG) pipelines and prompt engineering to support advanced AI capabilities.
Experience shaping AI-driven platform architectures and making strategic technical decisions.
Comfort working in small, agile teams (2–5 engineers), demonstrating flexibility, strong collaboration, and ownership in a dynamic environment.

Benefits

At Moventi, we offer a stimulating and innovative work environment located in the heart of San Isidro, Lima. Our office provides convenient parking and recreational zones to promote well-being during breaks. Our hybrid work model allows flexible scheduling, enabling you to balance time between our fully equipped office and remote work tailored to both team and personal preferences.
We emphasize professional growth by engaging you in challenging and diverse projects that foster continuous learning and skill enhancement. Our organizational culture values transparency, collaboration, commitment, risk-taking, and innovation. We ensure formal employment contracts with full legal benefits from day one, providing job security and comprehensive protections.

Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Machine Learning Engineer IA Senior
  • Bci
  • Santiago (Temporarily remote)
Machine Learning LLMs APIs Agile Methodologies

La principal misión del cargo será desarrollar e implementar mediante metodologías ágiles de desarrollo de software de nuevos productos y servicios innovadores para la corporación BCI, con el propósito de hacerlos disponibles para nuestros clientes y colaboradores, contribuyendo a la generación de nuevos negocios, a la continuidad operacional del negocio, a la satisfacción del cliente y al cumplimiento de visión innovadora corporativa, asegurando la calidad, escalabilidad y time to market de las soluciones.

Exclusive offer from getonbrd.com.

En este rol tendrás la oportunidad de:

Diseñar soluciones tecnológicas end-to-end para proyectos que utilizan tecnologías de Gen AI. Reconocer y sistematizar los aprendizajes obtenidos en la implementación de los casos de uso en una metodología de trabajo end to end, que incluya desde la selección y tratamiento de las fuentes de datos no estructurados, su indexación, la construcción de las interacciones con los modelos, la evaluación de los resultados, las herramientas necesarias para su supervisión, entre otros. Evaluar el desempeño de los modelos de Gen AI en los casos de uso en construcción y en producción, definiendo métricas y estableciendo alternativas para lograr mejores resultados. Entender los modelos de costo asociados a los distintos proveedores de servicios de IA Generativa, permitiendo escalar los casos de uso con un costo eficiente y previsible. Dirigir el desarrollo de integraciones complejas y optimizadas con diversas APIs de LLMs, implementar estrategias avanzadas de fine-tuning, y utilizar frameworks como LangGraph para diseñar arquitecturas de agentes complejos y flujos de trabajo multi-agente altamente eficientes y mantenibles. Diseñar y desarrollar procesos y modelos de datos con la finalidad de proveer de data estructurada y no estructurada a las soluciones desarrolladas. Mantenerse a la vanguardia del ecosistema de Gen AI, liderando la evaluación y selección de modelos LLMs comerciales y Open Source, hyperscalers y proveedores de soluciones, con un enfoque estratégico en las alianzas del banco como Microsoft, Salesforce y Google, para identificar oportunidades de innovación y ventaja competitiva.

Requerimientos del cargo

Lidera el diseño, desarrollo y deployments de sistemas de machine learning, guiando e implementando casos de uso que generen impacto y estableciendo una metodología de trabajo que permita escalar la capacidad en forma gradual a las unidades de negocio y áreas habilitadoras del banco.

Para tener éxito en esta posición necesitas:

Ingeniería Civil (Computación, Industrial, Matemática, etc), Economía, o carreras afines (Magister en Data Science, Inteligencia Artificial, Tecnología, etc. para carreras no afines). Entre 4 a 6 años de experiencia en analytics, data science, machine learning y/o productos de datos. Desde 2 años de experiencia en desarrollo de soluciones de GenAI, incluyendo agentes, bots, o similares utilizando LLMs. Nivel avanzado en alguna de las siguientes herramientas como SPSS, Knime, Matlab, Machine Learning Studio, MLFlow, Kubeflow, Databricks, R, TensorFlow. Experiencia comprendiendo, utilizando y aplicando tecnologías de IA en contextos empresariales. Nivel avanzado en Python. Nivel avanzado en programación de datos con lenguajes como SQL, Spark, Scala, Hbase, MongoDB. Experiencia en Machine Learning, incluyendo elección de algoritmos, mejora de modelos (fine-tune), conversión de outputs, y visualización de insights.

Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Bci pays or copays health insurance for employees.
Computer provided Bci provides a computer for your work.
Fitness subsidies Bci offers stipends for sports or fitness programs.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Senior Machine Learning Engineer
  • ZeroFox
  • Santiago (Hybrid)
Python Agile Artificial Intelligence Machine Learning

Opportunity Overview

At ZeroFox, we are passionate about bringing world-class protection to the digital-first world. Together, we have built a system capable of collecting and analyzing data from all over the internet, creating a paradigm-shifting cybersecurity product that helps secure and protect our customers and improves the global threat landscape.

We are a team of software engineers, cybersecurity experts, and data scientists who continue to develop unparalleled solutions for the cyber security industry by providing the best Digital Risk Protection SaaS in the global market. Our company, services, and user base are growing faster than ever and we’d like you to help us innovate. We believe the greatest solutions in the Digital Risk Protection space come from composing teams with varied backgrounds and experiences that can use their complementary skill sets to come up with the best market-defining solutions.

This posting is original from the Get on Board platform.

Role and responsibilities

  • Collaborate with industry experts across security, machine learning, digital risk protection, and cyber threat intelligence to develop cutting-edge machine learning solutions for the ZeroFox platform.
  • Help define machine learning roadmaps and projects for your team, with a pragmatic balance of higher risk and lower risk efforts.
  • Design, develop, and deploy advanced machine learning models and systems for natural language processing and computer vision applications, to enhance the lives of our customers while making the internet a safer place.
  • Evaluate and improve the accuracy, efficiency, and scalability of existing ML models.
  • Design and conduct statistically rigorous experiments (hypothesis testing, replication, etc.)
  • Conduct research and stay up-to-date with the latest advancements in NLP and computer vision techniques to integrate them into our solutions.
  • Collaborate with product managers, data analysts, software engineers and non-technical stakeholders to integrate ML models into the ZeroFox platform.
  • Analyze and preprocess large, diverse datasets, ensuring the quality and integrity of the data used for model training and evaluation.
  • Maintain clear and well-documented code to ensure long-term sustainability and smooth collaboration with other team members.
  • Provide technical guidance and mentorship to junior engineers, and ensure your team’s growth and success.

Required Qualifications and Skills

  • Motivated, communicative, teamwork-oriented leader who is comfortable working in agile environments and is able to learn and adapt quickly
  • Bachelor’s degree in computer science, math, physics, or a related field, OR equivalent education or experience
  • Machine learning experience, typically a minimum of 5 years
  • Team and/or project leadership experience, typically a minimum of 2 years
  • Proficiency in PyTorch, TensorFlow, or similar machine learning frameworks
  • Proficiency in Python
  • Strong applied knowledge of statistics and scientific methods
  • Solid understanding of data structures and algorithms
  • Strong software engineering design and implementation skills involving multiple technology layers (databases, API’s, caching layers, etc.)
  • Good communication, collaboration, and presentation skills in English
  • Ability to work effectively in a fast-paced, agile environment.

Desirable skills

  • Strong knowledge of NLP techniques, including but not limited to tokenization, parsing, sentiment analysis, topic modeling, and named entity recognition.
  • Strong knowledge of computer vision techniques such as object detection, segmentation, image classification, and OCR.

Benefits

  • Opportunities to learn and contribute your knowledge to our Digital Risk Protection platform
  • Competitive compensation
  • Competitive PTO
  • Complementary health insurance
  • Daily catered lunches for in-office work
  • Respectful and nourishing work environment, where every opinion is heard and everyone is encouraged to be an active part of the organizational culture.
  • Regular team bonding activities like cooking and cocktails classes, bingos, stand up comedy, magic shows, virtual happy hour, lunch and learns, etc.
  • Additional Parental Leave
  • Excellent communication: between teams, people, organizations and leaders

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance ZeroFox pays or copays life insurance for employees.
Meals provided ZeroFox provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage ZeroFox pays or copays health insurance for employees.
Dental insurance ZeroFox pays or copays dental insurance for employees.
Computer provided ZeroFox provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal ZeroFox gives you paid vacations over the legal minimum.
Beverages and snacks ZeroFox offers beverages and snacks for free consumption.
Parental leave over legal ZeroFox offers paid parental leave over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1800 - 3000 Tiempo completo
Ingeniero/a de NLP – Asistente Conversacional con IA
  • Lisit
Lisit es una empresa especializada en la creación, desarrollo e implementación de servicios de software innovadores, orientados a proveer herramientas de automatización y optimización para sus clientes. Con un fuerte enfoque en la innovación y la pasión por superar desafíos tecnológicos, Lisit acompaña a sus clientes mediante consultoría y la integración de variadas prácticas y herramientas tecnológicas, asegurando la ejecución exitosa de procesos de transformación digital a través de estrategias integrales.

Actualmente, el equipo de Lisit desarrolla un proyecto enfocado en la creación de un asistente conversacional basado en inteligencia artificial, empleando tecnologías avanzadas de procesamiento de lenguaje natural (NLP). Este proyecto busca potenciar la interacción entre usuarios y sistemas mediante la comprensión y generación de lenguaje natural, integrando modelos de última generación y soluciones tecnológicas robustas para mejorar la experiencia del usuario final.

© Get on Board.

Responsabilidades principales

En este rol como Ingeniero/a de NLP, serás responsable de diseñar e implementar modelos avanzados de procesamiento de lenguaje natural que permitan comprender y generar lenguaje natural con alta precisión. Deberás integrar modelos preentrenados como GPT o BERT, y trabajar con servicios de inteligencia artificial de plataformas como OpenAI o Hugging Face.
Además, desarrollarás flujos conversacionales inteligentes que manejan contexto e identifican intenciones de forma efectiva, integrando el asistente con APIs, diversas plataformas de mensajería (Slack, WhatsApp, Teams, entre otras) y bases de datos para asegurar una experiencia de usuario fluida y completa.
Serás responsable de la evaluación continua de los modelos mediante métricas estándares como precisión y F1, colaborando estrechamente con equipos de desarrollo, experiencia de usuario (UX) y áreas de negocio para asegurar que las soluciones implementadas estén alineadas con los objetivos estratégicos y necesidades del cliente.

Descripción del puesto y requisitos

Buscamos un/a profesional con experiencia sólida en Python y en el manejo de librerías especializadas en NLP, tales como spaCy, NLTK y Transformers. Además, es necesario contar con conocimientos prácticos en frameworks para asistentes conversacionales como Rasa o Dialogflow, así como experiencia en diseño y manejo del contexto en sistemas conversacionales.
El candidato ideal debe poseer conocimientos técnicos en la integración de APIs RESTful y en la implementación de asistentes a través de múltiples plataformas de mensajería populares, incluyendo Slack, WhatsApp y Microsoft Teams. Valoramos también la familiaridad con herramientas de contenedorización como Docker y prácticas de integración y despliegue continuo (CI/CD), así como experiencia con servicios en la nube tales como AWS, Azure o Google Cloud Platform.
Adicionalmente, se valoran las competencias en proyectos relacionados con grandes modelos de lenguaje (LLMs) como GPT o Claude, la capacidad para diseñar flujos conversacionales empáticos y funcionales, y el conocimiento en técnicas de prompt engineering para optimizar la interacción con modelos de IA generativa.

Conocimientos y habilidades deseables

Se considerará un plus la experiencia previa en proyectos que involucren grandes modelos de lenguaje (LLMs) como GPT o Claude, así como la habilidad para diseñar flujos de conversación que sean tanto funcionales como empáticos, mejorando la experiencia del usuario final.
El conocimiento en el área de prompt engineering para mejorar el rendimiento de modelos generativos, así como el dominio de herramientas para la automatización de despliegues en entornos de producción (Docker, CI/CD) y manejo de infraestructuras en la nube (AWS, Azure, GCP) también serán muy valorados.

Beneficios y entorno laboral

Ofrecemos la oportunidad de trabajar en proyectos desafiantes y de largo plazo dentro de un equipo técnico colaborativo y con un ambiente laboral excelente y amigable. Promovemos la estabilidad laboral, ofreciendo múltiples oportunidades de desarrollo profesional y crecimiento dentro de la compañía.
El trabajo es 100% remoto, idealmente dirigido a candidatos residentes en Chile, lo cual facilita la conciliación entre la vida personal y profesional sin perder el compromiso ni la comunicación estrecha con el equipo.

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Mlops Engineer
  • Niuro
Python Linux DevOps Docker
At Niuro, we are dedicated to connecting projects with elite tech teams, working collaboratively with leading companies in the U.S. Our AI team is expanding, and we are seeking a proactive MLOps Engineer to help us build and maintain robust machine learning pipelines. You will play a critical role in ensuring that our models are production-ready and scalable within dynamic environments, contributing to the successful execution of innovative projects.

Find this job and more on Get on Board.

Responsibilities

  • Pipeline Management & Automation: Build and maintain ML pipelines using Databricks and MLflow. Automate data workflows and ensure reproducibility of experiments.
  • Model Deployment & Monitoring: Deploy models to production and monitor their performance over time. Implement best practices for CI/CD in machine learning using Bitbucket.
  • Infrastructure & Environment Management: Manage and monitor batch jobs on Linux environments. Collaborate with data scientists to ensure smooth transitions from notebooks to production-grade code.
  • Collaboration & Documentation: Work closely with international teams to align on MLOps strategies and solutions. Document workflows and setups to ensure maintainability and transparency.

Requirements

  • Experience: 3+ years working in MLOps, DevOps, or related roles with machine learning pipelines.
  • Technologies: Hands-on experience with Databricks, MLflow, Python, Bitbucket, Batch processing, and Linux.
  • English: Intermediate-advanced written and spoken English (required) to work with international teams.
  • Mindset: Strong problem-solving skills and a passion for automation, performance, and scalability.

Preferred Qualifications

  • Experience working in remote, agile teams with international clients.
  • Familiarity with cloud services (AWS, Azure, or GCP).
  • Knowledge of Docker, Kubernetes, or Terraform is a plus.

What We Offer

  • 🌎 100% Remote – Work from anywhere!
  • 📈 Professional Growth – Join an innovative and collaborative AI-driven environment.

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer Inteligencia Artificial
  • Factor IT
Java Python SQL Web server
FactorIT es un líder en tecnología con presencia en 8 países y se dedica a ofrecer soluciones innovadoras en Data y Analytics, Transformación Digital e Inteligencia Artificial. Estamos buscando un profesional talentoso para unirse a nuestro equipo en el desarrollo de infraestructuras de datos específicas para proyectos de IA, lo que representa una gran oportunidad para participar en iniciativas desafiantes y significativas que tendrán un impacto en múltiples industrias.

Apply only from getonbrd.com.

Responsabilidades:

En esta función, el candidato será responsable de:
  • Desarrollar y optimizar pipelines de datos para modelos de IA.
  • Colaborar con arquitectos de datos y científicos de datos para construir soluciones escalables y eficientes.
  • Gestionar la integración y almacenamiento de grandes volúmenes de datos utilizando diversas herramientas y plataformas de IA.
  • Mejorar la calidad de los datos garantizando su adecuada preparación para el entrenamiento de modelos de Machine Learning.
  • Implementar procesos automatizados para la recolección y el procesamiento de datos.

Requisitos:

Buscamos a alguien que cumpla con las siguientes calificaciones:
  • Experiencia mínima de 4 años en ingeniería de datos con un énfasis en Inteligencia Artificial.
  • Conocimientos técnicos en herramientas de procesamiento de datos como Apache Spark, Kafka, Hadoop, entre otros.
  • Experiencia trabajando con grandes volúmenes de datos y tecnologías de almacenamiento en la nube.
  • Dominio de lenguajes de programación como Python, SQL y otros orientados a la manipulación de datos.
  • Conocimiento práctico en la implementación de Machine Learning y Deep Learning.

Deseable:

Experiencia en entornos de trabajo ágil y capacidad para gestionar múltiples proyectos simultáneamente. La pasión por la innovación y el deseo de aprendizaje continuo son altamente valorados.

Ofrecemos:

En FactorIT, promovemos un entorno dinámico y de innovación tecnológica. Ofrecemos:
  • Capacitación continua en tecnologías emergentes, especialmente en IA.
  • Flexibilidad y opción de trabajo remoto, permitiendo un mejor balance entre la vida personal y laboral.
  • Oportunidades de crecimiento profesional en un ambiente inclusivo que valora la creatividad y el trabajo en equipo.
¡Si eres un experto en ingeniería de datos con pasión por la Inteligencia Artificial, te estamos esperando! 🚀

Fully remote You can work from anywhere in the world.
Computer provided Factor IT provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3000 - 5000 Tiempo completo
R & D Engineer (Pytorch)
  • Softserve
Python Big Data R English

WE ARE

SoftServe is a leading advisory and IT development services company that assists clients in constructing cutting-edge and innovative solutions while delivering exceptional value. Together with you, we establish and achieve goals to foster mutual growth, learning from successes and mistakes.

Our R&D team applies deep learning and computer vision expertise to cross-disciplinary research from human-computer interaction and bioinformatics to computational finance. We run multiple technology and academic partnerships and expose our research at global events and conferences.

Apply exclusively at getonbrd.com.

Job functions

  • Develop innovative agentic AI solutions across diverse applications throughout the SDLC
  • Proactively propose and implement emerging technologies, studying and adapting to market needs and industry trends
  • Define and execute the technological vision in new research areas by prototyping and developing advanced technological demos
  • Coordinate and deliver presentations at external events, including conferences, meetups, and specialized gatherings
  • Advise external and internal clients on technologies, solutions, and trends to foster innovation and strategic decision-making
  • Align research fields with business needs, ensuring technological advancements address key industry demands
  • Apply proven innovation consulting methodologies to design cutting-edge technological solutions for customer challenges
  • Support business development efforts through marketing, presentations, and presales activities to drive growth and engagement

Qualifications and requirements

  • Experienced with over 6 years in Python and PyTorch
  • Proficient in building and optimizing AI models
  • Knowledgeable in Large Language Models (LLMs) and Vision-Language Models (VLMs), with hands-on experience in their applications
  • Skilled and hands-on with LLMs and prompting techniques, including Chain-of-Thought and Tree-of-Thought reasoning, to enhance model performance
  • Accustomed to the software development lifecycle (SDLC) and programming best practices, ensuring efficient and scalable solutions
  • Proficient in developing applications with web interfaces or user-interactive components, with a solid grasp of architecture and functionality
  • Skilled in Python backend frameworks like FastAPI, with experience in building efficient and scalable APIs
  • Familiar with tools like LangChain, LangGraph, and various agentic frameworks for AI development
  • Comfortable working with modern software development company operations, including workflows, collaboration, and deployment strategies
  • A strong professional, capable of working independently, making decisions, and collaborating in a team-oriented environment
  • A critical thinker and problem-solver, skilled in analyzing complex AI challenges and devising effective solutions
  • Capable of daily communication in English at an upper-intermediate level (written and spoken)

Together we will

  • Empower you to scale your expertise with others by joining the R&D team
  • Excel business of our clients from startups and ISVs to Enterprise and Fortune 500 companies
  • Care for your wellness with a health insurance package
  • Be a part of something bigger than a single project in the professional community
  • Access local-grown, yet global IT minds and exclusive networking opportunities with expert groups and professional events

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Senior Computer Vision Engineer
  • Niuro
C C++ Python Big Data

At Niuro, we connect elite tech teams with innovative projects in collaboration with leading U.S. companies. Our mission emphasizes simplifying global talent acquisition through efficient and high-quality solutions. We empower our teams by providing opportunities for continuous professional growth, ensuring success in technologically challenging projects. As such, we handle all administrative aspects including hiring and payments, allowing our professionals to focus on achieving outstanding results in their respective fields.

Apply at getonbrd.com without intermediaries.

Responsibilities

  • Model Development & Optimization: Enhance accuracy and speed of YOLO (or similar models) through advanced CNN architectures and optimization techniques.
  • Dataset Management & Augmentation: Expand and refine datasets, utilizing data augmentation techniques to enhance model robustness.
  • Model Training & Evaluation: Train and validate models against key metrics (precision, recall, mAP) to ensure reliable performance in real-world scenarios.
  • Deployment on Embedded Hardware: Optimize and deploy models on Jetson Orin Nano (or similar) using TensorRT for high-speed inference.
  • Real-World Validation: Test models in sterilization and surgical environments, iterating and refining based on real-world performance feedback.

Requirements

  • Computer Vision Expertise: 5+ years in deep learning and computer vision.
  • Model Development: Strong experience with YOLO, Faster R-CNN, EfficientDet, or similar architectures.
  • Deep Learning Frameworks: Proficiency in PyTorch or TensorFlow for model training and optimization.
  • Data Handling: Experience managing large datasets and applying data augmentation techniques.
  • Performance Optimization: Knowledge of model quantization, pruning, and employing TensorRT for real-time inference.
  • Embedded AI: Proven experience deploying models on NVIDIA Jetson devices.
  • Evaluation & Metrics: Strong familiarity with key performance metrics including mAP, IoU, recall, and precision.
  • Software Development Skills: Proficiency in Python, with experience in C++ being a plus.
  • Problem-Solving & Debugging: Ability to fine-tune models based on real-world feedback.
  • OpenCV Expertise: Demonstrable experience with OpenCV for advanced image processing and real-time computer vision applications.

Nice to Have

  • Experience with ONNX, OpenVINO, or similar model optimization tools.
  • Familiarity with ROS (Robot Operating System) for robotics applications.
  • Experience in medical imaging or AI applications within healthcare.
  • Knowledge of sensor fusion technologies such as LiDAR and depth cameras.

What We Offer

🌎 100% Remote – Work from anywhere in the world!
📈 Cutting-Edge AI Projects – Engage in real-world AI applications specifically oriented towards the medical field.
💰 Competitive Salary & Performance Reviews – Compensation is tailored according to experience.
🛠 High-Impact Work – Contribute to AI solutions that promote safety and enhance efficiency in surgical environments.
🎓 Learning & Development – Gain access to extensive training, conferences, and mentorship opportunities.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Especialista en Agentes Verticales AI
  • Forma - Moovmedia Group
Python Data Analysis Artificial Intelligence Machine Learning

¡Hola! Somos Moov Media Group, una familia de empresas integrada por Moov, Metrix y Forma. Nuestro modelo es colaborativo, ¿qué significa esto? Que trabajamos de manera específica o integral según las necesidades de cada cliente.

Navegamos en el mundo digital usando la tecnología, la data analytics, los medios y la publicidad para encontrar soluciones de marketing multicanal que nos conviertan en los más secos de Latinoamérica.

Hoy queremos seguir creciendo y para eso buscamos un Especialista en Agentes Verticales AI que nos acompañe a recorrer el mundo digital en una empresa con cultura flexible, ágil e innovadora. ¿Te tinca saber más? Entonces quédate para contarte.

El proceso de selección consta de:

  • Llamado telefónico
  • Entrevista con Selección
  • Entrevista con jefatura directa.

¿Te interesa? ¡Dale! Escríbenos y conversemos.

This job is available on Get on Board.

Funciones del cargo

  • Diseñar, desarrollar y entrenar agentes de IA especializados en distintos sectores (e-commerce, turismo, salud, marketing, entre otros).
  • Configurar sistemas de IA conversacional utilizando tecnologías avanzadas (por ejemplo, GPT, LLMs, Dialogflow, Rasa) para resolver casos de negocio específicos.
  • Monitorear, evaluar y optimizar el rendimiento de los agentes de IA para garantizar interacciones fluidas y resultados precisos.
  • Colaborar con equipos de desarrollo para integrar los agentes en distintas plataformas y canales (sitios web, apps, redes sociales, chatbots).
  • Trabajar con clientes internos y externos para entender sus necesidades y personalizar las soluciones de IA verticales.
  • Identificar oportunidades de mejora y nuevas aplicaciones de IA en industrias emergentes.
  • Utilizar datos y retroalimentación para ajustar los modelos de IA y mejorar continuamente la experiencia de usuario.

Requerimientos del cargo

  • Ingeniería en Computación, Ciencia de Datos, Inteligencia Artificial o carreras afines.
  • 3-5 años de experiencia en el desarrollo de agentes conversacionales basados en IA o aplicaciones relacionadas.
  • Experiencia trabajando con plataformas de procesamiento de lenguaje natural (PLN), tales como OpenAI, Dialogflow, IBM Watson o similares.
  • Experiencia en la construcción y entrenamiento de modelos de lenguaje (por ejemplo, GPT, BERT).
  • Conocimientos en Python, TensorFlow, PyTorch u otros frameworks de machine learning.
  • Integración de APIs y servicios de terceros.
  • Experiencia en análisis de datos para ajustar el rendimiento de los modelos.

Condiciones

  • Tarde libre para el día de cumpleaños de tu hijo.
  • Día libre para realizar tu mudanza.
  • 5 días libres con goce de sueldo al cumplir 1 año laboral.
  • Convenio con caja de compensación Los Andes.
  • Convenio con DODO, plataforma que aporta al bienestar/salud mental.

Fully remote You can work from anywhere in the world.
Computer provided Moov Media Group provides a computer for your work.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Analista de Datos BI
  • S3 Groups
  • 🇨🇱 Chile - Remoto 🌎
Full Time Programación Plataformas proyectos

$1,200.00/mo - $1,700.00/mo

S3 Chile es una empresa líder en la entrega de servicios de outsourcing especializada en procesos de negocio. Nuestro enfoque está en brindar soluciones integrales que permiten a nuestros clientes optimizar sus operaciones a través de la gestión eficiente de datos y análisis avanzado. El equipo de análisis de datos juega un rol fundamental, colaborando con diversas áreas como marketing, ventas y negocios para impulsar estrategias basadas en inteligencia analítica. Nuestra misión es ofrecer un entorno de aprendizaje continuo y profesionalización en consonancia con las últimas tendencias tecnológicas, fomentando el crecimiento tanto del equipo como de la organización. Ser parte de S3 Chile significa contribuir directamente al éxito de grandes clientes mediante innovación y manejo experto de datos.

Responsabilidades principales

  • Análisis de datos: Recopilar, limpiar y analizar grandes volúmenes de datos provenientes de diversas fuentes para identificar tendencias, patrones y oportunidades de mejora.
  • Desarrollo de modelos predictivos y estadísticos: Diseñar y construir modelos estadísticos y algoritmos para predecir resultados, evaluar riesgos y optimizar procesos empresariales.
  • Visualización de datos: Crear visualizaciones claras e impactantes mediante herramientas como Tableau y Power BI para comunicar hallazgos de manera efectiva a las partes interesadas.
  • Elaboración de informes y presentaciones: Preparar reportes detallados y presentaciones ejecutivas que resuman insights clave y recomendaciones prácticas para equipos ejecutivos y operativos.
  • Colaboración interdisciplinaria: Trabajar estrechamente con equipos de negocio, marketing, ventas y tecnología para definir requerimientos, validar hipótesis y co-crear soluciones basadas en datos.

Habilidades y competencias requeridas

  • Conocimientos en estadística y matemáticas: Dominio de conceptos avanzados como regresión, correlación, análisis de varianza (ANOVA) y otras técnicas estadísticas aplicadas.
  • Programación: Experiencia sólida en lenguajes como Python, R y SQL para manipulación de datos, construcción de modelos y automatización de procesos.
  • Manejo de herramientas analíticas: Capacidad para utilizar herramientas como Excel avanzado, Tableau, Power BI y otras plataformas de visualización y análisis.
  • Bases de datos: Conocimiento práctico en gestión y consultas sobre bases de datos relacionales como MySQL y PostgreSQL.
  • Plataformas de análisis digital: Familiaridad con Google Analytics, Mixpanel y otras herramientas para análisis de comportamiento en entornos digitales.
  • Pensamiento crítico y resolución de problemas: Aptitud para examinar situaciones complejas, identificar causas raíz y generar soluciones innovadoras y eficientes.
  • Comunicación efectiva: Habilidad para explicar conceptos técnicos complejos en un lenguaje claro, adaptado a diferentes audiencias, facilitando la toma de decisiones basadas en datos.

Requisitos Académicos y Experiencia

  • Título universitario en Ingeniería Comercial, Ingeniería Civil, Estadística, Matemáticas, Ciencias de la Computación o áreas afines.
  • Experiencia mínima de 2 a 3 años en análisis de datos o roles relacionados, preferiblemente en entornos empresariales.
  • Certificaciones profesionales como Certified Data Analyst (CDA) o Certified Analytics Professional (CAP) serán consideradas un plus significativo.

Habilidades y conocimientos deseables

  • Experiencia en manejo de grandes volúmenes de datos (Big Data) y conocimiento de herramientas o frameworks asociados.
  • Conocimiento en técnicas de machine learning y su aplicación práctica en modelos predictivos.
  • Familiaridad con metodologías ágiles de trabajo y gestión de proyectos.
  • Experiencia previa trabajando en equipos multidisciplinarios y en ambientes dinámicos.
  • Habilidades avanzadas en storytelling con datos para mejorar la comunicación visual y estratégica.

Lo que ofrecemos

Renta competitiva acorde al mercado.

Oportunidades reales de desarrollo profesional dentro de la empresa.

Beneficios corporativos que incluyen programas de bienestar y capacitaciones continuas.

Un equipo comprometido que promueve un entorno de aprendizaje constante alineado con los nuevos avances tecnológicos.

Entorno colaborativo, flexible y remoto, alineado con las necesidades actuales del mercado laboral en Chile.

Las Condes, Santiago Metropolitan Region, Chile 1 week ago

Las Condes, Santiago Metropolitan Region, Chile 2 months ago

Las Condes, Santiago Metropolitan Region, Chile 4 days ago

Analista de Datos Senior - Trabajo Remoto | REF#251560

Las Condes, Santiago Metropolitan Region, Chile 3 days ago

Las Condes, Santiago Metropolitan Region, Chile 3 months ago

Las Condes, Santiago Metropolitan Region, Chile 8 months ago

Analista Riesgo Operacional y Continuidad de Negocio

Programa de Pasantías - Analista de Negocios

Las Condes, Santiago Metropolitan Region, Chile 1 week ago

Las Condes, Santiago Metropolitan Region, Chile 5 days ago

#J-18808-Ljbffr
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Scientist
  • Divelement Web Services
  • Remoto 🌎
Full Time Python SciPy NumPy OpenCV Git

Ubicación: Remoto

Tipo de empleo: Tiempo completo

Departamento: Desarrollo de Software

Divelement Web Services está buscando un/a Data Scientist apasionado/a por crear soluciones científicas de vanguardia. Esta posición te permitirá colaborar con investigadores para diseñar, desarrollar y optimizar herramientas computacionales que impulsen descubrimientos científicos. Vas a implementar algoritmos complejos, optimizar el rendimiento y asegurar la reproducibilidad de los análisis computacionales.


🚀 ¿Cómo trabajamos?

Somos un equipo remoto, multifuncional y orientado a la calidad, con un enfoque ágil y colaborativo:

  • ✅ Commits diarios para iteraciones rápidas y mejora continua.
  • ✅ Resolución autónoma de problemas, priorizando la acción.
  • ✅ Feedback honesto y constructivo.
  • ✅ Ciclos cortos de desarrollo incremental.

🔬 ¿Quién sos?

  • Tenés una base sólida en programación y computación científica.
  • Te entusiasma trabajar con científicos en entornos de investigación.
  • Disfrutás implementar y documentar algoritmos complejos.
  • Te desenvolvés bien en contextos remotos, dinámicos y con autonomía.
  • Mantenés curiosidad por las tecnologías emergentes en computación científica.

🛠️ Responsabilidades

  • Diseñar y mantener aplicaciones científicas y pipelines de análisis de datos.
  • Traducir objetivos científicos en soluciones computacionales.
  • Implementar y optimizar algoritmos para simulaciones, análisis y modelado estadístico.
  • Garantizar el rendimiento, escalabilidad y reproducibilidad.
  • Documentar código y generar guías de uso.
  • Resolver errores complejos en entornos científicos.
  • Mantenerse actualizado/a en lenguajes y frameworks relevantes.

🎯 Requisitos

  • ✅ Título en Ciencias de la Computación, Ciencias Computacionales o similar (se prefiere Maestría o PhD en Física).
  • ✅ +5 años de experiencia programando en entornos científicos (Python, SciPy, NumPy, OpenCV).
  • ✅ Manejo de librerías y frameworks de computación científica.
  • ✅ Experiencia con Git y buenas prácticas de desarrollo.
  • ✅ Habilidad demostrada para implementar algoritmos científicos.
  • ✅ Conocimiento de visualización de datos.
  • ✅ Atención al detalle y capacidad de resolución.

💡 Plus (Nice to Have)

  • ➕ Experiencia en entornos de computación de alto rendimiento (HPC).
  • ➕ Conocimiento de frameworks de machine learning.
  • ➕ Experiencia con plataformas cloud (AWS, Azure o GCP).
  • ➕ Background en áreas científicas específicas (bioinformática, química computacional, física).
  • ➕ Contribuciones a proyectos open source científicos.
  • ➕ Conocimientos en gestión de bases de datos y SQL.

🌍 Beneficios

  • 💰 Salario en USD.
  • 🌐 Trabajo 100% remoto.
  • 🚀 Proyectos impactantes en ciencia y tecnología.
  • 📈 Oportunidades de crecimiento profesional.
  • 🤝 Entorno ágil y colaborativo.
  • 🎉 Actividades virtuales con el equipo.

📩 ¿Te interesa?

Si te motiva desarrollar herramientas computacionales para la investigación, ¡postulate y sumate al equipo de Divelement!

POSTULAR VÍA WEB Ver trabajo
Gross salary $3500 - 5000 Tiempo completo
Software Development Engineer in Test (SDET) CI/CD
  • Agility IO
JavaScript Python PHP Git

Agility IO is a software development firm that designs and builds custom applications for startups and Fortune 500 companies. We are a global team of over 400 developers, QA engineers, project managers, and UX/UI designers with offices in New York City and Vietnam.

We’re seeking a proactive SDET to help elevate our software quality through automated testing, tooling, and best practices. You’ll contribute to test automation, integration testing, observability, and CI/CD to ensure robust, reliable systems.

This job offer is available on Get on Board.

Job Responsibilities

  • Design and maintain automated test suites for web and API layers using tools such as Playwright, Jest, and Supertest.
  • Implement and manage behavior-driven testing with Cucumber and Gherkin.
  • Develop test cases and mocking strategies using Jest Mocks, Sinon, or Axios Mock Adapter.
  • Conduct comprehensive API testing utilizing Postman, Newman, and REST-assured.
  • Monitor system logs and performance metrics with Application Insights, Splunk, and similar tools.
  • Validate authentication flows, including machine-to-machine (m2m) scenarios.
  • Collaborate closely with developers and DevOps teams to integrate automated tests within CI/CD pipelines using GitHub Actions and containerized environments like Docker.
  • Ensure test environments are scalable, observable, and aligned with modern microservices architectures.

Qualifications & Experience

  • Proficiency in JavaScript, TypeScript, and experience with Python; familiarity with PHP is a plus.
  • Hands-on experience with modern testing tools including Jest, React Testing Library, Mocha, and Pytest.
  • Experience with E2E testing tools such as Playwright, Puppeteer, Selenium, or Cypress.
  • Familiarity with containerization and cloud platforms, especially Docker, AWS, and/or GCP.
  • Working knowledge of SQL databases and ORM tools.
  • Comfortable using Git and participating in code review processes, with an understanding of code coverage and test structure best practices.
  • Strong English communication skills are required to effectively collaborate with both clients and internal teams, and to successfully meet project goals.

Preferred Qualifications

  • Experience defining and implementing test strategies for scalable web applications.
  • Exposure to microservices architecture and distributed system observability.
  • Experience with telemetry and performance monitoring tools such as Application Insights and Splunk.
  • Familiarity with complex authentication workflows, including machine-to-machine (m2m) authentication.
  • Strong collaboration and communication skills within Agile environments.

What We Offer

  • Competitive salary and performance-based bonuses.
  • Remote work arrangements allowing flexibility.
  • Career development opportunities and mentorship programs.
  • A collaborative and forward-thinking team culture committed to innovation and excellence.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1100 - 1400 Tiempo completo
Administrador de Bases de Datos (DBA) Controller Call Center
  • S3 Chile
  • Santiago (In-office)
Data Analysis Excel SQL Business Intelligence

S3 Chile es una empresa especializada en la entrega de servicios de Outsourcing enfocados en los procesos de negocios de sus clientes, con una fuerte presencia en la gestión de operaciones relacionadas con el área de Contact Centers y análisis de datos. El equipo está comprometido con la innovación tecnológica y la mejora continua, apoyando a sus clientes mediante soluciones de análisis de datos y reportes que optimizan la operación de campañas y segmentaciones dentro del entorno de call centers, utilizando herramientas avanzadas de Business Intelligence y administración de bases de datos.

Apply to this job at getonbrd.com.

Responsabilidades

  • Diseñar, desarrollar y mantener reportes y dashboards que faciliten la visualización y toma de decisiones para las operaciones del call center.
  • Gestionar bases de datos y segmentaciones, asegurando la integridad, disponibilidad y actualización oportuna de la información.
  • Analizar grandes volúmenes de datos para detectar oportunidades de mejora en los procesos y campañas, aportando con insights basados en datos reales.
  • Colaborar estrechamente con el equipo de Business Intelligence para optimizar procesos, mejorar la calidad de la información y automatizar tareas relacionadas con el análisis y la generación de reportes.

Requisitos

Buscamos un profesional con formación en Ingeniería o carreras afines, que cuente con experiencia en Business Intelligence o análisis de datos, idealmente en entornos de Contact Centers. Es imprescindible un manejo avanzado de SQL para administrar y consultar bases de datos complejas, así como experiencia con herramientas de visualización de datos como Power BI o similares. El candidato debe contar con conocimientos avanzados de Excel para procesamiento y análisis de información.

Además, se valorará experiencia previa o conocimiento en Genesys Cloud, una plataforma líder en gestión de centros de contacto, lo que facilitará la integración y administración de las campañas vía base de datos.

Las habilidades blandas incluyen capacidad analítica, orientación al detalle, trabajo colaborativo, proactividad en la mejora continua y una actitud hacia el aprendizaje constante de nuevas tecnologías.

Deseable

Se valorará positivamente experiencia específica en administración y optimización de campañas en call centers, conocimiento en otras plataformas de gestión de centros de contacto, y habilidades en programación para automatización de reportes o tareas analíticas (por ejemplo, Python o R). También es deseable experiencia en diseño de dashboards interactivos y manejo de grandes volúmenes de datos.

Lo que ofrecemos

💼 Renta competitiva acorde al mercado.
📈 Oportunidades reales de desarrollo profesional dentro de la empresa.
🎁 Beneficios corporativos.
👥 Un equipo comprometido y un entorno de aprendizaje continuo, en línea con los nuevos desarrollos tecnológicos.En S3 Chile fomentamos una cultura orientada a datos y mejora continua, con foco en la innovación y crecimiento profesional constante. Formarás parte de un equipo que valora el trabajo colaborativo y la actualización permanente de sus conocimientos.

POSTULAR VÍA WEB Ver trabajo
Gross salary $2100 - 3000 Tiempo completo
Ingeniero Soporte Cloud y DevOps
  • Agilesoft SpA
Python Linux DevOps Virtualization

Agilesoft SpA es una pequeña empresa especializada en el desarrollo de software web y móvil, apasionada por las nuevas tecnologías, la innovación y un ambiente laboral agradable. Actualmente, buscamos expandir nuestro equipo técnico con la incorporación de dos Ingenieros de Soporte especializados en Cloud, DevOps, Kubernetes y Linux, que se sumen al equipo de operaciones y soporte de infraestructuras críticas. Estos profesionales serán clave para asegurar la estabilidad, disponibilidad y escalabilidad de las plataformas que soportan nuestros proyectos, aplicando prácticas de Site Reliability Engineering (SRE) y solución avanzada de problemas técnicos.

Exclusive offer from getonbrd.com.

Funciones

  • Implementar, administrar y optimizar infraestructuras en la nube utilizando tecnologías como Kubernetes (K8S) y herramientas DevOps.
  • Proporcionar soporte avanzado en Linux para entornos productivos, incluyendo diagnóstico, troubleshooting y solución de incidentes complejos.
  • Monitorear y garantizar la disponibilidad y rendimiento de los servicios cloud, aplicando las mejores prácticas de SRE.
  • Colaborar en la automatización de procesos para mejorar la eficiencia operativa y la entrega continua.
  • Documentar procesos, soluciones y participar en mejoras continuas del ciclo de vida del software y la infraestructura.
  • Trabajar colaborativamente con equipos de desarrollo y operaciones para asegurar una integración fluida y el despliegue seguro de aplicaciones.

Perfil requerido

Buscamos dos ingenieros con experiencia intermedia a avanzada en soporte y operación de infraestructuras cloud. Deberán tener conocimientos sólidos y demostrables en Kubernetes, Linux y metodologías DevOps. Se valorará experiencia en troubleshooting avanzado, monitoreo con herramientas modernas y principios de Site Reliability Engineering (SRE).

Es imprescindible que sean profesionales proactivos, con pensamiento analítico y capacidad para resolver problemas complejos bajo presión. Deben contribuir a mejorar la estabilidad y escalabilidad de los sistemas, trabajando con mentalidad colaborativa y comunicándose claramente en equipo. Buscamos personas apasionadas por la tecnología, orientadas al aprendizaje continuo y que disfruten aportar en un ambiente dinámico y flexible.

  • Experiencia práctica en administración de Linux (preferentemente distribuciones como Ubuntu, CentOS o Debian).
  • Dominio de Kubernetes y orquestación de contenedores.
  • Manejo de herramientas DevOps y CI/CD.
  • Capacidad para identificar y resolver problemas de infraestructura y aplicaciones en producción.
  • Conocimientos de cloud pública (AWS, Azure o Google Cloud) serán un plus.
  • Habilidades para documentar y estandarizar procesos.

Habilidades y conocimientos deseables

  • Experiencia con herramientas de monitoreo como Prometheus, Grafana o similares.
  • Conocimientos en scripting (Bash, Python) para automatización.
  • Familiaridad con la implementación de políticas de seguridad en entornos cloud.
  • Experiencia en metodologías ágiles y trabajo en equipos multidisciplinarios.
  • Certificaciones relacionadas a Kubernetes, DevOps o Cloud.

Condiciones

En Agilesoft ofrecemos un ambiente laboral grato, flexible, entretenido y dinámico, ideal para desarrollarse profesionalmente mientras se disfruta del trabajo en equipo. Proporcionamos computador para el trabajo, contrato indefinido y modalidad 100% remota, permitiendo trabajar desde cualquier ubicación.

Además contamos con beneficios de caja de compensación Los Andes para Chile, seguro complementario de salud y dental para empleados chilenos, y seguro Yunen para colaboradores en República Dominicana.

Health coverage Agilesoft SpA pays or copays health insurance for employees.
Computer provided Agilesoft SpA provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $750 Tiempo completo
Práctica Desarrollador Ops
  • Pulso Escolar
  • Santiago (Hybrid)
JavaScript Ruby Ruby on Rails Python
Pulso Escolar es nuestra plataforma que ayuda a colegios a gestionar su convivencia y comunidad usando datos. Para hacerlo levanta información desde estudiantes, apoderados y profesores usando encuestas en más de 250 colegios sobre temas complejos de medir como el bienestar emocional, experiencia en clases, clima escolar y otros.
¿Cómo es trabajar en Pulso Escolar?
  • Usamos metodologías ágiles y desarrollo de primer nivel
  • Tenemos flexibilidad horaria
  • Usamos y hacemos tecnología de punta
  • No tenemos código de vestimenta
  • Todos colaboramos en el aprendizaje de los demás
  • Somos parte del ecosistema Platanus Ventures

Apply directly through getonbrd.com.

¿Qué hace un practicante en el equipo de Ops de Pulso Escolar?

Te sumarás al equipo de operaciones de Pulso Escolar, en una posición única donde desarrollarás herramientas internas que tú mismo y el resto del equipo de Ops utilizarán. En este rol:

  1. Trabajarás en ciclos de Shape up de 2 semanas exclusivos para el equipo de Ops
  2. Alternarás entre desarrollar herramientas para optimizar operaciones y dar soporte a clientes
  3. Harás revisión de código y recibirás retroalimentación de otros desarrolladores

Una experiencia exitosa considera que el practicante:

  1. Se sumó al equipo de manera armónica y tiene buenas relaciones interpersonales
  2. Logra entender las necesidades del equipo de Ops y desarrollar soluciones que realmente mejoren su trabajo diario
  3. Da soporte a clientes de manera satisfactoria

Cronograma

1ra semana: Inducción y familiarización con el equipo de Ops y sus procesos, tomarás tareas simples que te permitan entender las necesidades operativas y nuestra arquitectura.

2da semana: Comenzarás a involucrarte en la atención de requerimientos de clientes.

3ra y 4ta semana: Comenzarás tu primer ciclo de Shape up de 2 semanas, desarrollando herramientas internas

2do mes: Ya te habrás subido al carro con los ciclos de Shape up y la atención de requerimientos de clientes

Acá cuenta su experiencia Trini que hizo la práctica con nosotros.

Requerimientos del cargo

  • Tener experiencia desarrollando con lenguajes como Ruby, Python y JS
  • Tener conocimientos en desarrollo web con librerías reactivas (ejemplos Vue o React)
  • Tener conocimientos de frameworks de backend como Ruby on Rails
  • Disponibilidad de al menos dos meses (si tu práctica oficial es de un mes, te pedimos que te quedes dos)

Suma, pero no excluye

  • Experiencia con Google Cloud
  • Haber tomado cursos de desarrollo de software

Beneficios

  • Modalidad híbrida que permite trabajar desde casa algunos días.
  • Un excelente ambiente laboral con un enfoque colaborativo donde las ideas son lo más importante.
  • Café de alta calidad y actividades sociales en la oficina.

En Pulso Escolar, valoramos a cada miembro de nuestro equipo y fomentamos un entorno estimulante y de aprendizaje.

POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 2000 Tiempo completo
QA Automatizador
  • coderslab.io
  • Barranquilla (In-office)
JavaScript Java Python Agile

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un QA Automatizador para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

© Get on Board.

Funciones del cargo

Diseñar y desarrollar pruebas automatizadas para validar funcionalidades nuevas y existentes del software, asegurando una cobertura adecuada.

Mantener y mejorar frameworks de automatización existentes, incorporando buenas prácticas de desarrollo y testing.

Ejecutar pruebas automatizadas de forma continua, analizar resultados y colaborar en la detección y documentación de defectos.

Participar activamente en las ceremonias ágiles (dailies, plannings, refinamientos), colaborando con equipos de desarrollo, producto y UX para garantizar una visión compartida de la calidad.

Requerimientos del cargo

Experiencia en pruebas automatizadas utilizando herramientas como Selenium, Cypress, Playwright u otras equivalentes.

Conocimiento de lenguajes de scripting o programación (por ejemplo, JavaScript, Python, Java) aplicados a la automatización de pruebas.

Familiaridad con integración continua (CI/CD) y ejecución de pruebas en pipelines (Jenkins, GitLab CI, GitHub Actions, etc.).

Experiencia trabajando en entornos ágiles (Scrum/Kanban) y habilidades para colaborar con equipos multidisciplinarios.

Condiciones

Modalidad de contratación: Indefinido

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
DevOps Engineer II
  • ZeroFox
  • Santiago (Hybrid)
Python Agile Go DevOps

Opportunity Overview

At ZeroFox, we are passionate about bringing world-class protection to the digital-first world. Together, we have built a system capable of collecting and analyzing data from all over the internet, creating a paradigm-shifting cybersecurity product that helps secure and protect our customers and improves the global threat landscape.

We are a team of software engineers, cybersecurity experts, and data scientists who continue to develop unparalleled solutions for the cyber security industry by providing the best Digital Risk Protection SaaS in the global market. Our company, services, and user base are growing faster than ever and we’d like you to help us innovate. We believe the greatest solutions in the Digital Risk Protection space come from composing teams with varied backgrounds and experiences that can use their complementary skill sets to come up with the best market-defining solutions.

Apply directly on Get on Board.

Role and responsibilities

  • Collaborate with product teams and software engineers across security, machine learning, digital risk protection, and cyber threat intelligence to develop the next generation of solutions for the ZeroFox platform
  • Gain in-depth knowledge of our microservices architecture and stack; leverage this knowledge to improve system stability, performance, scalability, and security
  • Own and maintain multiple components of our DevOps infrastructure, including CI/CD pipelines, monitoring solutions, and container orchestration platforms, with a focus on embedding security controls and checks
  • Begin to take on a leadership role within projects, guiding best practices around deployment automation, infrastructure as code, and secure configuration management
  • Research, evaluate, and implement new tooling or capabilities to ensure our systems meet or exceed production security requirements (e.g., scanning, patching, vulnerability management)
  • Coordinate with security stakeholders to review engineering milestones and third-party systems for compliance with security standards

Required qualifications and skills

  • Motivated, communicative, teamwork-oriented professionals comfortable working in agile environments
  • Bachelor’s degree in computer science or a related field, OR equivalent education or experience
  • DevOps experience, typically obtained in 3+ years
  • Good understanding of the software development lifecycle, automation, and CI/CD practices
  • Familiarity with cloud services like AWS for building and scaling web architecture, including basic security considerations and standards
  • Experience working with containerization and orchestration technologies such as Docker, Nomad, or Kubernetes
  • Ability to write and maintain infrastructure as code (e.g., Terraform or AWS CloudFormation), integrating security into IaC workflows
  • Good communication, collaboration, and presentation skills in English
  • Ability to work effectively in a fast-paced, agile environment

Desirable skills

  • Proficiency in scripting languages such as Python, Go, or a similar language
  • Experience troubleshooting networking issues in a cloud environment, including basic network security principles
  • Familiarity with monitoring and alerting tools (e.g., Prometheus, Grafana, Datadog)
  • Solid knowledge of infrastructure best practices, security considerations, and automation tools
  • Understanding of or exposure to security scanning tools (e.g., SAST, DAST, or container image scanners)
  • We also value equivalent experience to these languages and frameworks. If you think you might be a fit, apply!

Benefits

  • Opportunities to learn and contribute your knowledge to our Digital Risk Protection platform
  • Competitive compensation
  • Competitive PTO
  • Complementary health insurance
  • Daily catered lunches for in-office work
  • Respectful and nourishing work environment, where every opinion is heard and everyone is encouraged to be an active part of the organizational culture.
  • Regular team bonding activities like cooking and cocktails classes, bingos, stand up comedy, magic shows, virtual happy hour, lunch and learns, etc.
  • Additional Parental Leave
  • Excellent communication: between teams, people, organizations and leaders

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance ZeroFox pays or copays life insurance for employees.
Meals provided ZeroFox provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage ZeroFox pays or copays health insurance for employees.
Dental insurance ZeroFox pays or copays dental insurance for employees.
Computer provided ZeroFox provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal ZeroFox gives you paid vacations over the legal minimum.
Beverages and snacks ZeroFox offers beverages and snacks for free consumption.
Parental leave over legal ZeroFox offers paid parental leave over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Cloud/DevOps Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Python NoSQL DevOps Virtualization
En BC Tecnología somos una consultora de IT con amplia experiencia en diversas áreas tecnológicas, trabajando para clientes de sectores financieros, seguros, retail y gobierno. Nuestro enfoque está en el diseño y desarrollo de soluciones, administración de portafolios y outsourcing de profesionales, siempre bajo metodologías ágiles y con un fuerte alineamiento con las necesidades de los clientes. Este proyecto en particular tiene una duración inicial de 6 meses con posibilidad de extensión, y se basa en tecnologías punteras de la nube, automatización e infraestructura como código, enfocándose en ambientes cloud modernos y escalables.

Apply directly at getonbrd.com.

Responsabilidades principales

  • Participar en el desarrollo, implementación y mantenimiento de infraestructura en Google Cloud Platform (GCP), utilizando herramientas como BigQuery, Cloud Run, GKE y Cloud Scheduler.
  • Automatizar procesos y gestionar infraestructura mediante Terraform, asegurando la correcta gestión de recursos y estados.
  • Configurar y mantener pipelines CI/CD en GitLab, promoviendo la integración y entrega continua de software.
  • Administrar contenedores usando Docker y orquestación con Kubernetes para asegurar despliegues consistentes y escalables.
  • Gestionar bases de datos SQL y NoSQL, así como servicios serverless para optimizar la arquitectura del proyecto.
  • Trabajar en entornos Unix/Linux, asegurando la estabilidad y buen funcionamiento de la infraestructura.
  • Documentar procesos técnicos y colaborar activamente con el equipo para proponer mejoras continuas y soluciones innovadoras.

Requisitos técnicos y perfil del candidato

Buscamos un profesional con experiencia intermedia o superior en Python, capaz de desarrollar y automatizar componentes relacionados con DevOps y Cloud. Se requiere un sólido conocimiento en GCP, incluyendo servicios esenciales como BigQuery, Cloud Run, GKE y Cloud Scheduler, para construir infraestructuras escalables y eficientes.
El manejo avanzado de Terraform es imprescindible para gestionar la infraestructura como código, incluyendo la administración de recursos y estados. Además, la familiaridad con GitLab CI/CD es necesaria para orquestar pipelines de integración y despliegue continuo.
Se valoran también competencias en Docker y Kubernetes para la gestión de contenedores, así como experiencia en bases de datos SQL y NoSQL y en la utilización de servicios serverless. Un buen dominio de sistemas operativos Unix/Linux es requerido para el correcto desempeño en el entorno de trabajo.
Desde el punto de vista de habilidades blandas, buscamos personas con pensamiento crítico, autonomía y proactividad para detectar y sugerir mejoras en procesos. La capacidad para documentar procedimientos y colaborar eficazmente en equipo es fundamental para el éxito en este rol.
Si te apasiona trabajar en entornos cloud modernos con tecnologías escalables y afrontar retos técnicos constantes, esta posición es una gran oportunidad para seguir desarrollándote profesionalmente.

Habilidades y conocimientos adicionales valorados

Se valorará experiencia previa en manejo de servicios serverless avanzados y en la implementación de soluciones completas de infraestructura como código que involucren múltiples nubes o servicios híbridos. Conocimientos en metodologías ágiles, como Scrum o Kanban, serán apreciados, junto con habilidades para proponer y ejecutar mejoras que optimicen la eficiencia operacional. La experiencia en entornos de trabajo colaborativo y multidisciplinarios también es deseable.

Beneficios y ambiente laboral

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero/a DevOps Semi Sr
  • Arara
Python Git Linux Go

Arara es una empresa tecnológica especializada en WiFi marketing, ofreciendo soluciones innovadoras que optimizan la conectividad y la experiencia del usuario.

En Arara, estamos buscando un/a Ingeniero/a DevOps Semi-Sr apasionado/a y con iniciativa para unirse a nuestro equipo de tecnología.

Buscamos a un/a profesional proactivo/a, con una sólida capacidad para resolver problemas complejos de infraestructura y automatización, y que no solo ejecute tareas, sino que también contribuya activamente en el diseño de una infraestructura escalable, segura y eficiente, mejorando continuamente nuestros procesos de despliegue y operaciones.

Apply exclusively at getonbrd.com.

¿Qué es lo que harás?

  • Diseñar, implementar y mantener pipelines de Integración Continua y Despliegue Continuo (CI/CD) para nuestras aplicaciones.
  • Automatizar el aprovisionamiento y gestión de infraestructura utilizando herramientas de Infraestructura como Código (IaC) como Terraform o Ansible.
  • Administrar y optimizar nuestra infraestructura en la nube, principalmente en GCP, AWS o Azure, garantizando disponibilidad, rendimiento y control de costos.
  • Gestionar ecosistemas de contenedores basados en Docker y orquestadores como Kubernetes (K8s).
  • Implementar y administrar soluciones de monitoreo, logging y alertas (ej. Prometheus, Grafana, ELK Stack) para asegurar la salud de los sistemas en tiempo real.
  • Colaborar estrechamente con equipos de desarrollo (Backend, Frontend, Datos) para agilizar y asegurar el ciclo de vida del software desde el código hasta producción.
  • Diagnosticar, depurar y resolver problemas de infraestructura, despliegue y rendimiento en entornos de desarrollo y producción.
  • Participar activamente en revisiones de código de infraestructura y scripts de automatización.
  • Contribuir en decisiones técnicas sobre la arquitectura de la nube y la selección de herramientas DevOps.
  • Ayudar a fortalecer la seguridad de infraestructura y pipelines aplicando mejores prácticas de DevSecOps.

Estamos buscando una persona que cumpla con lo siguiente:

Experiencia profesional: Mínimo de 4 a 6 años en roles de DevOps, Site Reliability Engineering (SRE) o administración de sistemas en la nube.

Formación: Título profesional en Ingeniería de Sistemas, Ciencias de la Computación, Ingeniería de Software o carreras afines, o experiencia equivalente.

Conocimientos técnicos requeridos:

  • Experiencia práctica en al menos una plataforma de nube pública (Google Cloud Platform, AWS, Azure), gestionando servicios de cómputo, redes y almacenamiento.
  • Sólidos conocimientos en construcción y mantenimiento de pipelines CI/CD con herramientas como GitLab CI, Jenkins o GitHub Actions.
  • Experiencia en Infraestructura como Código usando Terraform o Ansible.
  • Manejo avanzado de contenedores Docker y experiencia con orquestadores como Kubernetes.
  • Capacidad para escribir scripts de automatización en Bash, Python o Go.
  • Conocimiento en herramientas de monitoreo, métricas y logging como Prometheus, Grafana, ELK Stack o Datadog.
  • Dominio de Git y metodologías colaborativas como GitFlow.

Habilidades blandas: Persona proactiva, con iniciativa, capacidad para resolver problemas complejos, capaz de trabajar en equipo y comunicarse efectivamente con los diferentes equipos

Habilidades y conocimientos adicionales valorados

  • Experiencia en seguridad informática aplicada a DevOps (DevSecOps).
  • Conocimiento de otros lenguajes de scripting o programación además de Bash, Python o Go.
  • Familiaridad con metodologías ágiles y prácticas de desarrollo colaborativo.
  • Conocimiento en sistemas de gestión de bases de datos y manejo avanzado de redes en la nube.

Lo que ofrecemos en Arara:

  • 100% remoto – Trabaja desde cualquier lugar con huso horario de América.
  • Cultura organizacional horizontal e innovadora.
  • Equipo colaborativo – Somos un equipo pequeño, horizontal y cercano, donde tu aporte realmente cuenta.
  • Trabajar en una industria en crecimiento: IA aplicada.
  • Capacitaciones en Habilidades profesionales y personales de manera constante.

POSTULAR VÍA WEB Ver trabajo
Gross salary $1100 - 1400 Tiempo completo
Ingeniero DevOps
  • TREM Group
Python Redis MySQL Linux
En TREM Group nos especializamos en proyectos tecnológicos innovadores orientados al sector inmobiliario. Nuestra misión es crear soluciones tecnológicas que transformen y optimicen los procesos en esta industria. El equipo de Ingeniería es el núcleo técnico que desarrolla y mantiene infraestructuras robustas y escalables en la nube para soportar un crecimiento masivo y entrega continua. Buscamos profesionales que se unan a este equipo, participando activamente en el diseño, construcción y evolución de plataformas de alto rendimiento y alta disponibilidad, facilitando a los desarrolladores alcanzar su máximo potencial mediante una base tecnológica sólida, flexible y segura.

Exclusive offer from getonbrd.com.

Funciones del Puesto

Como Ingeniero DevOps, formarás parte de un equipo técnico multidisciplinario encargado de diseñar, crear, mantener, escalar, monitorear y proteger nuestra infraestructura en la nube. Colaborarás estrechamente con equipos de ingeniería para identificar y aplicar herramientas que permitan iterar rápidamente nuestras líneas de productos, garantizando la seguridad en cada despliegue.
Entre tus responsabilidades principales estarán:
  • Implementar y mantener pipelines de integración y entrega continua automatizadas.
  • Gestionar infraestructuras usando herramientas de Infraestructura como Código (IaC) para asegurar la reproducibilidad y escalabilidad.
  • Optimizar el rendimiento, confiabilidad y seguridad de los sistemas en producción.
  • Monitorear y responder proactivamente a incidentes utilizando sistemas de observabilidad como Prometheus, Grafana y Loki.
  • Ejecutar y administrar contenedores en producción con plataformas como Docker, Kubernetes o AWS ECS.
  • Brindar soporte y colaboración técnica a desarrolladores para que conviertan buenas prácticas en estándares de excelencia.
  • Comunicar de manera clara los planes, avances y desafíos al equipo de ingeniería, facilitando la toma de decisiones y la mejora continua.

Requisitos y Habilidades

Buscamos un ingeniero con entre 2 y 6 años de experiencia (preferentemente 4 o más) que disfrute una combinación de ingeniería de software, confiabilidad del sitio, automatización, optimización y operaciones. Debes ser un usuario avanzado de Linux, con sólida experiencia en scripting Bash y familiaridad con herramientas Open Source.
Es fundamental que tengas experiencia construyendo y gestionando infraestructuras en la nube utilizando Infraestructura como Código, con herramientas como Terraform, Ansible, scripting en Go o Python y el uso directo de APIs de proveedores cloud.
Debes conocer profundamente la creación y operación de contenedores (Docker principalmente) y la gestión de éstos en producción usando plataformas como AWS ECS, Kubernetes o Docker Swarm.
Tienes que haber implementado pipelines de integración y entrega continua con herramientas como GitLab CI, Travis o CircleCI, que permitan despliegues automatizados y confiables.
Serás competente manejando bases de datos relacionales y NoSQL como MySQL, Redis, Elasticsearch y MongoDB, comprendiendo su alta disponibilidad y limitaciones operativas.
Valoramos que tengas una mentalidad orientada a la toma de decisiones basada en datos y que puedas comunicar con claridad temas técnicos complejos, manteniendo la calma bajo presión y mostrando empatía y escucha activa en el equipo.
Experiencia con monitoreo y observabilidad a través de herramientas como Prometheus, Grafana y Loki es imprescindible.
Contar con conocimientos en distribuciones avanzadas de despliegue de software como Canary Deploys o Blue/Green Deployments, así como en pruebas de producción automatizadas, es un plus importante.
Preferimos candidatos que entiendan las arquitecturas distribuidas, los compromisos entre consistencia, disponibilidad y tolerancia a particiones, y que tengan experiencia con AWS y metodologías ágiles.

Conocimientos y Experiencia Deseables

Te destacará tener experiencia en software desarrollado en ámbitos académicos o de estudios de grado. El manejo de metodologías ágiles y trabajo en entornos dinámicos será una ventaja. Deseamos candidatos con capacidad para implementar prácticas avanzadas de despliegue continuo (Canary y Blue/Green) y que puedan diferenciar claramente cuándo usar bases de datos relacionales o NoSQL.
Una experiencia superior a 3 años con AWS y en infraestructura basada en Terraform o Ansible será muy valorada, al igual que la capacidad para aportar en proyectos distribuidos y escalables. El trabajo 100% remoto es posible, por lo que buscamos profesionales autónomos y con excelente comunicación remota.

Beneficios

  • Compensación competitiva acorde a la experiencia.
  • Relación laboral a largo plazo (freelance, contrato o tiempo completo).
  • Acceso a las mejores plataformas de e-learning para crecimiento continuo.
  • Ambiente de trabajo colaborativo, innovador y con gran soporte entre compañeros.
Nuestro proceso de selección incluye una prueba técnica corta online. Si estás listo para trabajar en proyectos reales e impactantes del sector inmobiliario con un equipo dinámico y comprometido, esta es tu oportunidad para crecer y desarrollar tu carrera profesional.

Fully remote You can work from anywhere in the world.
Pet-friendly Pets are welcome at the premises.
Digital library Access to digital books or subscriptions.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
DevOps Sr
  • coderslab.io
  • Santiago (Hybrid)
Python Docker Kubernetes CI/CD

CodersLab es una compañía dedicada al desarrollo de soluciones para empresas y actualmente estamos enfocados en el crecimiento global de nuestros equipos con el objetivo de posicionar nuestros productos en más países de Latinoamérica. Por esta razón, estamos buscando un Devops

Te sumarás a un equipo desafiante y ambicioso con ganas de innovar en el mercado, haciendo que tus propuestas sean altamente valiosas para el negocio.

¡Aplica ahora para este increíble reto!

Find this job on getonbrd.com.

Funciones del cargo

  • Diseñar e implementar arquitecturas basadas en contenedores usando Kubernetes
  • Gestionar infraestructura como código (IaC) utilizando Terraform
  • Implementar y mantener pipelines CI/CD
  • Administrar plataformas de automatización y orquestación
  • Garantizar la seguridad y cumplimiento normativo de la infraestructura
  • Optimizar y mantener sistemas Oracle Linux
  • Desarrollar scripts de automatización

Requerimientos del cargo

🔧 REQUISITOS TÉCNICOS
Cloud y Virtualización:

  • Experiencia avanzada en Oracle Cloud Infrastructure (OCI)
  • Conocimiento de redes, IAM, VCN, WAF en OCI
  • Manejo de almacenamiento en la nube

Sistemas Operativos:

  • Dominio de Oracle Linux 8/9
  • Experiencia en hardening y tuning de sistemas
  • Conocimientos de SELinux y systemd

Contenedores y Orquestación:

  • Docker y Kubernetes
  • Helm Charts
  • ArgoCD
  • Kong API Gateway

IaC y Automatización:

  • Terraform (nivel avanzado)
  • GitLab CI/CD
  • HashiCorp Vault
  • Experiencia en GitOps

Programación:

  • Bash scripting avanzado
  • Python para automatización
  • APIs REST

Bases de Datos:

  • Conocimientos en MSSQL, PostgreSQL y MySQL (deseable)

Seguridad:

  • Experiencia en implementación de estándares PCI-DSS
  • Gestión de secretos y políticas de seguridad
  • Escaneo de vulnerabilidades

👥 HABILIDADES BLANDAS

  • Capacidad de liderazgo técnico
  • Excelente comunicación
  • Resolución de problemas complejos
  • Trabajo en equipo
  • Gestión de stakeholders

📝 DETALLES DEL CONTRATO

  • Duración: 12 meses
  • Inicio: 16 de junio 2025
  • Modalidad: Híbrida
  • Ubicación: Presidente Riesco 5435, Las Condes, Santiago, Chile

🎯 EXPERIENCIA REQUERIDA

  • Mínimo 5 años en roles DevOps
  • Experiencia demostrable en entornos bancarios o regulados
  • Proyectos exitosos de implementación de IaC y CI/CD

💪 VALORAMOS

  • Certificaciones en OCI, Kubernetes, Terraform
  • Experiencia en transformación digital
  • Conocimiento de metodologías ágiles
  • Participación en proyectos multicloud

Condiciones

Modalidad de contratación: Plazo fijo
Duración del proyecto: 7 meses

POSTULAR VÍA WEB Ver trabajo
Gross salary $3000 - 3500 Tiempo completo
QA Automation Engineer
  • Improving South America
JavaScript Java Python Selenium

Somos Improving South America!

Somos una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA principalmente.

Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.

Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development y También trabajamos en desarrollo backend.

Valoramos a las personas dinámicas en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Applications are only received at getonbrd.com.

Funciones del cargo

Diseñar e implementar frameworks de automatización de pruebas reutilizables y escalables.

Desarrollar, depurar y mantener scripts de pruebas automatizadas utilizando herramientas como Selenium, Cypress, Postman u otras similares.

Integrar las pruebas automatizadas en los pipelines de CI/CD para garantizar procesos de entrega continua eficientes.

Colaborar con líderes de QA y desarrolladores para definir estrategias de prueba y asegurar una buena cobertura de automatización.

Ejecutar regularmente casos de prueba automatizados para validar funcionalidad, rendimiento y regresiones.

Reportar, documentar y hacer seguimiento de errores en conjunto con el equipo de desarrollo.

Escribir scripts estables y eficientes que optimicen los tiempos de ejecución y mejoren la confiabilidad.

Refactorizar y optimizar el código de pruebas y frameworks existentes para mejorar su mantenibilidad.

Aplicar buenas prácticas de desarrollo y estándares de calidad en la automatización de pruebas.

Investigar y adoptar nuevas herramientas, tecnologías y tendencias en automatización.

Identificar brechas en la cobertura de pruebas y proponer mejoras para optimizar la eficiencia.

Analizar los resultados de las pruebas automatizadas y generar reportes que aporten al proceso de mejora continua del producto.

Requerimientos del cargo

Experiencia de 8 años + en cargos relacionados, y experiencia laborando en herramientas de automatización como Selenium, Cypress, Postman u otras equivalentes.

Conocimientos en integración de pruebas dentro de entornos de CI/CD.

Buen manejo de estrategias de prueba, debugging y seguimiento de defectos.

Habilidades de programación en algún lenguaje común para automatización (por ejemplo, JavaScript, Python, Java).

Capacidad de trabajo en equipo, atención al detalle y enfoque en la calidad.

Inglés intermedio-avanzado o avanzado (indispensable)

Beneficios

  • Contrato a largo plazo.
  • 100% Remoto.
  • Vacaciones y PTOs
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo
  • mucho mas..

Internal talks Improving South America offers space for internal talks or presentations during working hours.
Computer provided Improving South America provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3200 - 3600 Tiempo completo
Ingeniero en Automatización Robótica de Procesos (RPA)
  • INTEGRATZ
  • Viña del Mar (Hybrid)
JavaScript Python Git UiPath

En Integratz, empresa recientemente establecida en Chile, impulsamos la transformación digital de empresas B2B mediante automatización inteligente con IA, integración de sistemas y soluciones innovadoras que mejoran radicalmente la eficiencia operativa. Como parte de nuestro equipo de Automatización, trabajamos en proyectos que combinan tecnologías de vanguardia para optimizar procesos de negocio, reducir costos operativos y aumentar la agilidad empresarial. Somos un equipo colaborativo, inclusivo y orientado al impacto, enfocado en innovar y acompañar a nuestros clientes en su viaje digital a través de soluciones robustas de RPA, integraciones inteligentes y automatizaciones personalizadas.

Find this job and more on Get on Board.

Responsabilidades principales

  • Diseñar, desarrollar, probar e implementar soluciones de Automatización Robótica de Procesos (RPA) que respondan a las necesidades y requerimientos del negocio, garantizando su escalabilidad y robustez.
  • Colaborar estrechamente con analistas de negocio, responsables de procesos y equipos multidisciplinarios para identificar oportunidades de automatización, evaluar casos de uso y optimizar flujos de trabajo.
  • Elaborar documentación técnica y funcional exhaustiva, incluyendo Process Design Documents (PDD), Solution Design Documents (SDD) y manuales operativos, asegurando claridad y transparencia en los desarrollos.
  • Mantener y dar soporte continuo a los procesos RPA desplegados, implementando ajustes y mejoras que incrementen la eficiencia y reduzcan riesgos.
  • Monitorear en tiempo real los bots en producción, gestionar incidencias de forma proactiva y garantizar la disponibilidad de las automatizaciones.
  • Asegurar el cumplimiento de estándares de seguridad, privacidad y gobernanza en todas las etapas del ciclo de vida del desarrollo RPA.
  • Mentorar a desarrolladores junior y fomentar un ambiente de aprendizaje continuo dentro del equipo.

Requisitos del puesto

  • Título en Ingeniería en Computación, Sistemas de Información o carrera afín (Valorado pero no excluyente).
  • Entre 3 y 5 años de experiencia práctica diseñando e implementando soluciones RPA con UiPath, Power Automate u otras herramientas similares (como Blue Prism o Automation Anywhere).
  • Capacidad para analizar procesos de negocio y traducirlos en flujos de trabajo automatizados.
  • Experiencia en análisis de procesos, levantamiento de requerimientos y diseño de soluciones.
  • Conocimientos en lenguajes de scripting como Python, VB.NET o JavaScript (deseable).
  • Familiaridad con APIs, herramientas OCR e integraciones con bases de datos.
  • Experiencia con metodologías ágiles y sistemas de control de versiones (como Git).
  • Dominio del idioma inglés

Habilidades y competencias deseables

  • Experiencia avanzada con la plataforma UiPath y sus componentes avanzados.
  • Fuertes capacidades analíticas y resolución de problemas complejos con creatividad e innovación.
  • Excelentes habilidades interpersonales para facilitar la colaboración entre áreas técnicas y de negocio.
  • Capacidad para documentar detalladamente los desarrollos y mantener una organización rigurosa en la gestión de proyectos.
  • Manejo efectivo de la presión y adaptación rápida a cambios y nuevas prioridades.

Lo que ofrecemos

Ofrecemos un salario competitivo acompañado de beneficios orientados a generar un ambiente laboral flexible y enriquecedor. Nuestra cultura fomenta la inclusión, la colaboración y el crecimiento profesional continuo. Contamos con oportunidades de desarrollo y certificaciones que impulsan tu carrera.

Dispondrás de acceso a las últimas tecnologías y herramientas de automatización, participando en proyectos internacionales innovadores que te permitirán ampliar tu experiencia y visión global.

Promovemos un entorno de trabajo híbrido que apoya un equilibrio saludable entre la vida personal y profesional, apoyado por políticas que respetan la diversidad, la seguridad laboral y la privacidad.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Computer provided INTEGRATZ provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1400 - 2000 Tiempo completo
Administrador de Sistemas
  • RiskAmerica
  • Santiago (Hybrid)
Python Linux Sysadmin Continuous Integration
RiskAmerica es una empresa consolidada en la industria FinTech, proveemos servicios de gestión e información a todas las empresas de inversiones de Chile. Nos caracterizamos por ser un agente de innovación y transformación digital estando siempre a la vanguardia en las tecnologías y metodologías que usamos.
Hoy en día nos encontramos en un proceso de expansión y buscamos un nuevo Administrador de Sistemas para ayudar a gestionar múltiples soluciones hospedadas en la nube de Google Cloud Platform con Kubernetes Engine.
¿Te atrae el rol de Solution Architect, Cloud Engineer, DevOps o Administrar Sistemas? Acá podrás aprender mucho de gente muy talentosa y podrás contribuir de manera significativa en toda la cadena de vida de los servicios de la empresa.

Send CV through getonbrd.com.

Que necesitamos de ti

  • Diseño, desarrollo, mantención y actualización de infraestructura para soluciones multi-tennant de alta disponibilidad.
  • Construir y administrar herramientas de monitoring de los servicios e infraestructura.
  • Ayudar a diseñar, mantener y probar la seguridad de la infraestructura de red y diversas plataformas.
  • Construir utilidades para apoyar las labores de los ingenieros de software del área.
  • Mejorar la cadena de Integración Continua de los servicios administrados.
  • Administrar la generación, almacenamiento y uso de respaldos de los distintos servicios.
  • Ayudar a diseñar, mantener y probar los planes de continuidad de negocio de los distintos servicios.

Que necesitamos de ti

  • Experiencia en seguridad de Redes
  • Experiencia Bash scripting.
  • Experiencia programando en Python.
  • Experiencia básica usando containers (Docker y/o Kubernetes) tanto en Build como Deploy.
  • Experiencia de al menos 1 año administrando cargas productivas de algún servicio
  • Interés y entusiasmo por aprender de nuevas tecnologías, con el fin de crear soluciones robustas y automáticas que requieran mínima mantención.
  • Versatilidad para aprender de diversas tecnologías y lenguajes para apoyar al equipo de Ingenieros de Software en sus diversas necesidades
  • Experiencia en sistemas Linux
  • Manejo de inglés leído técnico.

Sumas puntos si

  • Certificado de Solution Architect de AWS o GCP
  • Experiencia trabajando con Kubernetes
  • Experiencia trabajando sobre Google Cloud Platform (especialmente GKE, GCS y Compute)
  • Conocimientos teóricos de Kubernetes
  • Experiencia usando Ansible
  • Experiencia con Prometheus & Graphana
  • Experiencia con Bases de Datos MariaDB trabajando en esquemas master-slave o master-master
  • Experiencia implementando cadenas de integración continua (CI)

Que tenemos para ti

  • Excelente clima laboral junto a un gran equipo.
  • Seguro complementario de salud, incluyendo dental, catastrófico y vida.
  • Amplias posibilidades para aprender del rubro de inversiones.
  • Incentivo al ahorro previsional voluntario (APV).
  • Buena relación vida/trabajo.
Si vienes a la oficina:
  • Vestimenta casual
  • Estacionamiento para bicicletas
  • Y un buen café!

Life insurance RiskAmerica pays or copays life insurance for employees.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage RiskAmerica pays or copays health insurance for employees.
Dental insurance RiskAmerica pays or copays dental insurance for employees.
Computer provided RiskAmerica provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Beverages and snacks RiskAmerica offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2200 - 2500 Tiempo completo
Ingeniero/a QA Senior – Back-end Python
  • Robotia
  • Santiago (Hybrid)
Python Agile Git Scrum

Somos Robotia, una empresa joven y líder en el desarrollo de soluciones de visión artificial para procesos industriales, específicamente orientada a la minería y la industria a nivel nacional e internacional. Nuestro enfoque está en el desarrollo de tecnologías basadas en inteligencia artificial para apoyar la automatización y la toma de decisiones en tiempo real, contribuyendo así a la transformación digital del sector minero y otros procesos industriales relevantes.

This job is published by getonbrd.com.

Responsabilidades

  • Pruebas de aceptación: Diseñar y ejecutar casos de prueba que confirmen que cada funcionalidad satisface los criterios de negocio.
  • Pruebas de integración: Planificar y ejecutar pruebas que verifiquen el flujo operativo correcto entre múltiples componentes del sistema.
  • Automatización de pruebas y herramientas de QA: Implementar suites y software especializado para validar funcionalidades nuevas, pasadas y futuras.
  • Documentación y seguimiento: Documentar planes de prueba y resultados, reportar y dar seguimiento a incidentes de calidad en conjunto con los equipos de desarrollo para su resolución.
  • Propuesta de mejoras: Aportar con propuestas de herramientas avanzadas de QA enfocadas en pipelines de datos y modelos de IA.

Requisitos

Obligatorios:

  • Título universitario en Ingeniería de Software, Computación, Informática o carrera afín.
  • Mínimo 5 años de experiencia comprobable en roles de QA de software backend, preferentemente con Python.
  • Experiencia probada en diseño y ejecución de pruebas de aceptación e integración.
  • Dominio de herramientas y suites de testing: Cucumber, Postman, JMeter, Selenium y Cypress.
  • Familiaridad con control de versiones Git y metodologías ágiles (Scrum o Kanban).
  • Excelente comunicación en español, tanto escrita como verbal, y capacidad para trabajar en equipo.

Habilidades blandas y técnicas: Debemos contar con una persona con pensamiento analítico, meticuloso en la documentación, con capacidad para colaborar eficazmente con equipos multidisciplinarios y adaptabilidad a cambios tecnológicos constantes.

Deseables

  • Conocimiento en herramientas de gestión de QA como Jira, TestRail u otras similares.
  • Experiencia con librerías y frameworks relacionados con Machine Learning y Computer Vision (PyTorch, NumPy, OpenCV, Scikit-learn).
  • Familiaridad con entornos de integración y entrega continua (CI/CD), uso de contenedores Docker y monitoreo de calidad continua.
  • Experiencia previa en industrias de tecnología de alto rendimiento o minería, lo que será considerado una ventaja importante.

Beneficios

Horario flexible y un ambiente de trabajo moderno que fomenta la innovación.

Presupuesto anual para capacitación y cursos de especialización que facilitan el crecimiento profesional continuo.

Snacks, galletas y café de grano gratis disponibles en la oficina para mantener el buen ánimo durante la jornada.

Día de cumpleaños libre y permiso de 5 días administrativos al año.

Contrato inicial a tres meses con alta probabilidad de renovación a indefinido según desempeño.

Oportunidad de integrarse a un equipo técnico senior altamente capacitado y participar en proyectos innovadores de IA aplicada a minería y procesos industriales.

Partially remote You can work from your home some days a week.
Computer provided Robotia provides a computer for your work.
Informal dress code No dress code is enforced.
Beverages and snacks Robotia offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero(a) de Aseguramiento de Calidad (QA)
  • Biometria Aplicada
  • Santiago (In-office)
JavaScript Java Python SQL

En Biometría Aplicada contamos con más de 14 años de experiencia desarrollando soluciones integrales en control biométrico y tecnologías de gestión. Nos especializamos en sistemas avanzados para la gestión de asistencia del personal, control de accesos y administración de casinos corporativos, adaptando cada solución a las necesidades específicas de nuestros clientes. Ofrecemos plataformas robustas, seguras y escalables que mejoran la eficiencia operativa, optimizan el control interno y refuerzan la seguridad en organizaciones públicas y privadas. Innovación, confiabilidad y experiencia son los pilares que nos definen.

Send CV through getonbrd.com.

Responsabilidades Principales

  • Diseñar, implementar y ejecutar pruebas funcionales manuales y automatizadas.
  • Analizar requerimientos funcionales y técnicos para construir casos de prueba efectivos.
  • Desarrollar y mantener scripts de automatización para pruebas de regresión y pruebas continuas.
  • Colaborar con desarrolladores y product owners para asegurar la cobertura de pruebas.
  • Documentar defectos encontrados, hacer seguimiento y verificar su resolución.
  • Participar en revisiones de historias de usuario, criterios de aceptación y documentación técnica.
  • Ejecutar pruebas en diferentes entornos y dispositivos según los criterios del proyecto.
  • Contribuir a la mejora continua del proceso de QA y automatización de pruebas.

Requisitos Técnicos y Competencias

Buscamos un profesional con sólidos conocimientos en metodologías de testing como funcional, regresión, smoke e integración, y experiencia en herramientas de automatización como Selenium, Cypress o Playwright. Es necesario manejar lenguajes de scripting para automatización entre los que se incluyen JavaScript, Python o Java, además de herramientas de gestión de pruebas tales como TestRail, Zephyr o Xray.

También debe tener experiencia en integración continua (CI/CD), ejecutando pruebas automatizadas dentro de pipelines, así como el manejo de pruebas en APIs con Postman u otras herramientas similares. Conocimientos básicos en bases de datos, especialmente SQL para la validación de datos, son necesarios. Es deseable experiencia con herramientas BDD como Cucumber o SpecFlow.

En cuanto a competencias blandas, valoramos la atención al detalle, pensamiento analítico, trabajo en equipo, comunicación efectiva, orientación a la calidad y la mejora continua, proactividad, autonomía y adaptabilidad frente a cambios y nuevas tecnologías. La formación deseada es título en Ingeniería en Informática, Computación, Control de Calidad de Software o carrera afín; sin embargo, la experiencia puede suplir esta necesidad.

Habilidades Deseables

Se considera un plus la experiencia previa con herramientas BDD como Cucumber y SpecFlow, así como familiaridad con la integración de pruebas automatizadas en pipelines CI/CD. Además, se valoran habilidades adicionales en comunicación para la colaboración efectiva con equipos multidisciplinarios y una mentalidad orientada a la innovación y mejora continua en procesos de aseguramiento de calidad.

Beneficios

En Biometría Aplicada ofrecemos un entorno laboral colaborativo y enriquecedor, enfocado en la promoción del desarrollo profesional continuo y la innovación tecnológica. Formarás parte de un equipo experimentado donde la excelencia y el aprendizaje constante son valores centrales que promovemos activamente.

El trabajo es 100% presencial, facilitando una interacción directa y dinámica con el equipo técnico y los líderes de proyecto, lo cual mejora la comunicación y la cooperación diaria.

Fomentamos el crecimiento profesional y personal dentro de un ambiente motivador y comprometido con la calidad, donde podrás aportar significativamente al éxito de nuestros clientes y a la evolución de nuestras soluciones biométricas.

Health coverage Biometria Aplicada pays or copays health insurance for employees.
Computer provided Biometria Aplicada provides a computer for your work.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
DevOps Senior
  • coderslab.io
  • Santiago (Hybrid)
Python MySQL PostgreSQL Linux
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un devops senior para unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

This job is original from Get on Board.

Funciones del cargo

  • Diseño, implementación y operación de arquitecturas basadas en contenedores usando Kubernetes, Helm, GitLab CI/CD, ArgoCD y Kong API Gateway.
  • Backend Cloud DEvops
  • Automatización
  • servicios Cloud
  • Despliegues seguros, reproducibles y escalables con fuerte orientación a la seguridad.
  • Gestión de secretos y credenciales con HashiCorp Vault, asegurando cumplimiento de estándares como PCI-DSS.
  • Desarrollo y mantenimiento de pipelines CI/CD robustos y automatización de procesos mediante scripting avanzado en Bash y Python.
  • Integración y operación en entornos regulados, especialmente bancarios.
  • Administración y optimización de infraestructura en OCI, incluyendo redes, IAM, VCN, almacenamiento y seguridad (WAF, escaneo de vulnerabilidades).
  • Implementación de infraestructura versionada y reproducible con Terraform.
  • Gestión de imágenes Docker y orquestación con Kubernetes.
  • Colaboración en entornos híbridos y multicloud.

Requerimientos del cargo

  • Experiencia avanzada en Oracle Cloud Infrastructure (OCI).
  • Oracle Linux 8/9: endurecimiento, SELinux, systemd, optimización y troubleshooting.
  • Terraform: módulos reutilizables, workspaces, estados remotos.
  • GitLab CI/CD y ArgoCD para pipelines y GitOps.
  • Kubernetes, Helm, Docker, Argo Workflows, Kong API Gateway.
  • HashiCorp Vault para gestión de secretos y políticas de seguridad.
  • Scripting avanzado en Bash y Python.
  • Experiencia con bases de datos MSSQL, PostgreSQL y MySQL (deseable).
  • Conocimiento en normativas y buenas prácticas de ciberseguridad y cumplimiento (PCI-DSS).

Condiciones

Modalidad de contratación: Plazo fijo
Duración del proyecto: 7 meses

POSTULAR VÍA WEB Ver trabajo
Gross salary $3600 - 3900 Tiempo completo
Senior SRE Bilingüe
  • 23people
  • Santiago (In-office)
Java Python Node.js DevOps

Equifax Chile es la filial local de Equifax Inc., una compañía global de datos, analítica y tecnología con sede en Atlanta, EE. UU., y presencia en 24 países. Desde 1979, Equifax Chile ha sido un referente en soluciones de información comercial, ofreciendo servicios como evaluación de riesgo crediticio, informes de crédito, monitoreo de identidad y análisis de datos para más de 14,000 empresas en sectores como el financiero, comercial, retail y servicios. ​Nuestra visión es empoderar a personas y organizaciones para tomar decisiones informadas, transformando el uso de la información con transparencia y seguridad. Uno de nuestros principales desafíos es liderar la transformación digital a través de nuestro Centro de Desarrollo en Santiago (SDC), que concentra el 60% de los desarrollos digitales de Equifax a nivel mundial.

Fomentamos una cultura de innovación, colaboración y excelencia técnica, donde el talento local impulsa soluciones tecnológicas de alto impacto.

Apply only from getonbrd.com.

Funciones del cargo

¿Qué harás en tu día a día?

  • Debe garantizar la confiabilidad mediante infraestructura como código, monitoreo proactivo y arquitecturas resilientes. Automatizar despliegues, optimizar rendimiento. Mantiene comunicación constante con líderes en EE.UU. sobre el estado de disponibilidad operativa del sistema.

Requerimientos del cargo

Skills

  • Se requiere más de 5 años de experiencia como Devops
  • Experiencia en soluciones de infraestructura AWS
  • Experiencia en orquestadores de CI/CD. Preferentemente Jenkins.
  • Experiencia en herramientas de Monitoreo. Preferentemente datadog
  • Experiencia en seguridad y mallado de servicios.
  • Experiencia en resolución de incidentes, troubleshooting.
  • Nivel de inglés: B2

Reclutamiento
Modalidad: Híbrido (3 x 2)
Experiencia: Desde 5 años en adelante
Horario: Lunes a viernes de 9:00 a 18:00 hrs.

Deseables

  • Metodologías ágiles
  • Conocimiento de lenguajes de programación. Preferentemente Node.js, Java, Python, Bash Scripting.

POSTULAR VÍA WEB Ver trabajo
Gross salary $2400 - 2600 Tiempo completo
Desarrollador Automatizador Senior (Performance Tester)
  • BC Tecnología
  • Santiago (Hybrid)
JavaScript Java Python SQL
En BC Tecnología somos una consultora de servicios IT con amplia experiencia en diversas áreas tecnológicas. Durante más de 6 años hemos diseñado soluciones a medida para clientes de sectores como servicios financieros, seguros, retail y gobierno, gestionando desde portafolios hasta desarrollos complejos y outsourcing profesional.
Este proyecto específico corresponde a la participación en un equipo especializado en pruebas de rendimiento y automatización dentro de clientes de alto nivel, llevado a cabo bajo metodologías ágiles. Nuestra fuerte orientación al cliente, el cambio organizacional y el desarrollo de productos innovadores marcan la diferencia en cada iniciativa que emprendemos.

Originally published on getonbrd.com.

Responsabilidades clave

  • Diseñar, desarrollar y ejecutar pruebas de carga y rendimiento utilizando herramientas como JMeter para evaluar sistemas críticos.
  • Automatizar los procesos de testeo mediante scripts en Python, Java o JavaScript, asegurando la eficiencia y repetibilidad de las pruebas.
  • Analizar los resultados obtenidos en las pruebas de performance, identificando cuellos de botella y proponiendo mejoras concretas.
  • Integrar las pruebas de rendimiento dentro de flujos de trabajo CI/CD, colaborando estrechamente con el equipo de QA para garantizar la calidad continua.
  • Participar activamente en reuniones de seguimiento, aportar visiones técnicas y documentar los resultados y procesos de manera clara y precisa.

Requisitos técnicos y perfil

Buscamos un profesional con sólida experiencia como Performance Tester, con un manejo avanzado de herramientas como JMeter para la ejecución de pruebas de carga y consumo de APIs. Es indispensable el conocimiento práctico en automatización utilizando lenguajes como Python, Java o JavaScript.
Se valoran conocimientos adicionales en herramientas complementarias como Postman para pruebas de APIs, Locust para simulaciones de carga, Grafana y Datadog para monitoreo de métricas y análisis, así como competencias en bases de datos SQL y gestión documental con Confluence y Jira.
Desde el punto de vista personal, buscamos un perfil autónomo, analítico y orientado a resultados, capaz de trabajar de manera independiente dentro de un entorno colaborativo. La afinidad o background en matemática y estadística será un plus que permitirá un mejor entendimiento y análisis de datos de performance.

Habilidades y conocimientos deseables

  • Experiencia previa en integración de pruebas de performance en pipelines CI/CD con herramientas modernas de DevOps.
  • Conocimientos en monitoreo y visualización avanzada de métricas con Grafana y Datadog para insights profundos de performance.
  • Familiaridad con metodologías ágiles y trabajo en equipos multidisciplinarios orientados a la mejora continua.
  • Capacidad para documentar procesos técnicos complejos y comunicar hallazgos a equipos técnicos y no técnicos.

Beneficios y cultura organizacional

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $4500 - 6000 Tiempo completo
Data DevOps Engineer
  • Kore RPO
Python SQL Scala Business Intelligence

We understand how complicated it can be to run a recruiting organization. Here at KORE RPO, we help reduce recruiting costs and increase candidate engagement without increasing the number of recruiters in your organization.

We have senior recruitment resources readily available to assist with all your recruiting needs. We can increase the volume of candidates without compromising on the quality.

Unlike many other RPO companies, we have a depth of understanding of staffing and recruiting organizations. We can help you build a process and operation that integrates with your existing team to increase revenue and profitability.

Apply directly through getonbrd.com.

Job functions

  • Design, build, test, and maintain existing data integrations, ETL processes, and BI solutions within the Azure platform.
  • Participate in Azure environment refresh and cutover activities for system integration testing and go-live for major and minor releases.
  • Support existing reporting and visualization solutions using enterprise BI tools.
  • Participate in an on-call rotation to support EIM production processes and systems.
  • Build and maintain Continuous Integration and Continuous Delivery pipelines.
  • Implement automated solutions using scripting/programming languages in the Azure environment.
  • Perform other duties as assigned.

Qualifications and requirements

  • Bachelor’s Degree in Computer Science or Information Systems.
  • 1+ years of hands-on experience developing and testing Data Warehouse and Business Intelligence solutions.
  • Experience coding in one of the following languages: Python, Scala, SQL, PowerShell.
  • An understanding of relational database concepts.
  • Cloud Technology experience is a plus.

Conditions

We are looking:

  • Able to multitask and work effectively in a dynamic environment.
  • Highly organized and detail-oriented.
  • Willing to jump in where needed, learn new technologies, and work effectively across the full stack.
  • Able to work both independently and collaboratively.
  • Passionate about continuous learning, leading, and sharing knowledge. Provide subject matter expertise and guidance to less experienced staff members regarding performance management and design best practices.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
DevOps
  • TIMINING
Python Go Docker Kubernetes
En Timining nos apasiona resolver problemas complejos y generar impacto real en la minería. Desarrollamos soluciones tecnológicas que integran ciencia de datos, geología, planificación minera y diseño estratégico para transformar cómo se toman decisiones en la gran minería: más informadas, eficientes y sustentables.
Nuestra cultura y valores, combina conocimiento técnico, colaboración, aprendizaje continuo y compromiso con la innovación.
Creemos en una minería mejor, y estamos construyéndola con tecnología.

Apply to this job from Get on Board.

Funciones del cargo

Buscamos un DevOps Engineer que promueva una cultura DevOps de colaboración, automatización y mejora continua, y que cuente con experiencia en automatización de infraestructura, monitoreo, integración y despliegue continuo, y administración de plataformas.
El candidato ideal actuará como un puente entre los equipos de desarrollo y operaciones, facilitando la comunicación y la eficiencia en el flujo de trabajo. Por lo que debe comprender los flujos de desarrollo y despliegue, además de las herramientas de monitoreo, con el fin de garantizar la confiabilidad y escalabilidad de los sistemas en un entorno minero.
1. Monitoreo y observabilidad: Implementar y mantener sistemas de monitoreo y alertas utilizando el stack tecnológico de Prometheus, Grafana y herramientas relacionadas.
2. CI/CD: Diseñar, optimizar y mantener pipelines de integración y despliegue continuo mediante GitHub Actions, para componentes en diversos lenguajes y tecnologías.
3. Colaboración y soporte: Trabajar junto a desarrolladores y operación para facilitar despliegues, troubleshooting, y garantizar el uptime de los servicios, participando activamente con los equipos y sesiones de resolución de problemas para facilitar despliegues y garantizar el uptime de los servicios.
4. Garantizar la calidad del software: Certificar que el software cumple con los requisitos del usuario final y asegurar su correcto funcionamiento en distintas plataformas.
5. Mejora continua y actualización: Optimizar estrategias de prueba, promover prácticas DevOps a los diversos equipos de la organización y mantenerse al día con tendencias del sector.

Requerimientos del cargo

1. | Programación en Go o Python para scripting y automatización
2. | Conocimientos de redes y protocolos
3. | CI/CD con GitHub Actions
4 | Gestión de contenedores (Docker) y orquestador de servicio (Kubernetes o Nomad)
5 | Observabilidad con Prometheus y Grafana

Opcionales

Consul para configuración y descubrimiento de servicios
Seguridad en pipelines y despliegues
Experiencia en entornos de alta disponibilidad
Traefik como proxy inverso
Capacidad analítica en traza de errores

Conditions

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage TIMINING pays or copays health insurance for employees.
Computer provided TIMINING provides a computer for your work.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Senior Cloud Platform & DevOps Engineer
  • BC Tecnología
  • Santiago (In-office)
Python SQL BigQuery Kubernetes

En BC Tecnología somos una consultora de IT con amplia experiencia en diversas áreas tecnológicas. Desde hace 6 años apoyamos a clientes de sectores como servicios financieros, seguros, retail y gobierno, brindando soluciones a medida que incluyen la consultoría, desarrollo de proyectos, outsourcing y administración de servicios IT.

Formamos equipos ágiles especializados para Infraestructura Tecnológica, Desarrollo de Software y Unidades de Negocio que garantizan la entrega de valor y el alineamiento con los objetivos empresariales de nuestros clientes. Nuestro enfoque se centra en la innovación, metodología ágil y excelencia operativa.

El área de Plataformas y Cloud es fundamental dentro de nuestra propuesta, donde integramos conocimientos avanzados en servicios cloud, automatización y DevOps para empujar la transformación digital y eficiencia operativa de las organizaciones que acompañamos.

Apply exclusively at getonbrd.com.

Funciones principales

Como Ingeniero Senior de Plataformas, serás responsable de la administración y optimización de entornos híbridos en la nube, específicamente en Google Cloud Platform. Esta posición es estratégica para la construcción y mantenimiento de infraestructura como código, automatización de despliegues continuos y soporte a operaciones críticas que aseguren la estabilidad y seguridad de los servicios.

Tu día a día incluirá desarrollar y mantener módulos de Terraform, gestionar clústeres Kubernetes (GKE), administrar pipelines CI/CD en GitLab, y trabajar estrechamente con el equipo para documentar procesos, mejorar la calidad de las implementaciones y asegurar la adherencia a buenas prácticas DevOps.

También implicará colaborar con diversas áreas para evaluar nuevas herramientas y enfoques, resolver incidentes operativos, y garantizar el cumplimiento de políticas de seguridad y gobernanza en el entorno cloud.

Descripción y requisitos del puesto

Buscamos un profesional senior con un perfil técnico sólido en ingeniería de plataformas y amplia experiencia en Google Cloud Platform. Es fundamental el dominio intermedio a avanzado de Python, que será usado para scripts y automatizaciones, junto con conocimientos avanzados en BigQuery y SQL para el manejo eficiente de datos.

Se requiere experiencia en la administración de clústeres GKE y buen nivel en Terraform, desde la creación de módulos hasta la gestión del estado y resolución de problemas. Es imprescindible el manejo de GitLab CI para orquestación de pipelines, así como un manejo básico a intermedio de Unix para la operación en consola.

El candidato debe demostrar pensamiento crítico, autogestión y proactividad para abordar retos técnicos, además de habilidades interpersonales sólidas para trabajo en equipo, atención al cliente y resiliencia ante situaciones complejas. La capacidad para redactar documentación técnica clara y precisa es fundamental.

Se valora un compromiso genuino con la diversidad, inclusión y el respeto por opiniones diversas, reflejando nuestros valores culturales.

Conocimientos y habilidades deseables

Serán altamente valorados conocimientos adicionales en IAM de GCP, particularmente en la gestión de permisos, impersonación y principios de mínimos privilegios, junto con experiencia básica o intermedia en networking tanto en entornos on-premise como en Google Cloud.

Experiencia con Kubernetes on-premise y la administración y mantenimiento de nodos fortalecerá tu candidatura. Además, familiarizarse con herramientas como ArgoCD para CD, Apache Airflow y Composer para orquestación de workflows será una ventaja competitiva.

El manejo de herramientas de inteligencia artificial asistidas como Copilot, Gemini o Cursor, así como un entendimiento de arquitecturas hexagonales y el diseño de pruebas automatizadas en Python reflejarán un perfil técnico avanzado. También se valorará experiencia con ciclos completos DevOps.

Beneficios y cultura organizacional

En BC Tecnología ofrecemos un ambiente de trabajo colaborativo que valoriza el compromiso, el aprendizaje continuo y el desarrollo profesional. Aunque no se detallan beneficios específicos en esta oferta, promovemos la integración estrecha entre equipos para facilitar el intercambio de conocimientos y fomentar tu crecimiento.

Trabajamos con metodologías ágiles junto a clientes de alto nivel en sectores diversos, lo que te permitirá participar en proyectos innovadores y desafiantes, potenciando tu carrera técnica y profesional dentro de un marco de respeto e inclusión social.

POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2500 Tiempo completo
Ingeniero de Operaciones
  • Robotia
  • Santiago (Hybrid)
Python Git Docker Deep Learning

Estamos en búsqueda de un Ingeniero de Operaciones dinámico y proactivo para unirse a nuestro equipo. La persona seleccionada será responsable de brindar apoyo a nuestra gerencia de servicios, asegurando la eficiencia, seguridad y estabilidad de los sistemas desplegados en los entornos productivos. Reportará directamente al jefe de operaciones.

Official job site: Get on Board.

Funciones del cargo

1. Monitoreo de sistemas en producción

o Supervisión del estado de los sistemas de visión artificial.

o Gestionar herramientas de monitoreo y diagnóstico.

o Asegurar la estabilidad e integridad de los sistemas.

o Administración de cámaras de vigilancia industriales.

2. Gestión de incidencias y soporte de segundo nivel

o Atender incidentes técnicos, investigar causas raíz y aplicar soluciones.

o Escalar problemas complejos a desarrollo o ciencia de datos si es necesario.

3. Evaluación del rendimiento de modelos deep learning

o Revisar salidas de los modelos (detecciones, clasificaciones) y compararlas contra parámetros de calidad esperados.

o Reportar desviaciones o deterioro de desempeño (por ejemplo, falsos positivos/negativos).

o Descarga y recuperación de registros, métricas y material multimedia para la retroalimentación de los modelos de aprendizaje.

4. Automatización y mejora continua

o Gestión del monitoreo y alerta de sistemas mediante la integración de herramientas automatizadas.

o Contribuir en las definiciones técnicas que maximicen la estabilidad, escalabilidad, rendimiento y seguridad de los sistemas.

5. Documentación y procedimientos operativos

o Mantener documentación clara sobre incidentes, cambios en configuración, y actualizaciones en modelos o sistemas.

6. Interacción con clientes o áreas operativas

o Comunicar hallazgos técnicos de forma clara y efectiva.

o Participar en reuniones operativas y sugerir mejoras.

Requerimientos del cargo

1. Técnicas

o Dominio de sistemas Unix (consola, gestión de procesos, eventos de sistema, administración de servicios, networking). (Obligatorio)

o Manejo de herramientas de monitoreo (Prometheus, Grafana, Nagios u otras). (Obligatorio)

o Conocimientos básicos de deep learning: cómo interpretar outputs de modelos, métricas como precision, recall, etc. (Deseable)

o Sólido manejo de scripting Bash y Python.

o Manejo Git y CI/CD (ideal para revisar versiones de modelos o pipelines).

o Manejo de Docker y administración de contenedores.

o Experiencia con Jira y Confluence. (Deseable)

2. Blandas

o Disponibilidad para visitas a terreno y pasaporte vigente (o en trámite).

o Buena comunicación, tanto oral como escrita.

o Pensamiento analítico y enfoque en resolución de problemas.

o Autoaprendizaje y adaptación a nuevas tecnologías.

o Capacidad para discriminar información relevante (ej. identificar cuándo un modelo está fallando por datos de entrada, por desalineamiento, o por bugs).

Beneficios y Condiciones

o Pertenecer a una compañía joven, con gran potencial de crecimiento regional, líder en el desarrollo de tecnología de visión artificial en el ámbito de la minería y la industria.

o Café de grano gratis en oficina.

o Capacitaciones y certificaciones.

o Snack y galletas gratis en oficina.

o Permiso de 5 días administrativos al año.

o Día de cumpleaños libre.

o Contrato a tres meses, renovación a indefinido según evaluación.

POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2700 Tiempo completo
DevOps
  • coderslab.io
  • Santiago (Hybrid)
Python Excel SQL Business Intelligence

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de DEVOPS para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Apply to this job opportunity at getonbrd.com.

Funciones del cargo

Analizar procesos actuales (AS-IS):

  • Levantar, mapear y comprender procesos operativos y contables existentes. Identificar puntos críticos, riesgos y oportunidades de mejora.

Coordinar con stakeholders:

  • Organizar y gestionar reuniones con responsables de procesos clave (operaciones, contabilidad, tecnología, etc.), recopilando información relevante de múltiples frentes.

Diseñar procesos futuros (TO-BE):

  • Proponer mejoras o rediseños que aseguren trazabilidad, eficiencia y control.
  • Documentar procesos:
  • Elaborar diagramas, manuales y guías operativas claras y reutilizables.

Desarrollar e implementar soluciones:

  • Construir automatizaciones, conciliaciones, dashboards, y scripts. Validar con usuarios clave y adaptar según feedback.

Requerimientos del cargo

Conocimientos técnicos:

  • SQL avanzado (ideal experiencia con BigQuery en Google Cloud)
  • Python para automatización, validaciones y ETL
  • Excel avanzado (visualizaciones, paneles)
  • Experiencia con herramientas de BI (Looker o Power BI)

Conocimientos funcionales:

  • Procesos bancarios: abonos, cargos, conciliaciones
  • Productos financieros: créditos, cuentas corrientes, CMR, etc.
  • Contabilidad: lectura de asientos contables y análisis de cuentas (haber/debe)

Habilidades clave:

  • Pensamiento analítico y capacidad para detectar desajustes entre sistemas
  • Autonomía para investigar y proponer soluciones
  • Experiencia documentando procesos complejos
  • Manejo de herramientas de comunicación y gestión como Microsoft Teams

Conditions

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
QA Automation Engineer Python/Robot Framework
  • coderslab.io
Python Agile MySQL PostgreSQL
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos buscando un Ingeniero Senior en Automatización para unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

Apply to this job without intermediaries on Get on Board.

Funciones del cargo

1. Desarrollo de Automatización de Pruebas:
o Diseñar e implementar scripts automatizados para pruebas de aplicaciones web, móviles y
APIs utilizando herramientas como Robot Framework y Appium (Android/iOS).
o Garantizar la cobertura de pruebas para servicios REST y GraphQL.
o Usar Python para desarrollar soluciones personalizadas y mejorar los frameworks de prueba
existentes.
2. Pruebas de Bases de Datos:
o Realizar pruebas y validaciones en bases de datos relacionales (e.g., MySQL, PostgreSQL) y
no relacionales (e.g., DynamoDB).
3. Gestión y Colaboración:
o Documentar procesos, resultados y estrategias de prueba en herramientas como Confluence.
o Trabajar en estrecha colaboración con desarrolladores y partes interesadas del negocio para
garantizar que los requisitos de calidad se cumplan.
o Gestionar tareas, estimaciones de esfuerzo y prioridades en Jira.
4. Gestión de Infraestructura:
o Configurar pipelines de integración y despliegue continuo (CI/CD) utilizando GitHub Actions.
o Colaborar en entornos basados en la nube, como AWS, para la ejecución y el mantenimiento
de pruebas automatizadas.
5. Capacitación y Transferencia de Conocimiento:
o Capacitar a los miembros del equipo en herramientas, procesos y mejores prácticas de
automatización.
o Promover una cultura de mejora continua mediante la transferencia de conocimiento y la
mentoría.

Requerimientos del cargo

• Experiencia mínima de 5 años en QAA.
• Experiencia sólida en automatización de pruebas utilizando Robot Framework y Appium
(Android/iOS).
• Conocimiento avanzado en Python para desarrollo de scripts y frameworks.
• Experiencia en diseño y ejecución de pruebas de APIs (REST y GraphQL).
• Familiaridad con bases de datos relacionales y no relacionales (MySQL, PostgreSQL, DynamoDB).
• Conocimiento de herramientas de CI/CD como GitHub Actions.
• Experiencia trabajando con AWS.
• Manejo de herramientas de gestión como Jira y Confluence.
• Habilidades en documentación y colaboración con equipos técnicos y de negocio.
• Experiencia en entornos ágiles (Scrum)
• Capacidad para liderar iniciativas de automatización y fomentar un entorno de aprendizaje
continuo.
• Excelentes habilidades de comunicación y proactividad
• Autonomía y capacidad para gestionar múltiples tareas simultáneamente.

Conditions

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Senior Site Reliability Engineer (SRE)
  • Moventi
Python MySQL Go Kubernetes
Moventi is a forward-thinking technology company dedicated to helping organizations embrace innovation through cutting-edge technologies. We provide an environment where multidisciplinary talents collaborate to drive digital transformation and shape the future with technology. Our teams engage with state-of-the-art cloud infrastructure projects and large-scale SaaS platforms designed to scale and maximize reliability and efficiency.
Our current project focuses on designing, building, and operating highly available, scalable infrastructure on cloud platforms such as AWS EKS and Azure AKS. This includes advanced data ingestion pipelines handling hundreds of terabytes to petabytes of data, leveraging technologies like Clickhouse and Kafka. We prioritize observability, security, and automation using modern tools and practices to ensure robust SaaS operations.

Apply without intermediaries through Get on Board.

Primary Responsibilities and Role Overview

As a Senior Site Reliability Engineer (SRE), you will be instrumental in architecting, deploying, and managing complex cloud-native infrastructure in large-scale SaaS environments. Your role includes designing and maintaining Kubernetes clusters (AWS EKS, Azure AKS) using Infrastructure as Code tools such as Terraform, ensuring seamless scalability and reliability.
You will be responsible for implementing observability solutions across monitoring, logging, tracing, and metrics collection using Prometheus, Grafana, Datadog, and ELK ecosystem to maintain robust system health and performance. Managing data ingestion pipelines with high-volume technologies like Clickhouse and Kafka will be part of your core tasks.
Collaboration with cross-functional teams to drive GitOps CI/CD processes, writing automation scripts in Python, Go (Golang), and Bash to streamline deployments and operations, and enforcing security best practices involving encryption, key management, and policy enforcement are key duties. In addition, you will design and maintain disaster recovery strategies for critical components such as MySQL, Kafka, and Zookeeper, ensuring business continuity and data integrity.
This role requires active participation in a large, dynamic team environment where your expertise will elevate operational standards and foster innovation around high availability SaaS platforms.

Required Experience and Skills

We are looking for a professional with a minimum of 7 years designing, building, and maintaining SaaS environments with a strong focus on large-scale cloud infrastructure. Candidates must have at least 5 years of hands-on experience working with AWS EKS and Azure AKS managed Kubernetes clusters, leveraging Terraform for infrastructure automation.
Key technical expertise includes managing data ingestion in large environments through Clickhouse and Kafka, handling data volumes scaling up to petabytes. A solid background in observability tools such as Prometheus, Grafana, Datadog, and ELK for monitoring, logging, and tracing is mandatory.
Expertise in GitOps practices and CI/CD pipelines is essential. We expect proven scripting skills in Python, Go (Golang), Bash, and AWS CLI to automate operational workflows. Candidates must demonstrate at least 3 years of experience managing security operations including enforcing infrastructure security policies, managing encryption at rest and in transit, and key management.
In-depth knowledge of disaster recovery planning and execution for distributed systems including MySQL, Kafka, and Zookeeper is required. The ideal candidate should be a proactive and collaborative team player, able to communicate complex technical concepts effectively while taking initiative in a fast-paced innovative environment. Strong problem-solving skills, risk management, and a passion for continuous improvement are imperative to succeed in this role.

Additional Preferred Skills and Experience

Experience with service mesh technologies such as Istio and Kubernetes operators is highly valued to optimize application connectivity and lifecycle management. Familiarity with large scale data architectures and tuning Kafka clusters would be advantageous. Prior exposure to cloud security frameworks and compliance standards, as well as experience leading or mentoring SRE teams within enterprise environments, will be considered a strong plus.
An innovative mindset with eagerness to explore emerging tools and automation techniques is welcome, along with excellent interpersonal skills suitable for a multidisciplinary collaborative culture.

Our Offer and Work Environment

At Moventi, we provide a stimulating and innovative work atmosphere located in the heart of San Isidro, Lima, featuring convenient parking and recreational zones to promote wellbeing during breaks. Our hybrid work model gives you the flexibility to balance time between our fully equipped office and remote work tailored to team and personal preferences.
We prioritize professional growth by exposing you to challenging, diverse projects that foster continuous learning and skills enhancement. Our organizational culture is based on transparency, collaboration, commitment, risk-taking, and innovation. We offer formal employment contracts with full legal benefits from day one, ensuring job security and comprehensive protections.

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
DevOps Engineer con Conocimientos en Back-end y AWS
  • coderslab.io
Java Python Agile Node.js
En CodersLab es una empresa dedicada al desarrollo de soluciones para empresas y actualmente estamos enfocados en el crecimiento global de nuestros equipos con el objetivo de posicionar nuestros productos en más países de Latinoamérica. Por esta razón, estamos buscando un DevOps Engineer con conocimientos en Backend y AWS

Te sumarás a un equipo desafiante y ambicioso con ganas de innovar en el mercado, haciendo que tus propuestas sean altamente valiosas para el negocio.
¡Aplica ahora para este increíble reto!

Apply directly on the original site at Get on Board.

Funciones del cargo

  • Diseñar, implementar y mantener pipelines CI/CD para aplicaciones backend.
  • Automatizar despliegues y configuraciones en entornos AWS (EC2, Lambda, ECS, EKS, S3, RDS, etc.).
  • Gestionar infraestructura como código usando herramientas como Terraform, CloudFormation o similares.
  • Monitorizar y optimizar el rendimiento de sistemas y aplicaciones.
  • Colaborar con desarrolladores backend para integrar y mejorar procesos de desarrollo y despliegue.
  • Implementar prácticas de seguridad en la infraestructura y aplicaciones.
  • Gestionar la escalabilidad, alta disponibilidad y recuperación ante desastres.
  • Documentar procesos y arquitecturas implementadas.

Requerimientos del cargo

  • Experiencia mínima de 2 años como DevOps Engineer o en roles similares.
  • Conocimientos sólidos en AWS y sus servicios principales.
  • Experiencia en desarrollo backend con lenguajes como Python, Node.js, Java o Go.
  • Dominio de herramientas CI/CD (Jenkins, GitLab CI, GitHub Actions, etc.).
  • Conocimientos en infraestructura como código (Terraform, CloudFormation).
  • Experiencia con contenedores y orquestadores (Docker, Kubernetes).
  • Familiaridad con monitoreo y logging (Prometheus, Grafana, ELK, CloudWatch).
  • Buenas prácticas de seguridad en la nube.
  • Capacidad para trabajar en equipo y comunicar efectivamente.
Deseables:
  • Certificaciones AWS (AWS Certified DevOps Engineer, AWS Solutions Architect).
  • Experiencia con microservicios y arquitecturas serverless.
  • Conocimiento en bases de datos SQL y NoSQL.
  • Experiencia en metodologías ágiles.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
DevOps Engineer
  • Softserve
Python Linux DevOps Virtualization
WE ARE
SoftServe is an IT & global digital solutions company with headquarters in Austin, Texas, founded in 1993 in Ukraine. Our associates work on 2,000+ projects with clients in the USA, Europe, and APAC region. We are about people who create bold things, who make a difference, who have fun, and who love their work. In January 2022, we started our operations in Latin America. We committed to grow our local community to 3,500 associates by 2025 and invest in the market.

Apply without intermediaries through Get on Board.

Funciones del cargo

AND YOU WANT TO
  • Collaborate with the LATAM DevOps Practice to contribute to cloud platforms for globally innovative companies
  • Engage in diverse private and public cloud-oriented projects of various scales
  • Participate in enterprise-scale migrations, cloud-native application development, and trending technology initiatives
  • Build, maintain, and optimize CI/CD pipelines for automated deployment and updates
  • Configure and manage scalable, secure, and high-performing cloud environments
  • Use tools like Terraform for infrastructure as code (IaC) to enhance deployment consistency and minimize manual interventions

Requerimientos del cargo

IF YOU ARE
  • Experienced with SRE/DevOps best practices
  • Proficient in AWS core IaaS and PaaS services, including IAM, VPC, Internet Gateway, NAT Gateway, ELB, RDS, EC2, S3, Security Groups, ACLs, and Routing Tables
  • Skilled in Docker, Kubernetes, and EKS
  • Adept in HELM charts and troubleshooting workloads in K8s clusters
  • Knowledgeable in Infrastructure as Code using Terraform or CloudFormation
  • Skilled in scripting languages such as Shell or Bash
  • Proficient in Linux, including administration, command-line expertise, and service debugging
  • Experienced in configuring log collectors and using observability platforms for containerized workloads

Opcionales

  • Good at maintaining existing CI/CD pipelines with tools like Jenkins, GitHub, GitLab, or CircleCI (as a plus)
  • Familiar with Python and tools like Prometheus and Grafana (would be a plus)
  • Knowledgeable in AFT Control Tower and Landing Zone (optional)

Condiciones

SoftServe is an Equal Opportunity Employer. All qualified applicants will receive consideration for employment regardless of race, color, religion, age, sex, nationality, disability, sexual orientation, gender identity and expression, veteran status, and other protected characteristics under applicable law. Let’s put your talents and experience in motion with SoftServe.

Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Softserve pays or copays health insurance for employees.
Computer provided Softserve provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Softserve gives you paid vacations over the legal minimum.
Beverages and snacks Softserve offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2400 - 3000 Tiempo completo
DevOps
  • coderslab.io
  • Santiago (Hybrid)
Ruby Python Git Linux
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente nos encontramos apuntando al crecimiento de nuestros equipos de manera global con el objetivo de posicionarnos con nuestros productos en más países de Latinoamérica, es por ello que estamos en búsqueda de un DEVOPSpara sumarse a nuestro equipo.
Te sumarás a un equipo desafiante y ambicioso con ganas de renovar el mercado, por lo que tus propuestas serán de mucho valor para el negocio.
¡Postula para este tremendo desafío!

Find this vacancy on Get on Board.

Funciones del cargo

  1. Diseño e Implementación de Infraestructura:
    • Diseñar e implementar soluciones de infraestructura que cumplan con los estándares de alta disponibilidad, escalabilidad y observabilidad.
    • Automatizar la configuración y el despliegue de los componentes de la infraestructura utilizando herramientas de Infraestructura como Código (IaC), como Terraform.
  2. Mantenimiento y Monitoreo:
    • Tomar posesión de los componentes de la infraestructura, asegurando su confiabilidad y rendimiento a través de revisiones de código y pruebas.
    • Implementar y gestionar herramientas de monitoreo y observabilidad, incluyendo ELK stack y Datadog, para garantizar la integridad y el rendimiento de los sistemas.
  3. Colaboración y Gestión de Proyectos:
    • Colaborar con otros ingenieros, partes interesadas y equipos de operaciones para comprender los requisitos comerciales y brindar soluciones técnicas efectivas.
    • Trabajar en un entorno de desarrollo ágil, utilizando herramientas como Jira y Confluence para gestionar el trabajo y realizar un seguimiento del progreso.
  4. Optimización y Mejora Continua:
    • Identificar y abordar los puntos débiles en los sistemas de la empresa a través de la automatización y la optimización.
    • Mantenerse actualizado con las tecnologías emergentes y las tendencias de la industria en el espacio DevOps/SRE para impulsar la innovación.
  5. Desarrollo y Scripting:
    • Programar en lenguajes como Python, Ruby y Bash para optimizar procesos y herramientas de infraestructura.

Requerimientos del cargo

  • Experiencia: Mínimo 3 años de experiencia como ingeniero DevOps o en roles relacionados con infraestructura cloud, incluyendo migración de infraestructura.
  • Conocimientos Técnicos:
    • Competencia en lenguajes de programación desde una perspectiva de infraestructura (Python, Ruby, Bash).
    • Familiaridad con servicios Cloud (AWS, Azure, GCP, etc.).
    • Experiencia con herramientas de monitoreo y logs, como ELK stack y Datadog.
    • Conocimiento avanzado de herramientas de infraestructura como código (IaC), específicamente Terraform.
    • Gran comprensión de los principios y prácticas de DevOps.
    • Experiencia en administración de sistemas Linux, control de versiones (Git), y tecnologías de contenedorización (Docker, Kubernetes).
  • Habilidades Personales:
    • Fuertes habilidades de comunicación y colaboración.
    • Capacidad para trabajar en un entorno ágil y adaptarse a cambios.
    • Pensamiento analítico y orientación a resultados.
    • Compromiso con la mejora continua y la innovación.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
DevOps Lead
  • Moventi
Python Linux DevOps Virtualization

We are seeking an experienced DevOps Lead to join our team, who will be responsible for designing, implementing, and maintaining our cloud-based infrastructure on Amazon Web Services (AWS).
En este rol, tendrás la oportunidad de liderar proyectos relacionados con la innovación tecnológica, garantizando que cumplamos con los estándares más altos.

Find this vacancy on Get on Board.

Funciones del cargo

As a DevOps Lead, you will be responsible for leading our DevOps team, ensuring the smooth operation of our cloud infrastructure, and driving the adoption of DevOps best practices across the organization.

  • Cloud Infrastructure: Design, implement, and maintain our cloud infrastructure on AWS, ensuring scalability, security, and high availability.
  • CI/CD Pipelines: Develop and maintain CI/CD pipelines using GitHub Actions, ensuring automated testing, building, and deployment of our applications.
  • Automation: Automate repetitive tasks, and implement infrastructure-as-code (IaC) using tools like Chef, CloudFormation, CDK.
  • Containerization: Implement and manage containerization using Docker, ensuring efficient and scalable deployment of our applications.
  • Security: Ensure the security and compliance of our cloud infrastructure, implementing best practices, and adhering to industry standards (e.g., HIPAA, PCI-DSS).
  • Collaboration: Work closely with cross-functional teams, including development, QA, and product, to ensure smooth operation of our applications and infrastructure.
  • Monitoring and Logging: Implement monitoring and logging tools (DataDog, CloudWatch), ensuring real-time visibility into our infrastructure and applications.
  • Troubleshooting: Identify and resolve issues, debugging complex problems, and optimizing system performance.

Requerimientos del cargo

  • Technical Skills:
  • AWS, including EC2, ECS, RDS, IAM
  • Expertise in IaC tools (preferably - AWS CDK)
  • Expertise in CI/CD pipelines using GitHub Actions
  • Proficiency in automation tools like Chef, Ansible, or Puppet
  • Experience with containerization using Docker, including Docker Compose and Docker Swarm
  • Strong understanding of security best practices, including network security, access control, and compliance
  • Strong knowledge of Python and Shell scripting
  • Familiarity with monitoring and logging tools (DataDog, AWS CloudWatch)
  • Soft Skills:
  • Excellent leadership and communication skills
  • Strong problem-solving skills, with the ability to break down complex issues into manageable parts
  • Ability to adapt to changing requirements and priorities
  • Passion for DevOps, automation, and security, with a focus on delivering high-quality solutions
  • Education
  • Bachelor's degree in Computer Science, Information Technology, or a related field
  • Experience
  • At least 5 years of experience in DevOps, with a focus on cloud infrastructure, CI/CD pipelines, and automation
  • Experience leading DevOps teams, with a proven track record of delivering high-quality solutions

Opcionales

Certifications:

  • AWS Certified DevOps Engineer - Professional
  • GitHub Actions Certified Developer
  • Chef Certified Developer
  • Docker Certified Associate

Conditions

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2600 - 2800 Tiempo completo
Ingeniero DevOps
  • BC Tecnología
  • Santiago (Hybrid)
Python Linux DevOps Virtualization
En BC Tecnología, somos una consultora de TI con un enfoque claro en el cliente y metodologías ágiles. Durante los últimos 6 años hemos diseñado soluciones personalizadas para una variedad de sectores incluyendo servicios financieros, seguros, retail y gobierno. Gestionamos un portafolio diversificado, desarrollamos proyectos innovadores, y ofrecemos servicios de outsourcing y selección de profesionales. Nuestro equipo está compuesto por expertos en diferentes áreas tecnológicas, lo que nos permite formar equipos de trabajo ágiles y eficaces. Como parte de tu rol como Ingeniero DevOps, tendrás la oportunidad de postularte para ser parte en la gestión de plataformas en Oracle Cloud Infrastructure (OCI) y Microsoft Azure, contribuyendo así a la mejora continua de la infraestructura de nuestros clientes.

This company only accepts applications on Get on Board.

Responsabilidades:

  • Administrar y mantener la infraestructura de plataformas en OCI y Azure.
  • Gestionar y automatizar los procesos de implementación de sistemas.
  • Monitorear el rendimiento y la disponibilidad de las plataformas.
  • Implementar y mantener herramientas de CI/CD.
  • Colaborar con equipos de desarrollo para mejorar la eficiencia y la calidad de los despliegues.
  • Resolver problemas y optimizar el rendimiento de las aplicaciones y servicios.

Requisitos:

  • Experiencia comprobable en administración de plataformas en OCI y Azure.
  • Conocimientos en herramientas de automatización y CI/CD.
  • Habilidades en scripting y programación (Python, Bash, etc.).
  • Experiencia en la gestión de contenedores y orquestación (Docker, Kubernetes).
  • Conocimiento en Power Platform (deseable).
  • Capacidad para trabajar en un entorno híbrido y adaptarse a los horarios establecidos.

Deseable:

Conocimiento en Power Platform es considerado un plus, de igual forma, habilidades adicionales en herramientas existentes de orquestación y su manejo eficiente podrían ser favorables en el proceso de selección. Se aprecia una actitud proactiva y la voluntad de enfrentar y resolver problemas que surjan en un entorno dinámico.

Beneficios:

En BC Tecnología, valoramos a nuestros colaboradores y ofrecemos un entorno dinámico con oportunidades de continuo aprendizaje. Trabajarás en proyectos innovadores que ofrecen retos tecnológicos, en una modalidad híbrida que permite 4 días de trabajo remoto y 1 día en la oficina. También ofrecemos un seguro complementario de salud, acceso a Amipass y aguinaldos en fiestas patrias y Navidad.
¡Si te apasiona la tecnología y deseas unirte a un equipo altamente cualificado, esta es tu oportunidad!

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
QA Automation SSR Adv
  • Improving South America
JavaScript Agile QA Scrum
Leniolabs_ que ahora es Improving South America es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España, USA y Canadá.
Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes.
Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.
Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

This posting is original from the Get on Board platform.

Funciones del cargo

Actualmente, estamos en la búsqueda de un QA Automation SSR Adv/SR que se quiera unir a Leniolabs/Improving South America para trabajar de la mano de uno de nuestros importantes clientes:
  • Se trabajará en el departamento de desarrollo de tecnología de la empresa.
  • Trabajo en equipo - liderazgo.
  • Será responsable de avanzar en los diferentes requerimientos del cliente, junto con el equipo.
  • Su trabajo consiste en hacer que las tareas se realicen utilizando todos los recursos disponibles (tangibles e intangibles).
  • Contamos internamente con personas capacitadas para realizar QA, Líder de proyecto, etc, por lo cual tendrá la responsabilidad de adaptarse a cada equipo.
  • Trabajará para el área de notificaciones del sistema.
  • El trabajo está basado en ayudar a otras personas a conectar mensajes del sistema.
  • El sistema es usado por desarrolladores internos y eternos.

Requerimientos del cargo

  • Nivel de inglés intermedio/avanzado - Excluyente.
  • Experiencia realizando el ciclo completo de testing de software.
  • Experiencia de +5 años probando aplicaciones web y deseable que cuente experiencia en mobile.
  • Experiencia en la construcción de un framework para testing web.
  • Experiencia en POM.
  • Conocimientos o experiencia en JavaScript/TypeScript (Deseable).
  • Experiencia con Playwright o Cypress.
  • Manejo de metodologías agiles (Scrum).

Beneficios

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Internal talks Improving South America offers space for internal talks or presentations during working hours.
Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Improving South America gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2200 Tiempo completo
Analista QA Automatizador
  • BC Tecnología
  • Santiago (Hybrid)
Python PostgreSQL Git QA
En BC Tecnología, somos una consultora de TI con un fuerte enfoque en la creación de soluciones personalizadas que se alinean perfectamente con las necesidades de nuestros clientes. Trabajamos con un diverso portafolio en sectores como servicios financieros, seguros, retail y gobierno. En nuestro proyecto actual, requerimos un Analista QA Automatizador por un periodo de 12 meses, donde el candidato será parte de un equipo ágil, encargado de asegurar la calidad de nuestros desarrollos mediante metodologías de testing avanzadas.

Apply to this job directly at getonbrd.com.

Responsabilidades del Analista QA Automatizador

  • Implementar y ejecutar pruebas automatizadas utilizando Selenium WebDriver en Python u otros lenguajes de programación orientados a objetos.
  • Realizar testing de APIs, asegurando la funcionalidad solicitada y la integridad de los microservicios.
  • Manejar repositorios y versiones de software mediante Git y plataformas como GitHub, GitLab o Bitbucket.
  • Interactuar con bases de datos; realizar consultas y pruebas en PostgreSQL como parte del proceso de verificación.
  • Gestionar actividades del equipo y seguimiento de tareas a través de Jira, asegurando el cumplimiento de cronogramas establecidos.
  • Configurar pipelines de CI/CD para facilitar la integración continua y entrega de software fluida.

Requisitos y habilidades del candidato

Buscamos un profesional que posea al menos 3 años de experiencia comprobable en roles similares, con un sólido entendimiento de las prácticas de aseguramiento de calidad. El candidato debe ser capaz de trabajar de manera colaborativa en un ambiente ágil, adoptar metodologías de desarrollo modernas y comunicarse efectivamente con diferentes áreas del equipo. Se valora la proactividad y un enfoque orientado a resultados.

Habilidades deseables

Sería un plus contar con certificaciones relacionadas a testing o metodologías ágiles, así como experiencia en la gestión de pruebas dentro de equipos multidisciplinarios. La experiencia con herramientas adicionales de automatización o conocimientos en lenguajes de programación adicionales también serán considerados positivamente.

Beneficios que ofrecemos

En BC Tecnología, valoramos a nuestro personal y fomentamos un ambiente laboral positivo y colaborativo. Ofrecemos un contrato a plazo fijo que tiene la posibilidad de convertirse en indefinido. Nuestro esquema de trabajo es híbrido, permitiendo así flexibilidad en la modalidad. Además, contamos con beneficios tales como seguro complementario de salud, aguinaldo por fiestas patrias y navidad, y tarjeta de alimentación. 🌟

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2500 Tiempo completo
DBA Oracle
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL Oracle Linux
En *BC Tecnología*, somos una consultora TI con un enfoque claro en el cliente. Nuestros equipos de trabajo ágiles están diseñados para colaborar en proyectos innovadores, especialmente en el sector educativo. Tenemos más de 6 años de experiencia creando soluciones IT que se ajustan a las necesidades de nuestros clientes. Este proyecto específico es emocionante y se basa en la administración y optimización de bases de datos Oracle, siendo una oportunidad ideal para quienes buscan hacer un impacto significativo en su campo.

Apply to this job opportunity at getonbrd.com.

Tus responsabilidades:

  • 🔧 Gestionar bases de datos Oracle en producción y desarrollo, asegurando su alta disponibilidad y rendimiento.
  • ⚙️ Configurar y gestionar entornos de alta disponibilidad usando Oracle RAC y Data Guard.
  • ☁️ Migrar bases de datos a Oracle Cloud y otros entornos Cloud.
  • 🛠 Automatizar tareas de DBA y realizar monitoreo continuo para optimizar el rendimiento.
  • 🛡 Diseñar planes de recuperación ante desastres y políticas de backup/restore.
  • 🔄 Colaborar con equipos de desarrollo y operaciones para integrar las bases de datos con las aplicaciones.

¿Qué buscamos?

  • 🎯 Experiencia sólida en Oracle 19c o superior.
  • ⚡ Conocimiento profundo de Oracle RAC, Data Guard, ASM y Oracle Multitenant.
  • ☁️ Experiencia con Oracle Cloud Infrastructure (OCI) y otros servicios Cloud como AWS o Azure (deseable).
  • 🛠 Habilidades en scripting para automatización de tareas DBA (Bash, Python).
  • 📊 Experiencia en monitoreo, tuning y optimización de bases de datos.
  • 🗂 Conocimiento avanzado en PLSQL, tuning de SQL, y gestión de backups (RMAN, Data Pump).
  • 🔐 Experiencia en seguridad y encriptación de bases de datos.

¿Qué ofrecemos?

  • 🚀 Proyecto de 5 meses con posibilidad de extensión.
  • 🌍 Trabajo híbrido en un ambiente dinámico.
  • 🎓 Oportunidades de crecimiento y aprendizaje con nuevas tecnologías.

Beneficios adicionales:

  • Modalidad híbrida (presencial 2 veces por semana) en Lima, Perú.
  • Horario flexible de lunes a viernes de 9:00 a 18:00.
  • Oportunidad de trabajar en proyectos innovadores que impactan el sector educativo.
  • Ambiente dinámico y con muchas oportunidades de crecimiento.
¡Únete a un equipo donde tu talento hará la diferencia! 🌟

Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2800 - 3000 Tiempo completo
DevOps Semi Senior
  • BC Tecnología
  • Santiago (Hybrid)
Ruby Python Git Linux
En BC Tecnología, somos una consultora de TI con más de 6 años de experiencia ofreciendo soluciones adaptadas a las necesidades de nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestra especialidad incluye la formación de equipos ágiles para distintas áreas de tecnología, incluyendo Infraestructura TI y Desarrollo de Software. Nos enfocamos en la creación de productos innovadores y en el apoyo organizacional mediante metodologías ágiles.

Exclusive offer from getonbrd.com.

Funciones del Rol

Como Devops Semi Senior, tus responsabilidades incluyen:
  • Implementar y gestionar infraestructuras en la nube utilizando herramientas de primeros niveles como AWS, GCP o Azure.
  • Desarrollar y mantener pipelines de CI/CD utilizando lenguajes de programación como Python, Ruby y Bash.
  • Colaborar en el uso de Infraestructura como Código mediante herramientas como Terraform y Ansible.
  • Monitorear y optimizar clústeres de producción en entornos de Linux, utilizando herramientas como Docker y Kubernetes.
  • Participar activamente en sesiones de migración de infraestructura, asesorando en el proceso de transición de on-premise a Cloud.
  • Soporte técnico continuo para el equipo en prácticas DevOps, asegurando la implementación de mejores prácticas y principios de calidad en el desarrollo.
  • Utilizar y optimizar herramientas de monitoreo y trazabilidad como Prometheus, ELK y Grafana para garantizar el rendimiento efectivo de las aplicaciones.

Descripción del Perfil

Buscamos un profesional con al menos 3 años de experiencia en roles de Ingeniero DevOps o en Infraestructura Cloud, que demuestre un profundo conocimiento en prácticas DevOps. Buscamos habilidades tanto técnicas como interpersonales, incluyendo:
  • Salto de experiencia demostrado en sistemas Linux, control de versiones con Git y implementación de contenedores con Docker y Kubernetes.
  • Conocimientos sólidos en servicios en la nube (AWS, GCP, Azure) y sus respectivas herramientas de monitoreo.
  • Capacidad para trabajar en un entorno híbrido, manteniendo una comunicación efectiva tanto en ambientes remotos como presenciales.
  • Iniciativa propia y aptitud para resolver problemas, así como la capacidad de colaborar colaborativamente dentro de equipos multidisciplinarios.

Habilidades Deseables

Además de los requisitos mencionados, serán valoradas las siguientes habilidades:
  • Experiencia previa con herramientas de Infraestructura como Código como Terraform y Ansible.
  • Certificaciones en plataformas de nube como AWS o Azure.
  • Conocimientos en metodologías ágiles de gestión y desarrollo de software.
  • Capacidades en sistemas de logging y trazabilidad, aumentando la visibilidad del rendimiento de las aplicaciones.

Beneficios de Trabajar en BC Tecnología

En BC Tecnología, cuidamos el bienestar de nuestro equipo. Ofrecemos:
  • Seguro Complementario de Salud y Seguro de Vida para todos los empleados.
  • Bonos de rendimiento y aguinaldos durante festividades importantes.
  • Flexibilidad de horarios con múltiples turnos y una jornada laboral adaptable.
  • Acceso a certificaciones y cursos en AWS, Azure y otras tecnologías relevantes.
  • Convenios con instituciones de salud y acceso a un gimnasio cercano.
  • Oportunidades para participar en actividades externas y enriquecedoras.
¡Únete a un equipo donde tu talento hará la diferencia! 🌟

Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2200 - 2700 Tiempo completo
QA Automation
  • coderslab.io
Android iOS Python Agile

En CodersLab, actualmente estamos enfocados en el crecimiento global de nuestros equipos con el objetivo de posicionar nuestros productos en más países de Latinoamérica. Por esta razón, estamos buscando un QA AUTOMATION motivado y orientado a objetivos.

Te unirás a un equipo desafiante y ambicioso con ganas de innovar en el mercado, haciendo que tus propuestas sean altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Find this vacancy on Get on Board.

Funciones del cargo

Responsabilidades Principales:

1. Desarrollo de Automatización de Pruebas:

o Diseñar e implementar scripts automatizados para pruebas de aplicaciones web, móviles y

APIs utilizando herramientas como Robot Framework y Appium (Android/iOS).

o Garantizar la cobertura de pruebas para servicios REST y GraphQL.

o Usar Python para desarrollar soluciones personalizadas y mejorar los frameworks de prueba existentes.

2. Pruebas de Bases de Datos:

o Realizar pruebas y validaciones en bases de datos relacionales (e.g., MySQL, PostgreSQL) y no relacionales (e.g., DynamoDB).

3. Gestión y Colaboración:

o Documentar procesos, resultados y estrategias de prueba en herramientas como Confluence.

o Trabajar en estrecha colaboración con desarrolladores y partes interesadas del negocio para garantizar que los requisitos de calidad se cumplan.

o Gestionar tareas, estimaciones de esfuerzo y prioridades en Jira.

4. Gestión de Infraestructura:

o Configurar pipelines de integración y despliegue continuo (CI/CD) utilizando GitHub Actions.

o Colaborar en entornos basados en la nube, como AWS, para la ejecución y el mantenimiento de pruebas automatizadas.

5. Capacitación y Transferencia de Conocimiento:

o Capacitar a los miembros del equipo en herramientas, procesos y mejores prácticas de automatización.

o Promover una cultura de mejora continua mediante la transferencia de conocimiento y la mentoría.

Requerimientos del cargo

• Experiencia mínima de 5 años en QAA.

• Experiencia sólida en automatización de pruebas utilizando Robot Framework y Appium (Android/iOS).

• Conocimiento avanzado en Python para desarrollo de scripts y frameworks.

• Experiencia en diseño y ejecución de pruebas de APIs (REST y GraphQL).

• Familiaridad con bases de datos relacionales y no relacionales (MySQL, PostgreSQL, DynamoDB).

• Conocimiento de herramientas de CI/CD como GitHub Actions.

• Experiencia trabajando con AWS.

• Manejo de herramientas de gestión como Jira y Confluence.

• Habilidades en documentación y colaboración con equipos técnicos y de negocio.

• Experiencia en entornos ágiles (Scrum)

• Capacidad para liderar iniciativas de automatización y fomentar un entorno de aprendizaje continuo.

• Excelentes habilidades de comunicación y proactividad

• Autonomía y capacidad para gestionar múltiples tareas simultáneamente.

Conditions

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1400 - 1700 Tiempo completo
Administrador de Bases de Datos
  • Zerviz Technologies
  • Santiago (In-office)
MySQL PostgreSQL NoSQL MongoDB

En ZerviZ, somos una empresa líder en innovación tecnológica y transformación digital desde 2017, con presencia en más de 16 países de América Latina. Nos especializamos en diseñar, implementar y optimizar proyectos digitales que mejoran la experiencia del cliente y optimizan procesos operativos, atención, servicio y gestión. Participarás en un equipo que impulsa más de 150 proyectos exitosos utilizando tecnologías de punta y metodologías ágiles, siempre buscando ir más allá de lo convencional para entregar soluciones flexibles y personalizadas a clientes en diversas industrias.

This job is original from Get on Board.

Funciones

  • Administrar y optimizar bases de datos relacionales (SQL Server, MySQL, PostgreSQL) y no relacionales (MongoDB).
  • Desarrollar y ejecutar scripts en SQL para automatizar tareas y mejorar el rendimiento.
  • Implementar y mantener políticas de seguridad de bases de datos (encriptación, control de acceso, auditoría).
  • Gestionar planes de backup, recuperación de datos y garantizar alta disponibilidad.
  • Monitorear el rendimiento de las bases de datos y diagnosticar posibles problemas.
  • Gestionar bases de datos en entornos virtualizados y plataformas en la nube (AWS, Azure, Google Cloud).

Requisitos

  • Experiencia en Sistemas de Gestión de Bases de Datos (SGBD): Se requiere experiencia en el manejo y administración de SGBD como Microsoft SQL Server, MySQL, PostgreSQL, MongoDB, entre otros, tanto en bases de datos relacionales como no relacionales.
  • Instalación, configuración y administración: Se debe contar con la capacidad para instalar, configurar y administrar diferentes tipos de SGBD, adaptándolos a las necesidades específicas de la organización.
  • Conocimientos en arquitectura de bases de datos: Se debe tener un conocimiento sólido en la arquitectura de bases de datos, comprendiendo su diseño, escalabilidad y optimización, asegurando un desempeño eficiente y seguro de las bases de datos.

Experiencias Deseables

  • Seguridad de la información: Conocimiento en herramientas y técnicas de seguridad, encriptación de datos y gestión de riesgos.
  • Certificaciones en Cloud: Certificaciones en plataformas de computación en la nube como AWS, Azure o Google Cloud.
  • Business Intelligence (BI): Conocimientos en herramientas de BI para el análisis y visualización de datos.
  • Automatización y scripting: Familiaridad con herramientas de automatización y scripting (PowerShell, Python, etc.) para optimizar procesos y tareas administrativas.

Conditions

Life insurance Zerviz Technologies pays or copays life insurance for employees.
Health coverage Zerviz Technologies pays or copays health insurance for employees.
Dental insurance Zerviz Technologies pays or copays dental insurance for employees.
Computer provided Zerviz Technologies provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 2000 Tiempo completo
Business Intelligence Analyst
  • Compara
Python PostgreSQL Git Data Analysis

En Compara estamos buscando un Business Intelligence Analyst para unirse a nuestro equipo de Product Operations.
Tu misión será ayudarnos a comprender y optimizar el desempeño de nuestros productos basados en inteligencia artificial, convirtiendo datos en insights accionables que impulsen decisiones estratégicas y generen un impacto tangible en el negocio.

Apply without intermediaries from Get on Board.

🎯 ¿Qué harás?

  • Generar reportes, dashboards y métricas clave que nos ayuden a monitorear y potenciar nuestros productos de IA.
  • Analizar KPIs, detectar errores y generar insights para la mejora continua.
  • Colaborar con equipos de producto, tecnología y otras áreas para resolver desafíos estratégicos basados en datos.
  • Apoyar la configuración y el mantenimiento de nuestros productos de IA, incluyendo tareas relacionadas a prompt engineering.

🔎 ¿A quién buscamos?

  • Experiencia en roles de Business Intelligence.
  • Manejo de herramientas BI (idealmente Metabase).
  • Dominio de SQL (preferiblemente PostgreSQL).
  • Conocimientos prácticos de Python para análisis o automatización de datos.
  • Conocimiento básico de versionado con Git.
  • Pensamiento analítico, autonomía y habilidades colaborativas para definir métricas de producto y resolver problemas con actitud proactiva.

🌟 Será un plus si cuentas con:

  • Conocimiento en data engineering: ETL/ELT, pipelines y automatización de procesos.
  • Experiencia en prompt engineering o trabajo con modelos de lenguaje (LLMs).
  • Experiencia trabajando en contextos profesionales enfocados en soluciones y proyectos de inteligencia artificial.

Si te motiva trabajar con datos, inteligencia artificial y tecnología de punta en un equipo ágil, colaborativo y con impacto real en el negocio, ¡nos encantaría conocerte!🚀

Beneficios

En Compara, ofrecemos horarios flexibles y un entorno que favorece el crecimiento profesional. Valoramos la cultura de aprendizaje continuo y el desarrollo de cada miembro del equipo, por lo que si disfrutas optimizando infraestructuras de datos, impulsando mejoras estratégicas y explorando nuevas herramientas, ¡nos encantaría conocerte! 🚀

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Compara provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Compara gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
Gross salary $750 - 800 Tiempo completo
Técnico en Informática
  • Datasur
  • Santiago (Hybrid)
Python MySQL PostgreSQL SQL

En Datasur, somos líderes en inteligencia comercial basada en datos de comercio exterior. Nuestra plataforma procesa millones de registros de importaciones y exportaciones de más de 70 países, y estamos listos para escalar más alto.

Este debe asegurar la correcta gestión y actualización de las bases de datos de comercio internacional, manteniendo altos estándares de calidad en la información procesada. Contribuir a la generación de reportes y análisis estratégicos para clientes de diversos sectores.

© getonbrd.com.

Funciones del cargo

El tecnico en informatica sera responsable de la recolección, procesamiento y validación de información de importaciones y exportaciones en la plataforma de Datasur. Su rol es clave para garantizar la precisión y actualización de las bases de datos comerciales, apoyando el desarrollo de reportería y análisis de mercado para los clientes de la empresa.

  • Recopilar y procesar datos de importaciones y exportaciones desde diversas fuentes, incluyendo información aduanera y manifiestos de carga.
  • Validar, limpiar y estandarizar los datos para garantizar su confiabilidad y precisión.
  • Gestionar la carga y actualización de la información en la plataforma de Datasur.
  • Apoyar en la elaboración de reportería y análisis de mercado para clientes.
  • Identificar inconsistencias o errores en la información y coordinar su corrección.
  • Mantener comunicación con proveedores de datos y equipos internos para garantizar la fluidez en el proceso de actualización de información.
  • Cumplir con los protocolos de calidad y seguridad de datos definidos por la empresa.

Requerimientos del cargo

  • Título técnico en Informatica.
  • Manejo intermedio de Python
  • Conocimientos en SQL, PostgreSQL, MySQL/MariaDB
  • Al menos 1 año de experiencia en procesamiento de datos, análisis de información o manejo de bases de datos (No Excluyente)
  • Atención al detalle y precisión en el manejo de datos.
  • Capacidad analítica para identificar patrones y tendencias en la información.
  • Organización y gestión del tiempo para cumplir con cronogramas de actualización.
  • Habilidad para trabajar en equipo y comunicarse de manera efectiva.
  • Orientación a la mejora continua y resolución de problemas.

Condiciones

  • Seguro complementario de salud.
  • Posibilidad de crecimiento hacia roles de mayor especialización en análisis de datos y reportería.
  • Capacitación en herramientas de procesamiento y análisis de información.
  • Desarrollo profesional en un entorno dinámico de tecnología aplicada al comercio internacional.

Partially remote You can work from your home some days a week.
Health coverage Datasur pays or copays health insurance for employees.
Computer provided Datasur provides a computer for your work.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2300 Tiempo completo
Data Engineer
  • Genesys Tecnologías de Inform. SpA
  • Santiago (Hybrid)
Java Python Git SQL
Genesys Tecnologías de Información SpA es una empresa consolidada en Latinoamérica con más de 30 años de experiencia en el mercado, especializada en soporte y mantenimiento de aplicaciones, RPA, inteligencia artificial, QA Automation, staff augmentation, cloud y más. Acompañamos a las empresas en su camino de transformación digital mediante tecnologías de última generación como Cloud, Data Analytics, Artificial Intelligence y Process Automation. Nuestro equipo multidisciplinario colabora estrechamente con la matriz en Santiago y otras operaciones para brindar soluciones tecnológicas que elevan el estándar tecnológico de las organizaciones.

Applications: getonbrd.com.

Responsabilidades

  • Diseñar y desarrollar canalizaciones de datos (ETL/ELT) robustas y eficientes.
  • Colaborar con equipos de ingeniería para asegurar la integración y calidad de los datos.
  • Implementar y gestionar bases de datos y data warehouses escalables.
  • Optimizar el rendimiento de las bases de datos y sistemas de almacenamiento de datos.
  • Garantizar la calidad, integridad y seguridad de los datos dentro de los sistemas.
  • Automatizar procesos de ingestión y transformación de datos para eficiencia operativa.
  • Monitorizar y solucionar problemas relacionados con los sistemas de datos.
  • Documentar procesos, arquitecturas, y mejores prácticas relacionadas con el manejo de datos para facilitar la continuidad y mejora.

Descripción

Buscamos un Data Engineer talentoso y motivado para integrarse a nuestro equipo de datos. El candidato ideal tendrá experiencia demostrable en roles similares, con habilidades para diseñar, construir y mantener sistemas de datos escalables que faciliten el análisis y la toma de decisiones dentro de la organización.
Requisitos imprescindibles incluyen una licenciatura en Ciencias de la Computación, Ingeniería Informática, Matemáticas o un campo relacionado. Debe poseer conocimientos profundos en SQL y experiencia con bases de datos relacionales y no relacionales, además de manejar grandes volúmenes de datos y trabajar con data lakes.
Es fundamental la experiencia con herramientas de procesamiento de datos como Apache Spark y lenguajes de programación Python. También exigimos conocimiento y experiencia con Google Cloud Platform (Composer, Cloud Functions, BigQuery, Dataproc, etc.), uso de Terraform y git para la gestión de infraestructura y código.
Se valoran igualmente las habilidades analíticas, la capacidad para resolver problemas complejos, excelentes habilidades de comunicación y la capacidad de trabajar colaborativamente en equipo. Además, el candidato debe poseer un nivel de inglés intermedio (B1+) para poder participar activamente en reuniones sin dificultades.

Deseable

  • Conocimientos en el lenguaje de programación Java.
  • Certificaciones relevantes en tecnologías de datos y cloud.
  • Experiencia trabajando en equipos ágiles.

Beneficios

Formarás parte de una empresa consolidada en Latinoamérica con más de tres décadas de experiencia, que valora el talento y fomenta la innovación.
Contamos con un equipo multidisciplinario y una comunicación diaria con nuestra matriz en Santiago y otras operaciones, lo que facilita la colaboración continua y el apoyo técnico.
¡Esperamos que te unas a nuestro equipo para crecer juntos! 😊

Computer provided Genesys Tecnologías de Inform. SpA provides a computer for your work.
Shopping discounts Genesys Tecnologías de Inform. SpA provides some discounts or deals in certain stores.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3000 - 5000 Tiempo completo
Data Engineer/Science
  • Ceibo
  • Santiago (Hybrid)
Python Soporte técnico Apache Spark Back-end

En Ceibo, estamos a la vanguardia de la innovación tecnológica y la sostenibilidad, impulsando soluciones basadas en datos para transformar la toma de decisiones dentro de la compañía. Nuestro equipo de Data Science trabaja para convertir datos complejos en información accesible y valiosa que apoye diversos procesos internos. Nos encontramos en una etapa de consolidación y expansión, donde la integración eficiente de datos es clave para acelerar el impacto estratégico y operativo.

Job opportunity on getonbrd.com.

Responsabilidades principales

Como Data Engineer con enfoque en Data Science, serás responsable de estructurar flujos de datos complejos, garantizando su uso eficiente en múltiples procesos de la empresa, que van desde la consulta diaria hasta análisis avanzados. Tendrás un rol estratégico fortaleciendo soluciones basadas en datos que aceleran la toma de decisiones en toda la organización.

Entre tus funciones destacadas estarán:

  • Diseñar, implementar y optimizar pipelines de datos robustos que integren tanto sistemas sincrónicos como asincrónicos, apoyándote en herramientas de última generación, incluyendo Spark, DataFlow y otras tecnologías relevantes.
  • Transformar y preparar grandes volúmenes de datos para facilitar el acceso y análisis por diferentes equipos y procesos.
  • Realizar consultas exploratorias y desarrollar scripts eficientes para la manipulación y comprensión de la información disponible.
  • Decidir la arquitectura más adecuada para almacenar, organizar y vincular datos provenientes de diversas fuentes, asegurando su disponibilidad futura y escalabilidad.
  • Colaborar con equipos multidisciplinarios para asegurar la correcta integración y uso de los datos dentro de la empresa.

Perfil y experiencia requerida

Buscamos un profesional con pensamiento lógico y una sólida formación cuantitativa, idealmente en ingeniería, física, matemáticas o carreras afines que den un soporte sólido para el modelamiento y el manejo avanzado de datos.

Es fundamental contar con al menos tres años de experiencia programando en uno o más lenguajes, preferentemente Python, aunque no es excluyente. Deberás tener experiencia demostrable en infraestructura de datos, modelado y manejo de grandes volúmenes de información.

Además, deberás mostrar capacidad para diseñar e implementar pipelines de datos complejos y modelos dimensionales, integrando sistemas variados y utilizando tanto herramientas propias como externas. Se valora especialmente la habilidad para pensar y estructurar cómo se deben organizar y almacenar los datos para maximizar su utilidad.

Buscamos a alguien capaz de construir el rompecabezas completo: no solo trabajar con piezas ya existentes, sino también crear nuevas piezas y diseñar la forma exacta en que encajan para ofrecer soluciones óptimas.

Habilidades y conocimientos deseables

Se valorarán conocimientos adicionales en tecnologías como Apache Spark, Apache Beam, Google DataFlow u otras plataformas similares para procesamiento de datos en batch y streaming. También apreciamos experiencia en modelamiento dimensional avanzado y en la integración de sistemas tanto sincrónicos como asincrónicos.

Además, es deseable poseer habilidades interpersonales para colaborar estrechamente con equipos multidisciplinarios, capacidad para trabajar en entornos ágiles y orientados a la mejora continua, y un enfoque proactivo para resolver problemas complejos relacionados con la gestión de datos.

Beneficios

En Ceibo, promovemos la innovación, el aprendizaje continuo y la contribución a proyectos tecnológicos con impacto sostenible. Ofrecemos un ambiente laboral colaborativo, flexible y orientado a resultados, con oportunidad de crecimiento profesional dentro de una empresa comprometida con la transformación digital y la sustentabilidad.

Equity offered This position includes equity compensation (in the form of stock options or another mechanism).
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance Ceibo pays or copays life insurance for employees.
Meals provided Ceibo provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Ceibo pays or copays health insurance for employees.
Dental insurance Ceibo pays or copays dental insurance for employees.
Computer provided Ceibo provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Ceibo gives you paid vacations over the legal minimum.
Beverages and snacks Ceibo offers beverages and snacks for free consumption.
Parental leave over legal Ceibo offers paid parental leave over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Analista de Producto, Analítica de Usuarios e Insights
  • BNamericas
  • Santiago (Hybrid)
Python Analytics Agile Data Analysis

BNamericas es la plataforma de inteligencia de negocios líder en América Latina, con 29 años de trayectoria aportando información actualizada y de alto valor de sectores estratégicos de Infraestructura, Minería, Energía Eléctrica, Petróleo y Gas, TIC y Servicios Financieros. Nuestra plataforma ofrece noticias, actualización de proyectos, personas y compañías, facilitando que nuestros clientes tomen decisiones informadas y acertadas.
¿Eres una persona analítica, curiosa y detallista? ¿Te apasiona entender cómo los usuarios interactúan con productos digitales para transformar datos en decisiones estratégicas? Esta oportunidad laboral puede ser para ti.
Hoy buscamos a un/a analista de producto orientada/o a datos, que jugará un rol clave en el análisis del comportamiento de usuarios, el monitoreo del desempeño de la plataforma y la generación de insights estratégicos
que impulsen la evolución de nuestro producto digital.

Send CV through Get on Board.

Responsabilidades Clave

Análisis de comportamiento y uso

  • Monitorear y analizar patrones de uso, puntos de fricción y engagement.
  • Crear dashboards e informes utilizando Amplitude.
  • Compartir insights accionables con los equipos de producto, marketing y liderazgo.
  • Definir y mantener KPIs clave de uso, retención y satisfacción.

Implementación y monitoreo

  • Colaborar con el equipo de desarrollo para asegurar una correcta implementación del tracking.
  • Auditar planes de tracking y asegurar la calidad de los datos.

Soporte al desarrollo de producto

  • Apoyar la validación de hipótesis con datos reales.
  • Participar en discovery entregando insights que guíen la priorización de funcionalidades.

Medición de impacto

  • Evaluar el éxito de lanzamientos mediante KPIs y objetivos de producto.
  • Crear frameworks de medición de product-market fit y satisfacción de usuarios.

Contribución estratégica

  • Identificar oportunidades de mejoras, nuevas funcionalidades y productos.
  • Comunicar hallazgos de forma clara a equipos multidisciplinarios.

Requerimientos del cargo

  • +2 años de experiencia en roles similares (analítica de producto, inteligencia de negocios, data-driven roles).
  • Sólido manejo de herramientas de análisis, idealmente Amplitude.
  • Conocimiento de metodologías ágiles y procesos de desarrollo de producto.
  • Capacidad analítica, pensamiento crítico y excelentes habilidades de comunicación.
  • Conocimiento sobre tracking, eventos y estructuras de datos.
  • Dominio de inglés (oral y escrito).
  • Se valorará experiencia con Python, Pandas, Jupyter y SQL.

Condiciones

En BNamericas fomentamos un ambiente laboral inclusivo, diverso, creativo y altamente colaborativo.

Ofrecemos múltiples beneficios, tales como bono por referidos para la incorporación de nuevos talentos recomendados, salidas anticipadas en fechas especiales como fiestas patrias y Navidad, oportunidades de formación continua y desarrollo profesional, .

Te invitamos a ser parte de una empresa con propósito que promueve el desarrollo sostenible en la región.

Modalidad de trabajo con flexibilidad laboral: híbrido para residentes en Santiago y 100% remoto para el resto de Latinoamérica.

Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Scientist
  • Haystack News
  • Lima (In-office)
Python Data Analysis SQL NoSQL

Haystack News is the leading local & world news service on Connected TVs reaching millions of users! This is a unique opportunity to work at Haystack News, one of the fastest-growing TV startups in the world. We are already preloaded on 37% of all TVs shipped in the US!

Be part of a Silicon Valley startup and work directly with the founding team. Jumpstart your career by working with Stanford & Carnegie Mellon alumni and faculty who have already been part of other successful startups in Silicon Valley.

You should join us if you're hungry to learn how Silicon Valley startups thrive, you like to ship quickly and often, love to solve challenging problems, and like working in small teams.

See Haystack feature at Google IO: https://www.youtube.com/watch?v=-YawUi6qPck

Apply exclusively at getonbrd.com.

Job functions

We are looking for an outstanding Data Scientist to join Haystack and help improve the experience of millions of users that rely on Haystack to get the news every day.

Within the team you’ll find many opportunities to work on various aspects of Data Science, Machine Learning, and Data Engineering. The job offers the opportunity of generating a major impact on the product while working with an awesome and talented team, using the latest technologies.

You will:

  • Analyze large data sets to get insights using statistical analysis tools and techniques
  • Build, evaluate and deploy machine learning models
  • Maintain ongoing reliability, performance, and support of the data infrastructure, providing solutions based on application needs and anticipated growth.
  • Work with tools to configure, monitor and orchestrate data infrastructure and pipelines.
  • Run and monitor AB Tests
  • Build and manage APIs

Qualifications and requirements

  • Bachelor's degree in Computer Science, Statistics, Math or related field.
  • 3+ years experience writing software in a professional setting
  • Knowledge of AWS and Python
  • Strong Math/Stats background with statistical analysis experience on big data sets
  • Experience with SQL and NoSQL (e.g. MongoDb or DynamoDB)
  • Big Plus: Experience with data warehouses (e.g. Snowflake, Big Query, Redshift)
  • Exposure to ML/AI libraries such as sklearn, LightGBM and, XGBoost.
  • Travel Visa to the US (desired)

Conditions

Uber rides to come to the office!
Travel to team's offsite events
Learn about multiple technologies

Accessible An infrastructure adequate for people with special mobility needs.
Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Meals provided Haystack News provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Bicycle parking You can park your bicycle for free inside the premises.
Company retreats Team-building activities outside the premises.
Computer repairs Haystack News covers some computer repair expenses.
Commuting stipend Haystack News offers a stipend to cover some commuting costs.
Computer provided Haystack News provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Vacation over legal Haystack News gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 3000 Tiempo completo
Data Engineer (AWS Data Lakes)
  • Niuro
Python SQL Virtualization Big Data
Niuro is a leading global technology talent provider specializing in connecting elite tech teams with top-tier U.S.-based companies. Our mission is to simplify global talent acquisition and maximize project quality through innovative and efficient solutions. We empower autonomous, high-performance teams by handling all administrative aspects such as hiring, payments, and training, enabling our professionals to focus fully on delivering exceptional results. Within this context, we collaborate on impactful industrial data projects with a strong emphasis on innovation and technical excellence. Our teams contribute to challenging projects that leverage cutting-edge data engineering techniques, particularly in cloud-based environments, ensuring both professional growth and meaningful contributions to the client’s success.

Apply to this job from Get on Board.

Role and Responsibilities

As a Data Engineer specializing in AWS Data Lakes, you will play a pivotal role in architecting, building, and managing scalable and robust data lake solutions on the AWS cloud platform. Your primary responsibilities will include designing and implementing data ingestion pipelines, optimizing data transformation processes, and ensuring data quality and integrity to power analytics and business intelligence initiatives.
Key tasks include:
  • Designing and maintaining data lakes using AWS services such as S3, Glue, Athena, Lambda, and Step Functions.
  • Developing and optimizing data processing workflows with PySpark and Python to transform raw data into actionable datasets.
  • Writing efficient SQL queries for data extraction and manipulation.
  • Collaborating closely with U.S.-based cross-functional teams to understand requirements and deliver solutions that align with business objectives.
  • Monitoring, troubleshooting, and improving the performance and reliability of data platforms.
You will be part of a remote, agile, and collaborative environment where continuous improvement and innovation are encouraged.

Skills and Experience Required

We are looking for a motivated Data Engineer with solid experience building and managing data lakes on AWS. The ideal candidate will demonstrate proficiency with core AWS services including S3, Glue, Athena, Lambda, and Step Functions, and have strong programming skills in Python and SQL for processing and transforming data.
Essential qualifications include:
  • Hands-on experience implementing scalable data lake architectures on AWS.
  • Competence with PySpark for distributed data processing.
  • Strong Python programming skills with the ability to create clean, maintainable code.
  • Solid SQL skills for complex queries and data manipulation.
  • Effective communication skills in conversational English to collaborate with teams and stakeholders based in the United States.
Soft skills necessary for success include a proactive attitude, problem-solving mindset, strong attention to detail, and the ability to work independently within a remote work context.

Additional Skills and Technologies (Nice to Have)

While not mandatory, the following skills will enhance your fit for this role and our projects:
  • Experience with backend frameworks and libraries such as FastAPI, Pydantic, and Gunicorn.
  • Familiarity with AWS SDKs such as Boto3 for AWS service integration.
  • Knowledge of web technologies including Aestiva HTML/OS.
  • Containerization and DevOps skills, particularly using Docker.
  • Experience with continuous integration and deployment tools like TeamCity.
  • Version control expertise using GitHub or Gitea.

What We Offer

Joining Niuro means becoming part of an innovative, supportive, and high-performing global community focused on technological excellence. We offer a fully remote position allowing you to work from anywhere in the LATAM region, providing flexibility and work-life balance.
We are committed to your continuous professional growth through ongoing technical and soft skills training, leadership development programs, and opportunities to work on impactful and technically challenging industrial data projects.
Niuro also offers a strong administrative support system, so you can focus entirely on your work without distractions related to hiring, payments, or HR processes.
We maintain a long-term vision for our collaborations, with the possibility of transitioning to stable full-time employment after the initial contract, reflecting our dedication to building lasting relationships with our team members.

Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3000 - 3500 Tiempo completo
Data Engineer Azure Salesforce
  • BC Tecnología
Python Git REST API SQL
En BC Tecnología somos una consultora líder en servicios de TI que brinda soluciones integrales en infraestructura, desarrollo de software y outsourcing para clientes de sectores como servicios financieros, seguros, retail y gobierno. Actualmente, estamos desarrollando un proyecto innovador enfocado en la creación y optimización de pipelines de datos en la nube, utilizando tecnologías de Azure y Salesforce. Buscamos integrar grandes volúmenes de datos para transformar la información en activos estratégicos a través de análisis avanzados y modelos de datos robustos, apoyando a áreas de BI y Data Science para mejorar la toma de decisiones del negocio.

Job opportunity published on getonbrd.com.

Responsabilidades principales

  • Diseñar, desarrollar y mantener pipelines de datos escalables y eficientes en Azure para la integración desde Salesforce, utilizando APIs REST y SOAP.
  • Gestionar la ingesta y almacenamiento de datos en Azure Data Lake Gen2, Azure SQL y Synapse Analytics para facilitar análisis avanzados y reporting.
  • Automatizar flujos de trabajo mediante Azure Data Factory (ADF), Logic Apps y Databricks asegurando la calidad y consistencia de los datos.
  • Implementar controles rigurosos de calidad, limpieza y transformación de datos según políticas corporativas de gobernanza y seguridad.
  • Colaborar de manera interdisciplinaria con equipos de Business Intelligence, Data Science y áreas de negocio para alinear los desarrollos con requerimientos funcionales.
  • Documentar detalladamente los procesos ETL/ELT y mantener actualizado el inventario de flujos y pipelines para facilitar la gestión y mantenimiento a futuro.

Requisitos y perfil del candidato

Buscamos un Data Engineer con al menos 3 años de experiencia en entornos cloud, preferentemente trabajando con Azure y Salesforce. El candidato ideal debe poseer experiencia práctica integrando datos desde Salesforce utilizando APIs REST, Bulk API y herramientas de Azure Data Factory.
Se requiere un conocimiento profundo en tecnologías clave de Azure como Azure Data Factory, Data Lake Gen2, Azure SQL y Synapse, así como experiencia en modelado de datos con esquemas en Estrella y Copo de Nieve.
Habilidades técnicas complementarias incluyen Python, PySpark, T-SQL y manejo avanzado de JSON/XML. Además, el candidato debe estar familiarizado con el uso de sistemas de control de versiones como Git y tener capacidad para trabajar en equipos multidisciplinarios bajo metodologías ágiles.
Valoramos competencias blandas como la proactividad, enfoque al detalle, capacidad analítica, buenas habilidades de comunicación y orientación al trabajo colaborativo.

Habilidades y certificaciones deseables

Es altamente valorado contar con certificaciones oficiales como Microsoft Azure DP-203, Power BI PL-300 y Scrum Master que respalden el conocimiento técnico y metodológico.
Contar con un nivel de inglés intermedio, tanto oral como escrito, es deseable para la comunicación con equipos globales y documentación técnica.
Experiencia previa en proyectos de integración de datos a gran escala y familiaridad con tecnologías complementarias como Logic Apps y Databricks serán consideradas un plus.

¿Qué ofrecemos?

En BC Tecnología promovemos un entorno colaborativo y basado en el aprendizaje continuo, donde valoramos el compromiso y el crecimiento profesional.
Nuestra modalidad de trabajo es 100% remoto, abierta a profesionales ubicados en toda Latinoamérica, lo que permite flexibilidad y balance personal.
Formarás parte de proyectos innovadores con clientes de alto nivel en diferentes industrias, en un clima laboral inclusivo, respetuoso y orientado al desarrollo tanto técnico como profesional.

Fully remote You can work from anywhere in the world.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2500 - 3500 Tiempo completo
Data Engineer Azure (Salesforce)
  • BC Tecnología
Python Git JSON TSQL
En BC Tecnología, una consultora de TI con 6 años de experiencia, nos especializamos en proveer soluciones tecnológicas a clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestro enfoque se centra en la formación de equipos ágiles para áreas de infraestructura, desarrollo de software y unidades de negocio, gestionando proyectos, outsourcing y soporte IT. Actualmente, buscamos incorporar un Data Engineer con experiencia en Azure y Salesforce para un proyecto 100% remoto dirigido a candidatos de LATAM, buscando potenciar nuestro equipo con talento especializado en ingeniería de datos en la nube.

Apply to this job opportunity at getonbrd.com.

Responsabilidades principales

  • Diseñar, desarrollar y mantener pipelines de datos eficientes y escalables en Azure, extrayendo información desde Salesforce utilizando API REST y SOAP.
  • Integrar y consolidar datos en Azure Data Lake Gen2, Azure SQL Database y Synapse Analytics para asegurar la disponibilidad y fiabilidad de la información.
  • Automatizar flujos ETL utilizando herramientas como Azure Data Factory (ADF), Logic Apps y Databricks para optimizar procesos y minimizar errores manuales.
  • Implementar controles estrictos de calidad y limpieza de datos para garantizar la integridad y precisión en todos los conjuntos de datos procesados.
  • Colaborar estrechamente con los equipos de Business Intelligence, Data Science y áreas de negocio para entender requerimientos y entregar soluciones alineadas a objetivos estratégicos.
  • Documentar detalladamente los procesos ETL y asegurar el cumplimiento de políticas de gobernanza de datos, seguridad y mejores prácticas en la nube.

Requisitos y habilidades necesarias

Buscamos un Data Engineer con al menos 3 años de experiencia comprobable trabajando con tecnologías cloud, especialmente en plataformas Microsoft Azure orientadas a la integración de datos desde Salesforce.
Es fundamental que el candidato tenga experiencia real y práctica en la integración de datos mediante APIs de Salesforce (REST, Bulk API) y el uso de Azure Data Factory para la orquestación de pipelines.
Además, se requieren conocimientos sólidos en:
  • Azure Data Factory para construir, automatizar y monitorear pipelines de datos.
  • Azure Data Lake Gen2 para el almacenamiento escalable y seguro de grandes volúmenes de datos.
  • Azure SQL Database y Synapse Analytics para procesamiento y análisis avanzado.
  • Power BI para visualización e interpretación de datos.
  • Lenguajes de programación y scripting como Python, PySpark y T-SQL para manipulación y transformación de datos.
  • Control de versiones con Git.
  • Modelado de datos usando esquemas estrella y copo de nieve, optimizando bases de datos y consultas.
  • Manejo avanzado de formatos de datos complejos como JSON y XML.
El candidato debe ser capaz de trabajar de forma autónoma, tener habilidades comunicativas para colaborar con múltiples equipos y orientarse a resultados con atención al detalle.

Habilidades y certificaciones deseables

  • Certificación Microsoft Azure Data Engineer (DP-203), demostrando dominio avanzado en servicios de datos de Azure.
  • Certificación Power BI Data Analyst (PL-300) para mejorar la capacidad de visualización y análisis de datos.
  • Certificación Scrum Master, lo que contribuiría a una integración más efectiva dentro de equipos ágiles y proyectos iterativos.
  • Nivel de inglés intermedio, tanto oral como escrito, para interactuar en equipos multiculturales y documentación técnica en inglés.

Beneficios y cultura de trabajo

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
Ofrecemos modalidad 100% remota con apertura a talentos de toda Latinoamérica, garantizando flexibilidad y autonomía en la gestión del tiempo.
Participarás en proyectos innovadores y desafiantes con clientes relevantes en sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional continuo.

Fully remote You can work from anywhere in the world.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero de Datos AWS
  • BC Tecnología
Java Python SQL Scala
En BC Tecnología somos una consultora de Servicios IT con un equipo experto en diversas áreas tecnológicas. Desde hace 6 años diseñamos soluciones adaptadas a las necesidades de nuestros clientes, que operan en sectores como servicios financieros, seguros, retail y gobierno. Nuestro enfoque es combinar metodologías ágiles y el desarrollo de productos para crear soluciones efectivas y equipos de trabajo colaborativos. Actualmente buscamos un Ingeniero de Datos AWS para un proyecto desafiante que impacta en el área de gestión de datos y exploración de la nube.

Apply directly from Get on Board.

Responsabilidades principales

  • Diseñar e implementar pipelines de ingesta de datos hacia el Data Lake en AWS.
  • Gestionar y optimizar el almacenamiento y procesamiento de datos utilizando servicios como S3, Redshift y Glue.
  • Automatizar procesos mediante Lambda, Step Functions y DataSync para mejorar la eficiencia en flujos de datos.
  • Crear reportes y análisis utilizando Athena y QuickSight para apoyar la toma de decisiones.
  • Mantener la seguridad y controles de acceso con IAM.
  • Administrar bases de datos NoSQL con DynamoDB y manejar flujos de datos en tiempo real mediante Kafka.
  • Utilizar control de versiones con CodeCommit o GitLab para asegurar la calidad y trazabilidad del código.
  • Participar activamente en equipos ágiles, colaborando con equipos multidisciplinarios para cumplir objetivos del proyecto.

Requisitos y perfil del candidato

Buscamos un Ingeniero de Datos con experiencia comprobada en la construcción de soluciones robustas en AWS para la gestión de grandes volúmenes de datos. Es esencial que domine el diseño y la implementación de pipelines hacia Data Lakes y tenga un sólido conocimiento en bases de datos relacionales y no relacionales, SQL y Python.
Deberá contar con experiencia práctica en servicios AWS clave para el manejo y procesamiento de datos, incluyendo S3, Athena, Redshift, Lambda, Glue, QuickSight, IAM, Step Functions, DataSync y DynamoDB.
Se valorará experiencia previa trabajando con Kafka para la transmisión de datos en tiempo real. Además, el manejo de herramientas de control de versiones como CodeCommit o GitLab es fundamental para asegurar la correcta gestión del código y la colaboración en equipo.
El candidato debe contar con habilidades para trabajar en equipos bajo metodologías ágiles, mostrando comunicación efectiva, capacidad de adaptación, proactividad y compromiso con la calidad del trabajo entregado.

Habilidades y experiencias deseables

Sería ideal que el candidato tenga experiencia adicional en arquitecturas orientadas a microservicios y conocimientos en machine learning aplicado a big data. Asimismo, habilidades en optimización de costos en la nube y la automatización avanzada para la gestión de infraestructuras aportarán un valor agregado al equipo.
Conocer herramientas complementarias como Docker, Kubernetes y otras tecnologías de streaming de datos enriquecerá el perfil.

Beneficios y cultura laboral

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en las oficinas de Santiago Centro, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

POSTULAR VÍA WEB Ver trabajo
Gross salary $2400 - 2700 Tiempo completo
Semi Senior Data Engineer
  • 23people
Java Python SQL ETL
Equifax Chile es la filial local de Equifax Inc., una compañía global de datos, analítica y tecnología con sede en Atlanta, EE. UU., y presencia en 24 países. Desde 1979, Equifax Chile ha sido un referente en soluciones de información comercial, ofreciendo servicios como evaluación de riesgo crediticio, informes de crédito, monitoreo de identidad y análisis de datos para más de 14,000 empresas en sectores como el financiero, comercial, retail y servicios. ​Nuestra visión es empoderar a personas y organizaciones para tomar decisiones informadas, transformando el uso de la información con transparencia y seguridad. Uno de nuestros principales desafíos es liderar la transformación digital a través de nuestro Centro de Desarrollo en Santiago (SDC), que concentra el 60% de los desarrollos digitales de Equifax a nivel mundial.
Fomentamos una cultura de innovación, colaboración y excelencia técnica, donde el talento local impulsa soluciones tecnológicas de alto impacto.

This posting is original from the Get on Board platform.

Funciones del cargo

¿Qué harás en tu día a día?
  • Se realizará automatización para transformación y limpieza de datos proveniente de varias fuentes (excel, xml, csv).
  • Los archivos deben ser cargados y revisados en GCP, trabajará con pipeline de datos que alimentan Bigdata a través de script.

Requerimientos del cargo

Skills
  • Python/Java
  • Usuario de bases de datos:
  • Experiencia en procesos de Extracción, Transformación y Carga de datos (ETL).
  • Conocimientos en SQL, procedimientos almacenados y triggers.
  • Experiencia en procesos de manejo de datos:
  • Procesamiento en lotes
  • Procesamientos distribuidos.
Contrato indefinido desde el inicio con 23people
Modalidad: Home Office. Debes buscar el computador en primera instancia
Experiencia: Desde 2 años en adelante
Horario: Lunes a Viernes de 9:00 a 18:00 hrs

Deseables

  • Diseño, creación y manejo de ETL:
    • On Prem: Pentaho, Control-M, Nifi
    • Cloud: Airflow, Cloud Composer, Glue, Lambda
  • Conocimientos en las tecnologías:
    • Spark
    • DataProc / DataFlow
  • Conocimientos básicos de estadísticas.
  • Conocimientos básicos de machine learning y deep learning.
  • Conocimiento sobre el manejo de datos:
    • Conocimiento sobre los conceptos de ambientes de datos.
    • Conocimiento sobre los conceptos de calidad de datos.
    • Conocimiento de modelado de datos.
    • Conocimiento de modelado de procesos y de flujos de datos.

Beneficios

Algunos de nuestros beneficios
  • Seguro complementario: Seguro de salud, vida y dental
  • Curso de inglés: En nuestro programa de formación en idioma inglés, ofrecemos dos modalidades para adaptarnos a tus necesidades y objetivos.
  • Reembolso de certificaciones internacionales: Apoyamos el crecimiento profesional, por lo que te reembolsamos el costo de un examen de certificación internacional que quieras realizar.
  • Bono de vacaciones: Por cada semana que te tomes de vacaciones te otorgamos una compensación.
  • Aguinaldos en fiestas patrias y Navidad: Queremos que en fechas tan especiales la pases bien junto a tu familia, por lo que te entregamos un bono en septiembre y diciembre
  • Día libre de cumpleaños: Puedes optar por tomar tu día libre, el día previo a tu cumpleaños, el mismo día de tu cumpleaños o el día posterior.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance Equifax pays or copays life insurance for employees.
Health coverage Equifax pays or copays health insurance for employees.
Dental insurance Equifax pays or copays dental insurance for employees.
Computer provided Equifax provides a computer for your work.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2200 Tiempo completo
Data Engineer
  • coderslab.io
  • Santiago (Hybrid)
Java Python SQL NoSQL

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Data Engineer Ssr para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Applications: getonbrd.com.

Job functions

Estamos en búsqueda de un/a Data Engineer con experiencia y proactividad para sumarse a nuestro equipo en modalidad híbrida desde Santiago de Chile. Buscamos una persona con conocimientos sólidos en procesos de datos, cloud computing (especialmente GCP), y procesamiento distribuido.

Responsabilidades Principales

  • Diseñar y construir pipelines de datos robustos para procesos de ingesta, transformación y carga (ETL/ELT).
  • Aplicar buenas prácticas en el manejo de datos: seguridad, gobernanza y cumplimiento.
  • Trabajar con sistemas de procesamiento distribuido para manejar grandes volúmenes de datos.
  • Colaborar con equipos interdisciplinarios para impulsar decisiones basadas en datos.
  • Implementar soluciones escalables y eficientes utilizando herramientas de Google Cloud Platform (GCP).

Qualifications and requirements

  • Experiencia en creación de pipelines de datos y procesos de ETL.
  • Conocimientos sólidos en buenas prácticas de manejo de datos (seguridad, gobernanza, escalabilidad).
  • Experiencia en procesamiento distribuido.
  • Dominio de Python (Java es deseable).
  • Conocimientos en bases de datos SQL y NoSQL, especialmente MongoDB y BigQuery.

Experiencia con herramientas de GCP

  • Pub/Sub
  • Dataflow
  • Dataproc
  • Dataprep
  • Cloud Functions
  • BigQuery
  • Composer
  • Cloud Storage

Desirable skills

Experiencia en arquitectura de datos o entornos DevOps aplicados a datos.

Familiaridad con prácticas de CI/CD en flujos de datos.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer
  • coderslab.io
  • Santiago (Hybrid)
Java Python Agile SQL

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un DATA ENGINEER para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

© Get on Board. All rights reserved.

Funciones del cargo

  • Diseñar, desarrollar y mantener procesos de ingesta, transformación y carga (ETL/ELT) de datos para asegurar la disponibilidad y calidad de la información.
  • Crear y administrar pipelines de datos eficientes y escalables que soporten el flujo continuo de datos desde múltiples fuentes hacia los sistemas de almacenamiento y análisis.
  • Implementar y promover buenas prácticas en el manejo de datos, incluyendo seguridad, gobernanza, control de acceso y cumplimiento de normativas.
  • Desarrollar soluciones de procesamiento distribuido para manejar grandes volúmenes de datos en entornos cloud.
  • Gestionar y optimizar los servicios de Google Cloud Platform (GCP) relacionados con la ingeniería de datos, como Pub/Sub, Dataflow, Dataproc, Dataprep, Cloud Functions, BigQuery, Composer y Cloud Storage.
  • Colaborar con equipos multidisciplinarios para entender requerimientos de datos y traducirlos en soluciones técnicas robustas.
  • Realizar monitoreo, mantenimiento y mejora continua de los pipelines y sistemas de datos para garantizar alta disponibilidad y rendimiento.
  • Documentar procesos, arquitecturas y estándares técnicos relacionados con la ingeniería de datos.

Requerimientos del cargo

  • Experiencia comprobable en diseño y desarrollo de procesos ETL/ELT y pipelines de datos.
  • Sólidos conocimientos en Google Cloud Platform (GCP), especialmente en los servicios:
    • Pub/Sub
    • Dataflow
    • Dataproc
    • Dataprep
    • Cloud Functions
    • BigQuery
    • Composer
    • Cloud Storage
  • Dominio en programación con Python y Java para desarrollo de scripts, automatización y procesamiento de datos.
  • Conocimientos en bases de datos SQL y NoSQL, con experiencia en MongoDB y BigQuery.
  • Experiencia en procesamiento distribuido y manejo de grandes volúmenes de datos.
  • Conocimiento en buenas prácticas de seguridad y gobernanza de datos.
  • Capacidad para trabajar en equipos ágiles y multidisciplinarios.
  • Habilidades de comunicación efectiva para presentar soluciones técnicas y colaborar con otras áreas

Condiciones

Modalidad de contratación: Plazo fijo
Duración del proyecto: 18 MESES con posibilidad de extensión

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer
  • Tienda Pago
  • Ciudad de México (Hybrid)
Python SQL Big Data Back-end

✨ ¡En Tienda Pago, estamos revolucionando el mundo de las finanzas en Latinoamérica! ✨

Somos una fintech multicultural 🌎 con operación en México y Perú y colaboradores en Colombia, Argentina, República Dominicana ¡y más países! 🚀 Nuestra misión es única: impulsar a las tienditas y bodegas de barrio a crecer💪. ¿Cómo lo hacemos? A través de una plataforma digital innovadora que les da acceso a créditos para que puedan surtirse mejor y vender más 🛍️. Ofrecemos préstamos personales, crédito de inventario y recargas de celular, ¡todo con la última tecnología! 📲

En Tienda Pago, creemos en la inclusión financiera a través de la innovación💡. Llevamos + de 10 años haciendo la diferencia en la base de la pirámide económica, brindando oportunidades a quienes más lo necesitan💖.

¡Seguimos creciendo! Estamos búsqueda de un Data Engineer en CDMX para incorporar en nuestro equipo de Tech🤝

Apply directly from Get on Board.

¿Cuál es el objetivo principal de la posición? 🧑‍💻

Buscar un enfoque estratégico, liderar proyectos de medios a complejos, establecer las mejores prácticas, ejecución de tareas complejas. El candidato ideal es un profesional que trabaje indispensablemente con autonomía, lidere proyectos medios a complejos, establezca las mejores prácticas y actúe como mentor para los miembros más junior del equipo. Busque un enfoque estratégico, responsable de la modelación de datos y la toma de decisiones que afectarán la escalabilidad y eficiencia a largo plazo.

¿Cuáles serán tus principales responsabilidades? 🤔

  • Diseño y construcción de arquitecturas de modelos escalables y robustas.
  • Experiencia para implementación de diferentes técnicas de modelado como datawarehouse, data lakes y data mesh, utilizando metodologías ágiles.
  • Habilidad para diseñar, desarrollo y mantenimiento de los procesos de ingesta e integración de datos, modelos de análisis y tableros de control en esto deberá incluir optimizar pipelines complejos reduciendo costos y mejorando eficiencia.
  • Desarrollar set de datos que sean incluidos en procesos de minería y modelado de datos para datos estructurados y no estructurados.
  • Habilidad para entender los objetivos del negocio y traducirlos en una estrategia de datos a corto, mediano y largo plazo.
  • Realizar flujo completo para un proyecto de manera autónoma: análisis, diseño y bajar la idea para que él/ella o alguien del equipo lo pueda desarrollar, seguimiento hasta después de la entrega.
  • Autonomía para el manejo e interacción con las áreas de negocio.
  • Tener autoridad para tomar decisiones técnicas y que pueda presentar los resultados de forma clara orientados a los diferentes Stakeholders.
  • Detectar, diseñar e implementar nuevos atributos, estructuras, métricas o indicadores de acuerdo con las políticas de calidad, seguridad y gobernanza de Datos de Tienda Pago.
  • Capacidad para guiar a otros ingenieros, revisar el código y fomentar crecimiento profesional

¿Qué requerimos de ti para hacer un buen match? 💘

  • Mínimo 4 años de experiencia en ingeniería de datos.
  • Manejo de SQL Avanzado.
  • Lógica de programación, idealmente en Python, pero podemos considerar profesionales en otros lenguajes.
  • Implementación de colas de mensajes y servicios de mensajería y streaming.
  • Integración de datos (Data Lake, Data Warehouse, SQL).
  • Modelado de datos.
  • Abstracción y conceptualización de ideas.
  • Relación de patrones y piezas faltantes.
  • Gobernanza de datos y seguridad.
  • Experiencia en automatización de infraestructura.
  • Disponibilidad para trabajar full time - híbrido. 90% remoto; se pide ir a la oficina cerca de 2 veces al mes. Estamos ubicados en Calle Buffon, No. 46, Piso 9, Colonia Anzures, Miguel Hidalgo.CDMX, CP. 11590.

Deseables (NO son obligatorios, solo son un plus)

  • Plataforma Azure, Integration Services, DBT, DAX, Power BI (de intermedio a avanzado) .

Algunos de Nuestros Beneficios en México 🤩

  1. Aguinaldo superior a la ley.
  2. Prima Vacacional 100%
  3. Vacaciones otorgadas de acuerdo a ley, partiendo de 12 días hábiles durante el primer año e incrementando progresivamente por cada año cumplido.
  4. Días libres, asignación de 08 días libres Tienda Pago durante el primer año y luego se reajusta proporcionalmente a las vacaciones de acuerdo a la política dias libres Tienda Pago.
  5. Día libre por tu cumpleaños a elección (mismo día que cumples años o cualquier día del mes que estás de cumpleaños).
  6. Días festivos no oficiales.
  7. Seguro de Gastos Médicos Mayores.
  8. Dentegra (Beneficio Adicional del Seguro de Gastos Médicos Mayores).
  9. Seguro de Vida.
  10. Si te gusta constantemente seguir aprendiendo y perfeccionando tus conocimientos, tenemos una plataforma padrísima llamada Ubits😏.

¡Conversemos y entérate de los otros beneficios!🥳

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Tienda Pago pays or copays health insurance for employees.
Computer provided Tienda Pago provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Tienda Pago gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
Gross salary $5000 - 7000 Tiempo completo
Senior Cdp Manager / Operator
  • Zaelot
Python Analytics SQL Data governance

Zaelot is a fast-growing technology company specialized in building scalable solutions for enterprise clients worldwide. With a team of over 90 professionals spread across 9 countries, Zaelot cultivates a culture based on trust, reliability, and collaboration to deliver innovative and effective technology products. The project focus for this role is managing Customer Data Platforms (CDPs), which are critical for enabling clients to unify, govern, and leverage their customer data efficiently. Our CDP team works closely with product, engineering, and analytics stakeholders to ensure data quality and operational excellence, driving better business outcomes through optimized customer data flows and identity resolution.

Opportunity published on Get on Board.

Key Responsibilities

  • Lead the end-to-end configuration, deployment, and ongoing management of Customer Data Platforms such as Segment, Hightouch, Rudderstack, or similar tools across diverse client environments.
  • Own the creation and maintenance of tracking plans, enforce data schemas strictly, and manage customer identity resolution and audience trait development to deliver accurate and actionable customer insights.
  • Design, build, and optimize reverse ETL (Extract, Transform, Load) pipelines and destination syncs to ensure seamless data movement between CDPs and downstream systems.
  • Implement and maintain best practices around naming conventions, user roles administration, permissions, and rigorous data quality assurance (QA) processes to uphold platform integrity.
  • Provide operational enablement through detailed documentation, training, and support aimed at both internal teams and client users to maximize platform adoption and efficiency.
  • Continuously monitor platform health metrics, proactively identifying and resolving operational issues in collaboration with engineering and support teams.

Role Requirements

We are seeking an experienced Senior CDP Manager with a strong technical background and hands-on expertise in managing customer data platforms. The ideal candidate will have between 3 and 5 years of practical experience working with CDP tools such as Segment, Hightouch, Rudderstack, or equivalents, exhibiting deep knowledge of data flows, identity resolution, and audience management techniques.

The role demands a strong understanding of event-based data architecture and familiarity with product analytics platforms like Amplitude or Mixpanel to ensure effective integration and utilization of data insights. Attention to detail is critical, especially regarding documentation accuracy, configuration hygiene, and enforcing data governance standards.

This position requires excellent communication skills to effectively collaborate with both technical and non-technical stakeholders, facilitating clear understanding and alignment on CDP-related initiatives and operational support.

Preferred Qualifications

It is advantageous to have experience in marketing technology stacks beyond CDPs, such as advanced analytics, campaign management platforms, or CRM tools. Familiarity with scripting or programming languages (e.g., SQL, Python) to build custom data pipelines or automate workflows is desirable. Prior exposure to enterprise data governance policies or compliance regulations will add value to the role.

Strong problem-solving abilities, proactive mindset, and a drive for continuous learning in the rapidly evolving CDP and data ecosystem are highly appreciated.

What We Offer

  • 20 days of paid vacation after one year to support a healthy work-life balance.
  • Incentive programs including referral bonuses and finder's fees for successful candidate recommendations.
  • Robust continuous learning opportunities with training and certification programs.
  • Work-from-home support to ensure a comfortable and productive environment.
  • English language classes and fitness programs promoting professional and personal growth.
  • Profit sharing and coaching sessions fostering collective success and development.

At Zaelot, we foster a supportive and innovative culture where your skills and ambitions are valued. Join our diverse team dedicated to excellence and continuous improvement, and contribute to impactful enterprise solutions.

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Analista de Operaciones Medios de Pago
  • coderslab.io
  • Santiago (Hybrid)
Python Data Analysis SQL Power BI

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de ANALISTA DE OPERACIONES - MEDIOS DE PAGO para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Official source: getonbrd.com.

Funciones del cargo

  1. Desarrollo de Paneles:
    • Crear y mantener paneles interactivos en Power BI y Looker Studio para la visualización de datos.
    • Asegurar que los paneles reflejen métricas clave y sean accesibles para los usuarios finales.
  2. Explotación de Datos:
    • Realizar la extracción y transformación de datos desde diversas fuentes.
    • Implementar procesos de limpieza y validación de datos.
  3. Análisis de Datos:
    • Analizar grandes volúmenes de datos para identificar tendencias, patrones y oportunidades de mejora.
    • Generar informes analíticos que apoyen la toma de decisiones estratégicas.
  4. Extracción y Análisis Multiplataforma:
    • Integrar datos de diferentes plataformas y sistemas, asegurando una visión holística del rendimiento.
    • Colaborar con equipos de IT para optimizar la infraestructura de datos.
  5. Colaboración Interdepartamental:
    • Trabajar de manera colaborativa con otros departamentos para entender sus necesidades de datos y proporcionar soluciones efectivas.
    • Participar en reuniones de equipo para discutir resultados y proyecciones.
  6. Documentación:
    • Mantener documentación clara y concisa de procesos, análisis y hallazgos.
    • Presentar resultados de manera efectiva a diferentes niveles de la organización.

Requerimientos del cargo

Habilidades/Conocimientos Obligatorios

  • Herramientas y Tecnologías:
    • Power BI
    • GCP (Google Cloud Platform)
    • Looker Studio
    • SQL
    • Python
  • Educación:
    • Título universitario en áreas relacionadas (Ingeniería, Estadística, Ciencias de la Computación, etc.).
  • Experiencia:
    • Experiencia previa en análisis de datos o roles similares (preferentemente en el sector de medios de pago).
  • Habilidades Técnicas:
    • Dominio de SQL para la manipulación y consulta de bases de datos.
    • Conocimiento práctico de Python para análisis de datos y automatización de procesos.
    • Experiencia en el uso de herramientas de visualización (Power BI, Looker Studio).
  • Habilidades Blandas:
    • Excelentes habilidades de comunicación y presentación.
    • Capacidad para trabajar en equipo y colaborar con diferentes áreas.
    • Pensamiento analítico y atención al detalle.

POSTULAR VÍA WEB Ver trabajo
Gross salary $6500 - 7500 Tiempo completo
Data Engineer / Data Architect
  • Zaelot
Python SQL Web server Big Data
Zaelot is a dynamic, team-building company specializing in delivering scalable, enterprise-grade technology solutions across a global client base. With a diverse team of over 90 professionals spread across nine countries, Zaelot fosters a culture rooted in trust, reliability, and collaboration. Our teams integrate multiple disciplines—including analysis, design, and software engineering—to consistently deliver innovative and high-quality products. The Data Engineering and Architecture team plays a crucial role in this by designing and maintaining data infrastructure that supports advanced analytics, customer data platforms, and real-time business intelligence, helping Zaelot and its clients make data-driven decisions at scale.

Apply directly on the original site at Get on Board.

Role and Responsibilities

  • Design, build, and maintain robust data pipelines to ingest large volumes of behavioral and transactional data into centralized data warehouses.
  • Manage seamless data synchronization processes between our data lake, data warehouse, and Customer Data Platforms (CDPs) such as Segment and Hightouch to ensure data consistency and availability.
  • Lead data quality assurance (QA) initiatives by establishing automated monitoring and reconciliation practices that ensure data accuracy and integrity across all platforms.
  • Collaborate with cross-functional teams including data scientists, analysts, and software engineers to optimize data flow and support analytics and reporting needs.
  • Architect scalable and reliable data infrastructure that supports evolving business requirements and real-time analytics.
  • Provide technical leadership and guidance in best practices for data retention, security, and governance within the data management lifecycle.

Required Skills and Experience

We are seeking a senior Data Engineer / Architect with strong expertise in building and managing complex data pipelines and architectures. The ideal candidate will have extensive experience working with modern data warehousing solutions and Customer Data Platforms integration.
  • Proficient in designing and implementing ETL/ELT pipelines using technologies such as Apache Airflow, dbt, or equivalent orchestration tools.
  • Hands-on experience with cloud data platforms like Snowflake, BigQuery, Redshift, or similar.
  • Strong SQL skills and familiarity with scripting languages such as Python for data processing and automation.
  • Experience integrating data lakes with cloud data warehouses and managing real-time or batch data synchronization with CDPs (e.g., Segment, Hightouch).
  • Proven ability to lead data quality assurance processes, including automated monitoring, validation, and reconciliation methodologies.
  • Solid understanding of data governance principles, data privacy, and compliance considerations.
  • Excellent problem-solving skills, attention to detail, and ability to work effectively in collaborative, cross-functional teams.
  • Strong communication skills to explain complex data concepts to technical and non-technical stakeholders.

Desirable Skills and Qualifications

  • Experience with cloud infrastructure management using AWS, GCP, or Azure.
  • Knowledge of containerization and orchestration technologies such as Docker and Kubernetes.
  • Background in machine learning data pipelines or real-time streaming technologies like Kafka, Spark Streaming.
  • Certifications in cloud data engineering, big data technologies, or related fields.
  • Experience working in agile development environments and knowledge of CI/CD pipelines for data engineering.

Benefits and Perks

  • 20 days of paid vacation after one year to ensure a healthy work-life balance.
  • Referral programs with incentives for introducing talented professionals.
  • Finder's fees recognizing successful candidate recommendations.
  • Comprehensive training and certification programs to support your continuous professional development.
  • Work-from-home aid to help create a comfortable and productive remote environment.
  • English classes to enhance communication skills and career progression.
  • Fitness programs promoting healthy lifestyle choices.
  • Profit sharing to reward contributions to collective company success.
  • Coaching sessions designed to support personal and professional growth.
Zaelot is committed to fostering a supportive, innovative, and collaborative culture where every professional can thrive and contribute to cutting-edge technological solutions. Join us to grow your career with a forward-thinking global company! 🚀

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer (Databricks)
  • Improving South America
Python Git Data Analysis SQL

Somos Improving South America!

Somos una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA principalmente.

Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.

Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development y También trabajamos en desarrollo backend.

Valoramos a las personas dinámicas en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Apply to this job at getonbrd.com.

Funciones del cargo

Actualmente estamos en la búsqueda de una persona proactiva y analítica para ocupar el puesto de Data Engineer Senior con experiencia sólida en SQL, Python y Databricks, orientado al diseño, construcción y mantenimiento de pipelines de datos escalables que respalden la toma de decisiones del negocio.

La persona seleccionada colaborará estrechamente con equipos de ingeniería, analítica y áreas de negocio para garantizar la disponibilidad, calidad e integridad de los datos:

  • Diseñar, desarrollar y mantener pipelines de datos ETL/ELT robustos y reutilizables utilizando Databricks sobre Azure.
  • Procesar y transformar grandes volúmenes de datos en entornos distribuidos.
  • Implementar soluciones de datos escalables dentro del ecosistema Azure (ej. Azure Data Factory, Azure Data Lake, Azure SQL, Synapse).
  • Aplicar buenas prácticas de modelado de datos y arquitectura analítica.
  • Colaborar con equipos técnicos y de negocio para identificar requerimientos y traducirlos en soluciones técnicas.
  • Mantener código limpio y versionado con Git.

Requerimientos principales del cargo

  • Nivel de inglés intermedio/ avanzado para la comunicación diaria con equipos globales.
  • Experiencia 5+ años (comprobada) en ingeniería o análisis de datos con SQL y Python.
  • Dominio experto en SQL para manipulación, transformación y optimización de rendimiento.
  • Experiencia práctica desarrollando pipelines de datos en Databricks.
  • Conocimientos avanzados en Python, aplicados a procesamiento de datos.
  • Uso fluido de Pandas y NumPy.
  • Experiencia diseñando y manteniendo pipelines ETL/ELT en entornos cloud.
  • Familiaridad con modelado de datos (esquema estrella, copo de nieve) y arquitectura de datos.
  • Experiencia trabajando con el ecosistema de Azure para datos: Azure Data Factory, Azure Data Lake, Azure SQL, Synapse, etc.
  • Conocimiento de bases de datos relacionales y no relacionales.
  • Uso habitual de herramientas de control de versiones, como Git.

Requerimientos deseables

  • Conocimiento o experiencia con Apache Spark, idealmente dentro de Databricks.
  • Familiaridad con plataformas y buenas prácticas de data warehousing.

Beneficios que ofrecemos

  • Contrato a largo plazo.
  • 100% Remoto.
  • Vacaciones y PTOs
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo
  • mucho mas..

Internal talks Improving South America offers space for internal talks or presentations during working hours.
Computer provided Improving South America provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Arquitecto/a de Soluciones (Data)
  • 2BRAINS
Python Data Analysis SQL Web server

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

Official job site: Get on Board.

El/la Arquitecto/a de Soluciones de Data de 2Brains:

El Arquitecto de Soluciones se encarga de diseñar y desarrollar sistemas de datos sólidos, lo que incluye la elaboración de diagramas de arquitectura que permitan almacenar, procesar y analizar grandes volúmenes de información de manera eficiente. Además, se debe evaluar e identificar soluciones tecnológicas en función del proveedor seleccionado, detallando los requerimientos de red, servicios asociados y herramientas necesarias para la implementación.

Como parte del proceso, también es fundamental construir pruebas de concepto (POC) que permitan transformar los datos en formatos utilizables, alineados con la solución técnica definida.

¿Qué conocimientos buscamos en/la Arquitecto/a Soluciones de Data?

  • Título en Ingeniería en Informática o carrera afín, idealmente con certificación profesional como Ingeniero/a de Datos
  • Entre 4 a 6 años de experiencia desempeñando funciones similares en el área de datos
  • Dominio de SQL para consultas estructuradas sobre bases de datos relacionales
  • Conocimiento práctico de bases de datos NoSQL como MongoDB, Cassandra o HBase para manejar datos semiestructurados o no estructurados
  • Manejo de lenguajes de programación como Python o Scala, con uso de Apache Spark para procesamiento distribuido
  • Experiencia con herramientas de Big Data como Hadoop o Apache Spark en entornos productivos
  • Familiaridad con plataformas de cloud computing como AWS, Azure o Google Cloud Platform para almacenamiento, procesamiento y análisis de datos
  • Capacidad para diseñar, implementar y mantener procesos ETL (extracción, transformación y carga de datos) desde múltiples fuentes
  • Conocimientos básicos de machine learning, aplicando modelos predictivos o descriptivos sobre datos
  • Experiencia en el diseño y automatización de pipelines de datos complejos utilizando herramientas como Apache Airflow o Luigi
  • Administración de bases de datos relacionales, NoSQL y servicios gestionados en la nube
  • Diseño y desarrollo de arquitecturas de almacenamiento como data warehouses, data lakes o soluciones LakeHouse
  • Procesamiento eficiente de grandes volúmenes de datos en entornos distribuidos
  • Uso de prácticas y herramientas DevOps orientadas a flujos de datos y operaciones analíticas en la nube

¿Qué competencias buscamos en el/la Arquitecto/a Soluciones de Data?

  • Orientación al cliente interno y externo
  • Compromiso y proactividad
  • Comunicación efectiva
  • Pensamiento analitico
  • Colaboración y trabajo en equipo

Te ofrecemos

  • Oportunidad de trabajar en un ambiente dinámico y en crecimiento, donde se valora la innovación y la creatividad.
  • Desarrollo profesional continuo con acceso a formación y certificaciones.
  • Participación en proyectos desafiantes con clientes de alto perfil.
  • Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos.
  • Un proyecto enfocado en los usuarios, visión de UX e integrada al desarrollo.
  • Acceso a grandes clientes y proyectos desafiantes.
  • Aprendizaje y crecimiento permanente, organizamos encuentros, capacitaciones y actividades culturales.
  • Programas de bienestar.
  • Trabajo Remoto.
  • Espacios para charlas internas.
  • Días de descanso.
  • Día de cumpleaños libre.
  • Horario de trabajo de México.

Wellness program 2BRAINS offers or subsidies mental and/or physical health activities.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks 2BRAINS offers space for internal talks or presentations during working hours.
Shopping discounts 2BRAINS provides some discounts or deals in certain stores.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1800 - 2800 Tiempo completo
Data Ops
  • coderslab.io
  • Santiago (Hybrid)
Python SQL DevOps Big Data

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Data Ops para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

This company only accepts applications on Get on Board.

Funciones del cargo

• Definir, construir y mantener de forma automatizada nuestras bases de datos relacionales y NO relacionales en los distintos ambientes cloud (Público y Privado).
• Colaborar en la construcción y el soporte de nuestra plataforma cloud y sus servicios.
• Colaborar con los equipos de producto identificando restricciones y requerimientos, definiendo arquitecturas de solución y aprovisionando las capacidades de la plataforma que permitan cumplir los atributos de calidad de los productos.
• Participar activamente en espacios de colaboración, mentoreando personas y equipos, e identificando oportunidades de mejora.

Requerimientos del cargo

Conocimientos lenguaje Python
Tener conocimientos de la nube GCP intermedio/avanzado y su gama de productos para serverless y contenedores (Cloud Run, Cloud Scheduler, etc)
Poseer experiencia en Bigquery (SQL)
Gitlab CI
Terraform intermedio/avanzado (generar nuevos módulos, debug de state, etc)
Manejo en GKE nivel administración
Nivel básico/intermedio en Unix (consola)
Deseable:
Estar instruido en IAM de GCP (herencia de IAM, impersonalización, principio de mínimos permisos, etc)
Conocimientos de networking tanto “on-premise” y en la nube GCP
Haber trabajado con K8S “on-premise” y tener nivel intermedio de conocimiento a nivel administración y mantención de nodos
Conocimientos en ArgoCD y Airflow/Composer
Compromiso con las responsabilidades
Manejo de herramientas de IA (Copilot, Gemini, Cursor, etc)
Conocimientos en arquitectura hexagonal y testing con Python
Estar familiarizado con el ciclo de vida DevOps

Conditions

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1200 - 1700 Tiempo completo
Analista de Datos BI
  • S3 Chile
  • Santiago (Hybrid)
Python Analytics MySQL PostgreSQL
S3 Chile es una empresa líder en la entrega de servicios de outsourcing especializada en procesos de negocio. Nuestro enfoque está en brindar soluciones integrales que permiten a nuestros clientes optimizar sus operaciones a través de la gestión eficiente de datos y análisis avanzado. El equipo de análisis de datos juega un rol fundamental, colaborando con diversas áreas como marketing, ventas y negocios para impulsar estrategias basadas en inteligencia analítica. Nuestra misión es ofrecer un entorno de aprendizaje continuo y profesionalización en consonancia con las últimas tendencias tecnológicas, fomentando el crecimiento tanto del equipo como de la organización. Ser parte de S3 Chile significa contribuir directamente al éxito de grandes clientes mediante innovación y manejo experto de datos.

Find this vacancy on Get on Board.

Responsabilidades principales

  • Análisis de datos: Recopilar, limpiar y analizar grandes volúmenes de datos provenientes de diversas fuentes para identificar tendencias, patrones y oportunidades de mejora.
  • Desarrollo de modelos predictivos y estadísticos: Diseñar y construir modelos estadísticos y algoritmos para predecir resultados, evaluar riesgos y optimizar procesos empresariales.
  • Visualización de datos: Crear visualizaciones claras e impactantes mediante herramientas como Tableau y Power BI para comunicar hallazgos de manera efectiva a las partes interesadas.
  • Elaboración de informes y presentaciones: Preparar reportes detallados y presentaciones ejecutivas que resuman insights clave y recomendaciones prácticas para equipos ejecutivos y operativos.
  • Colaboración interdisciplinaria: Trabajar estrechamente con equipos de negocio, marketing, ventas y tecnología para definir requerimientos, validar hipótesis y co-crear soluciones basadas en datos.

Habilidades y competencias requeridas

  • Conocimientos en estadística y matemáticas: Dominio de conceptos avanzados como regresión, correlación, análisis de varianza (ANOVA) y otras técnicas estadísticas aplicadas.
  • Programación: Experiencia sólida en lenguajes como Python, R y SQL para manipulación de datos, construcción de modelos y automatización de procesos.
  • Manejo de herramientas analíticas: Capacidad para utilizar herramientas como Excel avanzado, Tableau, Power BI y otras plataformas de visualización y análisis.
  • Bases de datos: Conocimiento práctico en gestión y consultas sobre bases de datos relacionales como MySQL y PostgreSQL.
  • Plataformas de análisis digital: Familiaridad con Google Analytics, Mixpanel y otras herramientas para análisis de comportamiento en entornos digitales.
  • Pensamiento crítico y resolución de problemas: Aptitud para examinar situaciones complejas, identificar causas raíz y generar soluciones innovadoras y eficientes.
  • Comunicación efectiva: Habilidad para explicar conceptos técnicos complejos en un lenguaje claro, adaptado a diferentes audiencias, facilitando la toma de decisiones basadas en datos.
Requisitos académicos y experiencia:
  • Título universitario en Ingeniería Comercial, Ingeniería Civil, Estadística, Matemáticas, Ciencias de la Computación o áreas afines.
  • Experiencia mínima de 2 a 3 años en análisis de datos o roles relacionados, preferiblemente en entornos empresariales.
  • Certificaciones profesionales como Certified Data Analyst (CDA) o Certified Analytics Professional (CAP) serán consideradas un plus significativo.

Habilidades y conocimientos deseables

  • Experiencia en manejo de grandes volúmenes de datos (Big Data) y conocimiento de herramientas o frameworks asociados.
  • Conocimiento en técnicas de machine learning y su aplicación práctica en modelos predictivos.
  • Familiaridad con metodologías ágiles de trabajo y gestión de proyectos.
  • Experiencia previa trabajando en equipos multidisciplinarios y en ambientes dinámicos.
  • Habilidades avanzadas en storytelling con datos para mejorar la comunicación visual y estratégica.

Lo que ofrecemos

💼 Renta competitiva acorde al mercado.
📈 Oportunidades reales de desarrollo profesional dentro de la empresa.
🎁 Beneficios corporativos que incluyen programas de bienestar y capacitaciones continuas.
👥 Un equipo comprometido que promueve un entorno de aprendizaje constante alineado con los nuevos avances tecnológicos.
Entorno colaborativo, flexible y remoto, alineado con las necesidades actuales del mercado laboral en Chile.

Health coverage S3 Chile pays or copays health insurance for employees.
Computer provided S3 Chile provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero de Datos
  • Assetplan
  • Santiago (Hybrid)
Python Agile Excel SQL
Assetplan es una compañía líder en renta residencial en Chile, con presencia también en Perú. Actualmente, gestionamos más de 30.000 propiedades para clientes retail e institucionales y operamos más de 80 edificios multifamily, lo que refleja un sólido posicionamiento en el sector inmobiliario y de administración de propiedades en la región. El equipo de datos tiene un rol clave para optimizar y dirigir los procesos internos mediante soluciones tecnológicas de análisis y visualización de datos, apoyando la toma de decisiones estratégicas en la empresa.

This offer is exclusive to getonbrd.com.

Responsabilidades principales

  • Diseñar, desarrollar y optimizar procesos ETL (Extract, Transform, Load) utilizando herramientas clave como Python (librerías Pandas y Numpy) y SQL.
  • Desarrollar y mantener dashboards y paneles en Power BI, integrando visualizaciones estratégicas para acompañar los procesos ETL y proporcionar insights relevantes.
  • Trabajar de forma colaborativa con diferentes áreas de la organización para interpretar y transformar sus necesidades en soluciones de datos que faciliten la toma de decisiones estratégicas.
  • Promover la calidad, escalabilidad y gobernanza de los datos durante el diseño, desarrollo y mantenimiento de los procesos y pipelines de datos, asegurando soluciones escalables y accesibles.
  • Mantener una comunicación efectiva con los equipos de negocio y tecnología para asegurar que las soluciones implementadas se alineen con los objetivos corporativos y generen impacto real en la organización.

Requisitos profesionales

Buscamos un profesional con 1 a 3 años de experiencia demostrable en el área de datos, en roles de ingeniería o análisis que impliquen manipulación y transformación de datos.
  • Manejo de SQL a nivel medio.
  • Manejo de Python Intermedio/Avanzado (excluyente), con experiencia en librerías Pandas y Numpy.
  • Manejo de Power BI a nivel medio para desarrollo y mantenimiento de dashboards.
  • Manejo avanzado de Excel para análisis y procesamiento de información.
  • Experiencia mínima de 1 a 3 años.
Es deseable poseer experiencia en ambientes ágiles y metodologías de desarrollo colaborativo que faciliten la integración entre equipos técnicos y de negocio.
Valoramos conocimientos en otras herramientas de visualización o procesamiento de datos, así como experiencia en gestión de la calidad y gobernanza de datos que permitan fortalecer el ecosistema de información de la empresa.

Habilidades y conocimientos deseables

Se valoran conocimientos en metodologías ágiles para la gestión y desarrollo colaborativo de proyectos, capacidades de comunicación efectiva para la interacción con equipos multidisciplinarios y experiencia en herramientas adicionales de visualización y procesamiento de datos. Asimismo, la experiencia en buenas prácticas de gobernanza y calidad de datos será un plus importante para aportar a la robustez del ecosistema de información de Assetplan.

Beneficios

En Assetplan valoramos y reconocemos el esfuerzo y dedicación de nuestros colaboradores, ofreciendo un ambiente laboral positivo basado en el respeto mutuo y la colaboración.
Entre nuestros beneficios contamos con:
  • Días extras de vacaciones por años de antigüedad.
  • Modalidad de trabajo híbrido y flexibilidad para trámites personales.
  • Monto mensual en app de snacks en la oficina.
  • Medio día libre en tu cumpleaños.
  • Copago en seguro complementario de salud.
  • Reajuste anual de renta basado en IPC.
  • Bono anual por desempeño.
  • Eventos empresa y happy hours financiados por la compañía.
  • Acceso a plataforma de cursos de formación.
  • Convenios con gimnasios, descuentos y más.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Assetplan pays or copays health insurance for employees.
Computer provided Assetplan provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Assetplan gives you paid vacations over the legal minimum.
Beverages and snacks Assetplan offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero/a de Datos (Data Engineer)
  • Arara
Python PostgreSQL Git SQL

Arara es una empresa tecnológica especializada en WiFi marketing, ofreciendo soluciones innovadoras que optimizan la conectividad y la experiencia del usuario.

En Arara, estamos buscando un/a Ingeniero/a de Datos (Data Engineer) apasionado/a y experimentado/a para unirse a nuestro equipo de tecnología.

Buscamos a un/a profesional proactivo/a, con una sólida capacidad para resolver problemas complejos y que no solo ejecute tareas, sino que también contribuya activamente en la toma de decisiones sobre la arquitectura de datos y en la mejora continua de nuestros procesos y productos.

Apply to this job at getonbrd.com.

¿Qué es lo que harás?:

  • Diseñar, construir y mantener pipelines de datos robustos y escalables para procesos de extracción, transformación y carga (ETL/ELT).
  • Desarrollar y optimizar la ingesta de datos desde diversas fuentes, incluyendo APIs, bases de datos y servicios de terceros.
  • Modelar, implementar y gestionar soluciones de almacenamiento de datos, como Data Warehouses y Data Lakes.
  • Trabajar con APIs de modelos de lenguaje grandes (LLMs), construir prompts adecuados y postprocesar resultados de múltiples de estos modelos.
  • Escribir código de alta calidad en Python, limpio, eficiente, bien documentado y cubierto por pruebas para el procesamiento y transformación de grandes volúmenes de datos.
  • Garantizar la calidad, consistencia e integridad de los datos durante todo su ciclo de vida.
  • Colaborar con científicos de datos, analistas y el equipo de backend para entender sus necesidades y proveer datos accesibles y fiables.
  • Optimizar el rendimiento de pipelines y consultas en las plataformas de datos.
  • Participar activamente en revisiones de código ofreciendo y recibiendo feedback constructivo para mejorar la calidad del equipo.
  • Diagnosticar, depurar y resolver problemas o bugs en flujos de datos en desarrollo y producción.
  • Contribuir en discusiones técnicas y decisiones sobre arquitectura de datos en nuevos proyectos.
  • Implementar y mantener herramientas de orquestación de flujos de trabajo, como Apache Airflow.
  • Crear y mantener la documentación técnica de los flujos, modelos y sistemas desarrollados.

Estamos buscando una persona que cumpla con lo siguiente:

Experiencia Profesional: Mínimo de 4 a 6 años de experiencia demostrable en roles de ingeniería de datos, inteligencia de negocios (BI) o desarrollo de software con fuerte enfoque en datos.

Formación académica: Título profesional en Ingeniería de Sistemas, Ciencias de la Computación, Ingeniería de Software o carreras afines.

Conocimientos técnicos requeridos:

  • Lenguajes: Dominio avanzado de Python y sus librerías para el ecosistema de datos (p.ej. Pandas, PySpark).
  • Modelos LLM: Experiencia interactuando con modelos de lenguaje grandes (ej. Gemini, OpenAI), prompt engineering y Retrieval-Augmented Generation (RAG).
  • Bases de datos: Sólida experiencia con bases de datos SQL (como PostgreSQL) y NoSQL (como MongoDB). Valoramos conocimiento en Data Warehouses en la nube (Azure, BigQuery, Redshift, Snowflake).
  • Fundamentos de datos: Conocimiento profundo de ETL/ELT, modelado de datos y arquitecturas de datos (Data Warehouse, Data Lake).
  • Herramientas clave: Experiencia con sistemas de control de versiones Git y contenedores Docker. Se valorará experiencia con orquestadores como Apache Airflow.
  • Nube: Experiencia trabajando con servicios de datos en plataformas en la nube (GCP, AWS, Azure).

Habilidades blandas y otras competencias: Buscamos un profesional proactivo, con capacidad para resolver problemas complejos, aportar en la toma de decisiones para arquitectura de datos, y colaborar eficazmente en equipo.

Se valorará además:

  • Conocimientos en metodologías de desarrollo ágil y mejores prácticas DevOps.
  • Experiencia adicional en ingeniería de datos aplicada a inteligencia artificial y machine learning.
  • Habilidades de comunicación avanzada para colaborar con equipos multidisciplinarios.

Lo que ofrecemos en Arara:

  • 100% remoto – Trabaja desde cualquier lugar con huso horario de América.
  • Cultura organizacional horizontal e innovadora.
  • Equipo colaborativo – Somos un equipo pequeño, horizontal y cercano, donde tu aporte realmente cuenta.
  • Trabajar en una industria en crecimiento: IA aplicada.
  • Capacitaciones en Habilidades profesionales y personales de manera constante.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Analyst área de Cumplimiento
  • Banco Santander Chile
  • Santiago (Hybrid)
Python Data Analysis SQL Back-end
Banco Santander Chile es una organización internacional que enfrenta diariamente retos para ayudar a personas y empresas a progresar. Actualmente, el área de Cumplimiento busca un Data Analyst para apoyar la Unidad de Prevención de Blanqueo de Capitales y Financiamiento del Terrorismo (UPBC), un equipo clave para asegurar que la institución cumpla con regulaciones y prevenga riesgos asociados a delitos financieros. El área está enfocada en la prevención de lavado de activos y financiamiento del terrorismo, contribuyendo a la confianza y cumplimiento regulatorio del banco.

Apply at getonbrd.com without intermediaries.

Funciones

  • Análisis e interpretación de datos acorde a lo solicitado.
  • Realizar análisis y minería de datos mediante herramientas locales, para identificar tendencias, desviaciones y puntos críticos de atención.
  • Analizar cambios en requerimientos regulatorios o políticas internas, brindando apoyo para la implementación de marcos, políticas y programas relacionados con cumplimiento y riesgo.
  • Comprender las políticas locales y marcos legales vinculados al crimen financiero.
  • Desarrollar informes clave y sobre temas críticos dirigidos a la alta dirección y foros en nombre de Financial Crime Compliance (FCC).
  • Monitorear el progreso de la unidad, bancas y filiales respecto a la efectividad de los controles según políticas y procedimientos.
  • Gestionar y realizar seguimiento de clientes con aumento de riesgo.
  • Mantener actualizada una biblioteca de Indicadores Clave de Riesgo (KRI) e Indicadores Clave de Control (KCI) locales, alineados con los estándares globales de FCC.

Requisitos

  • Dominio de lenguaje SQL para la extracción y manipulación de datos.
  • Conocimientos en Python para la automatización y análisis avanzado de datos.
  • Alta capacidad analítica para interpretar grandes volúmenes de información y detectar patrones.
  • Habilidad para trabajar en equipo y comunicar hallazgos de forma clara a distintos niveles organizacionales.
  • Orientación a la prevención de delitos financieros y al cumplimiento regulatorios.

Competencias deseables

  • Experiencia previa en el sector financiero.
  • Conocimiento de herramientas de minería de datos y análisis estadístico.
  • Capacidad de adaptación rápida a cambios regulatorios.
  • Habilidades de presentación y generación de reportes ejecutivos.
  • Manejo de otros lenguajes de programación o herramientas de visualización de datos.

Beneficios

  • Formar parte de la principal empresa financiera de Chile y uno de los mejores lugares para trabajar en el país.
  • Aprendizaje mediante la experiencia práctica, con múltiples oportunidades de desarrollo, formación continua y movilidad interna.
  • Beneficios orientados a mejorar la calidad de vida y el desarrollo profesional de los y las colaboradores.
  • Contrato indefinido que aporta estabilidad laboral y seguridad.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Banco Santander Chile pays or copays health insurance for employees.
Computer provided Banco Santander Chile provides a computer for your work.
Vacation over legal Banco Santander Chile gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Management
  • Banco Santander Chile
  • Santiago (Hybrid)
Python Data Analysis SQL Business Intelligence

Banco Santander Chile es una institución financiera líder en el país, reconocida por su enfoque en ayudar a personas y empresas a progresar mediante soluciones innovadoras y personalizadas. El área de banca comercial se dedica a diseñar y ejecutar estrategias comerciales que optimizan la rentabilidad de la cartera de clientes, utilizando tecnología avanzada para la gestión de datos y el desarrollo de herramientas propias que potencian la toma de decisiones y la experiencia del cliente.

Este equipo trabaja en la constante búsqueda y aplicación de nuevas tecnologías para mejorar las acciones comerciales y asegurar que las iniciativas estén disponibles y sean efectivas en los diferentes canales digitales y presenciales del banco.

© getonbrd.com.

Responsabilidades principales

Como data management, tus responsabilidades incluirán:

  • Participar en la generación de fuentes de información con los distintos atributos y variables calculadas.
  • Automatizar el despliegue de las acciones comerciales con los distintos actores de canales del banco.
  • Recomendar nuevas tecnologías para mejorar el despliegue y la búsqueda de nuevas acciones de las campañas dentro del equipo de inteligencia comercial.
  • Coordinar y desplegar las ofertas y/o campañas a los distintos canales del banco Santander.
  • Automatizar el despliegue de los Journeys (con Salesforce Marketing Cloud y Adobe Experience Platform - AJO) en base a los distinto eventos de nuestros clientes.

Perfil y experiencia requerida

Buscamos profesionales con experiencia en programación orientada a la gestión comercial en el sector financiero o afines. Se valoran conocimientos sólidos en análisis de datos, manejo de bases de datos y desarrollo de software aplicado a procesos comerciales.

Entre las habilidades técnicas y competencias destacan:

  • Experiencia en lenguajes de programación y explotación de datos, de al menos, 1 año.
  • SQL avanzado
  • Python avanzado en análisis de datos
  • Manejo de Tableau
  • Manejo de Power BI
  • Proactividad en la búsqueda constante de innovación tecnológica aplicable a la función.

Se valoran además habilidades blandas como la adaptación al cambio, resiliencia, y pensamiento crítico orientado a la mejora continua.

Conocimientos y experiencia complementarios

Será un plus contar con experiencia previa en bancos o instituciones financieras y manejo de herramientas como SalesForce Marketing Cloud y AJO de Adobe Experience Platform . Conocimientos en metodologías ágiles para proyectos de desarrollo tecnológico también serán bien valorados.

Habilidades adicionales en visualización de datos, para impulsar la innovación en las acciones comerciales serán una ventaja competitiva.

Beneficios y oportunidades de crecimiento

  • Formar parte de la principal empresa financiera de Chile y uno de los mejores lugares para trabajar en el país.
  • Aprendizaje mediante la experiencia práctica, con múltiples oportunidades de desarrollo, formación continua y movilidad interna.
  • Beneficios orientados a mejorar la calidad de vida y el desarrollo profesional del colaborador.
  • Contrato indefinido que aporta estabilidad laboral y seguridad.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Banco Santander Chile pays or copays health insurance for employees.
Computer provided Banco Santander Chile provides a computer for your work.
Vacation over legal Banco Santander Chile gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1900 - 2500 Tiempo completo
Ingeniero de Datos Senior
  • coderslab.io
  • Santiago (Hybrid)
Python Git SQL BigQuery
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de Ingeniero de Datos para unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

Applications at getonbrd.com.

Funciones del cargo

  • Desarrollar y mantener ingestas de datos hacia Google Cloud Platform.
  • Implementar pipelines ETL eficientes y escalables para procesamiento de datos.
  • Colaborar con equipos técnicos y de negocio para asegurar la calidad y disponibilidad de la información.
  • Gestionar y optimizar el almacenamiento y procesamiento de datos utilizando BigQuery, Cloud Functions, Airflow y Cloud Storage.
  • Utilizar DBT para transformación y modelado de datos (ideal).
  • Controlar versiones y colaborar en el desarrollo mediante herramientas como GitLab, Bitbucket o GitHub.
  • Documentar procesos y asegurar buenas prácticas en el manejo de datos.
  • Apoyar en la identificación y resolución de problemas técnicos relacionados con ingesta y procesamiento de datos.

Requerimientos del cargo

  • Conocimientos técnicos obligatorios:
    • Desarrollo de proyectos ETL en Google Cloud Platform (GCP).
    • Uso avanzado de productos GCP: BigQuery, Cloud Functions, Airflow, Cloud Storage.
    • Experiencia ideal con DBT (Data Build Tool).
    • Dominio de lenguajes SQL y Python.
    • Manejo de gestores de versionamiento: GitLab, Bitbucket o GitHub.

POSTULAR VÍA WEB Ver trabajo
Gross salary $1700 - 2500 Tiempo completo
Ingeniero de Datos Semi Senior
  • coderslab.io
  • Santiago (Hybrid)
Python Git SQL BigQuery
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de Ingeniero de Datos para unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

Apply through Get on Board.

Funciones del cargo

  • Desarrollar y mantener pipelines ETL para ingesta, transformación y carga de datos en GCP.
  • Modelar datos para asegurar la calidad, integridad y optimización en BigQuery.
  • Implementar soluciones usando Cloud Functions, Airflow y Cloud Storage para automatización y orquestación de procesos.
  • Colaborar con equipos multidisciplinarios para cumplir con los objetivos del proyecto Lago de Datos 2.0.
  • Utilizar DBT para la transformación y modelado de datos (cuando aplique).
  • Gestionar versiones y colaborar en el control de código mediante GitLab, Bitbucket o GitHub.
  • Documentar procesos técnicos y mantener buenas prácticas en el manejo de datos.

Requerimientos del cargo

  • Experiencia en desarrollo de proyectos de datos (ETLs) en Google Cloud Platform (GCP).
  • Conocimiento y manejo de productos GCP: BigQuery, Cloud Functions, Airflow, Cloud Storage.
  • Experiencia ideal con DBT (Data Build Tool).
  • Dominio de lenguajes SQL y Python.
  • Experiencia con gestores de versionamiento como GitLab, Bitbucket o GitHub.
  • Experiencia en modelado de datos en GCP.

POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2600 Tiempo completo
Data Engineer
  • ARKHO
Python Analytics Virtualization Amazon Web Services

ARKHO es una consultora experta en tecnologías de la información, que ofrece servicios expertos de TI en el marco de modernización de aplicaciones, analítica de datos y migración a la nube. Nuestro trabajo facilita y acelera la adopción de la cloud en múltiples industrias.

Nos destacamos por ser Partner Advanced de Amazon Web Services con foco estratégico en la generación de soluciones usando tecnología en la nube, somos obsesionados por lograr los objetivos propuestos y tenemos especial énfasis en el grupo humano que compone ARKHO (nuestros Archers), reconociendo a las personas y equipo como un componente vital para el logro de los resultados.

¿Te motivas? ¡Te esperamos!

Apply exclusively at getonbrd.com.

🎯 Objetivo del Rol

Liderar y ejecutar el desarrollo de pipelines de datos en proyectos de analytics, con una visión integral de arquitectura de datos end to end. Se espera que aplique su experiencia técnica para fomentar la mejora continua, el cumplimiento de objetivos y la entrega de productos tecnológicos de alta calidad. Será un referente técnico dentro del equipo, aportando conocimientos en herramientas, lenguajes e infraestructura, y participando activamente en la generación de soluciones robustas y escalables.

Funciones Principales:

  • Colaborar estrechamente con el líder de equipo y el equipo de implementación, entregando visibilidad técnica del avance de las iniciativas.
  • Apoyar en la definición, estimación y planificación de tareas para productos analíticos bajo metodologías ágiles.
  • Liderar la gobernanza técnica de la solución junto al cliente, participando en decisiones clave.
  • Diseñar e implementar arquitecturas de soluciones de datos en la nube de forma colaborativa.
  • Participar en el modelado de datos y desarrollo de modelos analíticos corporativos.
  • Investigar y profundizar en tecnologías necesarias para alcanzar los objetivos del proyecto.

🏹 Perfil del archer

En nuestra compañía valoramos a las personas auto-gestionadas, proactivas e innovadoras. Debes ser capaz de organizar tu propia carga de trabajo, tomar decisiones, cumpliendo tus plazos y objetivos. Buscamos personas con:

  • Al menos 3 años en proyectos de analítica de datos.
  • Dominio avanzado de al menos un lenguaje de programación, preferiblemente Python.
  • Sólidos conocimientos en herramientas y servicios de datos en AWS: Glue, Lambda, S3, Athena, Redshift, Step Functions, entre otros.
  • Experiencia en diseño de pipelines de datos y orquestación (por ejemplo, Airflow, Step Functions).
  • Familiaridad con arquitecturas modernas de datos como Data Lakes, Data Warehouses o Lakehouses.
  • Experiencia o conocimientos en modelado de datos utilizando enfoques como modelo dimensional, estrella y copo de nieve.

🧩 Habilidades opcionales

Se valorará positivamente si cuentas con:

  • Nivel de inglés intermedio o superior, que te permita participar en conversaciones técnicas y entender documentación especializada.
  • Experiencia trabajando con metodologías ágiles, especialmente Scrum, aplicadas en proyectos colaborativos de desarrollo de software o análisis de datos.

🌟 Beneficios del Archer

En ARKHO fomentamos una cultura de aprendizaje continuo, impulsamos la innovación tecnológica y promovemos un entorno de trabajo flexible, inclusivo y respetuoso, que valora tanto el desarrollo profesional como el bienestar personal.

📆 Día administrativo semestral hasta los 12 meses
🏖️ Week off: 5 días de vacaciones extra
🎉 ¡Celebra tu cumpleaños!
📚 Path de entrenamiento
☁️ Certificaciones AWS
🏡 Flexibilidad (trabajo híbrido)
💍 Regalo por casamiento + 5 días hábiles libres
👶 Regalo por nacimiento de hijos
✏️ Kit escolar
🤱 Beneficio paternidad
❤️ Bonda (plataforma de descuentos y bienestar)
💰 Aguinaldos
🏥 Seguro complementario de salud (solo Chile) o Bono de Salud
🧘‍♀️ ARKHO Open Doors

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
Vacation over legal ARKHO gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer
  • Compara
Python PostgreSQL Back-end Kafka
Compara es una plataforma digital que permite cotizar y comparar los principales seguros y productos financieros de Latinoamérica. En nuestra empresa, buscamos un Data Engineer que ayude a construir, optimizar y evolucionar nuestra infraestructura de datos. Con un énfasis en la modernización y mejora continua, esta posición es clave para asegurar que nuestros procesos de datos sean eficientes y escalables.

Apply directly on the original site at Get on Board.

🎯 ¿Qué harás?

  • Mantener y optimizar nuestro data warehouse en PostgreSQL y los pipelines de ingesta de datos en producción.
  • Liderar la transición hacia una arquitectura moderna basada en Databricks, dbt y un data lake en S3.
  • Desarrollar y escalar pipelines de procesamiento y transformación de datos.
  • Monitorear, depurar y documentar procesos de datos para garantizar su calidad y confiabilidad.

🔎 ¿A quién buscamos?

  • Persona con más de 3 años de experiencia en ingeniería de datos, construyendo y manteniendo pipelines en producción.
  • Dominio de Python para procesamiento de datos, incluyendo el uso de librerías como pandas, SQLAlchemy y psycopg2.
  • Experiencia trabajando con orquestadores de workflows, especialmente Airflow.
  • Conocimiento sólido de bases de datos relacionales, especialmente PostgreSQL, incluyendo modelamiento y optimización de rendimiento.
  • Experiencia práctica con almacenamiento en la nube (S3 o equivalente) y formatos como Parquet.
  • Autonomía y capacidad de tomar decisiones técnicas.

🌟 Será un plus si cuentas con

  • Experiencia con dbt y modelado de datos.
  • Conocimiento en Databricks, Delta Lake, Apache Iceberg o arquitecturas de lakehouse.
  • Experiencia con diseño e implementación de pipelines CDC (Change Data Capture) usando Debezium, Kafka o similares.
  • Conocimientos de buenas prácticas de DevOps para data (versionado de pipelines, testing, CI/CD).
  • Inglés técnico para leer documentación y colaborar en proyectos internacionales.

🚀Únete a nuestro equipo

En Compara, ofrecemos horarios flexibles y un entorno que favorece el crecimiento profesional. Valoramos la cultura de aprendizaje continuo y el desarrollo de cada miembro del equipo, por lo que si disfrutas optimizando infraestructuras de datos, impulsando mejoras estratégicas y explorando nuevas herramientas, ¡nos encantaría conocerte! 🚀

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Compara provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Compara gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 2000 Tiempo completo
Analista de Datos
  • coderslab.io
  • Santiago (Hybrid)
Python Data Analysis SQL Virtualization

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Analista de Datos para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Apply through Get on Board.

Funciones del cargo

-Desarrollo de componentes en Python
-Utilización de BigQuery:Realizar análisis de datos, ingesta y procesamiento continuo mediante tareas programadas en GCP utilizando BigQuery.
-Transformación de Datos:Aplicar técnicas de transformación de datos utilizando DBT (Data Build Tool) para asegurar que los datos sean precisos y estén listos para su análisis.
-Pruebas de Precisión de Datos:Testear la precisión y validez de los datos, asegurando que se cumplan los estándares de calidad antes de su utilización.
-Seguimiento de Cambios:Realizar un seguimiento de los cambios en los datos y actualizar la documentación correspondiente para mantener un registro claro y comprensible.
-Construcción de Modelos de Datos: Diseñar y construir modelos de datos adecuados que soporten las necesidades del negocio y faciliten el análisis.
-Escritura de Código de Transformación: Escribir y validar código para la transformación de datos, garantizando que sea eficiente y escalable.
Implementación y Documentación: Implementar mejoras en los procesos de datos y documentar todos los procedimientos que se lleven a cabo, facilitando la comprensión y el uso por parte de otros equipos.

Requerimientos del cargo

-Programación
-Python
-SQL: Familiaridad con SQL y posiblemente con otros lenguajes relacionados con el procesamiento de datos.-GCP
-BigQuery : Experiencia en el uso de BigQuery para el manejo y análisis de grandes volúmenes de datos
-Kubernetes
-Docker

Condiciones

Modalidad de contratación: Plazo fijo
Duración del proyecto: 6 meses

POSTULAR VÍA WEB Ver trabajo
Gross salary $2400 - 2600 Tiempo completo
Data Engineer GCP
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL BigQuery ETL
En BC Tecnología, somos una consultora TI enfocada en brindar servicios integrales de outsourcing, desarrollo de proyectos y consultoría para clientes de sectores financieros, seguros, retail y gobierno. Nos especializamos en formar equipos ágiles y multidisciplinarios que aportan soluciones tecnológicas de vanguardia. Actualmente, estamos reclutando para un proyecto de 6 meses que involucra el desarrollo de pipelines de datos y arquitecturas en Google Cloud Platform, destinados a optimizar el manejo y análisis de grandes volúmenes de información.

Exclusive offer from getonbrd.com.

Responsabilidades principales

  • Diseñar, desarrollar y mantener pipelines de datos ETL/ELT en Google Cloud Platform para asegurar el flujo eficiente y confiable de datos.
  • Implementar soluciones utilizando productos como BigQuery, Cloud Functions, Airflow y Cloud Storage que soporten procesos analíticos y de negocio.
  • Optimizar consultas SQL y desarrollar scripts en Python para manipulación y transformación de datos.
  • Gestionar versiones y colaborar dentro del equipo utilizando herramientas de control de código como GitLab, GitHub o Bitbucket.
  • Aplicar buenas prácticas en desarrollo, pruebas y documentación técnica.
  • Colaborar en un entorno ágil, trabajando de forma híbrida entre la oficina en Santiago Centro y remoto.

Requisitos y experiencia

Buscamos un profesional con al menos tres años de experiencia demostrable en desarrollo de proyectos de gestión y procesamiento de datos en Google Cloud Platform. Es indispensable tener conocimientos sólidos en SQL y Python para la manipulación y transformación de datos en entornos analíticos. Además, se requiere experiencia práctica con productos clave de GCP, incluyendo BigQuery para almacenamiento y consultas masivas, Cloud Functions para ejecución de funciones serverless, Airflow para orquestación de flujos de trabajo y Cloud Storage para almacenamiento escalable.
El candidato debe estar familiarizado con herramientas de control de versiones como GitLab, GitHub o Bitbucket, que facilitan el trabajo colaborativo y la gestión de código. La capacidad para adaptarse a un modelo híbrido de trabajo, combinando presencialidad en Santiago Centro con trabajo remoto, es fundamental.
Se valoran cualidades como la proactividad, el enfoque orientado al detalle, habilidades comunicativas para trabajo en equipo y la capacidad para afrontar desafíos técnicos en proyectos dinámicos y exigentes.

Conocimientos adicionales deseables

Se considerará un plus la experiencia trabajando con DBT (Data Build Tool), que facilita el desarrollo y mantenimiento de modelos de datos dentro de pipelines modernos. Contar con certificaciones en plataformas cloud, especialmente en Google Cloud Platform, y experiencia previa en proyectos relacionados con áreas financieras o retail, será valorado positivamente.
El manejo de metodologías ágiles y experiencia en la documentación y automatización de procesos ETL fortalecerán el perfil, ya que colaboramos con equipos multidisciplinarios en entornos colaborativos e innovadores.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio entre vida laboral y personal.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer (Mid–Senior Level)
  • Niuro
Python SQL Docker Data Transformation
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality.
Niuro empowers projects by providing autonomous, high-performance tech teams specialized in partnering with top-tier U.S. companies. This role contributes to impactful and technically rigorous industrial data projects that drive innovation and professional growth within the global community Niuro fosters.

© Get on Board. All rights reserved.

About the Role

As a Data Engineer at Niuro, you will build scalable data pipelines and ensure data quality across complex workflows. You will collaborate closely with product teams to understand data requirements, deliver efficient data solutions, and maintain robust data infrastructure. Your expertise will be crucial in optimizing cloud-native data processing environments and enabling data-driven decision-making.
Responsibilities include designing, developing, and deploying data workflows using modern technologies such as AWS services, Airflow, and dbt; scripting and testing in Python; and contributing to infrastructure automation efforts. You will also actively participate in code reviews, troubleshooting, and performance tuning of data pipelines.

Requirements

  • Minimum 3 years of experience in Data Engineering roles.
  • Proven expertise with AWS services including Lambda, S3, and Glue for scalable cloud-native data solutions.
  • Hands-on experience with Airflow for workflow orchestration.
  • Proficient in dbt for data modeling and transformation tasks.
  • Strong programming skills in Python, specifically for scripting and testing data workflows.
  • Bonus skills: experience with Snowflake cloud data platform, Docker containerization, CI/CD pipelines, and SQL databases.
  • Strong communication skills and fluent English proficiency to collaborate effectively with product teams and stakeholders. Fluent Spanish is also required.

Desirable Skills

Experience with Snowflake is highly valued, as well as familiarity with Docker for containerized environments. Knowledge of CI/CD processes to automate and streamline deployment workflows will be beneficial. Additional experience working with relational and NoSQL SQL databases is a plus, enhancing your ability to manage and optimize data storage solutions.

Benefits

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Especialista en Modelos Analíticos Avanzados
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL Big Data Azure
En BC Tecnología, somos una consultora de servicios IT con más de 6 años de experiencia diseñando y desarrollando soluciones tecnológicas acorde a las necesidades de nuestros clientes. Nuestra oferta abarca desde la consultoría y diseño de soluciones, pasando por la formación de equipos y outsourcing de personal, hasta el desarrollo y soporte de proyectos en diversas industrias como servicios financieros, seguros, retail y gobierno. Nos especializamos en crear equipos ágiles, adaptados para trabajar en áreas de infraestructura tecnológica y desarrollo de software, brindando productos y servicios que apoyan la evolución digital de nuestros clientes.

This job is exclusive to getonbrd.com.

Responsabilidades principales

  • Participar activamente en todas las etapas del ciclo de vida del análisis de datos, incluyendo la identificación, estructuración y preparación de datos relevantes para el proyecto.
  • Diseñar, desarrollar e implementar modelos analíticos avanzados, empleando técnicas de estadística clásica y aprendizaje automático para extraer insights clave.
  • Construir visualizaciones de datos efectivas para monitorear periódicamente los indicadores clave de desempeño (KPIs) y facilitar la comprensión de los resultados.
  • Comunicar claramente los hallazgos y resultados analíticos a las áreas de negocio para apoyar la toma de decisiones estratégicas.
  • Llevar a cabo el mantenimiento evolutivo y la optimización continua de los modelos analíticos desplegados, asegurando su calidad, escalabilidad y rendimiento en producción.
  • Colaborar estrechamente con los equipos de ingeniería para garantizar el correcto despliegue y funcionamiento de los modelos en ambientes productivos.
  • Desarrollar e implementar APIs para facilitar el acceso y consumo de los modelos analíticos por otras aplicaciones y servicios internos.
  • Aplicar un enfoque crítico y orientado al negocio para resolver problemas complejos y aportar soluciones efectivas basadas en datos.

Perfil requerido

Buscamos un profesional con título en Ingeniería, Economía, Estadística o carreras afines, con sólida capacidad analítica tanto cuantitativa como cualitativa. Es fundamental poseer experiencia comprobada en el diseño, desarrollo y despliegue de modelos analíticos avanzados, trabajando en conjunto con equipos técnicos en ambientes productivos.
El candidato debe contar con conocimientos avanzados en estadística aplicada, aprendizaje automático, y metodologías analíticas modernas. Además, se requiere un dominio fuerte de SQL para manipulación y consulta de bases de datos, así como programación en Python y PySpark para procesamiento de datos a gran escala.
Es muy valorada la experiencia trabajando con plataformas Azure y Databricks para la gestión y explotación de big data. También es importante la experiencia en el desarrollo y consumo de APIs para integración de modelos y aplicaciones.
Buscamos un profesional comprometido, rigoroso, con actitud crítica y capacidad para presentar resultados de forma clara, orientado a resolver problemas desde una perspectiva de negocio e impacto.

Requisitos deseables

Serán considerados plus aquellos candidatos con experiencia adicional en técnicas de deep learning, manejo de otras herramientas de visualización de datos avanzadas, conocimientos en arquitecturas de microservicios y habilidades en automatización de pipelines analíticos.
Además, se valorará la experiencia en trabajo en equipos multidisciplinarios bajo metodologías ágiles, buen manejo de comunicación efectiva, y disposición para aprendizaje continuo en nuevas tecnologías emergentes.

Beneficios y cultura empresarial

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Relocation offered If you are moving in from another country, BC Tecnología helps you with your relocation.
Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Especialista de Big Data
  • SONDA
  • Santiago (Hybrid)
Java Python PostgreSQL SQL

En SONDA, somos una empresa líder en transformación digital en la región. Desde nuestros inicios, creemos en el rol que desempeñamos para contribuir al desarrollo de las sociedades donde operamos mediante soluciones tecnológicas avanzadas. Actualmente, dentro de unidad de negocio de Digital Application Services, para proyecto SII - Servicio de impuestos indirectos, buscamos a Especialista de Big Data.

Send CV through getonbrd.com.

Funciones del cargo

· Ser responsable de crear el "Big Data", tubería de datos, desde la recolección hasta la entrega para su análisis o para alimentar un producto o servicio basado en análisis predictivos en producción.

· Asegurar que la arquitectura de datos sea factible para que los científicos de datos trabajen con ella.

· Construir y mantener un Data Lakes y ofrece API para acceder al Especialista de Data Science que usa los datos para su análisis y ejecución de modelos de Machine Learning.

· Ser responsable de dar todo el apoyo para que el trabajo del Especialista de Data Science suceda, y sea “más efectivo”.

Requerimientos del cargo

· Estudios superiores en áreas relacionados.

· Desde 2 años de experiencia en cargos similares.

· Construcción de procesos e integración de datos en Big Data

· Conocimiento de conceptos de computación distribuida

· Experiencia y conocimiento en el uso de SQL.

· Uso de bases de datos relacionales, particularmente en Oracle y postgreSQL.

· Bases de Datos NoSQL
· Manejo de sistemas Unix/linux, shell script

· Programación orientada a objetos usando JAVA o Python

· Programación Funcional en Scala/Spark

· Manejo de herramientas de CI/CD.

· Conocimiento de almacenamiento de Datos.
· Diseño de Esquemas de datos

· Conocimiento de Hive, Impala, Kudu

· Conocimiento de Kafka ​

· Deseable conocimiento en el uso de servicios en entorno Cloudera.

Opcionales

Y mucho mejor si destacas por tener alguna certificación o curso en alguno de estos tópicos: ​

· Integración de datos

· Big data

· Desarrollo API

· Microservicios, springboot, springbatch

· Desarrollo en nube

· Desarrollo seguro

· Diseño de aplicaciones

· Metodologías ágiles

Conditions

Wellness program SONDA offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance SONDA pays or copays life insurance for employees.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage SONDA pays or copays health insurance for employees.
Retirement plan SONDA pays or matches payment for plans such as 401(k) and others.
Dental insurance SONDA pays or copays dental insurance for employees.
Commuting stipend SONDA offers a stipend to cover some commuting costs.
Computer provided SONDA provides a computer for your work.
Education stipend SONDA covers some educational expenses related to the position.
Fitness subsidies SONDA offers stipends for sports or fitness programs.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2300 - 2500 Tiempo completo
Data Reporting Engineer
  • Contac Ingenieros
  • Santiago (Hybrid)
Python SQL Azure ETL

En Contac buscamos aportar y potenciar los equipos especializados de nuestros clientes, agregando valor a sus procesos a través de la experiencia de nuestros profesionales.
El equipo de trabajo está orientado a desarrollar, implementar y mantener sistemas avanzados de reportes y visualización de datos, con la finalidad de mejorar la gestión empresarial.

Apply directly at getonbrd.com.

Principales Desafíos

En esta posición, serás el protagonista en la transformación de datos en conocimiento relevante para la toma de decisiones estratégicas dentro de la minería.

  • Diseñar, desarrollar y optimizar reportes y herramientas de visualización que faciliten el acceso y análisis de la información, asegurando que sea clara y estratégica para los diferentes niveles de la organización.
  • Construir, mantener y mejorar las plataformas de datos que alimentan las soluciones de reportabilidad, garantizando la integridad y actualización continua de la información.
  • Integrar y gestionar procesos ETL (Extract, Transform, Load) para asegurar que la información sea confiable, oportuna y eficiente, soportando la toma de decisiones diarias.

Conocimientos Claves y Requisitos

Buscamos profesionales con un perfil técnico avanzado que combine conocimientos en ingeniería con habilidades sólidas en análisis y visualización de datos dentro del sector minero.

  • Python avanzado, con experiencia práctica utilizando librerías especializadas como Pandas, NumPy, Matplotlib, Plotly y Dash para manipulación, análisis y creación de visualizaciones dinámicas.
  • SQL avanzado y competencia en manejo y optimización de bases de datos complejas.
  • Power BI avanzado, capaz de construir dashboards impactantes que faciliten la interpretación y comunicación de datos a niveles estratégicos.
  • Experiencia en gestión de ETL y modelamiento de datos, con familiaridad en el ecosistema Azure para administrar y optimizar plataformas de datos en la nube.
  • Título profesional en Ingeniería Civil o Industrial, preferentemente con especialidad en Metalurgia, Química o Minería, aportando una visión práctica de los procesos productivos y operativos mineros.
  • Conocimiento sólido de los procesos mineros y manejo de indicadores clave del negocio para convertir datos en información relevante y accionable.
  • Mínimo 2 años de experiencia específica en reportabilidad y análisis de datos, preferentemente en el sector minero o industrias relacionadas.
  • Inglés Intermedio (B2)
  • Capacidad para trabajar en equipo, pensamiento analítico, atención al detalle, y orientación a resultados con compromiso en entregar soluciones de calidad que agregan valor.

Competencias y Habilidades Deseables

Es valorado contar con habilidades complementarias que potencien el impacto del rol, tales como:

  • Experiencia previa en industrias de minería o sectores industriales similares, aportando contexto y comprensión profunda de los requerimientos del negocio.
  • Conocimientos en otras herramientas de visualización o BI adicionales a Power BI, como Tableau o QlikView.
  • Familiaridad con metodologías ágiles para gestión de proyectos y desarrollo de soluciones analíticas.
  • Capacidad para comunicar hallazgos técnicos a audiencias no técnicas, facilitando la adopción de soluciones basadas en datos.
  • Interés por la innovación tecnológica y aprendizaje continuo en el ámbito de ciencia de datos y análisis avanzado.

Que ofrecemos

  • Una carrera en tecnología y analítica avanzada, con oportunidades de crecimiento y especialización.
  • Un grato ambiente laboral, donde la colaboración, el aprendizaje y el desarrollo profesional son prioridad.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer
  • NeuralWorks
  • Santiago (Hybrid)
Python Data Analysis SQL Big Data

NeuralWorks es una compañía de alto crecimiento fundada hace 3 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

Applications: getonbrd.com.

Descripción del trabajo

El equipo de Data y Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.
Dentro del equipo multidisciplinario con Data Scientist, Translators, DevOps, Data Architect, tu rol será clave en construir y proveer los sistemas e infraestructura que permiten el desarrollo de estos servicios, formando los cimientos sobre los cuales se construyen los modelos que permiten generar impacto, con servicios que deben escalar, con altísima disponibilidad y tolerantes a fallas, en otras palabras, que funcionen. Además, mantendrás tu mirada en los indicadores de capacidad y performance de los sistemas.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Como Data Engineer, tu trabajo consistirá en:

  • Participar activamente durante el ciclo de vida del software, desde inception, diseño, deploy, operación y mejora.
  • Apoyar a los equipos de desarrollo en actividades de diseño y consultoría, desarrollando software, frameworks y capacity planning.
  • Desarrollar y mantener arquitecturas de datos, pipelines, templates y estándares.
  • Conectarse a través de API a otros sistemas (Python)
  • Manejar y monitorear el desempeño de infraestructura y aplicaciones.
  • Asegurar la escalabilidad y resiliencia.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia práctica de al menos 3 años en entornos de trabajo como Data Engineer, Software Engineer entre otros.
  • Experiencia con Python.
    Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida optimización de consultas.
  • Pasión en problemáticas de procesamiento de datos.
  • Experiencia con servidores cloud (GCP, AWS o Azure), especialmente el conjunto de servicios de procesamiento de datos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.
  • Habilidades de comunicación y trabajo colaborativo.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” D. Gaucher , J. Friesen and A. C. Kay, Journal of Personality and Social Psychology, 2011.

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Vestimenta informal
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1700 - 2100 Tiempo completo
Data Scientist
  • Kunzapp
  • Santiago &nbsp Ciudad de México (Hybrid)
Python Git Data Analysis SQL

En Kunzapp buscamos un Data Scientist con fuerte ambición y deseo de aprender para desarrollar e implementar modelos de machine learning, análisis de datos, y colaborar con visualizaciones de los KPIs que miden nuestros productos. Esta persona será parte de un equipo de desarrollo pequeño pero poderoso, en un entorno de startup donde la velocidad y la ejecución son clave. Buscamos a alguien que ame el análisis de datos, la experimentación, y construir cultura mientras escalamos.

Apply to this job through Get on Board.

🚀 Responsabilidades

  • Desarrollar e implementar modelos de machine learning y análisis estadístico.
  • Diseñar y mantener pipelines de datos eficientes y escalables.
  • Participar activamente en el proceso de Scrum: grooming, sprint planning, dailies.
  • Colaborar con producto para traducir iniciativas de negocio en soluciones basadas en datos.
  • Promover un ambiente de trabajo transparente, donde se pueda aprender, compartir y crecer.
  • Implementar y mantener sistemas de monitoreo de modelos y métricas clave.
  • Desarrollar experimentos A/B y análisis estadísticos para validar hipótesis.
  • Comunicar hallazgos y recomendaciones basadas en datos al equipo y stakeholders.

🛠 Stack tecnológico actual:

Backend: Go (Gin+Gorm), Python

Análisis de datos: Python, Jupyter Notebooks

Data Engineering: SQL, DynamoDB, SQS, EventBridge

Otros: Git, Docker, AWS Sagemaker, AWS Bedrock, Datadog, Elasticsearch

¿ Qué necesitamos de ti ? 🕵🏻

  • Experiencia en data science y machine learning en entornos productivos.
  • Sólidos conocimientos en estadística y matemáticas.
  • Dominio de Python y sus principales librerías de data science.
  • Mentalidad de "ship fast, fix fast", con enfoque en resultados medibles.
  • Experiencia en implementación y monitoreo de modelos en producción.
  • Ambición, ganas de crecer, y mucho deseo de aprender y mejorar habilidades técnicas.
  • Capacidad para comunicar efectivamente hallazgos técnicos a audiencias no técnicas.
  • Inglés intermedio-avanzado (nuestra documentación se escribe en inglés).

✅ Beneficios

  • Aguinaldo 15 días en Diciembre
  • Bono anual de hasta 1 mes de sueldo basado en performance.
  • Crecimiento constante y acelerado, basado en el crecimiento de Kunzapp.
  • Stock options: Posibilidad a obtener stock optionsOtros beneficios

Wellness program Kunzapp offers or subsidies mental and/or physical health activities.
Equity offered This position includes equity compensation (in the form of stock options or another mechanism).
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Company retreats Team-building activities outside the premises.
Computer provided Kunzapp provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Vacation over legal Kunzapp gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer with Snowflake Expertise
  • Moventi
Python Agile SQL Business Intelligence
At Moventi, we focus on helping organizations lead with innovation through technology. Our team consists of a multidisciplinary group of talents working together to adopt new technologies, methodologies, and collaborative work styles that enhance professional growth and project impact. The office is centrally located, equipped with parking, recreational areas for break times, and agile meeting spaces to foster teamwork across different professional profiles. Our organizational culture emphasizes transparency, strong coordination, commitment, willingness to take risks, and daily innovation with original ideas that generate positive impact.

Apply directly through getonbrd.com.

Job Responsibilities and Core Functions

We are looking for a Data Engineer skilled in Snowflake, Airflow, Python, SQL, and Tableau who will play a key role in designing, developing, and maintaining efficient data pipelines and workflows. The primary goal is to enable reliable data processing and visualization to support business intelligence efforts.
  • Design, implement, and optimize data pipelines using Airflow and Python for automated and scalable data processing.
  • Develop and maintain Snowflake data warehouses ensuring data integrity, performance, and security.
  • Create SQL queries and scripts for data preparation, transformation, and loading processes.
  • Build and maintain interactive, insightful dashboards and reports in Tableau to provide actionable insights to stakeholders.
  • Collaborate cross-functionally with data analysts, business users, and other engineering teams to understand data needs and translate them into technical solutions.
  • Troubleshoot, monitor, and optimize existing data workflows and dashboards to improve performance and reliability.

Required Skills and Experience

The ideal candidate will have proven hands-on experience working in data engineering roles, particularly with Snowflake as the data warehousing solution. Strong proficiency in Python and Airflow is essential for orchestrating data workflows. Advanced SQL skills are critical for querying and managing complex datasets. Experience in building Tableau dashboards to enable data visualization and reporting is necessary to communicate insights effectively.
Beyond technical expertise, candidates should be proactive, detail-oriented, and have strong problem-solving capabilities. Excellent communication skills and the ability to work collaboratively in a team environment are vital to succeed in this role. We value professionals who embrace transparency and are committed to innovation and continuous learning.

Desirable Skills and Traits

Experience with cloud environments and other data orchestration tools will be advantageous. Familiarity with additional BI tools or programming languages can enhance your profile. Prior experience in agile methodologies and working in multidisciplinary teams will help you excel and adapt quickly within Moventi’s culture.

Benefits and Work Environment

We are dedicated to the professional development of our team members by offering challenging projects and continuous learning opportunities. From your first day, you will have formal employment as a contractor and can enjoy a birthday free day to celebrate your special moment.
  • Opportunities for ongoing professional growth and learning
  • Formal employment contract starting day one as a contractor
  • Birthday free day to celebrate you
  • Engagement in challenging and impactful projects

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero Analítica y Gestión Financiera
  • Agrosuper
  • Rancagua (Hybrid)
Python Analytics Data Analysis SQL

En Agrosuper, tenemos la misión de llevar alimentos de la más alta calidad a las familias de Chile y el mundo. Nos mueve el deseo de alimentar el talento y las ganas de crecer constantemente. Buscamos mejorar y fomentar un entorno donde todos disfruten lo bueno de la vida, por lo que valoramos a las personas, que son el alma de nuestra organización .

Te invitamos a participar del proceso de selección para el cargo Ingeniero Analítica y Gestión Financiera. Buscamos incorporar profesionales de formación Ingeniero Civil, para trabajar en la Gerencia de Planificación y Gestión de Administración y Finanzas, y desempeñarse en la ciudad de Rancagua.

El objetivo del cargo es integrar habilidades en data science y desarrollo de proyectos tecnológicos, proporcionando soporte estratégico y analítico a los equipos de la Gerencia de Planificación y Gestión; Además de colaborar estrechamente con las áreas de excelencia operacional, transformación digital y tecnología & datos.

This job is exclusive to getonbrd.com.

Funciones del cargo

1 .Desarrollo de Modelos Predictivos y Prescriptivos: Crear modelos que integren variables financieras y operativas en coordinación con los equipos de planificación y control de gestión para mejorar las proyecciones.
2. Asesoría Técnica en Análisis y Sensibilización de Escenarios: Proveer asesoría técnica para el análisis de escenarios, detección de patrones y optimización de proyecciones financieras.
3. Aseguramiento de la Calidad e Integridad de los Datos: Garantizar la calidad e integridad de los datos, involucrando a los equipos pertinentes para obtener resultados precisos y confiables.
4. Diseño e Implementación de Paneles y Reportes Interactivos: Diseñar e implementar paneles y reportes interactivos para monitorear y controlar KPIs financieros, operativos y estratégicos.
5 Consolidación y Transformación de Datos: Consolidar y transformar datos de diversas fuentes en análisis integrales, trabajando con los equipos involucrados para decisiones basadas en información confiable.
6 Liderazgo en Proyectos de Transformación Digital y Automatización: Liderar iniciativas de transformación digital y proyectos de automatización en procesos recurrentes como cierre mensual y proyecciones.
7. Evaluación de Viabilidad Financiera y Técnica de Proyectos: Evaluar la viabilidad financiera de proyectos de inversión y la viabilidad técnica de proyectos de transformación, proporcionando herramientas de análisis a los equipos.
8.Soporte Analítico y Promoción de Cultura Data-Driven: Colaborar con equipos de planificación financiera y gestión estratégica, asesorar en la formulación de proyectos y evaluaciones del negocio, y promover una cultura basada en datos.

Requerimientos del cargo

1.Ingeniero Civil
2.Experiencia en el uso de herramientas de visualización de datos (ej.: Power BI, Tableau).
3. Dominio de herramientas de análisis de datos (ej. Python, R o SQL).
4. Disponibilidad para trabajar en Rancagua 4x1.
5. Deseable experiencia en gestión financiera.

Condiciones

Te mostramos algunos de nuestros beneficios:
Planes de crecimiento y desarrollo.
Capacitaciones y becas de estudios.
Convenios con distintas instituciones.
Bonos asociados al desempeño.

Computer provided Agrosuper provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1800 - 2500 Tiempo completo
Data Engineer Semisenior / Senior
  • Lisit
  • Santiago (Hybrid)
Python Data Analysis SQL Big Data

Lisit es una empresa dedicada a la creación, desarrollo e implementación de servicios de software enfocados en proporcionar herramientas de automatización y optimización que impulsan la eficiencia operativa de sus clientes. Trabajamos con un enfoque constante en la innovación y la pasión por superar desafíos tecnológicos. Nuestra propuesta diferencial radica en un acompañamiento consultivo integral, utilizando diversas herramientas y prácticas tecnológicas que permiten a los clientes alcanzar con éxito sus objetivos de transformación digital.

Find this vacancy on Get on Board.

Responsabilidades y Objetivos del Puesto

Como Data Engineer en Lisit, serás responsable de diseñar, construir y mantener pipelines de datos robustos que faciliten la integración entre múltiples sistemas, asegurando un modelado de datos eficiente y alineado con los requerimientos del negocio. Te encargarás de implementar soluciones escalables utilizando herramientas de Infraestructura como Código (IaC) y gestionar el versionamiento del código para garantizar calidad y trazabilidad.

Participarás activamente en la implementación y optimización de soluciones cloud sobre plataformas como Google Cloud Platform (GCP) y Azure, utilizando productos específicos como Airflow, Cloud Run, Cloud Composer, BigQuery y Azure Functions. La elaboración y mantenimiento de procesos ETL/ELT serán clave para asegurar el flujo y la calidad de los datos.

Trabajarás colaborativamente con equipos multidisciplinarios, manteniendo una comunicación fluida y contribuyendo a la innovación continua en los proyectos, siempre con foco en la entrega de valor y el cumplimiento de los objetivos tecnológicos y de negocio.

Requisitos y Habilidades Exigidas

  • Mínimo 3 años de experiencia profesional en manejo y procesamiento de datos, enfocándose en la generación de pipelines, integración de sistemas y modelado de datos.
  • Dominio intermedio a avanzado en lenguajes de programación como Python y Spark, con capacidad para desarrollar y optimizar scripts y procesos complejos.
  • Sólidos conocimientos intermedios a avanzados en Infraestructura como Código (IaC), especialmente usando Terraform.
  • Amplia experiencia con sistemas de versionamiento de código, preferentemente GitHub y GitLab, garantizando buenas prácticas de control y colaboración.
  • Conocimiento avanzado en SQL y bases de datos relacionales y no relacionales, capaces de diseñar consultas complejas y optimizar el rendimiento.
  • Familiaridad intermedia a avanzada con plataformas cloud como Google Cloud Platform y Microsoft Azure, así como con herramientas específicas como Airflow, Cloud Run, Cloud Composer, BigQuery y Azure Functions.
  • Experiencia avanzada con herramientas ETL/ELT, destacándose el uso de Azure Data Factory, siendo este un requisito excluyente.
  • DESEABLE: Certificaciones relevantes en Data Engineering valoradas positivamente, incluyendo Microsoft Azure DP-700, AZ-203, DP-600, Google Cloud Digital Leader y Google Cloud Associate Cloud Engineer.
  • DESEABLE: Conocimientos deseables en Microsoft Power BI y Microsoft Fabric para complementar la visualización y análisis de datos.

Además, buscamos profesionales con capacidad analítica, buenas habilidades comunicativas, actitud proactiva y capacidad para trabajar en equipo, orientados a la mejora continua y la entrega eficiente y efectiva de soluciones.

Conocimientos y Certificaciones Deseables

Valoraremos positivamente candidatos que posean certificaciones oficiales en ingeniería de datos como Azure DP-700, AZ-203, DP-600, Google Cloud Digital Leader, o Google Cloud Associate Cloud Engineer que demuestren compromiso con la actualización continua. También será un plus contar con conocimientos en Microsoft Power BI y Microsoft Fabric, herramientas que aportan valor agregado para el manejo y visualización avanzada de datos, y que complementan el enfoque técnico del puesto.

Beneficios y Ambiente Laboral

Ofrecemos la oportunidad de integrarte a proyectos tecnológicos desafiantes y de largo plazo, trabajando dentro de un equipo técnico altamente colaborativo que promueve un ambiente profesional y amigable. Nuestro entorno está pensado para facilitar la comunicación constante y el compromiso del equipo, con un estilo de trabajo 100% remoto que favorece la conciliación entre la vida personal y profesional.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Computer provided Lisit provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer GCP
  • Factor IT
Python Data Analysis SQL NoSQL

En FactorIT, somos líderes en el sector de tecnología y ofrecemos soluciones innovadoras en Data y Analytics, Transformación Digital e Inteligencia Artificial. Con presencia en 8 países de Latinoamérica, nos apasiona abordar los desafíos tecnológicos de grandes empresas. Únete a nuestro equipo de ingenieros de datos que están a la vanguardia de la transformación tecnológica. Trabajamos en proyectos de gran impacto, creando soluciones personalizadas que integran tecnologías emergentes y analítica avanzada.

Exclusive offer from getonbrd.com.

Responsabilidades del Ingeniero de Datos

Como Data Engineer en FactorIT, tu objetivo será diseñar, construir y mantener infraestructuras y sistemas de datos que permitan a nuestros clientes tomar decisiones informadas. Tus responsabilidades incluirán:

  • Desarrollar y mantener pipelines de datos eficientes y escalables.
  • Colaborar con equipos multidisciplinarios para analizar necesidades de datos y proporcionar soluciones efectivas.
  • Implementar y optimizar herramientas de integración de datos.
  • Monitorear la calidad y eficiencia de los sistemas de procesamiento de datos.
  • Participar en la gestión y almacenamiento de datos, asegurando la integridad y confidencialidad.

Tu papel será fundamental para impulsar la transformación digital y potenciar la analítica en nuestras soluciones.

Requisitos del Puesto

Buscamos un Data Engineer con pasión por la tecnología y habilidades tanto técnicas como interpersonales. Las características que valoramos son:

  • Título en Ingeniería Informática, Ciencias de la Computación o campos relacionados.
  • Conocimientos en lenguajes de programación como Python o SQL.
  • Experiencia con herramientas de ETL y plataformas de análisis de datos.
  • Aptitudes analíticas y capacidad para resolver problemas.
  • Habilidades de comunicación efectiva para trabajar en equipo y entender las necesidades del cliente.

Valorizamos un enfoque proactivo y la capacidad de aprender de manera continua.

Habilidades Deseables

Si bien no es obligatorio, será un plus contar con:

  • Experiencia en herramientas de Big Data como Hadoop o Spark.
  • Conocimientos en la implementación y gestión de bases de datos no relacionales (NoSQL).
  • Familiaridad con prácticas de DevOps relacionadas con el manejo de datos.
  • Certificaciones en tecnologías de datos o análisis.

Estas habilidades complementarias serán valoradas en el proceso de selección.

Beneficios de Trabajar en FactorIT

Ofrecemos un entorno de trabajo dinámico y colaborativo, donde podrás trabajar con tecnologías de punta y acceder a un plan de crecimiento profesional. Además, brindamos capacitaciones en IA y automatización. Nuestros beneficios incluyen:

  • Trabajo 100% remoto 🌍 para mantener un equilibrio entre tu vida personal y laboral.
  • Flexibilidad laboral para adaptarte a tus necesidades.
  • Un salario competitivo acorde a tu experiencia.

Únete a nosotros y sé parte de un equipo que está transformando el futuro de la tecnología en la región.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Factor IT provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Architect Semi Senior Advanced
  • Improving South America
Python SQL Azure ETL

Leniolabs_ es ahora Improving South America!

Somos una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA principalmente.

Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.

Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development y También trabajamos en desarrollo backend.

Valoramos a las personas dinámicas en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Apply directly through getonbrd.com.

Job functions

En mproving South America buscamos un Data Architect Senior para sumarse a este equipo multicultural. Diseñarás modelos y pipelines ETL/ELT en Azure, optimizarás SQL de alto rendimiento y liderarás mejores prácticas de calidad y gobierno de datos, colaborando de forma 100 % remota con equipos técnicos y de negocio. Si te apasiona transformar datos complejos en decisiones estratégicas, este desafío es para vos.

Qualifications and requirements

  • Alrededor de8 años en desarrollo/arquitectura de datos,
  • Nivel de inglés intermedio–avanzado
  • .SQL avanzado (tuning, stored procs, optimización de queries)
  • Modelado de datos & Data Warehouse (diseño lógico/físico, diagramado)
  • ETL/ELT & Orquestación: SSIS / Azure Data Factory, pipelines CI/CD (Azure DevOps, Git)
  • Python + Pandas / PySpark para profiling y data wrangling
  • Cloud Azure (Storage, Synapse, contenedores)
  • Power BI (visualización, mejores prácticas de reporting)
  • Conocimientos de data quality, data retention & compliance
  • Experiencia diseñando data flows y migraciones entre sistemas legacy/API

Conditions

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1800 - 3000 Tiempo completo
Ingeniero/a de Datos para Asistente Conversacional IA
  • Lisit
Python PostgreSQL SQL MongoDB
Lisit es una empresa dedicada a la creación, desarrollo e implementación de servicios de software que brindan herramientas de automatización y optimización para sus clientes, manteniendo un fuerte enfoque en la innovación y la pasión por resolver desafíos tecnológicos complejos. Buscamos incorporar talento para trabajar en un proyecto puntero que consiste en el desarrollo de un asistente conversacional inteligente basado en inteligencia artificial.
El proyecto se centra en la construcción de un sistema capaz de procesar lenguaje natural (NLP) utilizando datos de diversas fuentes, para lo cual se requiere una infraestructura de datos sólida, escalable y fiable que permita alimentar los modelos inteligentes de lenguaje y mejorar continuamente la interacción conversacional, aportando valor a nuestros clientes mediante soluciones eficientes y tecnológicamente avanzadas.

Find this vacancy on Get on Board.

Descripción del rol y responsabilidades

Como Ingeniero/a de Datos en este proyecto, serás responsable de diseñar, construir y mantener pipelines ETL/ELT que permitan la ingesta y procesamiento eficiente de datos diversos y no estructurados, como chats, correos electrónicos y logs, transformándolos en formatos precisos y útiles para el entrenamiento y operación de modelos de procesamiento de lenguaje natural (NLP).
Asimismo, integrarás fuentes de datos externas a través de APIs RESTful, gestionarás bases de datos relacionales como PostgreSQL y NoSQL como MongoDB, y optimizarás el almacenamiento de grandes volúmenes de datos en soluciones cloud como S3, BigQuery o Redshift. También garantizarás la calidad, trazabilidad y gobernanza de los datos para mantener la confiabilidad del sistema.
El rol incluye implementar medidas de anonimización y protección para los datos sensibles, asegurando el cumplimiento de normativas vigentes en materia de privacidad y manejo ético de la información, y colaborarás con el equipo multidisciplinario para cumplir con los objetivos tecnológicos y de negocio del proyecto.

Requisitos y habilidades esenciales

Buscamos un profesional con experiencia sólida en Python, utilizando librerías especializadas como Pandas, PySpark o Dask para el procesamiento y transformación de datos a gran escala. Es necesario tener un dominio avanzado en SQL y experiencia práctica con bases de datos relacionales y NoSQL, especialmente PostgreSQL y MongoDB.
Se requiere conocimiento comprobable en herramientas de orquestación de flujos de trabajo de datos, como Apache Airflow, y manejo de almacenamiento en la nube en plataformas como Azure, AWS S3 o Google Cloud Storage (GCS).
Es fundamental contar con experiencia en el procesamiento de datos no estructurados aplicados a modelos de NLP y manejo adecuado de APIs RESTful para la integración de diferentes fuentes y servicios.
Además de las habilidades técnicas, valoramos competencias orientadas a la gestión minuciosa de la calidad y gobernanza de datos, capacidad analítica y pensamiento crítico para mantener estándares rigurosos que garanticen la efectividad del asistente conversacional inteligente.

Conocimientos y experiencia deseables

Se valorará experiencia previa en proyectos relacionados con asistentes virtuales o tecnologías de procesamiento de lenguaje natural (NLP), así como familiaridad con prácticas DataOps para la gestión eficiente de pipelines y control de versiones de datos.
El conocimiento de normativas internacionales de privacidad y protección de datos, como GDPR e HIPAA, junto con técnicas avanzadas de anonimización, será un plus muy importante para desempeñarse con éxito en el cargo.

Beneficios y ambiente laboral

Ofrecemos la oportunidad de participar en proyectos tecnológicos desafiantes y de largo plazo dentro de un equipo técnico colaborativo, en un ambiente laboral amigable y profesional.

El trabajo es 100% remoto, lo cual fomenta la conciliación entre la vida personal y profesional sin perder la comunicación fluida y el compromiso con el equipo.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Senior Data Engineer
  • Playbypoint
Python SQL Machine Learning Kafka
🏓 Senior Data Engineer
📍 Remote | Full-time
Join us in building the future of racquet sports.

🧠 About the Team & Project
At Playbypoint, we're on a mission to transform the racquet sports industry with powerful, intuitive software. From tennis to pickleball, our platform helps clubs thrive by elevating player engagement and simplifying operations. As part of our Data & Insights team, you’ll work alongside backend engineers, product leaders, and business stakeholders to turn raw data into actionable insights that shape our product strategy and operational decisions.
Our team plays a critical role in helping the company scale. We believe that better data leads to better decisions—and we're building the infrastructure to make that possible.

Apply only from getonbrd.com.

🔧 What You’ll Do

As a Senior Data Engineer, you'll design, develop, and maintain scalable data pipelines to support our real-time and batch analytics needs. You’ll take ownership of how data flows through our system, ensuring it’s clean, accessible, and reliable for use across engineering, product, and business teams.
You’ll:
  • Build and optimize data pipelines using Kafka, Airflow, and cloud-native tools.
  • Manage data lakes and warehouses using Apache Iceberg, Amazon S3, and ClickHouse or Snowflake.
  • Ensure data integrity and quality across all stages of our pipeline.
  • Collaborate closely with analysts and engineers to support key business metrics and machine learning workflows.
  • Contribute to internal tooling that improves data observability and developer experience.
Your success will be measured by the reliability, scalability, and performance of the data infrastructure you build—as well as your ability to empower others with trusted data.

✅ What We’re Looking For

We’re looking for someone who thrives in a fast-paced startup environment and is passionate about building systems that scale.
Required:
  • 5+ years of experience in Data Engineering
  • Strong experience with streaming technologies like Kafka
  • Proficiency in Python and SQL
  • Solid experience with workflow orchestration tools (e.g., Airflow)
  • Familiarity with OLAP databases such as Snowflake, Clickhouse, or Redshift
  • Experience managing data workflows in a cloud environment (preferably AWS)

Desirable skills

Nice to Have:
  • Experience with ClickHouse
  • Certifications in AWS, Snowflake, or similar platforms
  • Hands-on knowledge of DataOps or ML Ops at scale
  • Experience with LLMs &/or Agents building
  • Familiarity with data versioning and formats like Parquet, Iceberg, or Delta Lake

🌍 Why Playbypoint?

We're not just building tools—we're building a movement to connect people through the joy of sports. You’ll join a collaborative, ambitious team where your work directly impacts thousands of players and clubs across the world. Plus, we’re remote-first and flexible, so you can work from wherever you do your best thinking.
🎯 Ready to serve up your next challenge?
Apply now and help shape the future of racquet sports.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Company retreats Team-building activities outside the premises.
Computer provided Playbypoint provides a computer for your work.
Conference stipend Playbypoint covers tickets and/or some expenses for conferences related to the position.
POSTULAR VÍA WEB Ver trabajo