We didn't find any results.

Try with another group of words.

If you think this is a problem, please contact us.

Gross salary $2500 - 3000 Full time
Data Engineer – Process Analysis (Mid Level)
  • Niuro
Python Excel Data Science Data Visualization
Niuro is a company dedicated to connecting projects with elite technological teams, collaborating with leading companies based in the United States. Our mission is to simplify the global acquisition of technology talent through innovative solutions that optimize efficiency and quality. We provide autonomous, high-performance technical teams that specialize in partnering with top-tier U.S. companies. Our focus is on enabling continuous professional growth by offering training in both technical and soft skills, as well as leadership development opportunities. We manage all administrative operations, including hiring, payroll, and training, so our teams can focus exclusively on delivering exceptional technical results. Through a collaborative environment and an emphasis on talent development, we strive to help our professionals realize their full potential.

Job opportunity published on getonbrd.com.

Key Responsibilities

As a Data Engineer specializing in process analysis, your role will focus on supporting and improving operational processes within industrial environments, with a particular emphasis on the hydrometallurgical sector. Your core responsibilities will include the collection and documentation of critical process parameters, continuous monitoring and control of variability in those process metrics, and the execution of detailed statistical and trend analyses. You will also be responsible for process balancing and inventory management, including maintaining inventories of strategic inputs and spare parts essential to operations. Additionally, you will generate comprehensive operational reports that drive informed decision-making and propose initiatives aimed at continuous process improvement. Your role involves collaboration on software development efforts that facilitate data analysis and process efficiency. Importantly, you will provide innovative suggestions based on data insights to enhance operational performance and drive forward-looking improvements across the industrial processes.

Requirements

Education: Candidates must hold a degree as a civil or applied engineer specializing in chemical, metallurgical, or mining engineering, or alternatively, a bachelor's degree in mathematics or physics.
Experience: Applicants should have at least one year of hands-on experience applying data science principles to hydrometallurgical or industrial process environments, demonstrating a solid understanding of industrial operations and data-driven analysis.
Technical Skills: Advanced programming abilities in Python and Visual Basic are essential for this role, accompanied by strong proficiency in Microsoft Office, especially Excel. Experience working with the PI System, including Asset Framework (AF) and Data Archive components, at a user level is crucial. Candidates must have a robust knowledge of data science methods and mathematical modeling techniques applicable to process improvement and analysis.
Other Requirements: Due to the nature of the role and collaboration needs, residence in Chile is mandatory.

Desirable Skills and Experience

While not explicitly stated, candidates with additional experience in advanced statistical software, data visualization tools, or knowledge of other process automation technologies would find their skills highly complementary to this role. Familiarity with other industrial data management systems or frameworks, along with a background in continuous improvement methodologies such as Six Sigma or Lean Manufacturing, would also be beneficial. Strong analytical problem-solving skills, adaptability in dynamic environments, and excellent communication abilities to translate technical data for operational teams would enhance effectiveness.

What We Offer

We provide involvement in impactful, technically rigorous industrial data projects that foster both professional growth and sectoral innovation. Our work environment is highly process-focused and technically solid, encouraging collaboration and continuous innovation. Niuro offers the flexibility of 100% remote work within Chile, allowing team members to work from the location that suits them best.
We are committed to supporting career development through ongoing training and leadership opportunities. After successfully completing a trial period, candidates receive stable full-time employment, reinforcing our long-term investment in talent. Joining Niuro also means becoming part of a global community dedicated to excellence in technology, all supported by robust administrative infrastructure to enable focus on impactful work.

Partially remote You can work from your home some days a week.
APPLY VIA WEB View Job
$$$ Full time
Junior Data Analyst & Automation
  • Banco Santander Chile
  • Santiago (Hybrid)
Python Data Analysis SQL Power BI

Banco Santander Chile es una organización internacional líder en el sector financiero con presencia en más de 20 países, reconocida por su compromiso con el desarrollo profesional, el aprendizaje continuo y la movilidad interna. La Vicepresidencia de Tecnología y Operaciones del banco es un área estratégica que impulsa la innovación tecnológica, la optimización y mejora de procesos con el objetivo de contribuir al progreso de las personas y empresas. Este departamento está enfocado en liderar iniciativas tecnológicas de vanguardia que fortalecen la posición de Santander como líder en el sector financiero chileno y a nivel internacional, promoviendo un ambiente de trabajo colaborativo, desafío constante y crecimiento profesional.

Apply to this posting directly on Get on Board.

Misión del cargo

Buscamos jóvenes profesionales comprometidos y flexibles para integrarse al equipo de Tecnología y Operaciones, donde contribuirán a la optimización y mejora continua de procesos mediante el uso de tecnologías punteras.

El rol implica colaborar en proyectos estratégicos que impulsen la innovación tecnológica dentro del banco, trabajando estrechamente con diferentes áreas para apoyar la transformación digital y la eficiencia operativa.

Además, se espera que el candidato participe activamente en el aprendizaje permanente y el desarrollo de competencias técnicas y colaborativas, favoreciendo un ambiente dinámico y orientado al trabajo en equipo.

Qué te ayudará a tener éxito en el proceso

  • Para tener éxito en esta posición, buscamos egresados de carreras como Ingeniería Civil Industrial, Ingeniería Civil en Informática o afines, con no más de un año de experiencia profesional, ya que aspiramos a formar jóvenes talentos que aporten con nuevas ideas y ganas de aprender.
  • Debe contar con formación o experiencia en automatización de procesos, analítica avanzada y manejo de datos, con conocimientos intermedios en SQL, Power BI y/o Tableau. Se valoran conocimientos deseables en Python, Spark y Appian, orientados a potenciar habilidades técnicas y tecnológicas en análisis de datos.
  • El candidato debe tener un nivel intermedio de inglés (B1), mostrando capacidad para manejar información en este idioma y comunicarse de forma básica en el contexto laboral.
  • Buscamos personas con interés genuino en las herramientas tecnológicas de análisis de datos, motivadas a contribuir en un entorno desafiante y colaborativo, con habilidades blandas como adaptabilidad, actitud proactiva y capacidad de trabajo en equipo.
  • Se requiere disponibilidad para incorporarse en junio de 2025.

Conocimientos y habilidades deseables

  • Nos interesa especialmente candidatos que hayan desarrollado conocimientos en programación avanzada, analítica de datos con Python y Spark, así como familiaridad con plataformas de automatización como Appian.
  • Valoramos la capacidad para desenvolverse en entornos multidisciplinarios, con habilidades comunicativas y de gestión del tiempo, que contribuyan a un equipo colaborativo y efectivo.
  • Además, la experiencia en proyectos relacionados con la transformación digital y optimización de procesos se considera un plus importante, aunque no es requisito excluyente.

¿Qué te ofrecemos?

  • Formar parte de la principal empresa financiera de Chile y uno de los mejores lugares para trabajar en el país.
  • Aprendizaje mediante la experiencia práctica, con múltiples oportunidades de desarrollo, formación continua y movilidad interna para participar en proyectos estratégicos.
  • Acompañamiento formativo durante el proceso de adaptación y desarrollo del rol, asegurando una integración exitosa y crecimiento profesional.
  • Redes internas de colaboración que potencian el aprendizaje, la creación de vínculos profesionales y la expansión de la mirada laboral.
  • Beneficios orientados a mejorar la calidad de vida y el desarrollo profesional del colaborador.
  • Contrato indefinido que aporta estabilidad laboral y seguridad.

APPLY VIA WEB View Job
Gross salary $3000 - 4000 Full time
Senior Data Engineer (Rag)
  • Niuro
Python MySQL PostgreSQL SQL
Niuro is a company dedicated to connecting projects with elite technology teams specializing in partnerships with leading U.S. companies. Our mission focuses on simplifying global talent acquisition through innovative and efficient solutions that emphasize maximizing quality and performance. We empower autonomous, high-performance tech teams by offering a collaborative environment enriched with continuous professional growth, training in both technical and soft skills, and leadership development. Through managing all administrative tasks, including hiring, payments, and training, Niuro allows teams to concentrate fully on delivering excellent and innovative outcomes aligned with cutting-edge technology and client needs.

Find this vacancy on Get on Board.

Responsibilities

  • Design, implement, and maintain scalable, reliable, and efficient data pipelines tailored to Retrieval-Augmented Generation (RAG) based applications, ensuring seamless automation of intelligent query processes.
  • Configure, manage, and optimize vector databases and advanced search engines to support high-performance embedding and retrieval functionalities.
  • Collaborate closely with Data Scientists and AI Engineers to deploy embedding models and generative AI solutions, fostering integration across teams.
  • Develop and fine-tune ETL/ELT processes to guarantee outstanding data quality, pipeline performance, and resilience within production environments.
  • Ensure system scalability, stability, and operational efficiency to support high-demand data workloads and AI-powered services.

Requirements & Professional Profile

We require candidates with a minimum of 4 to 5 years of experience as a Data Engineer, demonstrating a proven track record managing data-intensive projects and environments. Expertise in Retrieval-Augmented Generation (RAG) methodologies is essential as you will lead innovative data pipeline development.
Technical proficiency must include deep experience with at least one tool or technology from each of the following categories:
  • Vector Databases: Experience with Pinecone, Milvus, Qdrant, Weaviate, or equivalent solutions to manage embedding data effectively.
  • Databases: Proficiency in SQL databases such as PostgreSQL and MySQL, plus NoSQL databases including MongoDB and Cassandra.
  • Data Warehousing: Knowledge of warehouse platforms such as Redshift, BigQuery, or Snowflake to support analytical processing.
  • ETL/ELT Tools: Skilled in dbt, Apache NiFi, Talend, or Informatica for robust data transformation workflows.
  • Big Data Frameworks: Experience with Apache Spark and Kafka for handling large-scale data streams.
  • Search Engines: Familiarity with Elasticsearch, Solr, or OpenSearch to implement advanced search capabilities.
  • Cloud Platforms: Working knowledge of AWS, Google Cloud Platform, or Azure for scalable cloud infrastructure.
  • Containers: Proficient with Docker to containerize and deploy applications reliably.
  • Programming: Advanced skills in Python for scripting, automation, and integration.
Strong analytical aptitude and problem-solving capabilities are vital to address complex data challenges. We seek candidates who thrive in agile, cross-functional teams and possess excellent communication and collaboration skills to work effectively across different roles and disciplines.

Nice-to-have Skills

  • Experience with machine learning frameworks including TensorFlow, PyTorch, and Scikit-learn to support advanced model deployment.
  • Familiarity with natural language processing tools such as spaCy, NLTK, and Hugging Face Transformers to enhance text and language-related functionalities.
  • Knowledge of generative AI models like OpenAI, Azure GPT, and Amazon Bedrock is beneficial for working on cutting-edge AI augmentation projects.
  • Competence in container orchestration using Kubernetes to manage containerized applications at scale.

What We Offer

  • 🌍 100% Remote – Embrace full flexibility by working from anywhere around the world, enabling an optimal work-life balance.
  • 📈 Career Growth – Become part of a tech-forward, innovative, and collaborative team committed to your ongoing professional development and success.
  • 📝 Full-time employment contract with an initial 3-month trial period followed by an indefinite contract, ensuring job stability and continuous collaboration.

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
APPLY VIA WEB View Job
$$$ Full time
Data Scientist & GCP Specialist
  • Forma - Moovmedia Group
Python SQL BigQuery Machine Learning

¡Hola! Somos Moov Media Group, una familia de empresas integrada por Moov, Metrix y Forma. Nuestro modelo es colaborativo, ¿qué significa esto? Que trabajamos de manera específica o integral según las necesidades de cada cliente.

Navegamos en el mundo digital usando la tecnología, la data analytics, los medios y la publicidad para encontrar soluciones de marketing multicanal que nos conviertan en los más secos de Latinoamérica.

Hoy queremos seguir creciendo y para eso buscamos un Data Scientist & GCP Specialist que nos acompañe a recorrer el mundo digital en una empresa con cultura flexible, ágil e innovadora. ¿Te interesa? Entonces déjanos contarte un poco más.

El proceso de selección consta de:

  • Llamado telefónico
  • Entrevista con Selección
  • Entrevista con jefatura directa.

¿Te interesa? ¡Dale! Escríbenos y conversemos.

Official job site: Get on Board.

Funciones del cargo

Diseñar, entrenar y desplegar modelos de Machine Learning avanzados usando Vertex AI.
Gestionar y optimizar infraestructura cloud en GCP (BigQuery, Cloud Storage, Dataflow, Compute Engine).
Automatizar pipelines avanzados de datos con Cloud Composer (Airflow), Cloud Functions y APIs externas.
Desarrollar dashboards interactivos avanzados principalmente con Looker Studio.
Implementar y gestionar prácticas de ML Ops avanzadas (monitoreo, versionado, CI/CD) en Vertex AI.
Colaborar y asesorar técnicamente a equipos de ingeniería, media y producto.

Requerimientos del cargo

Requisitos técnicos:

  • Lenguajes obligatorios: Python (Pandas, TensorFlow/Keras, Scikit-learn, Numpy), SQL.
  • Cloud: Google Cloud Platform (Vertex AI, BigQuery, Dataflow, Cloud Storage, Compute Engine).
  • Automatización: Cloud Composer (Airflow), Cloud Functions, Dataflow.
  • Visualización: Looker Studio (excluyente), Power BI o Tableau (deseable).
  • Modelos ML: Clasificación, regresión, clustering, detección de anomalías, series temporales.
  • Ingeniero en Estadística, Computación, Ciencia de Datos o carrera afín.
  • 3+ años de experiencia especializada en proyectos utilizando Google Cloud Platform y Vertex AI.

Opcionales

Deseable: experiencia previa en ecommerce, retail o marketing digital.

Conditions

Fully remote You can work from anywhere in the world.
APPLY VIA WEB View Job
$$$ Full time
Data Engineer
  • 2BRAINS
Python Git REST API Data Analysis

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

Opportunity published on Get on Board.

El/la Data Engineer de 2Brains

Se encarga de participar en el diseño y desarrollo de los nuevos modelos de información de gestión y las mantenciones evolutivas de los existentes. Participar en las iniciativas de Analítica avanzada del área, apoyando las exploración de modelos de información internos y externos (Data Discovery). Obtener datos históricos desde múltiples fuentes de información interna para apoyar las iniciativas de analítica avanzada del equipo.

El/la Data Engineer de 2Brains debe

  • Construir y optimizar pipelines de datos para la ingesta, transformación y carga eficiente de información.
  • Manejar infraestructuras en la nube (AWS, GCP, Azure), asegurando escalabilidad y eficiencia en costos.
  • Automatizar y monitorear procesos mediante herramientas de DevOps como Airflow, Terraform o Kubernetes.
  • Implementar controles de calidad y gobernanza para garantizar la integridad y disponibilidad de los datos.
  • Colaborar con equipos de Data Science, Producto y Desarrollo para diseñar soluciones alineadas con las necesidades del negocio.

Qué conocimientos buscamos en/la Data Engineer

  • Excluyente Experiencia trabajando con tecnologías de BI
  • Experiencia en la construcción/operación de sistemas distribuidos de extracción, ingestión y procesamiento de grandes conjuntos de datos de gran disponibilidad.
  • Capacidad demostrable en modelado de datos, desarrollo de ETL y almacenamiento de datos.
  • Experiencia en el uso de herramientas de informes de inteligencia empresarial (Power BI)
  • Excluyente conocimiento en consumo de microservicios de APIs Rest
  • Excluyente conocimiento en Git , Bitbucket, Docker,Jenkins,Webhooks
  • Programación con Python y bases sólidas de ingeniería de software.
  • Automatización y scripting.
  • Uso de librerías de Python para manipulación y análisis de datos y Apache Spark.
  • Conocimientos en bases de datos SQL y NoSQL.
  • Conocimiento en CI/CD, Dataflow
  • Conocimiento en S3, Redshift y Glue AWS

Que competencias buscamos en/la Data Engineer

  • Empatía
  • Buena capacidad de comunicación.
  • Colaboración y trabajo en equipo.
  • Proactividad.
  • Autonomía.
  • Foco en los objetivos de proyectos.

Condiciones

Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos

Acceso a grandes clientes y proyectos desafiantes

Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales

Un entorno de trabajo flexible y dinámico

Beneficios especiales: día libre para tu cumpleaños, días de descanso a convenir.

Informal dress code No dress code is enforced.
Vacation over legal 2BRAINS gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB View Job
$$$ Full time
Data Engineer
  • Niuro
Python MySQL Git Docker
At Niuro, we connect elite tech teams with top-tier U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality. We empower projects by providing autonomous, high-performance tech teams, and we offer continuous professional growth opportunities to ensure everyone involved is set for success in innovative and challenging projects.

This job is original from Get on Board.

Key Responsibilities

  • Ingest, process, and integrate data from multiple systems and platforms using Big Data tools.
  • Design and implement data pipelines to transfer data from source to destination systems, ensuring alignment with integration standards and existing frameworks.
  • Guarantee high data quality, availability, and compliance across applications and digital products.
  • Collaborate with product teams to identify required datasets and evaluate existing sources (e.g., update frequency, data reliability, known issues).
  • Contribute to the delivery of scalable, strategic data engineering solutions aligned with our data roadmap.

Requirements

🔹 Experience: 3+ years in data engineering or a similar role.
🔹 Tech Stack:
  • Cloud & Big Data: Proficient with AWS services including Lambda, S3, Glue.
  • Data Orchestration: Experience designing and managing workflows using Airflow.
  • Data Modeling & Transformation: Hands-on experience with dbt.
  • Data Warehousing: Solid knowledge of Snowflake.
  • Databases: Experience with MySQL or SQL Server.
  • Programming: Strong Python skills, including scripting, automation, and unit testing.
🔹 Other Skills:
  • Good understanding of data quality and governance practices.
  • Familiarity with various data sources and types in data mining and analytics.
  • Intermediate to advanced English for international team collaboration.

Nice to Have

🔸 Experience deploying dbt in production environments.
🔸 Knowledge of Data Lake and Lakehouse architectures.
🔸 Familiarity with CI/CD tools and Git-based version control (GitHub, GitLab, or Azure DevOps).
🔸 Experience with Docker for containerized data workflows.

What We Offer

  • 🌍 100% Remote – Work from anywhere in the world.
  • 🚀 Growth Opportunities – Be part of shaping a robust and modern data ecosystem.

Informal dress code No dress code is enforced.
APPLY VIA WEB View Job
Gross salary $2400 - 2600 Full time
Data Engineer AWS
  • BC Tecnología
  • Santiago (Hybrid)
Python Data Analysis SQL Web server
En BC Tecnología, nos especializamos en la consultoría de TI, ofreciendo un amplio rango de servicios para adaptarnos a las necesidades específicas de nuestros clientes, principalmente en finanzas, seguros, retail y gobierno. Nuestro equipo trabaja mediante metodologías ágiles, lo que nos permite diseñar e implementar soluciones tecnológicas efectivas y dirigidas al cliente. Actualmente, estamos buscando un Data Engineer con experiencia en AWS para sumarse a nuestro equipo y contribuir a proyectos innovadores en la gestión y explotación de datos.

Find this vacancy on Get on Board.

Responsabilidades del Cargo

  • Desarrollar y gestionar procesos de ETL, asegurando la calidad y fiabilidad de los datos.
  • Optimizar la explotación de datos a través de técnicas de Tuning.
  • Implementar soluciones utilizando herramientas de AWS, incluyendo Glue, Lambda, S3, Redshift y DynamoDB.
  • Colaborar con los equipos de desarrollo de software para asegurar la integración de datos eficiente.
  • Realizar análisis y visualización de datos para apoyar en la toma de decisiones.
  • Mantener un enfoque en la innovación y la mejora continua de los procesos y herramientas utilizadas.

Descripción del Cargo

Buscamos un Data Engineer AWS con un mínimo de 3 años de experiencia en el manejo de datos. El candidato ideal tendrá conocimientos sólidos en:
  • Explotación de datos y Tuning.
  • Diseño e implementación de procesos ETL.
  • Desarrollo de consultas efectivas en SQL.
  • Programación en Python.
  • Uso de herramientas de orquestación como Apache Airflow (deseable).
Valoramos habilidades como el trabajo en equipo, la proactividad y la capacidad para adaptarse a nuevas tecnologías. La combinación de habilidades técnicas y soft skills es esencial para unirse a nuestro equipo dinámico.

Habilidades Deseables

Además de los requisitos mencionados, sería beneficioso contar con experiencia en:
  • Integraciones y gestión de datos en múltiples fuentes.
  • Implementación de soluciones en la nube de AWS.
  • Conocimientos en herramientas de visualización de datos.
Estas habilidades ayudarán al candidato a integrarse de manera efectiva en nuestros equipos de trabajo y contribuir a proyectos futuros.

Beneficios de Trabajar con Nosotros

En BC Tecnología, valoramos a nuestro equipo y ofrecemos un entorno flexible y beneficios atractivos:
  • Contrato indefinido.
  • Modalidad híbrida, combinando trabajo remoto y en oficina.
  • Paquete de beneficios corporativos que incluye salud prepaga de primer nivel para el empleado y su familia.
  • Un día de home office a la semana, junto con desayunos y un comedor en la planta.
  • Acceso a un Sport Club y asistencia de un nutricionista.
¡Únete a nosotros y marca una diferencia en el mundo de la tecnología! 🎉

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB View Job
Gross salary $2200 - 2600 Full time
Data Analytics Residente Uruguay
  • BC Tecnología
Python Analytics Data Analysis SQL
En BC Tecnología, somos una consultora de TI especializada en diversas áreas tecnológicas, con más de seis años de experiencia diseñando soluciones adecuadas a las necesidades de nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestro enfoque incluye consultoría y diseño de soluciones, formación de equipos, desarrollo de proyectos y servicios de soporte y administración IT.

Apply to this job through Get on Board.

Responsabilidades principales:

  • Extraer y procesar datos desde diversas fuentes mediante SQL y Python (PySpark).
  • Diseñar y optimizar modelos de datos en Power BI para reportes avanzados.
  • Implementar y mejorar flujos ETL para la integración de datos.
  • Colaborar con áreas de negocio para entender necesidades analíticas y generar soluciones BI.
  • Asegurar la calidad y disponibilidad de los datos en los reportes.

Requisitos:

  • SQL Avanzado: Creación, optimización y modelado de datos.
  • Python (PySpark): Procesamiento y transformación de datos en entornos Big Data.
  • Power BI: Nivel medio-alto en creación de reportes y dashboards interactivos.
  • Databricks: Deseable, con experiencia en plataformas de datos en la nube.
  • Experiencia mínima de 3 años en roles de BI, Data Analytics o similares.
  • Habilidades de comunicación y trabajo en equipo para traducir necesidades de negocio en soluciones BI.

Deseable:

  • Experiencia con Databricks sería un plus, mostrando la capacidad de trabajar con plataformas de datos en la nube.

Condiciones

  • Trabajo 100% remoto.
  • El cargo puede ser desempeñado desde cualquier lugar del mundo.
En BC Tecnología, fomentamos un entorno laboral flexible que impulsa el crecimiento profesional. Si te consideras una mente analítica que quiere marcar la diferencia, ¡te invitamos a ser parte de nuestro equipo y a impulsar la transformación organizacional! 🚀✨

APPLY VIA WEB View Job
$$$ Full time
Data Booster
  • 2BRAINS
Python Data Analysis SQL Web server

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

Apply directly at getonbrd.com.

El/la Data Booster de 2Brains

Se encarga de participar en el diseño y desarrollo de los nuevos modelos de información de gestión y las mantenciones evolutivas de los existentes. Participar en las iniciativas de Analítica avanzada del área, apoyando las exploración de modelos de información internos y externos (Data Discovery). Obtener datos históricos desde múltiples fuentes de información interna para apoyar las iniciativas de analítica avanzada del equipo.

Qué harás como Data Booster de 2Brains

  • Identificar oportunidades y definir hipótesis basadas en datos para mejorar procesos y generar impacto en el negocio.
  • Diseñar y ejecutar experimentos que permitan validar soluciones con métricas claras y medibles.
  • Construir modelos analíticos y aplicar IA para transformar datos en insights accionables.
  • Facilitar la co-creación de productos de datos, asegurando que sean escalables y sostenibles.
  • Optimizar el desarrollo y adopción de soluciones según la madurez del squad y las necesidades del negocio.
  • Colaborar con equipos de tecnología, negocio y data science para alinear soluciones con los objetivos estratégicos.
  • Garantizar la calidad y gobernanza de los datos, promoviendo mejores prácticas en el manejo y uso de información.

Qué conocimientos buscamos en/la Data Booster

  • Métodos de análisis estadístico (regresión, pruebas de hipótesis, análisis multivariante).
  • Técnicas de modelado predictivo y prescriptivo.
  • Análisis de series temporales.
  • Algoritmos de machine learning supervisados y no supervisados.
  • Modelos de clasificación, regresión, clustering, y reducción de dimensionalidad.
  • Técnicas de deep learning y redes neuronales.
  • Limpieza, transformación y preprocesamiento de datos (ETL).
  • Manejo de grandes volúmenes de datos y optimización del procesamiento (Big Data).
  • Uso de herramientas de análisis de datos como Pandas, NumPy, Spark.
  • Diseño de experimentos (A/B testing, pruebas de causalidad).
  • Métodos de validación de modelos (cross-validation, métricas de evaluación).
  • Técnicas de evaluación de impacto y pruebas de hipótesis.
  • Creación de dashboards y reportes con herramientas como Tableau, Power BI, Looker.
  • Visualización avanzada con bibliotecas de Python como Matplotlib, Seaborn, Plotly.
  • Python/R para análisis de datos y desarrollo de modelos.
  • SQL para consultas y manipulación de bases de datos.
  • Experiencia con plataformas de nube como AWS, GCP, Azure para almacenamiento y procesamiento de datos.
  • Uso de servicios de data engineering en la nube (como Google BigQuery, Amazon Redshift, Azure Synapse).
  • Prácticas de DevOps aplicadas a proyectos de datos (automatización, integración continua).
  • MLOps para la automatización de la implementación y monitoreo de modelos.
  • Estándares y buenas prácticas en el manejo de datos (calidad, privacidad, seguridad).
  • Herramientas para la gobernanza de datos como Apache Atlas, Collibra.

Que competencias buscamos en/la Data Booster

  • Empatía
  • Buena capacidad de comunicación.
  • Colaboración y trabajo en equipo.
  • Proactividad.
  • Autonomía.
  • Foco en los objetivos de proyectos.

Te ofrecemos

  • Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos
  • Acceso a grandes clientes y proyectos desafiantes
  • Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales
  • Un entorno de trabajo flexible y dinámico
  • Beneficios especiales: día libre para tu cumpleaños, 4 semanas de vacaciones

Wellness program 2BRAINS offers or subsidies mental and/or physical health activities.
Internal talks 2BRAINS offers space for internal talks or presentations during working hours.
Education stipend 2BRAINS covers some educational expenses related to the position.
Informal dress code No dress code is enforced.
Shopping discounts 2BRAINS provides some discounts or deals in certain stores.
Vacation over legal 2BRAINS gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB View Job
$$$ Full time
Data Scientist
  • 2BRAINS
Python SQL NoSQL Big Data

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

© Get on Board. All rights reserved.

El Data Scientist de 2Brains

Es responsable de analizar y extraer conocimiento a partir de datos mediante técnicas de Machine Learning, estadística y análisis avanzado, con el fin de optimizar la toma de decisiones y generar impacto en el negocio. Trabaja en conjunto con el equipo digital para desarrollar productos de datos, asegurando su calidad, documentación y correcta implementación. Además, mide el impacto de sus soluciones mediante estándares de experimentación, contribuyendo a la mejora continua y eficiencia operativa.

El Data Scientist de 2Brains deberá

  • Analizar grandes volúmenes de datos para identificar patrones, tendencias y oportunidades de mejora.
  • Diseñar, desarrollar e implementar modelos de Machine Learning y técnicas estadísticas para resolver problemas de negocio.
  • Desarrollar productos de datos en colaboración con el equipo digital, asegurando calidad, mantenimiento y escalabilidad.
  • Aplicar métodos de experimentación y validación (A/B testing, causal inference, etc.) para medir el impacto de las soluciones implementadas.
  • Garantizar la correcta documentación de los modelos, algoritmos y procesos desarrollados.
  • Optimizar y mejorar continuamente los modelos en producción en función de su desempeño y nuevos datos.
  • Colaborar con equipos de negocio y tecnología para alinear soluciones de datos con objetivos estratégicos.
  • Explorar nuevas herramientas y tecnologías para potenciar el uso de datos dentro de la organización.

¿Qué conocimientos buscamos en el/la Data Scientist?

  • Python/R, SQL y Spark. Para programar modelos de machine learning, realizar análisis estadístico y manipular datos, además de procesar grandes volúmenes de datos en paralelo y a gran escala.
  • Machine Learning, métricas de evaluación de modelos.
  • Pruebas A/B.
  • Deployment de modelos
  • Análisis estadístico
  • Desarrollo de productos de datos.
  • Deseables:
  • NoSQL, Bayesian Statistics, MLOps avanzado.
  • Herramientas de visualización como Streamlit.

¿Qué competencias buscamos en el/la Data Scientist?

  • Curiosidad
  • Foco en los objetivos
  • Colaboración y trabajo en equipo (ínter y multidisciplinario)
  • Proactividad
  • Autonomía

Te ofrecemos

  • Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos.
  • Un proyecto con foco en los usuarios, visión de UX e integrada al desarrollo.
  • Acceso a grandes clientes y proyectos desafiantes.
  • Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales.
  • Un entorno de trabajo flexible y dinámico.
  • Beneficios especiales: un día libre de regalo por tu cumpleaños, días de descanso (previa coordinación), convenios para cursos de especialización.

Wellness program 2BRAINS offers or subsidies mental and/or physical health activities.
Internal talks 2BRAINS offers space for internal talks or presentations during working hours.
Informal dress code No dress code is enforced.
Shopping discounts 2BRAINS provides some discounts or deals in certain stores.
Vacation over legal 2BRAINS gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB View Job
$$$ Full time
Data Engineer Azure
  • Factor IT
  • Santiago (Hybrid)
Python Agile SQL NoSQL
En FactorIT, buscamos un Ingeniero de Datos con experiencia en banca y entidades financieras para liderar y ejecutar proyectos de Data & Analytics. Te unirás a un equipo innovador en el que tu trabajo impactará directamente en la transformación digital de importantes instituciones en el sector financiero.
Este rol es clave para potenciar el uso de datos dentro de la banca, asegurando que la infraestructura y los procesos estén alineados con los objetivos estratégicos del negocio. Tendrás la oportunidad de trabajar con tecnologías de vanguardia, incluyendo Azure Databricks y otros servicios en la nube, asegurando soluciones escalables y seguras que optimicen la toma de decisiones.

This job is published by getonbrd.com.

Responsabilidades:

  • Diseñar y desarrollar soluciones de ingestión, transformación y modelado de datos en Azure Databricks y otras tecnologías relacionadas.
  • Optimizar procesos de ETL/ELT, asegurando calidad, integridad y eficiencia en el procesamiento de datos.
  • Colaborar con equipos de negocio para entender sus necesidades, identificar oportunidades y proponer soluciones basadas en datos.
  • Implementar arquitecturas de datos escalables que soporten analítica avanzada, machine learning e inteligencia de negocio.
  • Garantizar la seguridad y el cumplimiento normativo en el manejo de datos, siguiendo estándares bancarios y regulatorios.
  • Desarrollar y optimizar pipelines de datos para la explotación en entornos analíticos y de reportes.
  • Documentar procesos, arquitecturas y modelos de datos, asegurando buenas prácticas de gobernanza.
  • Trabajar en conjunto con equipos de Data Science, BI y Tecnología para garantizar la disponibilidad y calidad de los datos.

Requisitos Técnicos y Habilidades:

Buscamos un profesional con un mínimo de 3 años de experiencia en ingeniería de datos, idealmente en el sector financiero. Debe poseer un conocimiento avanzado en:
  • Azure Databricks, Spark y servicios de datos en la nube como Azure Data Factory, Azure Synapse y Data Lake.
  • Modelado de datos, optimización de consultas y bases de datos en SQL y NoSQL.
  • Programación en Python y/o Scala para el desarrollo de pipelines y procesamiento de datos.
  • Arquitecturas de datos escalables y distribuidas.
  • Principios de seguridad y cumplimiento normativo en banca (ej. GDPR, PCI-DSS, BCBS 239).
  • Herramientas de orquestación y automatización de flujos de datos.
Además, necesitaremos que cuentes con habilidades blandas como excelente comunicación, pensamiento analítico, proactividad y capacidad de trabajo en equipo en entornos ágiles y dinámicos.

Habilidades Deseables:

Sería un plus contar con experiencia previa en proyectos de transformación digital en el sector bancario, así como familiaridad con herramientas de visualización de datos y reportes. La capacidad para adaptarse rápidamente a nuevas tecnologías y seguir aprendiendo continuamente es muy valorada dentro de nuestra cultura.

Beneficios:

En FactorIT, brindamos un entorno de trabajo dinámico y colaborativo donde puedes trabajar con tecnologías de punta. Ofrecemos un plan de crecimiento profesional, capacitaciones en IA y automatización, y un salario competitivo acorde a tu experiencia.
Promovemos el equilibrio entre la vida personal y laboral mediante trabajo 100% remoto 🌍 y flexibilidad laboral. Únete a nosotros y sé parte de un equipo que está transformando el futuro de la tecnología en la región.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Computer provided Factor IT provides a computer for your work.
APPLY VIA WEB View Job
Gross salary $2000 - 2500 Full time
Analista de BI Latam
  • BC Tecnología
Python Analytics Data Analysis SQL

En BC Tecnología, somos una consultora de TI especializada en diversas áreas tecnológicas, ofreciendo un entorno de trabajo colaborativo donde se valora el compromiso y el desarrollo profesional. Trabajamos con clientes en los sectores de servicios financieros, seguros, retail y gobierno, diseñando soluciones adecuadas a sus necesidades desde hace más de seis años. Nuestro enfoque incluye consultoría y diseño de soluciones, formación de equipos, desarrollo de proyectos, y servicios de soporte y administración IT.

Find this job and more on Get on Board.

Responsabilidades principales:

  • Extraer y procesar datos desde diversas fuentes mediante SQL y Python (PySpark).
  • Diseñar y optimizar modelos de datos en Power BI para reportes avanzados.
  • Implementar y mejorar flujos ETL para la integración de datos.
  • Colaborar con áreas de negocio para entender necesidades analíticas y generar soluciones BI.
  • Asegurar la calidad y disponibilidad de los datos en los reportes.

Requisitos:

  • SQL Avanzado – Creación, optimización y modelado de datos.
  • Python (PySpark) – Procesamiento y transformación de datos en entornos Big Data.
  • Power BI (Nivel medio-alto) – Creación de reportes y dashboards interactivos.
  • Databricks (Deseable) – Experiencia en plataformas de datos en la nube.
  • Experiencia mínima de 3 años en roles de BI, Data Analytics o similares.
  • Habilidades de comunicación y trabajo en equipo para traducir necesidades de negocio en soluciones BI.

Deseable:

Experiencia con Databricks sería un plus, mostrando la capacidad de trabajar con plataformas de datos en la nube.

Conditions

Fully remote You can work from anywhere in the world.
APPLY VIA WEB View Job
$$$ Full time
Power BI Analyst Sr
  • Improving South America
Data Analysis SQL Big Data BigQuery
Leniolabs_ es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA.
Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.
Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.

Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Opportunity published on Get on Board.

Funciones del cargo

En Leniolabs estamos en la búsqueda de un SR Power BI Analyst.

El candidato ideal debe contar con un mínimo de 6 años de experiencia, el equipo está buscando recursos para ayudar a satisfacer las necesidades de sus clientes internos de EE. UU. Los miembros de nuestro equipo recibirán tickets de solución de ServiceNow y ejecutarán informes/consultas centrados en los datos de uso del cliente, la validación de datos, etc.

El objetivo es crear un equipo de mejora. Este grupo quiere familiarizarse y sentirse cómodo con la mejora.

El rol implica colaborar estrechamente con arquitectos, ingenieros y propietarios de producto para diseñar soluciones técnicas que soporten altos niveles de disponibilidad y consistencia.

Buscamos perfiles con un compromiso claro con la excelencia técnica, la innovación y un interés genuino en las últimas tecnologías, capaces de trabajar en un entorno ágil y de alto rendimiento.

Requerimientos del cargo

  • Contar con mínimo 6 años de experiencia trabajando con Power BI y SQL.
  • Manejo de Google Cloud Platform (GCP) y BigQuery.
  • Experiencia en ETL (idealmente con Talend) y capacidad para trabajar con grandes volúmenes de datos (terabytes).
  • Sólidas habilidades de redacción y comunicación, además de iniciativa.
  • Nivel de inglés intermedio-avanzado (B2/C1).

Beneficios

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Internal talks Improving South America offers space for internal talks or presentations during working hours.
Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Improving South America gives you paid vacations over the legal minimum.
APPLY VIA WEB View Job
Gross salary $2000 - 2300 Full time
Data Engineer – Proyecto de 6 Meses
  • BC Tecnología
  • Santiago (Hybrid)
Python Git SQL Scala
En BC Tecnología, somos una consultora de TI comprometida con ofrecer soluciones innovadoras y adaptadas a las necesidades de nuestros clientes. Con más de 6 años de experiencia en el sector, trabajamos con empresas en diferentes industrias, incluyendo servicios financieros, seguros, retail y gobierno. En este proyecto de Data Engineering, tendrás la oportunidad de contribuir al diseño y construcción de pipelines de datos para nuestros clientes, utilizando metodologías ágiles y colaborando con equipos altamente especializados.

This job is available on Get on Board.

Responsabilidades del Rol

  • Diseñar y construir pipelines de datos efectivos para cumplimentar las necesidades analíticas de nuestros clientes.
  • Programar usando lenguajes como Python, Scala o SQL para manipulación y transformación de datos.
  • Implementar y gestionar herramientas de orquestación de pipelines, como Airflow, Mage, NiFi o similares.
  • Colaborar en prácticas de CI/CD, incluidos conocimientos básicos en Git y versionado de código.
  • Integrar arquitecturas de datos, con un enfoque en Datalakes, Datawarehouses o Lakehouse.
  • Participar en modelado de datos utilizando técnicas dimensional, estrella y copo de nieve, si es requerido.

Requisitos y Habilidades

Buscamos candidatos que cuenten con al menos 2 años de experiencia en el área de Data Engineering. Deberán tener competencias en diseño y construcción de pipelines de datos, así como experiencia con lenguajes de programación pertinentes como Python, Scala o SQL.
Es esencial dominar herramientas de orquestación de datos, y tener un conocimiento básico sobre integraciones de CI/CD y flujos de trabajo de versionamiento de código. Adicionalmente, es deseable contar con experiencia en arquitecturas de datos y modelado, incluidos Datalakes y técnicas de modelado específicas.
La modalidad de trabajo es híbrida, lo que permitirá equilibrar la colaboración en persona con flexibilidad laboral.

Habilidades Deseables

Si bien no es un requisito, consideraremos positivamente la experiencia previa con Datalakes y Datawarehouses, así como familiaridad con técnicas de modelado como dimensional, estrella o copo de nieve. Esto contribuirá a un mejor entendimiento del contexto de las soluciones que desarrollaremos.

Beneficios y Condiciones

Ofrecemos un contrato por proyecto de 6 meses, con posibilidad de extensión. Los empleados disfrutarán de un sueldo a convenir, además de beneficios adicionales como:
  • Seguro complementario.
  • Amipass de $4,500 por día laborado.
  • Convenciones, actividades y bonos.
Estamos ubicados en Alto Las Condes, permitiendo un ambiente de trabajo funcional y moderno. ¡Nos encantaría contar contigo en nuestro equipo! 🌟

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB View Job
Gross salary $2000 - 2300 Full time
Data Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Python Git SQL Scala
En BC Tecnología, somos una consultora de TI que cuenta con un equipo experto en diversas áreas tecnológicas. Nuestra misión es brindar soluciones personalizadas que se adapten a las necesidades de nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Actualmente, buscamos incorporar un Data Engineer para diseñar, construir y mantener pipelines de datos, utilizando tecnologías modernas.
Contamos con un enfoque ágil y orientado al cliente, lo que nos permite ofrecer servicios de consultoría, desarrollo de proyectos y administración IT de alta calidad.

Opportunity published on Get on Board.

✅ Funciones

  • Diseñar y construir pipelines de datos eficientes para mover y transformar datos.
  • Garantizar que los procesos de datos sean consistentes y confiables en el tiempo.
  • Implementar flujos de trabajo de CI/CD para la integración con ambientes de desarrollo y productivos.
  • Colaborar con el equipo para mejorar la calidad y eficiencia de los procesos de datos.
  • Apoyarse en líderes técnicos para lineamientos y mejores prácticas en el desarrollo.

✅ Requerimiento:

Se requiere entre 1 a 2 años de experiencia en diseño y construcción de pipelines de datos. Consideraciones específicas incluyen:
  • Lenguajes de programación: Python, Scala o SQL.
  • Herramientas de orquestación de pipelines: Airflow, Mage, NiFi o similares.
  • CI/CD: Conocimientos básicos en Git y flujos de trabajo de versionamiento de código.

Deseables:

  • Arquitectura de datos: Familiaridad con Datalakes, Datawarehouses o Lakehouse.
  • Modelado de datos: Conocimiento en técnicas como dimensional, estrella, copo de nieve.

✅ Condiciones:

El contrato es por proyecto, estimado en 3 meses, con metodología de trabajo híbrido en Alto las Condes (2 a 3 veces por semana). Los postulantes deben tener disponibilidad de lunes a viernes. Sueldo a convenir y disfrutará de beneficios como seguro complementario, Amipass de $4,500 por día laborado, convenios, actividades y bonos. 🌟

APPLY VIA WEB View Job
Gross salary $1500 - 1700 Full time
Analista de Datos
  • BC Tecnología
  • Buenos Aires (Hybrid)
Python Data Analysis SQL Business Intelligence
En BC Tecnología, somos una consultora especializada en servicios IT, trabajando con clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestro equipo de BI & Analytics juega un papel crucial en la optimización de procesos y toma de decisiones informadas mediante la administración y análisis de datos. Buscamos un Analista de Datos que se una a nuestro equipo, aportando experiencia y conocimiento en herramientas clave.

Apply to this posting directly on Get on Board.

Responsabilidades

Como Analista de Datos, serás el representante del equipo de BI & Analytics en Argentina. Tus responsabilidades incluirán:
  • Desarrollar y optimizar consultas SQL para la extracción y transformación de datos.
  • Implementar y gestionar pipelines de datos en Databricks.
  • Aplicar Python para el procesamiento y análisis avanzado de datos.
  • Servir como enlace entre el equipo de BI & Analytics y las áreas de negocio en el país, asegurando que las iniciativas de BI estén alineadas con las necesidades estratégicas de la empresa.
  • Asegurar la calidad y disponibilidad de los datos para la toma de decisiones.
  • Colaborar con equipos multidisciplinarios para definir y mejorar modelos analíticos.

Requisitos

  • Experiencia sólida en desarrollo BI con SQL avanzado.
  • Conocimiento y experiencia en Databricks (deseable).
  • Habilidad en Python para manipulación y análisis de datos.
  • Experiencia en entornos de análisis y procesamiento de datos en la nube (Azure, AWS, GCP es un plus).

Habilidades Deseables

Buscamos a alguien que no solo cumpla con los requisitos técnicos, sino que también posea habilidades interpersonales para colaborar efectivamente con equipos diversos y facilitar la comunicación entre departamentos. La adaptabilidad y una mentalidad centrada en soluciones son altamente valoradas en nuestra cultura de trabajo.

Beneficios

En BC Tecnología, te ofrecemos un entorno laboral dinámico y colaborativo, con un modelo de trabajo híbrido que idealiza la integración entre lo presencial y lo remoto. Además, tendrás acceso a oportunidades de capacitación continua, un ambiente que fomenta la innovación y centenares de oportunidades para crecer profesionalmente al lado de expertos. Valoramos a nuestros colaboradores y buscamos su desarrollo constante.

Health coverage BC Tecnología pays or copays health insurance for employees.
APPLY VIA WEB View Job
$$$ Full time
Microsoft Power BI Developer
  • Improving South America
SQL SAP Big Data Azure

Leniolabs_ es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA.

Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.

Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.

Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Job opportunity on getonbrd.com.

Funciones del cargo

En Leniolabs estamos en la búsqueda de un SSR/SR Microsoft Power BI Developer.

El candidato ideal debe contar con un mínimo de 5 años de experiencia. Además de conocimientos y experiencia en informes analíticos, es fundamental que tenga experiencia en SQL, ya que en el proyecto deberá trabajar en reportes, realizar extracción y manejo de datos en SQL.

El rol implica colaborar estrechamente con arquitectos, ingenieros y propietarios de producto para diseñar soluciones técnicas que soporten altos niveles de disponibilidad y consistencia.

Buscamos perfiles con un compromiso claro con la excelencia técnica, la innovación y un interés genuino en las últimas tecnologías, capaces de trabajar en un entorno ágil y de alto rendimiento.

Requerimientos del cargo

  • Contar con aproximadamente 5 años de experiencia como Data Engineer.
  • Manejo de Power BI y SQL (Excluyente).
  • Experiencia con Synapse y Azure Data Factory.
  • Es deseable la experiencia con Data Lake y SAP SCM
  • Habilidad para crear documentación técnica.
  • Inglés avanzado.

Beneficios

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo,

Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Improving South America gives you paid vacations over the legal minimum.
APPLY VIA WEB View Job
Gross salary $2500 - 2800 Full time
Data Scientist
  • Niuro
Python SQL Azure Artificial Intelligence
At Niuro, we are dedicated to connecting cutting-edge projects with elite tech teams, collaborating closely with leading U.S. companies. Our mission revolves around simplifying global talent acquisition through innovative solutions that enhance efficiency and quality. As part of our team, you will engage in dynamic and challenging projects that are pivotal to our clients' success.
By providing autonomous, high-performance tech teams, we empower our professionals through continuous training in both technical and soft skills, along with leadership development. Our structure supports collaborative growth and excellence.

This company only accepts applications on Get on Board.

Responsibilities:

  • Design, develop, and evaluate machine learning and statistical models aimed at enhancing various business processes.
  • Analyze large datasets to derive insights and formulate data-driven strategies.
  • Deploy models into production utilizing tools such as TensorFlow, PyTorch, or Scikit-learn.
  • Create dashboards and reports via visualization tools like Tableau, Power BI, or Looker.
  • Collaborate with engineering teams to optimize data pipelines and model infrastructures.
  • Deliver findings and recommendations to non-technical stakeholders in a clear and concise manner.

Requirements:

  • 3-5 years of experience in data science, machine learning, and statistical analysis.
  • Proficiency in Python with solid knowledge of data science libraries including Pandas, Polars, Scikit-learn, TensorFlow, and PyTorch.
  • Experience with SQL and both relational and non-relational databases.
  • Knowledge of feature engineering, model selection, and cross-validation techniques.
  • Experience with Generative AI frameworks and libraries, such as Hugging Face Transformers and LangChain, alongside API usage and prompt engineering skills.
  • Able to visualize data with tools like Matplotlib, Seaborn, and Plotly.
  • Strong communication skills with a knack for data storytelling.
  • Intermediate to advanced English proficiency (written and spoken).

Nice-to-Haves:

  • Experience with cloud computing platforms such as AWS, GCP, or Azure.
  • Familiarity with real-time data processing using tools like Apache Kafka or Spark Streaming.
  • Working knowledge of deep learning frameworks.
  • Understanding of MLOps techniques for deploying models effectively.
  • Curiosity and enthusiasm for exploring the latest trends in Generative AI within the field of data analysis.

Salary & Benefits:

We offer a competitive salary ranging from $2,500 to $2,800 USD per month, depending on your experience. Our organization embraces a fully remote work environment, paired with flexible working hours to enhance your work-life balance.
At Niuro, you will find ample opportunities for professional development, along with access to training in advanced data analysis tools. Join us, and be part of a team that values continuous learning and growth!

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
APPLY VIA WEB View Job
Gross salary $3000 - 3900 Full time
Senior Data Engineer
  • Apply Digital Latam
Python Agile SQL Virtualization
ABOUT APPLY DIGITAL
Apply Digital is a global digital transformation partner for change agents. Leveraging expertise that spans Business Transformation Strategy, Product Design & Development, Commerce, Platform Engineering, Data Intelligence, Change Management, and beyond, we enable our clients to modernize their organizations and deliver meaningful impact to the business and to their customers. Our 650+ team members have helped transform global companies like Kraft Heinz, NFL, Moderna, Lululemon, Games Workshop, Atlassian, and The Very Group. Visit applydigital.com to learn how we can unlock your company’s potential.
If you'd like to learn more about Apply Digital's culture click HERE.
LOCATION: Apply Digital is hybrid/remote-friendly. The preferred candidate should be based in Latin America, preferably working in hours that align to ET (Eastern Timezone) or PT (Pacific Timezone).

Apply from getonbrd.com.

Responsibilities:

  • Design, build, and optimize ETL/ELT pipelines using Python and SQL
  • Develop and maintain data warehouse schemas and analytics solutions
  • Implement data models and ensure data quality, consistency, and integrity
  • Leverage cloud data platforms (e.g., AWS Athena, Databricks, Snowflake, Azure Synapse/Fabric, Google BigQuery) for storage, processing, and querying
  • Create and maintain optimal data pipeline architecture.
  • Collaborate with analysts and stakeholders to define requirements and deliver data solutions that meet business needs
  • Communicate with stakeholders to understand data requirements and develop solutions.
  • Design, develop, implement, and maintain data architectures and pipelines.
  • Optimize query performance and ensure efficient data workflowsDocument data pipelines, architectures, and processes
  • Continuously improve and refine existing data infrastructure and solution
  • Develop and implement best practices for data management, security, and privacy.

Requirements:

  • A Bachelor's degree in Computer Science, Information Systems, or a related field.
  • At least 5 years of experience in data engineering or related fields.
  • Strong expertise in SQL, ETL, and data warehousing technologies.
  • Strong working knowledge of Python and PySpark
  • Proven experience with at least one major cloud data platform (AWS Athena, Databricks, Snowflake, Azure Synapse/Fabric, or Google BigQuery)
  • Knowledge of data migration tools and techniques.
  • Good knowledge of databases.
  • Strong background in data warehouse design, ETL/ELT processes, and data modeling, ideally with modern data warehouse and DBT
  • Familiarity with cloud engineering concepts and best practices
  • Experience working with large datasets and optimizing performance
  • Excellent problem-solving skills and attention to detail
  • Outstanding communication skills in English, both written and verbal.

Nice-to-haves:

  • Knowledge of multiple cloud platforms (AWS, Azure, GCP) and their data services
  • Familiarity with data governance and compliance requirements
  • Knowledge of CI/CD practices for data engineering
  • Familiarity with Agile development methodologies
  • Experience with containerization (Docker, Kubernetes)

Conditions

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Apply Digital Latam provides a computer for your work.
Vacation over legal Apply Digital Latam gives you paid vacations over the legal minimum.
Beverages and snacks Apply Digital Latam offers beverages and snacks for free consumption.
APPLY VIA WEB View Job
$$$ Full time
Ingeniero/a de Estudios Actuariales Senior
  • BNP Paribas Cardif
  • Santiago (Hybrid)
C Python Data Analysis Excel
¿Quieres ser parte de los líderes en la revolución de los seguros?
BNP Paribas Cardif está presente en más de 30 países en América, Europa y Asia, contamos con 25 años de trayectoria en Chile y nuestra misión es hacer los seguros más accesibles, justos y valiosos.
✅ Por nuestro ambiente laboral único, somos una organización centrada en el bienestar de las personas y nuestro espíritu Cardif está presente en la oficina y fuera de ella.
✅ Porque el deporte y sus valores son parte de nuestra cultura: la colaboración, la empatía y el respeto guían nuestro trabajo.
✅ Por la cercanía con nuestros líderes, somos una organización que cree en el talento y damos las oportunidades para desarrollarte y aprender juntos.
✅ Por nuestro modelo de trabajo mixto, teletrabajando tres días a la semana.
✅ Estamos comprometidos con el medio ambiente.
✅ Estamos comprometidos con la diversidad, equidad e inclusión, siendo ésta parte de nuestra cultura y estrategia de la compañía.

Send CV through getonbrd.com.

Funciones del cargo

Hoy buscamos a un Ingeniero(a) de Estudios Actuariales que se sume al equipo de Modelos de Riesgos y Estudios, de la Gerencia Técnica - Financiera, donde tú misión será proveer a las distintas áreas de la gerencia técnica y de la compañía con parámetros técnicos, a través de estudios y herramientas, con el fin que se puedan tomar las decisiones correctas a la hora de evaluar rentabilidad de los productos.
Además de:
• Analizar grandes volúmenes de datos en SAS, Excel y Python, para estudiar el comportamiento de las coberturas de seguros a través de parámetros técnicos, con el fin de entregárselos a pricing y distintas áreas de la compañía para la toma de decisiones.
• Proveer de herramientas al área técnica de la compañía, con el fin de facilitar la toma de decisiones, a través de actualizaciones de Dashboard o creación de nuevas herramientas.
• Seguimiento, estudio y control, de los diferentes riesgos que enfrenta la compañía.
• Gestionar y analizar los datos de la compañía con el fin de abordar distintas problemáticas actuariales que permitan apoyar el proceso de transformación.
• Participar activamente en proyectos transversales tanto a la gerencia técnica como a nivel compañía, aportando desde el punto de vista técnico y financiero.
• Buscar la mejora continua de los procesos y procedimientos del área, buscando la agilidad y perfeccionamiento de las metodologías de cálculo, ya sea proponiendo nuevas herramientas o modelos o mejorando los utilizados actualmente.

Requisitos Mínimos

a. Formación

- Ingeniería Civil Industrial, Ingeniería en Estadística o afín.
b. Experiencia Requerida

- Deseable: Experiencia previa en áreas de analisis de datos, ya sea en manejo de grandes volumenes de datos, reporterías, monitoreos de KPI’s, modelación estadística o similares.
Tiempo: 0 – 2 años
c. Conocimientos y Habilidades

- Conocimiento avanzado de Excel, SAS y Python.
- Conocimiento Básico – Intermedio de Power BI.
- Nivel de inglés intermedio – avanzado.
- Conocimiento del ámbito asegurador
- Alta capacidad de síntesis y análisis
- Autonomía y autogestión
- Proactividad
- Capacidad de trabajo en equipo.
- Habilidades comunicacionales orales y escritas.
- Capacidad de generar ideas y mejoras continuas
- Orientación a resultados.
- Efectividad en presentaciones.
- Capacidad de planificación y seguimiento.

Beneficios

  • Trabajamos eficientemente: 40 horas semanales en horarios flexibles y los viernes salimos a las 14:00.
  • ¡Tenemos más vacaciones y días libres! Una semana adicional de vacaciones + 1 día libre considerando tu cumpleaños y quehaceres personales.
  • Apoyamos tu formación profesional: Acceso ilimitado a nuestra plataforma Coursera y dos días libres al año por estudios.
  • Cardif te cuida: Contarás con telemedicina gratis, seguro de vida, de salud y dental.
  • Queremos que seas tú mismo: Contamos con política de vestimenta flexible.
Y muchos otros beneficios que podrás conocer al avanzar en nuestro proceso de selección

¿Te sumas a la revolución de la industria del seguro?

Esperamos tu postulación ¡seguro y con todo!

“Todas las contrataciones están sujetas a la ley 21015. En BNP Paribas Cardif creemos en lugares de trabajos inclusivos y diversos, donde todas las personas son bienvenidas. En caso de necesitar adaptaciones para ser parte de nuestro proceso de selección, favor comunicarlo en la sección de preguntas.”

APPLY VIA WEB View Job
Gross salary $3100 - 4500 Full time
Data Engineer
  • Haystack News
  • Lima (Hybrid)
Python Analytics Data Analysis SQL

Haystack News is the leading local & world news service on Connected TVs reaching millions of users! This is a unique opportunity to work at Haystack News, one of the fastest-growing TV startups in the world. We are already preloaded on 37% of all TVs shipped in the US!

Be part of a Silicon Valley startup and work directly with the founding team. Jumpstart your career by working with Stanford & Carnegie Mellon alumni and faculty who have already been part of other successful startups in Silicon Valley.

You should join us if you're hungry to learn how Silicon Valley startups thrive, you like to ship quickly and often, love to solve challenging problems, and like working in small teams.

See Haystack's feature at this year's Google IO:

This job is original from Get on Board.

Job functions

  • Analyze large data sets to get insights using statistical analysis tools and techniques
  • Collaborate with the Marketing, Editorial and Engineering teams on dataset building, querying and dashboard implementations
  • Support the data tooling improvement efforts and help increase the company data literacy
  • Work with the ML team on feature engineering and A/B testing for model building and improvement
  • Design, test and build highly scalable data management and monitoring systems
  • Build high-performance algorithms, prototypes and predictive models

Qualifications and requirements

  • Strong written and spoken English is a must!
  • Bachelor's degree in Computer Science, Statistics, Math, Economics or related field
  • 2+ years experience doing analytics in a professional setting
  • Advanced SQL skills, including performance troubleshooting
  • Experience with data warehouses (e.g. Snowflake, BigQuery, Redshift)
  • Proficient in Python including familiarity with Jupyter notebooks
  • Strong Math/Stats background with statistical analysis experience on big data sets
  • Strong communication skills, be able to communicate complex concepts effectively.

Conditions

  • Unlimited vacations :)
  • Travel to team's offsite events
  • 100% paid Uber rides to go to the office
  • Learn about multiple technologies

Accessible An infrastructure adequate for people with special mobility needs.
Relocation offered If you are moving in from another country, Haystack News helps you with your relocation.
Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Meals provided Haystack News provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Company retreats Team-building activities outside the premises.
Computer repairs Haystack News covers some computer repair expenses.
Commuting stipend Haystack News offers a stipend to cover some commuting costs.
Computer provided Haystack News provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
APPLY VIA WEB View Job
Gross salary $2000 - 2500 Full time
UI Engineer
  • coderslab.io
JavaScript Ruby HTML5 CSS

At CodersLab, we are currently focused on expanding our teams globally with the goal of positioning our products in more countries across Latin America. That’s why we are looking for a UI Engineer—a motivated individual who is goal-oriented and driven to achieve results.

You will join a dynamic and ambitious team eager to transform the market, where your ideas and proposals will be highly valuable to the business.

Apply now and take on this amazing challenge!

Send CV through getonbrd.com.

Job functions

POSITION OVERVIEW
This role is remote. Chairish Inc. is looking for a UI engineer to work on the team developing
our core commerce platform.
As a member of the core platform engineering team you will participate in all stages of the product
development lifecycle from business analysis, requirements development, and, of course, product
development. As a key driver of the product process, this role presents the opportunity to have a
direct and meaningful impact on the business while working to advance the innovation that drives
the home decor industry online at an ever fast pace.

Responsibilities
● Focus on the development and architecture of Chairish's web UI for both mobile and desktop
devices
● Develop and review technical designs and document them
● Participate in code reviews
● Automated unit test creation and manual testing of your code
● Work closely with product management, logistics, and production staff to manage product
scope and requirements
● Continue to be responsible for your code once it's in production

Qualifications and requirements

● At least 3 years of prior software development experience
● Bachelor's degree in Computer Science or a related field (or equivalent experience)
● You love HTML
● You have a deep understanding of CSS
● Strong Javascript skills
● Excellent verbal and written communication
● Natural problem-solver and troubleshooter
● One or more server side scripting languages (e.g. Python, Ruby, PHP, Javascript). We work
primarily in Python but it's easy enough to learn if you've got related experience.
● Comfortable working in a GNU Linux/Unix environment
● Familiarity with one or more relational databases (e.g. MySQL, Postgres, etc...) and solid
knowledge of SQL

Desirable skills

Bonus but not required
● Experience with LESSCSS
● Experience with jQuery, RequireJS, Webpack, Vue, or React
● Experience optimizing front-end performance

Conditions

Fully remote You can work from anywhere in the world.
APPLY VIA WEB View Job
Gross salary $3000 - 4000 Full time
Data Engineer / Machine Learning Engineer
  • Lilo AI
  • Santiago (Hybrid)
Python PostgreSQL SQL NoSQL
Lilo AI is an innovative startup dedicated to transforming procurement for Commercial Real Estate (CRE) businesses by creating the most hassle-free procurement platform globally. Our platform leverages artificial intelligence to automate and optimize various procurement workflows, including invoicing, vendor management, and price comparisons. Serving diverse sectors such as hotels, gyms, schools, and senior living homes, our solutions save clients valuable time and money while improving operational efficiency. Our major clients include prestigious brands such as Fairfield, Hampton Inn, and Hilton. By joining Lilo AI, you will contribute to revolutionizing procurement processes at scale through cutting-edge AI technologies.

Apply at the original job on getonbrd.com.

About the Role

As a Data Engineer / Machine Learning Engineer at Lilo AI, you will play a pivotal role in advancing and deploying machine learning solutions that enhance our procurement platform. Your primary responsibilities will include:
  • Designing, developing, and implementing machine learning models to optimize procurement workflows, such as price prediction algorithms, anomaly detection systems, and recommendation engines.
  • Building and maintaining robust data pipelines to efficiently preprocess and cleanse both structured and unstructured datasets.
  • Collaborating closely with engineers, product managers, and business stakeholders to integrate AI-driven insights seamlessly into our platform environment.
  • Optimizing model performance and reliability, including contributing to monitoring strategies and retraining pipelines to sustain production quality.
  • Keeping abreast of the latest developments in AI, machine learning, and data science to continually enhance our technology stack.
  • Supporting the deployment of machine learning models into production environments and improving MLOps workflows to increase operational efficiency.
This role requires a proactive mindset, a passion for AI applications in real-world business contexts, and the ability to thrive in a dynamic, fast-paced, and collaborative global team.

What You Will Need

To succeed in this role, candidates should demonstrate strong technical proficiency and relevant experience as detailed below:
  • A minimum of 2 years of professional experience in machine learning, data science, or closely related fields.
  • Proficiency in Python programming and familiarity with prominent ML frameworks and libraries such as Scikit-Learn, TensorFlow, or PyTorch.
  • Hands-on experience with both SQL and NoSQL databases, including but not limited to MongoDB and PostgreSQL.
  • Solid understanding of data preprocessing techniques, feature engineering, and model evaluation methodologies essential for robust ML model development.
  • Basic knowledge or experience with containerization (Docker), cloud computing platforms (AWS, Google Cloud Platform, or Azure), and MLOps tools is highly desirable.
  • Analytical mindset with strong problem-solving skills, able to handle and extract insights from large datasets effectively.
  • A continuous learner attitude, eager to develop technical and professional skills while contributing to team goals.
We value curiosity, collaboration, and adaptability, wanting individuals who are ready to grow alongside our rapidly expanding company.

Desirable Skills and Experience

While not mandatory, the following skills and experiences will give candidates an edge:
  • Experience working with time-series data, demand forecasting, or procurement-related AI models.
  • Familiarity with advanced ML techniques such as deep learning, reinforcement learning, or natural language processing.
  • Hands-on exposure to MLOps pipelines, automated model deployment, and monitoring platforms.
  • Knowledge of data engineering tools and frameworks like Apache Airflow, Spark, or Kafka.
  • Prior experience in the hospitality or Commercial Real Estate sectors.
  • Strong communication skills to effectively articulate technical concepts to non-technical stakeholders.

Why Lilo AI?

Joining Lilo AI offers a unique opportunity to make a significant impact at a fast-growing US-based startup while enjoying the flexibility of remote work from Latin America. We provide:
  • A high-impact role within a pioneering team revolutionizing procurement with AI.
  • Possibility to grow professionally with opportunities to increase responsibilities over time.
  • Stock options available for the right candidate, sharing in our long-term success.
  • A collaborative, global, and multi-cultural work environment fostering innovation and continuous learning.

Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Lilo AI pays or copays health insurance for employees.
Company retreats Team-building activities outside the premises.
Dental insurance Lilo AI pays or copays dental insurance for employees.
Computer provided Lilo AI provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Lilo AI gives you paid vacations over the legal minimum.
APPLY VIA WEB View Job
Gross salary $2500 - 3300 Full time
AI Engineer
  • Assetplan
JavaScript Python Git Node.js

Assetplan es una compañía líder en renta residencial en Chile, con presencia también en Perú, gestionando más de 30.000 propiedades para clientes retail e institucionales y operando más de 80 edificios multifamily. Actualmente buscamos fortalecer nuestro equipo de desarrollo con un AI Engineer para integrar Grandes Modelos de Lenguaje (LLMs), construir agentes conversacionales multicanal y automatizar procesos utilizando herramientas de inteligencia artificial avanzada y servicios cloud, principalmente con AWS.

Assetplan se destaca por su innovación tecnológica y enfoque centrado en las personas dentro del mercado inmobiliario. La compañía se caracteriza por una cultura joven, horizontal y colaborativa, fomentando la proactividad y el aprendizaje continuo para impulsar su crecimiento y el de sus colaboradores.

This job offer is available on Get on Board.

Descriptor de cargo: AI Engineer

El rol se enfoca en la integración de LLMs, construcción de agentes conversacionales y automatización de flujos mediante tecnologías avanzadas. Las principales funciones son:

  • Desarrollar agentes conversacionales multicanal para plataformas como WhatsApp, Web y Slack, utilizando LangChain y OpenAI en Python y/o Node.js (TypeScript).
  • Crear scrapers inteligentes (ejemplo: para Facebook Marketplace) empleando Selenium y Python.
  • Diseñar y mantener herramientas internas que combinan procesamiento de datos, automatización y uso de LLMs para mejorar la eficiencia operativa.

Objetivo y Requisitos

Buscamos un profesional con experiencia consolidada en desarrollo de software, especialmente en áreas relacionadas con inteligencia artificial aplicada y automatización. El candidato ideal cuenta con:

  • Experiencia sólida en Python (idealmente más de 2 años).
  • Experiencia en desarrollo con Node.js usando TypeScript (al menos 1 año).
  • Buen manejo de servicios AWS como Lambda, S3, CloudWatch, DynamoDB y API Gateway.
  • Experiencia en creación de APIs REST y conexión mediante WebSockets.
  • Conocimiento en procesamiento de lenguaje natural (NLP) y manejo de modelos de lenguaje grandes (LLMs), particularmente mediante OpenAI.
  • Habilidad en técnicas de scraping con herramientas como Selenium, Playwright o BeautifulSoup.
  • Manejo de control de versiones con Git, incluyendo flujos colaborativos con Pull Requests y CI/CD.

Además, buscamos una persona con habilidades de autonomía, colaboración, orientación a resultados, innovación y comunicación efectiva, capaz de trabajar de manera independiente y en equipo, comprometida con la calidad y mejora continua, y que participe activamente en la capacitación del equipo en conceptos de IA.

Formación académica: Ingeniero en Computación, Ingeniería de Software o experiencia equivalente. Experiencia 2 a 4 años en desarrollo de software con preferencia en proyectos de inteligencia artificial aplicada.

Conocimientos y habilidades valorados

  • Conocimiento de LangChain, Retrieval-Augmented Generation (RAG) o arquitecturas de agentes conversacionales.
  • Experiencia con herramientas de infraestructura como Terraform para la gestión de recursos cloud.
  • Experiencia en sistemas de monitoreo y logging como Grafana o CloudWatch Logs.
  • Experiencia defendiendo y presentando soluciones técnicas en entrevistas.

Beneficios y ambiente laboral

En Assetplan valoramos y reconocemos el esfuerzo y dedicación de nuestros colaboradores, ofreciendo un ambiente laboral positivo basado en el respeto mutuo y la colaboración.

Entre nuestros beneficios contamos con:

  • Días extras de vacaciones por años de antigüedad
  • Modalidad de trabajo híbrido y flexibilidad
  • Monto mensual en app de snacks en la oficina
  • Medio día libre en tu cumpleaños
  • Copago en seguro complementario de salud
  • Reajuste anual de renta basado en IPC
  • Bono anual por resultados de empresa
  • Eventos empresa y happy hours financiados por la compañía
  • Acceso a plataforma de cursos de formación
  • Convenios con gimnasios, descuentos y más

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Assetplan pays or copays health insurance for employees.
Computer provided Assetplan provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Assetplan gives you paid vacations over the legal minimum.
Beverages and snacks Assetplan offers beverages and snacks for free consumption.
APPLY VIA WEB View Job
$$$ Full time
AI Engineer
  • Improving South America
Python Artificial Intelligence Machine Learning Deep Learning

Somos Improving South America!

Somos una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA principalmente.

Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.

Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development y También trabajamos en desarrollo backend.

Valoramos a las personas dinámicas en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Send CV through getonbrd.com.

Funciones del cargo

En Improving South America, estamos en búsqueda de un Ingeniero de IA Semi-Senior que esté entusiasmado por unirse a nuestro equipo. Este rol es ideal para alguien que desea contribuir con sus conocimientos en inteligencia artificial y colaborar en proyectos innovadores que marcan la diferencia en diversas industrias.

Desarrollar y entrenar modelos de Machine Learning, asegurando su correcta implementación, validación y ajuste según los objetivos del negocio.

Diseñar e implementar modelos de forecasting utilizando enfoques tanto tradicionales (ARIMA, Prophet) como avanzados (RNN, LSTM, Transformers), enfocados en series temporales y datos multivariables de gran escala.

Aplicar técnicas de Procesamiento del Lenguaje Natural (NLP) para resolver problemas complejos, integrando LLMs, RAGs, embeddings y arquitecturas de agentes inteligentes.

Construir y mantener pipelines de Machine Learning eficientes, escalables y automatizados para el procesamiento de grandes volúmenes de datos.

Implementar buenas prácticas de observabilidad y monitoreo en modelos desplegados, incluyendo tracking de métricas clave, alertas y registros.

Realizar pruebas, mediciones de performance y mejoras continuas de accuracy en los modelos existentes.

Colaborar con equipos multidisciplinarios (científicos de datos, ingenieros, producto) para alinear soluciones técnicas con necesidades estratégicas.

Utilizar herramientas y librerías en Python como TensorFlow, PyTorch, Scikit-learn, entre otras, para el desarrollo de soluciones de inteligencia artificial.

Requerimientos del cargo

  • Nivel de inglés: Intermedio/avanzado (B2/C1).
  • Experiencia en Machine Learning, incluyendo desarrollo y entrenamiento de modelos.
  • Experiencia en AI Forecasting (excluyente), específicamente con:
    • Modelos de series temporales tradicionales (ARIMA, Prophet).
    • Redes neuronales recurrentes (RNN, LSTM).
    • Transformers aplicados a predicción.
    • Modelos multivariables para forecasting sobre grandes volúmenes de datos.
  • Experiencia en NLP (Procesamiento del Lenguaje Natural):
    • LLMs (Large Language Models).
    • RAGs (Retrieval-Augmented Generation).
    • Embeddings.
    • Arquitecturas de agentes inteligentes.
    • Buenas prácticas de observabilidad y monitoreo.
    • Medición de métricas, testing y mejora de accuracy.
    • Sólido manejo de Python y librerías como TensorFlow, PyTorch, Scikit-learn, entre otras.
    • Experiencia trabajando con grandes volúmenes de datos y construcción de pipelines de ML.

Beneficios

  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Internal talks Improving South America offers space for internal talks or presentations during working hours.
Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Improving South America gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB View Job
Gross salary $3000 - 3200 Full time
Full-Stack AI &Amp; Python Bilingüe
  • Genesys Tecnologías de Inform. SpA
Python Docker Microservices GraphQL
Genesys Tecnologías de Inform. SpA es una compañía con más de 30 años en el mercado latinoamericano, especializada en desarrollo de software y servicios tecnológicos avanzados. Con sede principal en Concepción y operaciones importantes en Santiago, trabajamos en la transformación digital de empresas a través de soluciones innovadoras como RPA, Inteligencia Artificial, QA Automation, Cloud y Staff Augmentation.
El proyecto actual está orientado al desarrollo y mantenimiento de sistemas inteligentes integrados con modelos de lenguaje (LLMs), apoyando la evolución tecnológica de nuestros clientes en Latinoamérica mediante aplicaciones de IA prácticas y efectivas.

Apply directly on the original site at Get on Board.

Funciones del Cargo

Buscamos un ingeniero de Inteligencia Artificial con habilidades en Python, LangChain y LangGraph para formar parte de nuestro equipo especializado en construir soluciones inteligentes. Esta posición se enfoca en desarrollar y orquestar pipelines de procesamiento de lenguaje natural, diseñar agentes conversacionales complejos y sistemas inteligentes que respondan a necesidades reales.
  • Diseñar, desarrollar y mantener pipelines de procesamiento de lenguaje con LangChain y LangGraph.
  • Implementar chatbots inteligentes, asistentes autónomos, clasificadores y sistemas de búsqueda con técnicas de Recuperación Basada en Generación (RAG).
  • Orquestar flujos de decisiones con manejo de memoria contextual, persistencia de estado y control de errores usando LangGraph.
  • Integrar múltiples APIs externas, bases de datos y modelos locales para potenciar las capacidades de los sistemas.
  • Colaborar estrechamente con equipos de producto y diseño para convertir requisitos en soluciones AI efectivas y productivas.

Descripción y Requisitos del Cargo

El candidato ideal debe contar con conocimientos avanzados en Python y experiencia práctica con herramientas modernas de la pila LLM, especialmente LangChain y LangGraph, para la construcción de agentes y workflows complejos de IA. Es fundamental poseer un alto nivel de inglés, ya que es un requisito excluyente para desempeñar esta función.
  • Experiencia en desarrollo de software con Python, incluyendo desarrollo modular, manejo asincrónico, integración con APIs y procesamiento de texto (NLP).
  • Experiencia trabajando con modelos de lenguaje y tecnologías LLM.
  • Experiencia demostrable en proyectos utilizando LangChain para crear agentes, cadenas personalizadas, herramientas externas, pipelines RAG e integración con bases vectoriales.
  • Conocimiento en LangGraph para diseñar y administrar workflows de IA complejos con control de estados, branching y lógica conversacional.
  • Capacidad para implementar soluciones usando LLMs de OpenAI y otros proveedores, aplicando técnicas de prompt engineering, fine-tuning ligero y personalización de modelos Open Source.
  • Deseable experiencia en sistemas de recuperación semántica basados en embeddings para mejorar la precisión y relevancia de las respuestas.
  • Conocimientos básicos o intermedios en APIs REST y GraphQL, así como en contenedores Docker y despliegue de microservicios, son altamente valorados.
Además de las habilidades técnicas, buscamos personas con capacidad para trabajar en equipo, comunicarse efectivamente, adaptarse a tecnologías emergentes y contribuir al desarrollo de soluciones innovadoras en un entorno dinámico y colaborativo.

Habilidades y Experiencias Deseables

Se valorará positivamente la experiencia adicional en la implementación de soluciones de recuperación semántica basadas en embeddings, desarrollo y despliegue con Docker y microservicios, así como un conocimiento intermedio en APIs REST y GraphQL para mejorar la integración y escalabilidad de las aplicaciones.
También es deseable la familiaridad con técnicas avanzadas en prompt engineering, fine-tuning avanzado de modelos de lenguaje, y la capacidad para diseñar flujos conversacionales complejos que impliquen lógica de negocio y control de estado persistente.

Beneficios y Condiciones

Ofrecemos un contrato por proyecto que garantiza estabilidad y condiciones claras para nuestros colaboradores en un ambiente laboral dinámico, colaborativo y enfocado en el desarrollo profesional constante.

Formarás parte de una empresa consolidada en Latinoamérica con más de tres décadas de experiencia, que valora el talento y fomenta la innovación.

Contamos con un equipo multidisciplinario y una comunicación diaria con nuestra matriz en Santiago y otras operaciones, lo que facilita la colaboración continua y el apoyo técnico.

¡Esperamos que te unas a nuestro equipo para crecer juntos! 😊

Health coverage Genesys Tecnologías de Inform. SpA pays or copays health insurance for employees.
Computer provided Genesys Tecnologías de Inform. SpA provides a computer for your work.
Shopping discounts Genesys Tecnologías de Inform. SpA provides some discounts or deals in certain stores.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB View Job
$$$ Full time
Machine Learning Engineer
  • Haystack News
  • Lima (Hybrid)
Python SQL NoSQL Big Data

Haystack News is the leader in transitioning younger audiences to a next-generation TV news product. We empower users to watch the news they care about with a personalized headline news channel. Our personalization and big data technology enable a seamless lean-back experience reaching millions of users. In 2020, we streamed billions of minutes of news to users around the globe.

We're available on a variety of TV platforms (Roku, Fire TV, Android TV, Apple TV, Chromecast, Vizio) as well as mobile, tablet, and desktop.

Apply directly from Get on Board.

Job functions

We are looking for an outstanding machine learning engineer to join Haystack and help improve the experience of millions of users that rely on Haystack to get the news every day.

Within the team you’ll find many opportunities to work on various aspects of Machine Learning and Data Engineering. The job offers the opportunity of generating a major impact on the product while working with an awesome and talented team, using the latest technologies.

You will:

  • Analyze large data sets to get insights using statistical analysis tools and techniques
  • Build, evaluate and deploy machine learning models
  • Maintain ongoing reliability, performance, and support of the data infrastructure, providing solutions based on application needs and anticipated growth.
  • Work with tools to configure, monitor and orchestrate data infrastructure and pipelines.
  • Run and monitor AB Tests
  • Build and manage APIs

Qualifications and requirements

  • Bachelor's degree in Computer Science, Statistics, Math or related field.
  • 3+ years experience writing software in a professional setting
  • Knowledge of AWS and Python
  • Strong Math/Stats background with statistical analysis experience on big data sets
  • Experience with SQL and NoSQL (e.g. MongoDb or DynamoDB)
  • Big Plus: Experience with data warehouses (e.g. Snowflake, Big Query, Redshift)
  • Exposure to ML/AI libraries such as sklearn, LightGBM and, XGBoost.
  • Travel Visa to the US (desired)

Conditions

Uber rides to come to the office!
Travel to team's offsite events
Learn about multiple technologies

Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Meals provided Haystack News provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Company retreats Team-building activities outside the premises.
Computer repairs Haystack News covers some computer repair expenses.
Commuting stipend Haystack News offers a stipend to cover some commuting costs.
Computer provided Haystack News provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Conference stipend Haystack News covers tickets and/or some expenses for conferences related to the position.
Informal dress code No dress code is enforced.
Vacation over legal Haystack News gives you paid vacations over the legal minimum.
Beverages and snacks Haystack News offers beverages and snacks for free consumption.
APPLY VIA WEB View Job
$$$ Full time
Machine Learning Engineer
  • NeuralWorks
  • Santiago (Hybrid)
Python Data Analysis SQL Big Data

NeuralWorks es una compañía de alto crecimiento fundada hace 3 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

Apply without intermediaries through Get on Board.

Descripción del trabajo

El equipo de Data y Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.

Trabajarás transformando los procesos a MLOps y creando productos de datos a la medida basados en modelos analíticos, en su gran mayoría de Machine Learning, pero pudiendo usar un espectro de técnicas más amplio.

Dentro del equipo multidisciplinario con Data Scientist, Translators, DevOps, Data Architect, tu rol será extremadamente importante y clave para el desarrollo y ejecución de los productos, pues eres quien conecta la habilitación y operación de los ambientes con el mundo real. Te encargarás de aumentar la velocidad de entrega, mejorar la calidad y la seguridad del código, entender la estructura de los datos y optimizar los procesos para el equipo de desarrollo.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Como MLE, tu trabajo consistirá en:

  • Trabajar directamente con el equipo de Data Scientists para poner en producción modelos de Machine Learning utilizando y creando pipelines de ML.
  • Recolección de grandes volúmenes y variados conjuntos de datos.
  • Recolección de interacción con la realidad para su posterior reentrenamiento.
  • Construir las piezas necesarias para servir nuestros modelos y ponerlos a interactuar con el resto de la compañía en un entorno real y altamente escalable.
  • Trabajar muy cerca de los Data Scientists buscando maneras eficientes de monitorear, operar y darle explicabilidad a los modelos.
  • Promover una cultura técnica impulsando los productos de datos con las prácticas DevSecOps, SRE y MLOps.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia práctica de al menos 3 años en entornos de trabajo como Software Engineer, ML Engineer, entre otros.
  • Experiencia con Python.
  • Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida optimización de consultas.
  • Experiencia usando pipelines de CI/CD y Docker.
  • Pasión en problemáticas de procesamiento de datos.
  • Experiencia con servidores cloud (GCP, AWS o Azure, de preferencia GCP), especialmente el conjunto de servicios de procesamiento de datos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.
  • Habilidades de comunicación y trabajo colaborativo.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” Gaucher, D., Friesen, J., & Kay, A. C. (2011).

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.
  • Stack orientado a modelos econométricos (statsmodels, pyfixest), serialización.
  • Experiencia con algún motor de datos distribuido como pyspark, dask, modin.
  • Interés en temas "bleeding edge" de Inferencia Causal: (Técnicas Observacionales, Inferencia basada en diseño, Probabilidad y Estadística [Fuerte énfasis en OLS y sus distintas expansiones]).

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Vestimenta informal
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
APPLY VIA WEB View Job
$$$ Full time
Practicante Ing Informática para Desarrollo e IA Generativa
  • BICE VIDA
  • Santiago (In-office)
Python Back-end Generative AI SER

En BICE VIDA somos líderes en el rubro de las aseguradoras y queremos satisfacer las necesidades de seguridad, prosperidad y protección de nuestros clientes. Estamos apostando por la transformación digital, buscando nuevas formas de realizar el negocio, para mantenernos vigente y responder a los constantes cambios que el entorno nos exige.

¡Únete a un equipo apasionado y altamente motivado por brindar soluciones innovadoras a sus clientes!

“Esta oferta se enmarca en la ley 21.015 que incentiva la inclusión laboral de personas en situación de discapacidad. Aquellos interesados, contarán con el apoyo de la Compañía para realizar un proceso inclusivo y en igualdad de condiciones. BICE Vida se compromete a resguardar la información que postulantes en situación de discapacidad proporcionen de manera voluntaria”.

Find this vacancy on Get on Board.

¿Qué buscamos?

En BICE Vida nos encontramos en búsqueda de un Alumno en Práctica de las carreras de Ingeniería Informática, Industrial o carrera afín, para apoyar en la Sugerencia de Sistemas Financieros de la Gerencia de Sistemas en la implemementación de agente Copílot Studio basado en IA generativa para ser habilitado a Mesa de Ayuda y Servicio al Cliente.

En este rol deberás:

  • Implementar agente Copílot Studio basado en IA generativa.
  • Realizar laboreas de programación y finetuninng en plataforma Copilot studio.
  • Ir documentando el proceso

¿Qué necesitamos?

  • Formación académica: Ingeniería Informática, Industrial o carrera afín.
  • Ser alumno regular o egresado en búsqueda de su práctica profesional, como requisito para su título.
  • Conocimientos de IA generativa ,MY APPS, BBDD, Python.

¿Cómo es trabajar en BICE Vida?

  • Trabajamos en horario de oficina de lunes a jueves hasta las 18:00 hrs y los viernes hasta las 16.00 hrs ⌚.
  • Estamos ubicados en Av. Providencia, a pasos del metro Pedro de Valdivia.
  • Tendrás la posibilidad de contar con almuerzo gratuito 🍲 en las dependencias de la compañía cuando asistas presencial. Además, contamos con menú vegetariano y viernes de barra no fit 😜.
  • La práctica considera un bono mensual 💸.

APPLY VIA WEB View Job
$$$ Full time
Senior Machine Learning Engineer
  • ZeroFox
  • Santiago (Hybrid)
Python Agile Artificial Intelligence Machine Learning

Opportunity Overview

At ZeroFox, we are passionate about bringing world-class protection to the digital-first world. Together, we have built a system capable of collecting and analyzing data from all over the internet, creating a paradigm-shifting cybersecurity product that helps secure and protect our customers and improves the global threat landscape.

We are a team of software engineers, cybersecurity experts, and data scientists who continue to develop unparalleled solutions for the cyber security industry by providing the best Digital Risk Protection SaaS in the global market. Our company, services, and user base are growing faster than ever and we’d like you to help us innovate. We believe the greatest solutions in the Digital Risk Protection space come from composing teams with varied backgrounds and experiences that can use their complementary skill sets to come up with the best market-defining solutions.

Apply through Get on Board.

Role and responsibilities

  • Collaborate with industry experts across security, machine learning, digital risk protection, and cyber threat intelligence to develop cutting-edge machine learning solutions for the ZeroFox platform.
  • Help define machine learning roadmaps and projects for your team, with a pragmatic balance of higher risk and lower risk efforts.
  • Design, develop, and deploy advanced machine learning models and systems for natural language processing and computer vision applications, to enhance the lives of our customers while making the internet a safer place.
  • Evaluate and improve the accuracy, efficiency, and scalability of existing ML models.
  • Design and conduct statistically rigorous experiments (hypothesis testing, replication, etc.)
  • Conduct research and stay up-to-date with the latest advancements in NLP and computer vision techniques to integrate them into our solutions.
  • Collaborate with product managers, data analysts, software engineers and non-technical stakeholders to integrate ML models into the ZeroFox platform.
  • Analyze and preprocess large, diverse datasets, ensuring the quality and integrity of the data used for model training and evaluation.
  • Maintain clear and well-documented code to ensure long-term sustainability and smooth collaboration with other team members.
  • Provide technical guidance and mentorship to junior engineers, and ensure your team’s growth and success.

Required Qualifications and Skills

  • Motivated, communicative, teamwork-oriented leader who is comfortable working in agile environments and is able to learn and adapt quickly
  • Bachelor’s degree in computer science, math, physics, or a related field, OR equivalent education or experience
  • Machine learning experience, typically a minimum of 5 years
  • Team and/or project leadership experience, typically a minimum of 2 years
  • Proficiency in PyTorch, TensorFlow, or similar machine learning frameworks
  • Proficiency in Python
  • Strong applied knowledge of statistics and scientific methods
  • Solid understanding of data structures and algorithms
  • Strong software engineering design and implementation skills involving multiple technology layers (databases, API’s, caching layers, etc.)
  • Good communication, collaboration, and presentation skills in English
  • Ability to work effectively in a fast-paced, agile environment.

Desirable skills

  • Strong knowledge of NLP techniques, including but not limited to tokenization, parsing, sentiment analysis, topic modeling, and named entity recognition.
  • Strong knowledge of computer vision techniques such as object detection, segmentation, image classification, and OCR.

Benefits

  • Opportunities to learn and contribute your knowledge to our Digital Risk Protection platform
  • Competitive compensation
  • Competitive PTO
  • Complementary health insurance
  • Daily catered lunches for in-office work
  • Respectful and nourishing work environment, where every opinion is heard and everyone is encouraged to be an active part of the organizational culture.
  • Regular team bonding activities like cooking and cocktails classes, bingos, stand up comedy, magic shows, virtual happy hour, lunch and learns, etc.
  • Additional Parental Leave
  • Excellent communication: between teams, people, organizations and leaders

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance ZeroFox pays or copays life insurance for employees.
Meals provided ZeroFox provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage ZeroFox pays or copays health insurance for employees.
Dental insurance ZeroFox pays or copays dental insurance for employees.
Computer provided ZeroFox provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal ZeroFox gives you paid vacations over the legal minimum.
Beverages and snacks ZeroFox offers beverages and snacks for free consumption.
Parental leave over legal ZeroFox offers paid parental leave over the legal minimum.
APPLY VIA WEB View Job
Gross salary $1800 - 3000 Full time
Ingeniero/a de NLP – Asistente Conversacional con IA
  • Lisit
Python Docker Azure Google Cloud Platform
Lisit es una empresa especializada en la creación, desarrollo e implementación de servicios de software innovadores, orientados a proveer herramientas de automatización y optimización para sus clientes. Con un fuerte enfoque en la innovación y la pasión por superar desafíos tecnológicos, Lisit acompaña a sus clientes mediante consultoría y la integración de variadas prácticas y herramientas tecnológicas, asegurando la ejecución exitosa de procesos de transformación digital a través de estrategias integrales.

Actualmente, el equipo de Lisit desarrolla un proyecto enfocado en la creación de un asistente conversacional basado en inteligencia artificial, empleando tecnologías avanzadas de procesamiento de lenguaje natural (NLP). Este proyecto busca potenciar la interacción entre usuarios y sistemas mediante la comprensión y generación de lenguaje natural, integrando modelos de última generación y soluciones tecnológicas robustas para mejorar la experiencia del usuario final.

This job is published by getonbrd.com.

Responsabilidades principales

En este rol como Ingeniero/a de NLP, serás responsable de diseñar e implementar modelos avanzados de procesamiento de lenguaje natural que permitan comprender y generar lenguaje natural con alta precisión. Deberás integrar modelos preentrenados como GPT o BERT, y trabajar con servicios de inteligencia artificial de plataformas como OpenAI o Hugging Face.
Además, desarrollarás flujos conversacionales inteligentes que manejan contexto e identifican intenciones de forma efectiva, integrando el asistente con APIs, diversas plataformas de mensajería (Slack, WhatsApp, Teams, entre otras) y bases de datos para asegurar una experiencia de usuario fluida y completa.
Serás responsable de la evaluación continua de los modelos mediante métricas estándares como precisión y F1, colaborando estrechamente con equipos de desarrollo, experiencia de usuario (UX) y áreas de negocio para asegurar que las soluciones implementadas estén alineadas con los objetivos estratégicos y necesidades del cliente.

Descripción del puesto y requisitos

Buscamos un/a profesional con experiencia sólida en Python y en el manejo de librerías especializadas en NLP, tales como spaCy, NLTK y Transformers. Además, es necesario contar con conocimientos prácticos en frameworks para asistentes conversacionales como Rasa o Dialogflow, así como experiencia en diseño y manejo del contexto en sistemas conversacionales.
El candidato ideal debe poseer conocimientos técnicos en la integración de APIs RESTful y en la implementación de asistentes a través de múltiples plataformas de mensajería populares, incluyendo Slack, WhatsApp y Microsoft Teams. Valoramos también la familiaridad con herramientas de contenedorización como Docker y prácticas de integración y despliegue continuo (CI/CD), así como experiencia con servicios en la nube tales como AWS, Azure o Google Cloud Platform.
Adicionalmente, se valoran las competencias en proyectos relacionados con grandes modelos de lenguaje (LLMs) como GPT o Claude, la capacidad para diseñar flujos conversacionales empáticos y funcionales, y el conocimiento en técnicas de prompt engineering para optimizar la interacción con modelos de IA generativa.

Conocimientos y habilidades deseables

Se considerará un plus la experiencia previa en proyectos que involucren grandes modelos de lenguaje (LLMs) como GPT o Claude, así como la habilidad para diseñar flujos de conversación que sean tanto funcionales como empáticos, mejorando la experiencia del usuario final.
El conocimiento en el área de prompt engineering para mejorar el rendimiento de modelos generativos, así como el dominio de herramientas para la automatización de despliegues en entornos de producción (Docker, CI/CD) y manejo de infraestructuras en la nube (AWS, Azure, GCP) también serán muy valorados.

Beneficios y entorno laboral

Ofrecemos la oportunidad de trabajar en proyectos desafiantes y de largo plazo dentro de un equipo técnico colaborativo y con un ambiente laboral excelente y amigable. Promovemos la estabilidad laboral, ofreciendo múltiples oportunidades de desarrollo profesional y crecimiento dentro de la compañía.
El trabajo es 100% remoto, idealmente dirigido a candidatos residentes en Chile, lo cual facilita la conciliación entre la vida personal y profesional sin perder el compromiso ni la comunicación estrecha con el equipo.

Fully remote You can work from anywhere in the world.
APPLY VIA WEB View Job
$$$ Full time
Mlops Engineer
  • Niuro
Python Linux DevOps Docker
At Niuro, we are dedicated to connecting projects with elite tech teams, working collaboratively with leading companies in the U.S. Our AI team is expanding, and we are seeking a proactive MLOps Engineer to help us build and maintain robust machine learning pipelines. You will play a critical role in ensuring that our models are production-ready and scalable within dynamic environments, contributing to the successful execution of innovative projects.

Find this job on getonbrd.com.

Responsibilities

  • Pipeline Management & Automation: Build and maintain ML pipelines using Databricks and MLflow. Automate data workflows and ensure reproducibility of experiments.
  • Model Deployment & Monitoring: Deploy models to production and monitor their performance over time. Implement best practices for CI/CD in machine learning using Bitbucket.
  • Infrastructure & Environment Management: Manage and monitor batch jobs on Linux environments. Collaborate with data scientists to ensure smooth transitions from notebooks to production-grade code.
  • Collaboration & Documentation: Work closely with international teams to align on MLOps strategies and solutions. Document workflows and setups to ensure maintainability and transparency.

Requirements

  • Experience: 3+ years working in MLOps, DevOps, or related roles with machine learning pipelines.
  • Technologies: Hands-on experience with Databricks, MLflow, Python, Bitbucket, Batch processing, and Linux.
  • English: Intermediate-advanced written and spoken English (required) to work with international teams.
  • Mindset: Strong problem-solving skills and a passion for automation, performance, and scalability.

Preferred Qualifications

  • Experience working in remote, agile teams with international clients.
  • Familiarity with cloud services (AWS, Azure, or GCP).
  • Knowledge of Docker, Kubernetes, or Terraform is a plus.

What We Offer

  • 🌎 100% Remote – Work from anywhere!
  • 📈 Professional Growth – Join an innovative and collaborative AI-driven environment.

Fully remote You can work from anywhere in the world.
APPLY VIA WEB View Job
$$$ Full time
Data Engineer Inteligencia Artificial
  • Factor IT
Java Python SQL Web server
FactorIT es un líder en tecnología con presencia en 8 países y se dedica a ofrecer soluciones innovadoras en Data y Analytics, Transformación Digital e Inteligencia Artificial. Estamos buscando un profesional talentoso para unirse a nuestro equipo en el desarrollo de infraestructuras de datos específicas para proyectos de IA, lo que representa una gran oportunidad para participar en iniciativas desafiantes y significativas que tendrán un impacto en múltiples industrias.

Applications are only received at getonbrd.com.

Responsabilidades:

En esta función, el candidato será responsable de:
  • Desarrollar y optimizar pipelines de datos para modelos de IA.
  • Colaborar con arquitectos de datos y científicos de datos para construir soluciones escalables y eficientes.
  • Gestionar la integración y almacenamiento de grandes volúmenes de datos utilizando diversas herramientas y plataformas de IA.
  • Mejorar la calidad de los datos garantizando su adecuada preparación para el entrenamiento de modelos de Machine Learning.
  • Implementar procesos automatizados para la recolección y el procesamiento de datos.

Requisitos:

Buscamos a alguien que cumpla con las siguientes calificaciones:
  • Experiencia mínima de 4 años en ingeniería de datos con un énfasis en Inteligencia Artificial.
  • Conocimientos técnicos en herramientas de procesamiento de datos como Apache Spark, Kafka, Hadoop, entre otros.
  • Experiencia trabajando con grandes volúmenes de datos y tecnologías de almacenamiento en la nube.
  • Dominio de lenguajes de programación como Python, SQL y otros orientados a la manipulación de datos.
  • Conocimiento práctico en la implementación de Machine Learning y Deep Learning.

Deseable:

Experiencia en entornos de trabajo ágil y capacidad para gestionar múltiples proyectos simultáneamente. La pasión por la innovación y el deseo de aprendizaje continuo son altamente valorados.

Ofrecemos:

En FactorIT, promovemos un entorno dinámico y de innovación tecnológica. Ofrecemos:
  • Capacitación continua en tecnologías emergentes, especialmente en IA.
  • Flexibilidad y opción de trabajo remoto, permitiendo un mejor balance entre la vida personal y laboral.
  • Oportunidades de crecimiento profesional en un ambiente inclusivo que valora la creatividad y el trabajo en equipo.
¡Si eres un experto en ingeniería de datos con pasión por la Inteligencia Artificial, te estamos esperando! 🚀

Fully remote You can work from anywhere in the world.
Computer provided Factor IT provides a computer for your work.
APPLY VIA WEB View Job
$$$ Full time
Senior Computer Vision Engineer
  • Niuro
C C++ Python Big Data

At Niuro, we connect elite tech teams with innovative projects in collaboration with leading U.S. companies. Our mission emphasizes simplifying global talent acquisition through efficient and high-quality solutions. We empower our teams by providing opportunities for continuous professional growth, ensuring success in technologically challenging projects. As such, we handle all administrative aspects including hiring and payments, allowing our professionals to focus on achieving outstanding results in their respective fields.

Find this vacancy on Get on Board.

Responsibilities

  • Model Development & Optimization: Enhance accuracy and speed of YOLO (or similar models) through advanced CNN architectures and optimization techniques.
  • Dataset Management & Augmentation: Expand and refine datasets, utilizing data augmentation techniques to enhance model robustness.
  • Model Training & Evaluation: Train and validate models against key metrics (precision, recall, mAP) to ensure reliable performance in real-world scenarios.
  • Deployment on Embedded Hardware: Optimize and deploy models on Jetson Orin Nano (or similar) using TensorRT for high-speed inference.
  • Real-World Validation: Test models in sterilization and surgical environments, iterating and refining based on real-world performance feedback.

Requirements

  • Computer Vision Expertise: 5+ years in deep learning and computer vision.
  • Model Development: Strong experience with YOLO, Faster R-CNN, EfficientDet, or similar architectures.
  • Deep Learning Frameworks: Proficiency in PyTorch or TensorFlow for model training and optimization.
  • Data Handling: Experience managing large datasets and applying data augmentation techniques.
  • Performance Optimization: Knowledge of model quantization, pruning, and employing TensorRT for real-time inference.
  • Embedded AI: Proven experience deploying models on NVIDIA Jetson devices.
  • Evaluation & Metrics: Strong familiarity with key performance metrics including mAP, IoU, recall, and precision.
  • Software Development Skills: Proficiency in Python, with experience in C++ being a plus.
  • Problem-Solving & Debugging: Ability to fine-tune models based on real-world feedback.
  • OpenCV Expertise: Demonstrable experience with OpenCV for advanced image processing and real-time computer vision applications.

Nice to Have

  • Experience with ONNX, OpenVINO, or similar model optimization tools.
  • Familiarity with ROS (Robot Operating System) for robotics applications.
  • Experience in medical imaging or AI applications within healthcare.
  • Knowledge of sensor fusion technologies such as LiDAR and depth cameras.

What We Offer

🌎 100% Remote – Work from anywhere in the world!
📈 Cutting-Edge AI Projects – Engage in real-world AI applications specifically oriented towards the medical field.
💰 Competitive Salary & Performance Reviews – Compensation is tailored according to experience.
🛠 High-Impact Work – Contribute to AI solutions that promote safety and enhance efficiency in surgical environments.
🎓 Learning & Development – Gain access to extensive training, conferences, and mentorship opportunities.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
APPLY VIA WEB View Job
Gross salary $3000 - 5000 Full time
R & D Engineer (Pytorch)
  • Softserve
Python Big Data R English

WE ARE

SoftServe is a leading advisory and IT development services company that assists clients in constructing cutting-edge and innovative solutions while delivering exceptional value. Together with you, we establish and achieve goals to foster mutual growth, learning from successes and mistakes.

Our R&D team applies deep learning and computer vision expertise to cross-disciplinary research from human-computer interaction and bioinformatics to computational finance. We run multiple technology and academic partnerships and expose our research at global events and conferences.

Applications at getonbrd.com.

Job functions

  • Develop innovative agentic AI solutions across diverse applications throughout the SDLC
  • Proactively propose and implement emerging technologies, studying and adapting to market needs and industry trends
  • Define and execute the technological vision in new research areas by prototyping and developing advanced technological demos
  • Coordinate and deliver presentations at external events, including conferences, meetups, and specialized gatherings
  • Advise external and internal clients on technologies, solutions, and trends to foster innovation and strategic decision-making
  • Align research fields with business needs, ensuring technological advancements address key industry demands
  • Apply proven innovation consulting methodologies to design cutting-edge technological solutions for customer challenges
  • Support business development efforts through marketing, presentations, and presales activities to drive growth and engagement

Qualifications and requirements

  • Experienced with over 6 years in Python and PyTorch
  • Proficient in building and optimizing AI models
  • Knowledgeable in Large Language Models (LLMs) and Vision-Language Models (VLMs), with hands-on experience in their applications
  • Skilled and hands-on with LLMs and prompting techniques, including Chain-of-Thought and Tree-of-Thought reasoning, to enhance model performance
  • Accustomed to the software development lifecycle (SDLC) and programming best practices, ensuring efficient and scalable solutions
  • Proficient in developing applications with web interfaces or user-interactive components, with a solid grasp of architecture and functionality
  • Skilled in Python backend frameworks like FastAPI, with experience in building efficient and scalable APIs
  • Familiar with tools like LangChain, LangGraph, and various agentic frameworks for AI development
  • Comfortable working with modern software development company operations, including workflows, collaboration, and deployment strategies
  • A strong professional, capable of working independently, making decisions, and collaborating in a team-oriented environment
  • A critical thinker and problem-solver, skilled in analyzing complex AI challenges and devising effective solutions
  • Capable of daily communication in English at an upper-intermediate level (written and spoken)

Together we will

  • Empower you to scale your expertise with others by joining the R&D team
  • Excel business of our clients from startups and ISVs to Enterprise and Fortune 500 companies
  • Care for your wellness with a health insurance package
  • Be a part of something bigger than a single project in the professional community
  • Access local-grown, yet global IT minds and exclusive networking opportunities with expert groups and professional events

APPLY VIA WEB View Job
$$$ Full time
Especialista en Agentes Verticales AI
  • Forma - Moovmedia Group
Python Data Analysis Artificial Intelligence Machine Learning

¡Hola! Somos Moov Media Group, una familia de empresas integrada por Moov, Metrix y Forma. Nuestro modelo es colaborativo, ¿qué significa esto? Que trabajamos de manera específica o integral según las necesidades de cada cliente.

Navegamos en el mundo digital usando la tecnología, la data analytics, los medios y la publicidad para encontrar soluciones de marketing multicanal que nos conviertan en los más secos de Latinoamérica.

Hoy queremos seguir creciendo y para eso buscamos un Especialista en Agentes Verticales AI que nos acompañe a recorrer el mundo digital en una empresa con cultura flexible, ágil e innovadora. ¿Te tinca saber más? Entonces quédate para contarte.

El proceso de selección consta de:

  • Llamado telefónico
  • Entrevista con Selección
  • Entrevista con jefatura directa.

¿Te interesa? ¡Dale! Escríbenos y conversemos.

Find this job and more on Get on Board.

Funciones del cargo

  • Diseñar, desarrollar y entrenar agentes de IA especializados en distintos sectores (e-commerce, turismo, salud, marketing, entre otros).
  • Configurar sistemas de IA conversacional utilizando tecnologías avanzadas (por ejemplo, GPT, LLMs, Dialogflow, Rasa) para resolver casos de negocio específicos.
  • Monitorear, evaluar y optimizar el rendimiento de los agentes de IA para garantizar interacciones fluidas y resultados precisos.
  • Colaborar con equipos de desarrollo para integrar los agentes en distintas plataformas y canales (sitios web, apps, redes sociales, chatbots).
  • Trabajar con clientes internos y externos para entender sus necesidades y personalizar las soluciones de IA verticales.
  • Identificar oportunidades de mejora y nuevas aplicaciones de IA en industrias emergentes.
  • Utilizar datos y retroalimentación para ajustar los modelos de IA y mejorar continuamente la experiencia de usuario.

Requerimientos del cargo

  • Ingeniería en Computación, Ciencia de Datos, Inteligencia Artificial o carreras afines.
  • 3-5 años de experiencia en el desarrollo de agentes conversacionales basados en IA o aplicaciones relacionadas.
  • Experiencia trabajando con plataformas de procesamiento de lenguaje natural (PLN), tales como OpenAI, Dialogflow, IBM Watson o similares.
  • Experiencia en la construcción y entrenamiento de modelos de lenguaje (por ejemplo, GPT, BERT).
  • Conocimientos en Python, TensorFlow, PyTorch u otros frameworks de machine learning.
  • Integración de APIs y servicios de terceros.
  • Experiencia en análisis de datos para ajustar el rendimiento de los modelos.

Condiciones

  • Tarde libre para el día de cumpleaños de tu hijo.
  • Día libre para realizar tu mudanza.
  • 5 días libres con goce de sueldo al cumplir 1 año laboral.
  • Convenio con caja de compensación Los Andes.
  • Convenio con DODO, plataforma que aporta al bienestar/salud mental.

Fully remote You can work from anywhere in the world.
Computer provided Moov Media Group provides a computer for your work.
Informal dress code No dress code is enforced.
APPLY VIA WEB View Job
$$$ Full time
Docente Programación Algoritmos para IoT Sede Plaza Oeste
  • Duoc UC
  • Santiago (In-office)
Java Python Internet of Things IoT
En Duoc UC, una institución de educación superior técnico profesional autónoma y católica con más de 50 años de historia y la máxima acreditación otorgada por la CNA, formamos profesionales preparados para los desafíos actuales. La Escuela de Informática y Telecomunicaciones de la sede Plaza Oeste busca integrar docentes en áreas innovadoras como Programación de Algoritmos para IoT, contribuyendo a la formación integral y técnica de estudiantes en tecnologías emergentes y desarrollo de software especializado.

Apply directly through getonbrd.com.

Responsabilidades principales

Duoc UC Sede Plaza Oeste, Escuela de Informática y Telecomunicaciones requiere contratar docentes para la asignatura de Programación de Algoritmos para IoT con disponibilidad en jornada diurna, que será responsable de liderar el proceso de enseñanza y aprendizaje de acuerdo con el modelo educativo, alineado al marco valórico institucional, movilizando su formación y experiencia profesional, valores y conocimiento disciplinar, para ser un real aporte al aprendizaje de los estudiantes.

Requisitos del cargo

Es requisito contar con:

  • Formación: Ingeniero en Informática, Ingeniero en Computación o Ingeniero en Conectividad y Redes.
  • Experiencia: 3 años de experiencia en tecnologías emergentes TI e IoT. Conocimientos teóricos y prácticos en desarrollo de algoritmos. Dominio avanzado en el área de programación y/o desarrollo de software. Conocimiento avanzado en lenguaje Python.
  • Disponibilidad: Jornada Diurna / Lunes de 12:10hrs a 13:40hrs, Miércoles de 10:41hrs a 12:10hrs.
  • Otros requisitos: Deseable certificación en: Java SE 6 Programmer o superior, Microsoft Technology Associate (MTA), Microsoft Certified Solutions Developer (MCSD)

APPLY VIA WEB View Job
$$$ Full time
Docente Problemáticas Globales y Prototipado Plaza Oeste
  • Duoc UC
  • Santiago (In-office)
JavaScript Java Python Agile
En Duoc UC, una institución técnica profesional de educación superior autónoma y católica con más de 50 años de trayectoria y la máxima acreditación otorgada por la CNA, buscamos incorporar un docente para la Escuela de Informática y Telecomunicaciones en la Sede Plaza Oeste. El cargo forma parte de un equipo académico comprometido con la formación integral y actualizada de estudiantes en áreas emergentes de la informática y las telecomunicaciones. El programa académico incluye asignaturas clave orientadas a la innovación, prototipado y problemáticas globales en tecnología, alineado con el modelo educativo y valores institucionales. Trabajamos en un ambiente que fomenta el rigor académico, la innovación pedagógica y el compromiso social, aportando significativamente al desarrollo profesional de los futuros técnicos y especialistas que formamos.

Originally published on getonbrd.com.

Funciones y responsabilidades

Duoc UC Sede Plaza Oeste, Escuela de Informática y Telecomunicaciones requiere contratar docente para la asignatura de Problemáticas Globales y Prototipado con disponibilidad en jornada diurna que será responsable de liderar el proceso de enseñanza y aprendizaje de acuerdo con el modelo educativo, alineado al marco valórico institucional, movilizando su formación y experiencia profesional, valores y conocimiento disciplinar, para ser un real aporte al aprendizaje de los estudiantes.

Requisitos y perfil del candidato

Es requisito contar con:
  • Formación: Ingeniero en Informática, Ingeniero en Computación, Ingeniero en Conectividad y Redes o afin.
  • Experiencia: 2 años de experiencia en procesos de Transformación Digital y PMO. Conocimientos teóricos/prácticos en el uso de dispositivos IoT. - Conocimientos sobre herramientas de gestión de proyectos basados en PMO, Agile y Lean. - Dominio en la administración de recursos y servicios Cloud (AWS). - Capacidad para integrar tecnologías mediante el uso de interfaces de programación basadas en Python, Node, Java (API).
  • Disponibilidad: Jornada Diurna / Lunes de 10:01hrs a 12:50hrs, Jueves de 10:01hrs a 12:10hrs, Viernes de 10:01hrs a 12:10hrs.
  • Otros requisitos: Habilitación instructor en Academia Cisco - IoT Fundamentals.

APPLY VIA WEB View Job
$$$ Full time
Senior Compliance Manager
  • Eqvilent
  • Remoto 🌎
Full Time CRM Python SQL sistemas de trading algorítmico herramientas de project management

Ubicación: Global

Tipo de puesto: Tiempo completo

Nivel: Senior / Managerial

Días libres: 40 días pagos al año

Modalidad: Totalmente remoto, con acceso a oficinas globales si lo deseás

🧭 Sobre el Rol

Estamos en búsqueda de un/a Senior Compliance Manager que lidere proyectos estratégicos dentro de nuestro marco de cumplimiento normativo. Esta persona debe contar con experiencia sólida tanto en regulación de mercados financieros como en cumplimiento tecnológico, una gran capacidad de gestión de proyectos, y comodidad para trabajar en un entorno ágil y exigente.

Se requiere un perfil altamente autónomo, responsable y enfocado, con capacidad para entender el contexto rápidamente, operar con bajo nivel de supervisión y asegurar entregas confiables.

💼 Responsabilidades

Liderazgo de Proyectos de Cumplimiento

  • Dirigir iniciativas clave como:
  • Revisión e implementación de controles ICT
  • Aplicación de nuevas normativas regulatorias
  • Integración de cumplimiento para nuevos mercados o venues
  • Proyectos de remediación regulatoria y mejora de controles
  • Definir alcance, entregables y métricas de éxito
  • Coordinar equipos multidisciplinarios y gestionar recursos y cronogramas

Gestión del Cumplimiento Regulatorio

  • Asumir responsabilidad en áreas específicas, como:
  • Regiones geográficas (APAC, Europa)
  • Dominios regulatorios (conducta de mercado, reportes)
  • Dominio de regulaciones como:
  • EE. UU.: SEC Rule 15c3-5, Reg NMS, Reg SHO, FINRA
  • Europa: MiFID II/MiFIR, MAR, EMIR
  • Asia: MAS (Singapur), HST (Japón)

Cumplimiento Tecnológico e Implementaciones ICT

  • Supervisar proyectos tecnológicos desde la perspectiva de cumplimiento
  • Asegurar controles en arquitectura de sistemas
  • Monitorear estándares técnicos (ej. RTS 6 - trading algorítmico)
  • Aprobar cambios tecnológicos y garantizar trazabilidad documental

Reportes Regulatorios

  • Supervisar cumplimiento de obligaciones como:
  • Reportes de transacciones (CAT, TRACE, MiFID II)
  • Reportes de posiciones y operaciones grandes
  • Cálculo y presentación de capital regulatorio
  • Atender inspecciones y solicitudes regulatorias

Gestión de Stakeholders

  • Ser el punto de contacto de Compliance para las áreas asignadas
  • Presentar métricas y avances a stakeholders internos
  • Participar en auditorías e investigaciones regulatorias

🧠 Requisitos

Formación y Certificaciones

  • Licenciatura en Finanzas, Derecho, Economía, Informática o similar (Master o JD deseable)
  • Certificaciones relevantes (ej. Series 7, 24, 57 o equivalentes internacionales)

Experiencia

  • 7–10+ años en funciones de compliance en servicios financieros
  • Al menos 3 años en trading electrónico o algorítmico
  • Experiencia comprobada en cumplimiento tecnológico y proyectos ICT

Conocimientos Técnicos

  • Sólido manejo de regulaciones globales
  • Conocimiento de:
  • Gobernanza ICT y control interno
  • Requisitos para desarrollo y prueba de algoritmos
  • Procesos de gestión de cambios tecnológicos
  • Estándares técnicos en trading electrónico

Competencias

  • Interpretación de normativas complejas aplicadas a HFT
  • Gestión de proyectos multifuncionales
  • Capacidad analítica, proactividad y comunicación efectiva
  • Autonomía, capacidad de priorizar y liderazgo colaborativo

🎯 Deseables

  • Experiencia previa en firmas de trading propietario o HFT
  • Certificaciones técnicas (CISA, CISSP) o experiencia en auditoría TI
  • Experiencia en cumplimiento DevOps y CI/CD
  • Conocimiento de requisitos de compliance en la nube
  • Programación en Python o SQL para análisis y monitoreo

🚀 ¿Por Qué Sumarte al Equipo?

  • Desafíos de alto impacto con retroalimentación constante
  • Equipo internacional de alto rendimiento
  • Tecnología y hardware de última generación
  • Flexibilidad total: trabajá desde cualquier parte del mundo
  • Acceso libre a nuestras oficinas globales
  • Horario flexible
  • 40 días pagos de vacaciones al año
  • Salario competitivo


APPLY VIA WEB View Job
$$$ Full time
Site Reliability Engineering Manager (SRE)
  • OpenLoop
  • Lima (Hybrid)
Python Linux Go DevOps

OpenLoop is looking for a Site Reliability Engineering Manager (SRE) to join our team in Lima, Peru. This role will be a member of the Engineering Team.

About OpenLoop

OpenLoop was co-founded by CEO, Dr. Jon Lensing, and COO, Christian Williams, with the vision to bring healing anywhere. Our telehealth support solutions are thoughtfully designed to streamline and simplify go-to-market care delivery for companies offering meaningful virtual support to patients across an expansive array of specialties, in all 50 states.

Our Company Culture

We have a relatively flat organizational structure here at OpenLoop. Everyone is encouraged to bring ideas to the table and make things happen. This fits in well with our core values of Autonomy, Competence and Belonging, as we want everyone to feel empowered and supported to do their best work.

Find this vacancy on Get on Board.

About the Role

Team Leadership & Management

  • Build, lead, mentor, and grow a team of Site Reliability Engineers
  • Conduct regular 1:1s, performance reviews, and career development planning
  • Foster a culture of learning, collaboration, continuous improvement, sense of urgency and over communication.
  • Recruit, interview, and onboard new SRE team members
  • Collaborate with engineering leadership on team planning and resource allocation

Technical Strategy & Operations

  • Address and evaluate current company situation regarding applications, systems and platforms to build an SRE roadmap as well as the team headcount
  • Define and implement SRE strategy aligned with business objectives
  • Establish and maintain SLIs, SLOs, and error budgets across all services
  • Drive incident response processes and post-mortem culture
  • Lead capacity planning and infrastructure scaling initiatives
  • Oversee monitoring, alerting, and observability implementations
  • Champion automation and infrastructure-as-code practices

Cross-Functional Collaboration

  • Partner with engineering teams to improve system reliability and deployment practices
  • Work with security teams to implement secure, compliant infrastructure
  • Collaborate with the product team to balance feature velocity with reliability
  • Engage with executive leadership on infrastructure strategy and planning
  • Coordinate with vendors and external partners on critical infrastructure components

Operational Excellence

  • Ensure 24/7 system availability and rapid incident response
  • Implement and maintain disaster recovery and business continuity plans
  • Drive cost optimization initiatives while maintaining reliability standards
  • Establish and track key reliability metrics and KPIs
  • Lead efforts to reduce toil and increase automation

Requirements

Experience

  • 8+ years of experience in infrastructure, DevOps, or Site Reliability Engineering
  • 3+ years of people management experience, preferably in technical roles
  • Proven track record of managing large-scale, distributed systems
  • Experience with incident management and post-mortem processes
  • Strong background in AWS and container orchestration

Technical Skills

  • Strong proficiency in at least one programming language (Typescript, Python, Go, etc.)
  • Deep understanding of Linux/Unix systems and networking
  • Experience with Infrastructure as Code (AWS CDK)
  • Proficiency with monitoring and observability tools (Prometheus, Grafana, ELK, etc.)
  • Knowledge of CI/CD pipelines and deployment automation (Github Actions, Jenkins, etc)
  • Understanding of database systems and performance optimization

Leadership & Communication

  • Advanced english (C1) fluency
  • Excellent verbal and written communication skills
  • Experience leading technical discussions and presenting to stakeholders
  • Ability to translate technical concepts to non-technical audiences
  • Strong problem-solving and decision-making capabilities
  • Experience with agile methodologies and project management

Desirable Skills

Additional Experience

  • Experience in high-growth startup environments
  • Background in regulated industries (healthcare, finance, etc.)
  • Experience with event-driven architecture, microservices and service mesh
  • Knowledge of security best practices and compliance frameworks
  • AWS Certified Solutions Architect or similar cloud certifications

Technical Depth

  • Experience with chaos engineering and fault injection
  • Knowledge of performance testing and load testing frameworks
  • Understanding of distributed tracing and application performance monitoring
  • Experience with configuration management tools (Ansible, Chef, Puppet)

Our Benefits

  • Contract under a Peruvian company ID("Planilla"). You will receive all the legal benefits in Peruvian soles (CTS, "Gratificaciones", etc).
  • Monday - Friday workdays, full time (9 am - 6 pm).
  • Unlimited Vacation Days - Yes! We want you to be able to relax and come back as happy and productive as ever.
  • EPS healthcare covered 100% with RIMAC --Because you, too, deserve access to great healthcare.
  • Oncology insurance covered 100% with RIMAC
  • AFP retirement plan—to help you save for the future.
  • We’ll assign a computer in the office so you can have the best tools to do your job.
  • You will have all the benefits of the Coworking space located in Lima - Miraflores (Free beverage, internal talks, bicycle parking, best view of the city)

Wellness program OpenLoop offers or subsidies mental and/or physical health activities.
Life insurance OpenLoop pays or copays life insurance for employees.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage OpenLoop pays or copays health insurance for employees.
Dental insurance OpenLoop pays or copays dental insurance for employees.
Free car parking You can park your car for free at the premises.
Computer provided OpenLoop provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal OpenLoop gives you paid vacations over the legal minimum.
Beverages and snacks OpenLoop offers beverages and snacks for free consumption.
APPLY VIA WEB View Job
$$$ Full time
Senior AWS Cloud Engineer
  • Merapar
Python Agile Virtualization Amazon Web Services

Merapar is a European Software/Technology consultancy company that specializes in cloud (AWS and GCP) , video platforms and utilities that now also has an office in Chile serves the Americas market. We work in small agile teams and help global video power houses such as BBC, NBC Universal, Liberty Global, Discovery to get innovations to the market. The senior cloud engineer will work with a team based in the UK that works on video platforms and monitoring solutions for utility companies

Applications: getonbrd.com.

Job functions

  • Design and implement using IaC AWS based infrastructure solutions.
  • Create and maintain CI/CD pipelines.
  • Support existing cloud infrastructure.
  • Work inside Agile teams working collaboratively with other developer

Qualifications and requirements

  • Good level in English. The interviews will be in English
  • Over 8 years' experience with at least 3 years of AWS and Infrastructure as Code experience.
  • Extensive programming knowledge in Python or having experience in other languages and willing to learn Python
  • Extensive experience in cloud technologies with recent hands-on AWS knowledge.
  • Proven record of high-quality delivery and related documentation.
  • Able to take feature and functional requirements and convert them into technical solutions.
  • Resident in Chile and living in Santiago

Desirable skills

  • Extensive experience with Terraform

Conditions

  • Very experienced colleagues you can work with and learn from
  • 40 hour work week
  • 20 vacation days (and yes you can take them in the first year as well)
  • more unpaid vacation days if your manager approves
  • Macbook Pro to do your work on
  • Work from home.
  • We meet once per week to work and have lunch together
  • Paid sick days
  • A company that is willing to invest in your development

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Merapar provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Merapar gives you paid vacations over the legal minimum.
APPLY VIA WEB View Job
Gross salary $2000 - 2500 Full time
QA Sr
  • Moventi
  • Lima (In-office)
JavaScript Java Python QA
En Moventi, una empresa enfocada en impulsar la transformación digital mediante la innovación tecnológica, trabajamos con un equipo multidisciplinario para desarrollar soluciones que ayudan a organizaciones a liderar en sus sectores. Moventi se caracteriza por su cultura de trabajo transparente, colaborativa y enfocada en la mejora continua y el riesgo calculado. Nuestro equipo de QA juega un rol clave en garantizar la calidad de los productos para clientes del sector financiero, público y privado, asegurando que las soluciones entregadas cumplan con los más altos estándares y regulaciones aplicables.

Applications are only received at getonbrd.com.

Responsabilidades principales

Como Certificador de QA en Moventi, serás responsable de asegurar la calidad integral de los desarrollos de software, diseñando y ejecutando estrategias automatizadas que garanticen la funcionalidad, seguridad y desempeño de las aplicaciones. Entre tus funciones principales se incluyen:
  • Desarrollar y establecer criterios y estándares de calidad para el software, alineados con las necesidades de nuestros clientes y mejores prácticas industriales.
  • Revisar y analizar los requisitos funcionales y no funcionales para asegurar su claridad y viabilidad desde la perspectiva de calidad.
  • Diseñar planes de prueba exhaustivos que cubran aspectos funcionales, de rendimiento, usabilidad y seguridad.
  • Ejecutar distintos tipos de pruebas: unitarias, integración, aceptación de usuario, carga y estrés.
  • Analizar los resultados para detectar defectos y proponer mejoras que incrementen la calidad del producto.
  • Elaborar informes detallados sobre los resultados de testing y recomendaciones para su resolución.
  • Registrar y dar seguimiento a defectos hasta su correcta resolución.
  • Desarrollar y mantener casos de prueba automatizados mediante frameworks y herramientas específicas del área de QA.
  • Escribir scripts de prueba que validen funcionalidades claves y escenarios críticos de uso.
  • Integrar y operar los casos de prueba automatizados en pipelines CI/CD para pruebas automáticas en cada versión de software.
  • Ejecutar periódicamente pruebas automáticas para identificar posibles defectos o problemas de rendimiento.
  • Analizar patrones y tendencias en resultados de pruebas automatizadas para optimizar continuamente los procesos de calidad.

Perfil requerido

Buscamos profesionales con formación universitaria o técnica en Ingeniería de Sistemas, Informática, Telecomunicaciones, Industrial, Electrónica o carreras afines, que posean al menos cinco años de experiencia comprobada en actividades de pruebas automatizadas dentro del sector financiero, público o privado.
Es indispensable contar con certificación o haber completado cursos en ISTQB Foundation, que respalden su conocimiento en estándares y metodologías de testing.
Además de los conocimientos técnicos, valoramos las habilidades analíticas para interpretar resultados de pruebas, atención al detalle, capacidad para trabajar en equipo y comunicarse efectivamente con stakeholders técnicos y no técnicos. La proactividad y la orientación a la mejora continua son cualidades clave en nuestro entorno dinámico.
Experiencia en la creación de estrategias de testing automatizado, manejo de herramientas y frameworks de automatización, así como experiencia en integración de pruebas en pipelines CI/CD también son exigidas para garantizar la calidad y velocidad en ciclos de entrega de software.

Competencias y conocimientos adicionales

Serán valorados conocimientos en herramientas específicas de automatización (por ejemplo, Selenium, JUnit, TestNG, Jenkins), experiencia en pruebas de seguridad y performance, así como familiaridad con metodologías ágiles de desarrollo (Scrum, Kanban).
También consideramos una ventaja el manejo de lenguajes de scripting para pruebas como Java, Python o JavaScript, y la capacidad para implementar métricas de calidad y reportes automatizados para facilitar la toma de decisiones.

Beneficios y ambiente laboral

  • Continuas oportunidades para el desarrollo profesional y aprendizaje dentro de un ambiente multidisciplinario y colaborativo.
  • Modalidad de trabajo presencial, con flexibilidad para trabajo remoto.
  • Participación en proyectos altamente retadores que impulsan la innovación y el desarrollo de habilidades técnicas y blandas.
  • Oficina ubicada en zona céntrica con estacionamiento y áreas recreativas para mejorar la experiencia laboral y promover el trabajo en equipo.

Partially remote You can work from your home some days a week.
Health coverage Moventi pays or copays health insurance for employees.
Computer provided Moventi provides a computer for your work.
APPLY VIA WEB View Job
Gross salary $2000 - 2500 Full time
DBA Oracle
  • coderslab.io
  • Santiago (Hybrid)
Python SQL Oracle Linux

CodersLab es una empresa dedicada al desarrollo de soluciones dentro del rubro IT y actualmente nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un DBA Oracle para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Job opportunity published on getonbrd.com.

Funciones del cargo

- Garantizar la alta disponibilidad y rendimiento de las bases de datos Oracle en producción y desarrollo.
- Configurar y gestionar entornos de alta disponibilidad (HA) utilizando Oracle RAC y Data Guard.
- Realizar migraciones de bases de datos a Oracle Cloud y otros entornos Cloud (OCI,
Azure).
- Automatizar tareas rutinarias de administración de bases de datos utilizando scripts.
- Realizar monitoreo, tuning y optimización de bases de datos para mejorar el rendimiento.
- Diseñar e implementar planes de recuperación ante desastres y políticas de backup/restore.
- Colaborar con equipos de desarrollo y operaciones para garantizar una integración eficiente de las bases de datos con las aplicaciones.
- Mantenerse actualizado con las nuevas características y parches de Oracle, garantizando la seguridad y estabilidad de las bases de datos.

Requerimientos del cargo

- Experiencia como DBA Oracle + 3 años.
- Experiencia en la gestión de bases de datos en entornos de producción críticos y de alto volumen de transacciones.
- Familiarizado con servicios Cloud, especialmente Oracle Cloud Infrastructure (OCI).
- Competencia en scripting para automatización de tareas DBA (Ej: Bash, Python).
- Conocimiento de herramientas de monitoreo y optimización de bases de datos.
- Conocimiento profundo de Oracle RAC (Real Application Clusters), Data Guard, ASM
(Automatic Storage Management), y Oracle Multitenant.
- Familiaridad con sistemas operativos basados en Linux/Unix.
- Conocimiento de políticas de backup y recuperación de datos (RMAN, Data Pump).
- Experiencia en seguridad y encriptación de datos en bases de datos.
- conocimientos en PLSQL y tunning a sentencias SQL
- Experiencia en migración de bases de datos hacia entornos Cloud (deseable).
- Conocimiento general de redes y seguridad en la gestión de bases de datos (deseable).

Condiciones

Modalidad de contratación: Plazo fijo
Duración del proyecto: 15 meses

APPLY VIA WEB View Job
$$$ Full time
Desarrollador Especialista en Automatización y DevOps
  • SONDA
  • Santiago (Hybrid)
JavaScript Java Python PHP

En SONDA, la Innovación es parte de nuestro ADN.
Miramos hacia el futuro focalizándonos en las últimas tendencias y noticias sobre innovación, tecnologías con impacto y sostenibilidad.
Conocemos los desafíos y demandas de la región y contamos con un amplio portafolio de soluciones de negocio especializadas en las principales industrias del mercado.

Vive la experiencia SONDA en nuestra división de Data Center, en la unidad de Delivery.

Send CV through Get on Board.

· Programar la solución de software de acuerdo a las normas y herramientas de la empresa, con el fin de cumplir los estándares de calidad definidos en el acuerdo previo de nivel de atención al cliente, garantizando un servicio de excelencia.

· Ejecutar funciones de acuerdo al software proporcionado con las especificaciones de diseño.

· Analizar los requisitos del sistema y los procesos de negocio existentes y sistemas de información.

· Construir mejoras y resolver errores.

· Construir y ejecutar pruebas unitarias y planes de pruebas unitarias.

Requerimientos del cargo

· Título profesional correspondiente al área TI.

· Desde 3 años de experiencia en cargos similares.

· Sólida experiencia en Linux y arquitecturas orientadas a microservicios

· Conocimientos en Cloud Computing.

· Experiencia con bases de datos relacionales (SQL Server, Oracle) y NoSQL (MongoDB).

· Conocimientos de programación backend y frontend con lenguajes: JavaScript, Python, PHP, Java, NodeJS, React y otros

· Experiencia en despliegue e integración continua CI/CD con alguna herramienta como; Jenkins, GitLab CI/CD, Azure DevOps, GitHub Actions, ArgoCD

· Experiencia en integración de aplicaciones y tecnologías: Cloud, SaaS, API Management.

· Manejo de GIT / GitHub

· Deseable experiencia en desarrollo de aplicaciones que integren o interactúen con soluciones de Inteligencia Artificial (IA), como modelos de lenguaje, sistemas de recomendación o APIs de IA.

· Deseable experiencia en herramientas de automatización de IaC como Asible, Terraform, CloudFormation, entre otras.

Opcionales

· Capacidad para colaborar con desarrolladores y administradores de sistemas en la definición de arquitecturas óptimas de procesamiento, contenedores y bases de datos.

Conditions

Wellness program SONDA offers or subsidies mental and/or physical health activities.
Life insurance SONDA pays or copays life insurance for employees.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage SONDA pays or copays health insurance for employees.
Retirement plan SONDA pays or matches payment for plans such as 401(k) and others.
Commuting stipend SONDA offers a stipend to cover some commuting costs.
Computer provided SONDA provides a computer for your work.
APPLY VIA WEB View Job
Gross salary $2300 - 2500 Full time
DevOps
  • coderslab.io
  • Santiago (Hybrid)
Python Linux DevOps Virtualization

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un DEVOPS para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Apply to this job without intermediaries on Get on Board.

Funciones del cargo

Ingeniero de Plataforma con sólida experiencia en la gestión e implementación de infraestructura como código (IaC) y automatización de plataformas híbridas y multicloud. Especialista en Oracle Cloud Infrastructure (OCI), con dominio avanzado de Oracle Linux (8 y 9), incluyendo hardening, tuning y troubleshooting de sistemas en
entornos productivos críticos.
Competente en el diseño y operación de arquitecturas basadas en contenedores usando Kubernetes, Helm, GitLab CI/CD, ArgoCD, y Kong API Gateway, garantizando despliegues seguros, reproducibles y escalables. Fuerte orientación a la seguridad y gestión de secretos mediante HashiCorp Vault, cumpliendo estándares como PCI-DSS
y buenas prácticas de ciberseguridad.
Habilidad avanzada en scripting con Bash y Python para automatización de procesos, integración de pipelines y monitoreo. Experiencia práctica en diseño de pipelines CI/CD robustos, infraestructura autoservicio y GitOps.
Ideal con experiencia en otros motores como MSSQL, Postgresql y mysql

Requerimientos del cargo

Stack Principal
Cloud: Oracle Cloud (OCI), incluyendo Networking, IAM, Compute, VCN, Object
Storage, Vulnerability Scanning, WAF
Linux: Oracle Linux 8/9 (hardening, performance tuning, SELinux, systemd)
IaC & Automatización: Terraform (módulos reutilizables, workspaces, state remotos),
GitLab CI, ArgoCD
Contenedores: Docker, Kubernetes, Helm, Argo Workflows, Kong Ingress
Seguridad: HashiCorp Vault, integración con OCI IAM, gestión de tokens y políticas
Scripting: Bash avanzado, Python (scripts para automatización, integración con APIs
REST)
Docker: gestion de imagenes docker.

Fortalezas

Implementación de infraestructura reproducible y versionada en OCI con Terraform.
Automatización de despliegues mediante GitOps (ArgoCD) y pipelines CI/CD en
GitLab.
Integración segura de servicios mediante Kong y políticas personalizadas.
Gestión de secretos y credenciales dinámicas en entornos sensibles usando Vault.
Experiencia en entornos bancarios y regulados, con foco en cumplimiento y resiliencia.

Condiciones

Modalidad de contratación: Plazo fijo
Duración del proyecto: 15 meses con renovacion

APPLY VIA WEB View Job
Gross salary $2000 - 2500 Full time
Senior Infrastructure Engineer (AWS)
  • Niuro
Python Linux DevOps Virtualization
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality.
We empower projects by providing autonomous, high-performance tech teams, specialized in partnering with top-tier U.S. companies. With a strong focus on professional growth, Niuro offers continuous training in technical and soft skills as well as leadership development to ensure success in innovative and challenging projects. We also manage all administrative tasks including hiring, payments, and training, allowing our teams to focus on delivering exceptional results. Joining Niuro means working within a collaborative environment where talent can grow and reach its full potential, participating in impactful and technically rigorous industrial data projects that drive innovation and professional growth.

Applications: getonbrd.com.

Technical Snapshot & Key Responsibilities

  • Architect and maintain multi-account infrastructure in AWS using Terraform, including reusable modules, remote state management, drift detection, and enforcement of security and cost policies.
  • Operate Kubernetes/EKS clusters and large-scale EC2 fleets with features such as autoscaling, right-sizing, and blue/green deployments (surge and rollback).
  • Automate golden AMI pipeline creation using tools like Packer and AWS Systems Manager (SSM).
  • Manage critical Windows Server workloads and IIS in production: hardening, patching, centralized log management, and scaling IIS behind ALB/NLB.
  • Implement end-to-end observability solutions, unifying logs, metrics, and traces across CloudWatch, OpenSearch/ELK, Datadog, FluentBit, and Winlogbeat, creating dashboards and alerts that reduce 5xx errors and accelerate root cause analysis.
  • Conduct infrastructure sweeps and tuning to improve reliability, fix misconfigurations, optimize RDS (failover, replicas, connection management) and FSx, and enforce checks through CI/CD pipelines.
  • Design and execute performance readiness testing including load and stress tests with tools like k6, Locust, JMeter, and Python scripts to validate scaling and eliminate bottlenecks before peak traffic periods.

Requirements

  • 5+ years experience in DevOps, Infrastructure Engineering, or Site Reliability Engineering (SRE) roles.
  • Advanced expertise in AWS services including RDS, FSx, CloudWatch, EC2, and ELB.
  • Hands-on experience with Terraform and Kubernetes, strongly preferred expertise with EKS.
  • Practical production experience managing Windows Server and IIS workloads on AWS including patching, scaling, and integrating IIS logs.
  • Expertise in EC2 scaling strategies and golden AMI image workflows.
  • Proven skills deploying and managing observability stacks that provide actionable alerts and diagnostics.
  • Strong background in performance and load testing methodologies.
  • Proficient scripting skills in Python and Bash; PowerShell experience is a plus.
  • Excellent communication skills, systems thinking ability, and meticulous attention to detail.

Nice-to-Have Skills

  • Experience with policy-as-code tools such as Open Policy Agent (OPA) or Sentinel.
  • Knowledge of service mesh or serverless architecture patterns.
  • Expertise in security automation frameworks including CIS benchmarks and AWS Inspector.
  • Familiarity with cost-optimization tooling in cloud environments.
  • Leadership experience managing high-traffic incidents and operational response.

Benefits

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
APPLY VIA WEB View Job
Gross salary $3000 - 3300 Full time
Ingeniero/a DevOps
  • Magnet
Python Linux Go DevOps

Magnet es una empresa de ingeniería enfocada en usar software para entregar soluciones de alta calidad a los problemas de nuestros clientes. Nos gusta entender sus procesos y su negocio para así entregarles el máximo valor posible.

Hace 13 años comenzamos desarrollando pequeñas plataformas de software, pero hoy trabajamos en grandes proyectos, como gestionar las limitaciones operacionales de una aerolínea completa o digitalizar el proceso de migraciones de un país.

Si bien somos bastante exigentes en términos técnicos, ya que tenemos un gran enfoque en la ingeniería, también nos dedicamos a pasarlo bien cada vez que podemos. En ese sentido, nos esforzamos muchísimo en tener una cultura abierta, que le permita a todas/os crecer profesionalmente y sentirse bien en su trabajo, no solo porque entendemos que entregar productos de calidad está directamente relacionado a un equipo feliz, si no que porque ese es el tipo de empresa que decidimos formar.

Apply at the original job on getonbrd.com.

Propósito del cargo

¡Únete a nuestro equipo como Ingeniero/a DevOps y lidera la transformación cloud!

Estamos buscando a alguien con experiencia para reforzar nuestro equipo, necesitamos dos personas que realicen migraciones de entornos on-premise a la nube, garantizando una transición fluida y eficiente.

Responsabilidades y habilidades

  • Planificar y ejecutar migraciones estratégicas de infraestructura y aplicaciones desde entornos on-premise a plataformas cloud.
  • Diseñar e implementar soluciones robustas de orquestación y automatización utilizando Kubernetes y OpenShift Cloud.
  • Administrar y optimizar entornos virtualizados con VMware, preparándolos para la transición a la nube.
  • Implementar y mantener prácticas de Integración Continua (CI) y Entrega Continua (CD) para agilizar los despliegues.
  • Garantizar la seguridad y el cumplimiento normativo de la infraestructura y los datos migrados en la nube, aplicando las mejores prácticas y estándares.
  • Identificar y resolver problemas técnicos complejos relacionados con la infraestructura, las migraciones y la operación en la nube.
  • Colaborar activamente con equipos de desarrollo, operaciones y seguridad para fomentar una cultura DevOps.

Requisitos mínimos

  • Experiencia mínima de 2 años o más como Ingeniero/a DevOps.
  • Experiencia trabajando con OpenShift Cloud.
  • Conocimiento avanzado y experiencia práctica con Kubernetes.
  • Experiencia en administración y operación de entornos VMware.
  • Conocimiento y experiencia práctica en plataformas cloud (AWS, Azure, GCP).
  • Experiencia con herramientas de Infraestructura como Código (IaC) como Terraform o Ansible.
  • Habilidades de scripting avanzadas (Python, Bash, Go) para automatización y resolución de problemas.

Requisitos deseables

  • Certificaciones en plataformas cloud (AWS, Azure, GCP).
  • Experiencia con metodologías ágiles (Scrum, Kanban).
  • Conocimiento de principios de DevSecOps.

Beneficios

Nos esforzamos en crear un ambiente de trabajo y una cultura que potencie a nuestro equipo. Tenemos una organización horizontal en la que hay espacio para el aporte de todos al tomar decisiones. Fomentamos una cultura abierta para tener feedback constante por parte del equipo y así mejorar cuando nos equivocamos.

Celebramos los cumpleaños y planificamos actividades de encuentro de equipo durante el año. También el equipo ha creado varios "clubes secretos" que organizan actividades por su cuenta (after office, salidas al cine, etc).

Además:

  • Seguro complementario de salud, dental y catastrófico.
  • Descuentos en farmacias y convenios con instituciones.
  • Espacios de capacitación, con acceso a cursos y material.
  • Inducciones para asumir tus responsabilidades.
  • Soporte práctico y teórico, al cual podrás acudir en cualquier momento.
  • Actividades anuales, como el aniversario y el paseíto de fin de año.

Internal talks Magnet offers space for internal talks or presentations during working hours.
Life insurance Magnet pays or copays life insurance for employees.
Paid sick days Sick leave is compensated (limits might apply).
Digital library Access to digital books or subscriptions.
Health coverage Magnet pays or copays health insurance for employees.
Company retreats Team-building activities outside the premises.
Computer repairs Magnet covers some computer repair expenses.
Dental insurance Magnet pays or copays dental insurance for employees.
Computer provided Magnet provides a computer for your work.
Personal coaching Magnet offers counseling or personal coaching to employees.
Shopping discounts Magnet provides some discounts or deals in certain stores.
APPLY VIA WEB View Job
$$$ Full time
Instructor Java DevOps
  • Skillnest
JavaScript Java Python SQL

Skillnest es una academia de programación con una presencia global, originada en Silicon Valley y con más de 15 años de experiencia.
Llevamos cuatro años ofreciendo nuestros programas en Latinoamérica y nos destacamos por un enfoque flexible, orientado a resultados y centrado en la toma de decisiones basadas en datos.
Como equipo joven, estamos comprometidos con transformar vidas a través de la educación en programación y apoyamos activamente la empleabilidad de nuestros graduados.

Apply at getonbrd.com without intermediaries.

Funciones del cargo

Como instructor del programa Java DevOps, serás responsable de impartir clases en modalidad remota y sincrónica, utilizando plataformas como Zoom y Discord para facilitar la interacción directa con los estudiantes.

Tu labor se centrará en impartir el plan de estudios diseñado a través de la plataforma de estudio de Skillnest, el cual está diseñado para garantizar una experiencia de aprendizaje integral. Deberás guiar a los estudiantes a través de cada módulo, fomentando el uso de buenas prácticas de programación, y asegurando que puedan avanzar también de forma asíncrona, con acceso permanente a materiales de estudio y seguimiento de su progreso calendarización de contenidos establecida.

Durante el desarrollo del programa, serás responsable de guiar el aprendizaje y aplicación de las siguientes tecnologías y conceptos clave:

  • Bases de Datos Relacionales y No Relacionales (SQL & NoSQL)
  • Spring Boot (Fundamentos, estructura y configuración)
  • Pruebas Unitarias (JUnit, Mockito)
  • Arquitectura Hexagonal
  • WebFlux (Microservicios reactivos con Spring)
  • Docker (Contenerización de aplicaciones)
  • Spring Cloud (Comunicación entre microservicios)
  • Buenas prácticas en Spring Boot (Documentación, manejo de excepciones, estructuración de código)
  • Spring Security (Autenticación y autorización)
  • Servicios en la Nube con AWS:
    • Teórico: fundamentos para la toma de decisiones técnicas
    • Práctico: despliegue de aplicaciones basadas en microservicios
  • Principios y herramientas de DevOps

Requerimientos del cargo

1. Experiencia Técnica

  • Experiencia comprobada en arquitectura de software en la nube, con capacidad para aplicar enfoques profesionales en el desarrollo de soluciones distribuidas.
  • Sólida trayectoria en desarrollo de software y programación, con enfoque en buenas prácticas y metodologías modernas.
  • Manejo fluido de herramientas y conceptos asociados al ecosistema DevOps y despliegue en entornos productivos.

2. Habilidades Docentes

  • Experiencia mínima de 1 año enseñando al menos 3 de las siguientes 7 áreas de conocimiento:
    • Programación orientada a objetos
    • Lenguajes de scripting (Python, Java, JavaScript, entre otros)
    • Bases de datos (relacionales y no relacionales)
    • Ciberseguridad
    • Conectividad y redes (AWS, Google Cloud, Microsoft Azure)
    • DevOps
    • Ciencia de datos y aprendizaje automático

3. Habilidades Complementarias

  • Nivel de inglés intermedio o avanzado, tanto escrito como leído.
  • Disponibilidad para participar en una capacitación previa al inicio del curso, con el fin de familiarizarse con el plan curricular, herramientas institucionales y dinámicas pedagógicas.
  • Dedicación de 10 horas de instrucción semanales, distribuidas entre sesiones sincrónicas de clases y taller práctico, solución de dudas a través de Discord.
  • Dedicación para trabajo administrativo de 4 horas semanales para preparación de clases, revisión de actividades prácticas, desafíos técnicos y seguimiento a estudiantes.

Condiciones

  • Acceso al contenido de los programas de Skillnest para capacitación personal.
  • Capacitación sobre la metodología de enseñanza de Skillnest antes de iniciar el bootcamp.
  • Trabaja remoto desde cualquier lugar del mundo.
  • Capacidad de crecimiento en el área de educación en desarrollo de software y programación. No queremos que impartas sólo un programa de estudio. Dependiendo de tu experiencia podrías impartir más bootcamps.

Si eres un apasionado de la programación, la enseñanza y buscas un entorno de trabajo desafiante. Únete a Skillnest y sé parte de la revolución educativa en programación

Fully remote You can work from anywhere in the world.
APPLY VIA WEB View Job
Gross salary $1500 - 2000 Full time
Senior Load Tester – AWS & Integrations
  • Niuro
JavaScript Python REST API Linux
Niuro connects projects with elite tech teams to collaborate with leading U.S. companies. This role involves working on AWS-hosted systems, Aestiva-based applications, and third-party integrations, focusing on load and performance testing. The project emphasizes creating realistic load scenarios, identifying bottlenecks, and optimizing scalability and performance. The work supports continuous integration and deployment pipelines to enhance system reliability and efficiency and is tailored for diverse distributed environments.

Apply only from getonbrd.com.

About the Role:

We’re looking for a Senior Load Tester to design and execute load testing strategies for systems hosted on AWS, applications built with Aestiva framework, and various third-party integrations. Your main goal will be to simulate real-world usage through custom scripting, identify system performance bottlenecks, and ensure that applications scale reliably under stress.
Your responsibilities will include automating test executions, monitoring key system metrics such as CPU, memory, I/O, latency, and throughput, and working closely with engineering and DevOps teams. You'll integrate testing results and detailed reports into CI/CD pipelines, helping to drive continuous performance improvements and operational excellence.

Requirements:

  • Minimum 5 years of experience in performance and load testing within distributed systems environments.
  • Strong scripting skills using tools such as JMeter, Gatling, k6, along with languages like Python, Bash, or JavaScript.
  • Hands-on experience with AWS services including EC2, RDS, Load Balancers, and CloudWatch.
  • Familiarity with REST APIs, JSON, and asynchronous workflows.
  • Experience working with CI/CD tools like TeamCity, Jenkins, or GitLab CI, and monitoring platforms such as Grafana and New Relic.
  • Proven ability to analyze logs, traces, and performance metrics for diagnosis and troubleshooting.
  • Conversational English proficiency to effectively collaborate with US-based teams.

Nice to Have:

  • Knowledge of containerization and orchestration technologies such as Docker and Kubernetes.
  • Experience performing security and failover testing to ensure robustness.
  • Background in regulated industries including fintech or government technology sectors.

Benefits:

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
APPLY VIA WEB View Job
$$$ Full time
Ingeniero QA
  • MetroPago
  • Santiago (Hybrid)
Python Agile Git SQL
MetroPago trabaja para conectar personas con soluciones de movilidad más ágiles, accesibles y sostenibles, facilitando experiencias de transporte enfocadas en la eficiencia y la cercanía. El proyecto busca transformar y mejorar la forma en que los usuarios se mueven, impulsando un sistema integrado y centrado en las personas que contribuye a ciudades más conectadas y sustentables.

This job is exclusive to getonbrd.com.

Objetivos del Cargo:

El Ingeniero QA será responsable de garantizar la calidad y el correcto funcionamiento de las soluciones tecnológicas desarrolladas en MetroPago. Sus principales funciones incluyen:

  • Definir e implementar estrategias de prueba desde el análisis de requerimientos y criterios de aceptación.
  • Identificar los tipos de pruebas necesarias: funcionales, no funcionales, integración, smoke, sanidad y regresión.
  • Gestionar todo el ciclo de defectos: reportar, monitorear y verificar desde la detección hasta el cierre.
  • Colaborar en células ágiles participando en refinamientos, kickoffs y análisis temprano de riesgos y defectos durante el ciclo de vida del software.
  • Proponer mejoras en procesos, ampliar cobertura de pruebas y adoptar nuevas tecnologías.
  • Diseñar, desarrollar y mantener frameworks de automatización para pruebas funcionales, ejecutando y analizando los resultados según los planes de prueba de cada funcionalidad.
  • Generar reportes de calidad y KPIs relacionados con el desempeño de las pruebas, promoviendo iniciativas de mejora continua.

Descripción del Puesto:

Buscamos un Ingeniero QA con experiencia en calidad de software que posea un enfoque analítico y meticuloso para asegurar la excelencia de nuestras soluciones tecnológicas. La persona ideal debe tener conocimientos sólidos en la definición y ejecución de estrategias de prueba diversas, desde pruebas manuales hasta automatizadas, y en herramientas para la gestión de defectos y automatización. Es fundamental que se adapte a trabajar de forma colaborativa en equipos ágiles, comunicándose eficazmente con desarrolladores, equipos de producto y operaciones para identificar oportunidades de mejora y garantizar entregables con altos estándares.
Además, valoramos habilidades blandas como la proactividad para proponer mejoras, capacidad de análisis para identificar riesgos tempranos y orientación al detalle en la documentación y reporte de defectos. La experiencia previa en el diseño y mantenimiento de frameworks de automatización será clave para el éxito en el rol.

Competencias Deseables:

  • Experiencia en técnicas y tipos de pruebas de Performance (Estrés y Volumen)
  • Herramientas: K6 o Locust.
  • Manejo de Contenedores, Entornos Virtuales y Ejecución de pruebas en pipelines.
  • Observabilidad de Producto: Experiencia con logs, dashboards y alertas usando herramientas como Grafana, Kibana, New Relic.
  • Certificación ISTBQ Foundation Level
  • Automatización de Pruebas Funcionales: Dominio de frameworks como Playright, Appium y Cypress. Experiencia automatizando pruebas de interfaz y backend.
  • Manejo de Herramientas de Testing y Lenguajes: Python como lenguaje de preferencia. Herramientas como pyTest, Behave, Postman y Newman.
  • Diseño y Gestión de Casos de Prueba: Manejo de Herramientas en la gestión de Pruebas y defectos (Jira: xRail, qAlity Plus, Zephyr o ALM).
  • Experiencia en el uso práctico de sistemas de control de versiones (git con Azure repos, Gitlab o Github)
  • Experiencia en el uso de base de datos Relacionales y No Relacionales para realizar consultas.

Beneficios:

  • Modelo híbrido de trabajo, con flexibilidad y reducción de jornada los viernes hasta las 14 horas.
  • Seguro Complementario Full para el equipo.
  • Vacaciones+: hasta 6 días extras según antigüedad, además de días especiales para momentos importantes.
  • MetroPass: tarjeta para acceder a la Red Metro — nuestra propia Bip!
  • Aguinaldos, Giftcards y beneficios adicionales exclusivos de MetroPago.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks MetroPago offers space for internal talks or presentations during working hours.
Life insurance MetroPago pays or copays life insurance for employees.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Health coverage MetroPago pays or copays health insurance for employees.
Dental insurance MetroPago pays or copays dental insurance for employees.
Computer provided MetroPago provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Shopping discounts MetroPago provides some discounts or deals in certain stores.
Vacation over legal MetroPago gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
Parental leave over legal MetroPago offers paid parental leave over the legal minimum.
APPLY VIA WEB View Job
Gross salary $4500 - 6500 Full time
Platform Engineer
  • DynWrk
Python Linux Go DevOps
DynWrk builds and operates dedicated software engineering teams in Chile for U.S. companies, attracting top talent in the Americas. We specialize in building, managing, and training tech teams for global impact.
Vivint is a leading technology company redefining the home experience, leveraging cutting-edge technology and innovative services to enable safer, smarter, and more sustainable homes for millions of users.

Exclusive offer from getonbrd.com.

Job functions

At Vivint, you will join a forward-thinking team dedicated to shaping the future of smart homes for millions of users. We seek a skilled Platform Engineer to build, maintain, and scale foundational systems for our software development lifecycle. This role focuses on creating reliable, scalable, and efficient infrastructure and tooling, enabling rapid and safe software delivery. Key responsibilities include:

  • Design, build, and maintain internal platforms, CI/CD pipelines, infrastructure-as-code (IaC), and automation tools.
  • Collaborate with DevOps, SREs, developers, and QA to enhance developer experience and streamline deployments.
  • Manage cloud infrastructure (e.g., AWS, GCP, Azure) and container orchestration systems (e.g., Kubernetes, ECS).
  • Monitor and improve system performance, reliability, and scalability.
  • Implement best practices in security, compliance, observability, and disaster recovery.
  • Write technical documentation and guide on platform tool usage.
  • Support incident response and root cause analysis for platform-related issues.

Qualifications and requirements

  • Bachelor’s degree in Computer Science, Engineering, or a related technical field.
  • 5+ years of experience in platform engineering, DevOps, or infrastructure engineering.
  • Proficiency with infrastructure-as-code tools (e.g., Terraform, Ansible).
  • Strong knowledge of CI/CD pipelines and tools (e.g., Bitbucket, Jenkins, ArgoCD).
  • Extensive experience with containerization and orchestration (e.g., Docker, Kubernetes).
  • Proven experience with major cloud services (e.g., AWS, Azure).
  • Strong programming/scripting skills in Python, Go, Bash, or similar.
  • Excellent written and verbal English communication skills.

Conditions

  • Opportunities for professional development within an international team.
  • Competitive salary.
  • Full-time position with a Chilean employment agreement (Contrato de trabajo).

APPLY VIA WEB View Job
$$$ Full time
Ingeniero DevOps SRE (Chile Perú Colombia)
  • Adecco
Python DevOps Continuous Deployment Kubernetes
El cliente con más de 15 años dedicado a transformar el mundo a través de la tecnología mediante soluciones de Analytics, Desarrollo, Automatización y otros servicios, con presencia en España y Latinoamérica, está incorporando un Ingeniero DevOps - SRE a su equipo. Esta empresa se especializa en ofrecer soluciones tecnológicas que impulsan la innovación y la eficiencia operativa en diversas industrias, manteniéndose a la vanguardia mediante el uso de tecnologías modernas y metodologías agiles.

Apply directly from Get on Board.

Responsabilidades del cargo

  • Asegurar que los sistemas y servicios de la organización sean altamente disponibles, escalables, eficientes y confiables.
  • Desarrollar flujos de autoremediación y obtener eficiencia operativa.
  • Implementar procesos robustos de mejora continua.
  • Coordinar la respuesta frente a incidentes, incluyendo identificación, diagnóstico y resolución de problemas.
  • Gestionar el equilibrio entre el lanzamiento de nuevas características y mantener la estabilidad del sistema.
  • Fomentar la colaboración interdisciplinaria dentro del equipo y otras áreas.
  • Promover el cambio cultural hacia SRE (Site Reliability Engineering).
Herramientas y tecnologías: GitHub, Dynatrace, Draw.io, JMeter, Visual Studio, Azure Cloud, Citrix, Office.
Tecnologías clave con nivel de manejo:
  • GitHub Actions [Avanzado]
  • Dynatrace [Avanzado]
  • Arquitectura de Sistemas [Avanzado]
  • Kubernetes y Contenedores [Avanzado]
  • Programación en Python, TypeScript, otros [Intermedio]
  • Infraestructura como código (Ansible, Terraform) [Intermedio]
  • DevSecOps [Intermedio]
  • Cloud Azure [Intermedio]
  • CI/CD [Intermedio]
  • Scripting en Bash [Intermedio]
  • Git [Intermedio]

Requisitos del puesto

Buscamos un profesional con mínimo 2 años de experiencia como Ingeniero DevOps, Ingeniero DevSecOps, SRE o en roles similares. Es indispensable ser egresado de las carreras universitarias de Ingeniería de Sistemas, Ingeniería Informática o Ingeniería de Software.
Se valoran habilidades interpersonales sólidas, con enfoque en el trabajo en equipo y buen relacionamiento. Buscamos a alguien motivado por impulsar el cambio cultural hacia la filosofía SRE, que tenga compromiso con la eficiencia operativa y la mejora continua.
Entre las competencias técnicas se requieren conocimientos avanzados en manejo de herramientas y tecnologías como GitHub Actions, Dynatrace, arquitectura de sistemas, Kubernetes, y contenedores. También es relevante el uso de lenguajes de programación Python y TypeScript, infraestructura como código con Ansible y Terraform, y experiencia en DevSecOps y CI/CD, entre otros.

Competencias y habilidades valoradas

Además de los requisitos técnicos y académicos, valoramos la experiencia en ambientes híbridos y dinámicos, capacidad para coordinar respuesta a incidentes bajo presión, y compromiso con la cultura DevOps/SRE. La capacidad para colaborar interdisciplinariamente y adaptarse a procesos de mejora continua es un plus importante.
Conocimientos adicionales en automatización avanzada, monitoreo y optimización continua, así como experiencia trabajando con plataformas de nube Azure en un contexto global, también serán apreciados.

¿Qué te ofrecemos?

Contrato indefinido y planilla 100% desde el primer día.

Trabajo remoto (debes ser residente de Chile, Perú o Colombia)

Cobertura EPS 100% (Plan Esencial) y Seguro de Vida Ley.
Oportunidades de desarrollo profesional y crecimiento.
Acceso a plataforma de capacitación online gratuita.
Mediodía libre por cumpleaños.
Descuentos y convenios en educación, gimnasio y más.
Formar parte de una empresa internacional líder en consultoría y servicios TI.

Fully remote You can work from anywhere in the world.
APPLY VIA WEB View Job
Gross salary $2700 - 3500 Full time
DevOps
  • coderslab.io
JavaScript Python Redis Node.js
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un DEVOPSpara unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

This job offer is available on Get on Board.

Funciones del cargo

• Diseñar, implementar y mantener pipelines de integración y entrega continuas
(CI/CD).
• Colaborar con equipos de desarrollo para integrar prácticas DevOps en el ciclo de
vida del desarrollo de software.
• Automatizar procesos de infraestructura y despliegue de aplicaciones.
• Administrar y mantener la infraestructura en la nube y servidores.
• Monitorear y mejorar la disponibilidad, rendimiento y seguridad de los sistemas.

Requerimientos del cargo

• Dominio en administración de servicios en la plataforma AWS, incluyendo
Lambda, RDS, EventBridge, SNS, SQS, SES, IAM, IAM Role, S3, EC2, ECS, Secret
Manager, GuardDuty, Security Hub, CloudTrail, Cloudfront, CloudWatch, API
Gateway, WAF, OpenSearch, DynamoDB, Redis, Route53, Step Functions.
• Experiencia en construcción de infraestructura como código (IaC) con Terraform y
Cloudformation (herramientas excluyentes).
• Experiencia en despliegue de aplicaciones móviles offline.
• Experiencia con GitHub como gestor de código fuente y GitHub Actions como
herramienta de despliegue.
• Experiencia en análisis de código estático con SonarCloud.
• Experiencia en desarrollo de código con Python y Node.js con objetivo
operacional.
• Conocimiento en lenguaje SQL y gestión de bases de datos transaccionales.
• Habilidades de trabajo en equipo, autogestión, proactividad y comunicación
efectiva.
• Conocimientos en bases de datos NoSQL y bases de datos embebidas

APPLY VIA WEB View Job
Gross salary $2100 - 3000 Full time
Ingeniero Soporte Cloud y DevOps
  • Agilesoft SpA
Python Linux DevOps Virtualization

Agilesoft SpA es una pequeña empresa especializada en el desarrollo de software web y móvil, apasionada por las nuevas tecnologías, la innovación y un ambiente laboral agradable. Actualmente, buscamos expandir nuestro equipo técnico con la incorporación de dos Ingenieros de Soporte especializados en Cloud, DevOps, Kubernetes y Linux, que se sumen al equipo de operaciones y soporte de infraestructuras críticas. Estos profesionales serán clave para asegurar la estabilidad, disponibilidad y escalabilidad de las plataformas que soportan nuestros proyectos, aplicando prácticas de Site Reliability Engineering (SRE) y solución avanzada de problemas técnicos.

Official source: getonbrd.com.

Funciones

  • Implementar, administrar y optimizar infraestructuras en la nube utilizando tecnologías como Kubernetes (K8S) y herramientas DevOps.
  • Proporcionar soporte avanzado en Linux para entornos productivos, incluyendo diagnóstico, troubleshooting y solución de incidentes complejos.
  • Monitorear y garantizar la disponibilidad y rendimiento de los servicios cloud, aplicando las mejores prácticas de SRE.
  • Colaborar en la automatización de procesos para mejorar la eficiencia operativa y la entrega continua.
  • Documentar procesos, soluciones y participar en mejoras continuas del ciclo de vida del software y la infraestructura.
  • Trabajar colaborativamente con equipos de desarrollo y operaciones para asegurar una integración fluida y el despliegue seguro de aplicaciones.

Perfil requerido

Buscamos dos ingenieros con experiencia intermedia a avanzada en soporte y operación de infraestructuras cloud. Deberán tener conocimientos sólidos y demostrables en Kubernetes, Linux y metodologías DevOps. Se valorará experiencia en troubleshooting avanzado, monitoreo con herramientas modernas y principios de Site Reliability Engineering (SRE).

Es imprescindible que sean profesionales proactivos, con pensamiento analítico y capacidad para resolver problemas complejos bajo presión. Deben contribuir a mejorar la estabilidad y escalabilidad de los sistemas, trabajando con mentalidad colaborativa y comunicándose claramente en equipo. Buscamos personas apasionadas por la tecnología, orientadas al aprendizaje continuo y que disfruten aportar en un ambiente dinámico y flexible.

  • Experiencia práctica en administración de Linux (preferentemente distribuciones como Ubuntu, CentOS o Debian).
  • Dominio de Kubernetes y orquestación de contenedores.
  • Manejo de herramientas DevOps y CI/CD.
  • Capacidad para identificar y resolver problemas de infraestructura y aplicaciones en producción.
  • Conocimientos de cloud pública (AWS, Azure o Google Cloud) serán un plus.
  • Habilidades para documentar y estandarizar procesos.

Habilidades y conocimientos deseables

  • Experiencia con herramientas de monitoreo como Prometheus, Grafana o similares.
  • Conocimientos en scripting (Bash, Python) para automatización.
  • Familiaridad con la implementación de políticas de seguridad en entornos cloud.
  • Experiencia en metodologías ágiles y trabajo en equipos multidisciplinarios.
  • Certificaciones relacionadas a Kubernetes, DevOps o Cloud.

Condiciones

En Agilesoft ofrecemos un ambiente laboral grato, flexible, entretenido y dinámico, ideal para desarrollarse profesionalmente mientras se disfruta del trabajo en equipo. Proporcionamos computador para el trabajo, contrato indefinido y modalidad 100% remota, permitiendo trabajar desde cualquier ubicación.

Además contamos con beneficios de caja de compensación Los Andes para Chile, seguro complementario de salud y dental para empleados chilenos, y seguro Yunen para colaboradores en República Dominicana.

Health coverage Agilesoft SpA pays or copays health insurance for employees.
Computer provided Agilesoft SpA provides a computer for your work.
APPLY VIA WEB View Job
Gross salary $750 Full time
Práctica Desarrollador Ops
  • Pulso Escolar
  • Santiago (Hybrid)
JavaScript Ruby Ruby on Rails Python
Pulso Escolar es nuestra plataforma que ayuda a colegios a gestionar su convivencia y comunidad usando datos. Para hacerlo levanta información desde estudiantes, apoderados y profesores usando encuestas en más de 250 colegios sobre temas complejos de medir como el bienestar emocional, experiencia en clases, clima escolar y otros.
¿Cómo es trabajar en Pulso Escolar?
  • Usamos metodologías ágiles y desarrollo de primer nivel
  • Tenemos flexibilidad horaria
  • Usamos y hacemos tecnología de punta
  • No tenemos código de vestimenta
  • Todos colaboramos en el aprendizaje de los demás
  • Somos parte del ecosistema Platanus Ventures

Apply directly on the original site at Get on Board.

¿Qué hace un practicante en el equipo de Ops de Pulso Escolar?

Te sumarás al equipo de operaciones de Pulso Escolar, en una posición única donde desarrollarás herramientas internas que tú mismo y el resto del equipo de Ops utilizarán. En este rol:

  1. Trabajarás en ciclos de Shape up de 2 semanas exclusivos para el equipo de Ops
  2. Alternarás entre desarrollar herramientas para optimizar operaciones y dar soporte a clientes
  3. Harás revisión de código y recibirás retroalimentación de otros desarrolladores

Una experiencia exitosa considera que el practicante:

  1. Se sumó al equipo de manera armónica y tiene buenas relaciones interpersonales
  2. Logra entender las necesidades del equipo de Ops y desarrollar soluciones que realmente mejoren su trabajo diario
  3. Da soporte a clientes de manera satisfactoria

Cronograma

1ra semana: Inducción y familiarización con el equipo de Ops y sus procesos, tomarás tareas simples que te permitan entender las necesidades operativas y nuestra arquitectura.

2da semana: Comenzarás a involucrarte en la atención de requerimientos de clientes.

3ra y 4ta semana: Comenzarás tu primer ciclo de Shape up de 2 semanas, desarrollando herramientas internas

2do mes: Ya te habrás subido al carro con los ciclos de Shape up y la atención de requerimientos de clientes

Acá cuenta su experiencia Trini que hizo la práctica con nosotros.

Requerimientos del cargo

  • Tener experiencia desarrollando con lenguajes como Ruby, Python y JS
  • Tener conocimientos en desarrollo web con librerías reactivas (ejemplos Vue o React)
  • Tener conocimientos de frameworks de backend como Ruby on Rails
  • Disponibilidad de al menos dos meses (si tu práctica oficial es de un mes, te pedimos que te quedes dos)

Suma, pero no excluye

  • Experiencia con Google Cloud
  • Haber tomado cursos de desarrollo de software

Beneficios

  • Modalidad híbrida que permite trabajar desde casa algunos días.
  • Un excelente ambiente laboral con un enfoque colaborativo donde las ideas son lo más importante.
  • Café de alta calidad y actividades sociales en la oficina.

En Pulso Escolar, valoramos a cada miembro de nuestro equipo y fomentamos un entorno estimulante y de aprendizaje.

APPLY VIA WEB View Job
$$$ Full time
DevOps Engineer II
  • ZeroFox
  • Santiago (Hybrid)
Python Agile Go DevOps

Opportunity Overview

At ZeroFox, we are passionate about bringing world-class protection to the digital-first world. Together, we have built a system capable of collecting and analyzing data from all over the internet, creating a paradigm-shifting cybersecurity product that helps secure and protect our customers and improves the global threat landscape.

We are a team of software engineers, cybersecurity experts, and data scientists who continue to develop unparalleled solutions for the cyber security industry by providing the best Digital Risk Protection SaaS in the global market. Our company, services, and user base are growing faster than ever and we’d like you to help us innovate. We believe the greatest solutions in the Digital Risk Protection space come from composing teams with varied backgrounds and experiences that can use their complementary skill sets to come up with the best market-defining solutions.

© Get on Board. All rights reserved.

Role and responsibilities

  • Collaborate with product teams and software engineers across security, machine learning, digital risk protection, and cyber threat intelligence to develop the next generation of solutions for the ZeroFox platform
  • Gain in-depth knowledge of our microservices architecture and stack; leverage this knowledge to improve system stability, performance, scalability, and security
  • Own and maintain multiple components of our DevOps infrastructure, including CI/CD pipelines, monitoring solutions, and container orchestration platforms, with a focus on embedding security controls and checks
  • Begin to take on a leadership role within projects, guiding best practices around deployment automation, infrastructure as code, and secure configuration management
  • Research, evaluate, and implement new tooling or capabilities to ensure our systems meet or exceed production security requirements (e.g., scanning, patching, vulnerability management)
  • Coordinate with security stakeholders to review engineering milestones and third-party systems for compliance with security standards

Required qualifications and skills

  • Motivated, communicative, teamwork-oriented professionals comfortable working in agile environments
  • Bachelor’s degree in computer science or a related field, OR equivalent education or experience
  • DevOps experience, typically obtained in 3+ years
  • Good understanding of the software development lifecycle, automation, and CI/CD practices
  • Familiarity with cloud services like AWS for building and scaling web architecture, including basic security considerations and standards
  • Experience working with containerization and orchestration technologies such as Docker, Nomad, or Kubernetes
  • Ability to write and maintain infrastructure as code (e.g., Terraform or AWS CloudFormation), integrating security into IaC workflows
  • Good communication, collaboration, and presentation skills in English
  • Ability to work effectively in a fast-paced, agile environment

Desirable skills

  • Proficiency in scripting languages such as Python, Go, or a similar language
  • Experience troubleshooting networking issues in a cloud environment, including basic network security principles
  • Familiarity with monitoring and alerting tools (e.g., Prometheus, Grafana, Datadog)
  • Solid knowledge of infrastructure best practices, security considerations, and automation tools
  • Understanding of or exposure to security scanning tools (e.g., SAST, DAST, or container image scanners)
  • We also value equivalent experience to these languages and frameworks. If you think you might be a fit, apply!

Benefits

  • Opportunities to learn and contribute your knowledge to our Digital Risk Protection platform
  • Competitive compensation
  • Competitive PTO
  • Complementary health insurance
  • Daily catered lunches for in-office work
  • Respectful and nourishing work environment, where every opinion is heard and everyone is encouraged to be an active part of the organizational culture.
  • Regular team bonding activities like cooking and cocktails classes, bingos, stand up comedy, magic shows, virtual happy hour, lunch and learns, etc.
  • Additional Parental Leave
  • Excellent communication: between teams, people, organizations and leaders

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance ZeroFox pays or copays life insurance for employees.
Meals provided ZeroFox provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage ZeroFox pays or copays health insurance for employees.
Dental insurance ZeroFox pays or copays dental insurance for employees.
Computer provided ZeroFox provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal ZeroFox gives you paid vacations over the legal minimum.
Beverages and snacks ZeroFox offers beverages and snacks for free consumption.
Parental leave over legal ZeroFox offers paid parental leave over the legal minimum.
APPLY VIA WEB View Job
$$$ Full time
Cloud/DevOps Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Python NoSQL DevOps Virtualization
En BC Tecnología somos una consultora de IT con amplia experiencia en diversas áreas tecnológicas, trabajando para clientes de sectores financieros, seguros, retail y gobierno. Nuestro enfoque está en el diseño y desarrollo de soluciones, administración de portafolios y outsourcing de profesionales, siempre bajo metodologías ágiles y con un fuerte alineamiento con las necesidades de los clientes. Este proyecto en particular tiene una duración inicial de 6 meses con posibilidad de extensión, y se basa en tecnologías punteras de la nube, automatización e infraestructura como código, enfocándose en ambientes cloud modernos y escalables.

Apply exclusively at getonbrd.com.

Responsabilidades principales

  • Participar en el desarrollo, implementación y mantenimiento de infraestructura en Google Cloud Platform (GCP), utilizando herramientas como BigQuery, Cloud Run, GKE y Cloud Scheduler.
  • Automatizar procesos y gestionar infraestructura mediante Terraform, asegurando la correcta gestión de recursos y estados.
  • Configurar y mantener pipelines CI/CD en GitLab, promoviendo la integración y entrega continua de software.
  • Administrar contenedores usando Docker y orquestación con Kubernetes para asegurar despliegues consistentes y escalables.
  • Gestionar bases de datos SQL y NoSQL, así como servicios serverless para optimizar la arquitectura del proyecto.
  • Trabajar en entornos Unix/Linux, asegurando la estabilidad y buen funcionamiento de la infraestructura.
  • Documentar procesos técnicos y colaborar activamente con el equipo para proponer mejoras continuas y soluciones innovadoras.

Requisitos técnicos y perfil del candidato

Buscamos un profesional con experiencia intermedia o superior en Python, capaz de desarrollar y automatizar componentes relacionados con DevOps y Cloud. Se requiere un sólido conocimiento en GCP, incluyendo servicios esenciales como BigQuery, Cloud Run, GKE y Cloud Scheduler, para construir infraestructuras escalables y eficientes.
El manejo avanzado de Terraform es imprescindible para gestionar la infraestructura como código, incluyendo la administración de recursos y estados. Además, la familiaridad con GitLab CI/CD es necesaria para orquestar pipelines de integración y despliegue continuo.
Se valoran también competencias en Docker y Kubernetes para la gestión de contenedores, así como experiencia en bases de datos SQL y NoSQL y en la utilización de servicios serverless. Un buen dominio de sistemas operativos Unix/Linux es requerido para el correcto desempeño en el entorno de trabajo.
Desde el punto de vista de habilidades blandas, buscamos personas con pensamiento crítico, autonomía y proactividad para detectar y sugerir mejoras en procesos. La capacidad para documentar procedimientos y colaborar eficazmente en equipo es fundamental para el éxito en este rol.
Si te apasiona trabajar en entornos cloud modernos con tecnologías escalables y afrontar retos técnicos constantes, esta posición es una gran oportunidad para seguir desarrollándote profesionalmente.

Habilidades y conocimientos adicionales valorados

Se valorará experiencia previa en manejo de servicios serverless avanzados y en la implementación de soluciones completas de infraestructura como código que involucren múltiples nubes o servicios híbridos. Conocimientos en metodologías ágiles, como Scrum o Kanban, serán apreciados, junto con habilidades para proponer y ejecutar mejoras que optimicen la eficiencia operacional. La experiencia en entornos de trabajo colaborativo y multidisciplinarios también es deseable.

Beneficios y ambiente laboral

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

APPLY VIA WEB View Job
Gross salary $2200 - 2500 Full time
Ingeniero/a QA Senior – Back-end Python
  • Robotia
  • Santiago (Hybrid)
Python Agile Git QA

Somos Robotia, una empresa joven y líder en el desarrollo de soluciones de visión artificial para procesos industriales, específicamente orientada a la minería y la industria a nivel nacional e internacional. Nuestro enfoque está en el desarrollo de tecnologías basadas en inteligencia artificial para apoyar la automatización y la toma de decisiones en tiempo real, contribuyendo así a la transformación digital del sector minero y otros procesos industriales relevantes.

Apply to this job without intermediaries on Get on Board.

Responsabilidades

  • Pruebas de aceptación: Diseñar y ejecutar casos de prueba que confirmen que cada funcionalidad satisface los criterios de negocio.
  • Pruebas de integración: Planificar y ejecutar pruebas que verifiquen el flujo operativo correcto entre múltiples componentes del sistema.
  • Automatización de pruebas y herramientas de QA: Implementar suites y software especializado para validar funcionalidades nuevas, pasadas y futuras.
  • Documentación y seguimiento: Documentar planes de prueba y resultados, reportar y dar seguimiento a incidentes de calidad en conjunto con los equipos de desarrollo para su resolución.
  • Propuesta de mejoras: Aportar con propuestas de herramientas avanzadas de QA enfocadas en pipelines de datos y modelos de IA.

Requisitos

Obligatorios:

  • Título universitario en Ingeniería de Software, Computación, Informática o carrera afín.
  • Mínimo 5 años de experiencia comprobable en roles de QA de software backend, preferentemente con Python.
  • Experiencia probada en diseño y ejecución de pruebas de aceptación e integración.
  • Dominio de herramientas y suites de testing: Cucumber, Postman, JMeter, Selenium y Cypress.
  • Familiaridad con control de versiones Git y metodologías ágiles (Scrum o Kanban).
  • Excelente comunicación en español, tanto escrita como verbal, y capacidad para trabajar en equipo.

Habilidades blandas y técnicas: Debemos contar con una persona con pensamiento analítico, meticuloso en la documentación, con capacidad para colaborar eficazmente con equipos multidisciplinarios y adaptabilidad a cambios tecnológicos constantes.

Deseables

  • Conocimiento en herramientas de gestión de QA como Jira, TestRail u otras similares.
  • Experiencia con librerías y frameworks relacionados con Machine Learning y Computer Vision (PyTorch, NumPy, OpenCV, Scikit-learn).
  • Familiaridad con entornos de integración y entrega continua (CI/CD), uso de contenedores Docker y monitoreo de calidad continua.
  • Experiencia previa en industrias de tecnología de alto rendimiento o minería, lo que será considerado una ventaja importante.

Beneficios

Horario flexible y un ambiente de trabajo moderno que fomenta la innovación.

Presupuesto anual para capacitación y cursos de especialización que facilitan el crecimiento profesional continuo.

Snacks, galletas y café de grano gratis disponibles en la oficina para mantener el buen ánimo durante la jornada.

Día de cumpleaños libre y permiso de 5 días administrativos al año.

Contrato inicial a tres meses con alta probabilidad de renovación a indefinido según desempeño.

Oportunidad de integrarse a un equipo técnico senior altamente capacitado y participar en proyectos innovadores de IA aplicada a minería y procesos industriales.

Partially remote You can work from your home some days a week.
Computer provided Robotia provides a computer for your work.
Informal dress code No dress code is enforced.
Beverages and snacks Robotia offers beverages and snacks for free consumption.
APPLY VIA WEB View Job
Gross salary $2400 - 2600 Full time
Desarrollador Automatizador Senior (Performance Tester)
  • BC Tecnología
  • Santiago (Hybrid)
JavaScript Java Python Data Analysis
En BC Tecnología somos una consultora de servicios IT con amplia experiencia en diversas áreas tecnológicas. Durante más de 6 años hemos diseñado soluciones a medida para clientes de sectores como servicios financieros, seguros, retail y gobierno, gestionando desde portafolios hasta desarrollos complejos y outsourcing profesional.
Este proyecto específico corresponde a la participación en un equipo especializado en pruebas de rendimiento y automatización dentro de clientes de alto nivel, llevado a cabo bajo metodologías ágiles. Nuestra fuerte orientación al cliente, el cambio organizacional y el desarrollo de productos innovadores marcan la diferencia en cada iniciativa que emprendemos.

Apply to this job through Get on Board.

Responsabilidades clave

  • Diseñar, desarrollar y ejecutar pruebas de carga y rendimiento utilizando herramientas como JMeter para evaluar sistemas críticos.
  • Automatizar los procesos de testeo mediante scripts en Python, Java o JavaScript, asegurando la eficiencia y repetibilidad de las pruebas.
  • Analizar los resultados obtenidos en las pruebas de performance, identificando cuellos de botella y proponiendo mejoras concretas.
  • Integrar las pruebas de rendimiento dentro de flujos de trabajo CI/CD, colaborando estrechamente con el equipo de QA para garantizar la calidad continua.
  • Participar activamente en reuniones de seguimiento, aportar visiones técnicas y documentar los resultados y procesos de manera clara y precisa.

Requisitos técnicos y perfil

Buscamos un profesional con sólida experiencia como Performance Tester, con un manejo avanzado de herramientas como JMeter para la ejecución de pruebas de carga y consumo de APIs. Es indispensable el conocimiento práctico en automatización utilizando lenguajes como Python, Java o JavaScript.
Se valoran conocimientos adicionales en herramientas complementarias como Postman para pruebas de APIs, Locust para simulaciones de carga, Grafana y Datadog para monitoreo de métricas y análisis, así como competencias en bases de datos SQL y gestión documental con Confluence y Jira.
Desde el punto de vista personal, buscamos un perfil autónomo, analítico y orientado a resultados, capaz de trabajar de manera independiente dentro de un entorno colaborativo. La afinidad o background en matemática y estadística será un plus que permitirá un mejor entendimiento y análisis de datos de performance.

Habilidades y conocimientos deseables

  • Experiencia previa en integración de pruebas de performance en pipelines CI/CD con herramientas modernas de DevOps.
  • Conocimientos en monitoreo y visualización avanzada de métricas con Grafana y Datadog para insights profundos de performance.
  • Familiaridad con metodologías ágiles y trabajo en equipos multidisciplinarios orientados a la mejora continua.
  • Capacidad para documentar procesos técnicos complejos y comunicar hallazgos a equipos técnicos y no técnicos.

Beneficios y cultura organizacional

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB View Job
$$$ Full time
Ingeniero(a) de Aseguramiento de Calidad (QA)
  • Biometria Aplicada
  • Santiago (In-office)
JavaScript Java Python SQL

En Biometría Aplicada contamos con más de 14 años de experiencia desarrollando soluciones integrales en control biométrico y tecnologías de gestión. Nos especializamos en sistemas avanzados para la gestión de asistencia del personal, control de accesos y administración de casinos corporativos, adaptando cada solución a las necesidades específicas de nuestros clientes. Ofrecemos plataformas robustas, seguras y escalables que mejoran la eficiencia operativa, optimizan el control interno y refuerzan la seguridad en organizaciones públicas y privadas. Innovación, confiabilidad y experiencia son los pilares que nos definen.

Job opportunity published on getonbrd.com.

Responsabilidades Principales

  • Diseñar, implementar y ejecutar pruebas funcionales manuales y automatizadas.
  • Analizar requerimientos funcionales y técnicos para construir casos de prueba efectivos.
  • Desarrollar y mantener scripts de automatización para pruebas de regresión y pruebas continuas.
  • Colaborar con desarrolladores y product owners para asegurar la cobertura de pruebas.
  • Documentar defectos encontrados, hacer seguimiento y verificar su resolución.
  • Participar en revisiones de historias de usuario, criterios de aceptación y documentación técnica.
  • Ejecutar pruebas en diferentes entornos y dispositivos según los criterios del proyecto.
  • Contribuir a la mejora continua del proceso de QA y automatización de pruebas.

Requisitos Técnicos y Competencias

Buscamos un profesional con sólidos conocimientos en metodologías de testing como funcional, regresión, smoke e integración, y experiencia en herramientas de automatización como Selenium, Cypress o Playwright. Es necesario manejar lenguajes de scripting para automatización entre los que se incluyen JavaScript, Python o Java, además de herramientas de gestión de pruebas tales como TestRail, Zephyr o Xray.

También debe tener experiencia en integración continua (CI/CD), ejecutando pruebas automatizadas dentro de pipelines, así como el manejo de pruebas en APIs con Postman u otras herramientas similares. Conocimientos básicos en bases de datos, especialmente SQL para la validación de datos, son necesarios. Es deseable experiencia con herramientas BDD como Cucumber o SpecFlow.

En cuanto a competencias blandas, valoramos la atención al detalle, pensamiento analítico, trabajo en equipo, comunicación efectiva, orientación a la calidad y la mejora continua, proactividad, autonomía y adaptabilidad frente a cambios y nuevas tecnologías. La formación deseada es título en Ingeniería en Informática, Computación, Control de Calidad de Software o carrera afín; sin embargo, la experiencia puede suplir esta necesidad.

Habilidades Deseables

Se considera un plus la experiencia previa con herramientas BDD como Cucumber y SpecFlow, así como familiaridad con la integración de pruebas automatizadas en pipelines CI/CD. Además, se valoran habilidades adicionales en comunicación para la colaboración efectiva con equipos multidisciplinarios y una mentalidad orientada a la innovación y mejora continua en procesos de aseguramiento de calidad.

Beneficios

En Biometría Aplicada ofrecemos un entorno laboral colaborativo y enriquecedor, enfocado en la promoción del desarrollo profesional continuo y la innovación tecnológica. Formarás parte de un equipo experimentado donde la excelencia y el aprendizaje constante son valores centrales que promovemos activamente.

El trabajo es 100% presencial, facilitando una interacción directa y dinámica con el equipo técnico y los líderes de proyecto, lo cual mejora la comunicación y la cooperación diaria.

Fomentamos el crecimiento profesional y personal dentro de un ambiente motivador y comprometido con la calidad, donde podrás aportar significativamente al éxito de nuestros clientes y a la evolución de nuestras soluciones biométricas.

Health coverage Biometria Aplicada pays or copays health insurance for employees.
Computer provided Biometria Aplicada provides a computer for your work.
Informal dress code No dress code is enforced.
APPLY VIA WEB View Job
Gross salary $4500 - 6000 Full time
Data DevOps Engineer
  • Kore RPO
Python SQL Scala Business Intelligence

We understand how complicated it can be to run a recruiting organization. Here at KORE RPO, we help reduce recruiting costs and increase candidate engagement without increasing the number of recruiters in your organization.

We have senior recruitment resources readily available to assist with all your recruiting needs. We can increase the volume of candidates without compromising on the quality.

Unlike many other RPO companies, we have a depth of understanding of staffing and recruiting organizations. We can help you build a process and operation that integrates with your existing team to increase revenue and profitability.

Apply only from getonbrd.com.

Job functions

  • Design, build, test, and maintain existing data integrations, ETL processes, and BI solutions within the Azure platform.
  • Participate in Azure environment refresh and cutover activities for system integration testing and go-live for major and minor releases.
  • Support existing reporting and visualization solutions using enterprise BI tools.
  • Participate in an on-call rotation to support EIM production processes and systems.
  • Build and maintain Continuous Integration and Continuous Delivery pipelines.
  • Implement automated solutions using scripting/programming languages in the Azure environment.
  • Perform other duties as assigned.

Qualifications and requirements

  • Bachelor’s Degree in Computer Science or Information Systems.
  • 1+ years of hands-on experience developing and testing Data Warehouse and Business Intelligence solutions.
  • Experience coding in one of the following languages: Python, Scala, SQL, PowerShell.
  • An understanding of relational database concepts.
  • Cloud Technology experience is a plus.

Conditions

We are looking:

  • Able to multitask and work effectively in a dynamic environment.
  • Highly organized and detail-oriented.
  • Willing to jump in where needed, learn new technologies, and work effectively across the full stack.
  • Able to work both independently and collaboratively.
  • Passionate about continuous learning, leading, and sharing knowledge. Provide subject matter expertise and guidance to less experienced staff members regarding performance management and design best practices.

APPLY VIA WEB View Job
$$$ Full time
DevOps
  • TIMINING
Python Go Docker Kubernetes
En Timining nos apasiona resolver problemas complejos y generar impacto real en la minería. Desarrollamos soluciones tecnológicas que integran ciencia de datos, geología, planificación minera y diseño estratégico para transformar cómo se toman decisiones en la gran minería: más informadas, eficientes y sustentables.
Nuestra cultura y valores, combina conocimiento técnico, colaboración, aprendizaje continuo y compromiso con la innovación.
Creemos en una minería mejor, y estamos construyéndola con tecnología.

Send CV through getonbrd.com.

Funciones del cargo

Buscamos un DevOps Engineer que promueva una cultura DevOps de colaboración, automatización y mejora continua, y que cuente con experiencia en automatización de infraestructura, monitoreo, integración y despliegue continuo, y administración de plataformas.
El candidato ideal actuará como un puente entre los equipos de desarrollo y operaciones, facilitando la comunicación y la eficiencia en el flujo de trabajo. Por lo que debe comprender los flujos de desarrollo y despliegue, además de las herramientas de monitoreo, con el fin de garantizar la confiabilidad y escalabilidad de los sistemas en un entorno minero.
1. Monitoreo y observabilidad: Implementar y mantener sistemas de monitoreo y alertas utilizando el stack tecnológico de Prometheus, Grafana y herramientas relacionadas.
2. CI/CD: Diseñar, optimizar y mantener pipelines de integración y despliegue continuo mediante GitHub Actions, para componentes en diversos lenguajes y tecnologías.
3. Colaboración y soporte: Trabajar junto a desarrolladores y operación para facilitar despliegues, troubleshooting, y garantizar el uptime de los servicios, participando activamente con los equipos y sesiones de resolución de problemas para facilitar despliegues y garantizar el uptime de los servicios.
4. Garantizar la calidad del software: Certificar que el software cumple con los requisitos del usuario final y asegurar su correcto funcionamiento en distintas plataformas.
5. Mejora continua y actualización: Optimizar estrategias de prueba, promover prácticas DevOps a los diversos equipos de la organización y mantenerse al día con tendencias del sector.

Requerimientos del cargo

1. | Programación en Go o Python para scripting y automatización
2. | Conocimientos de redes y protocolos
3. | CI/CD con GitHub Actions
4 | Gestión de contenedores (Docker) y orquestador de servicio (Kubernetes o Nomad)
5 | Observabilidad con Prometheus y Grafana

Opcionales

Consul para configuración y descubrimiento de servicios
Seguridad en pipelines y despliegues
Experiencia en entornos de alta disponibilidad
Traefik como proxy inverso
Capacidad analítica en traza de errores

Conditions

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage TIMINING pays or copays health insurance for employees.
Computer provided TIMINING provides a computer for your work.
Informal dress code No dress code is enforced.
APPLY VIA WEB View Job
Gross salary $2000 - 2500 Full time
Ingeniero de Operaciones
  • Robotia
  • Santiago (Hybrid)
Python Git Linux Virtualization

Estamos en búsqueda de un Ingeniero de Operaciones dinámico y proactivo para unirse a nuestro equipo. La persona seleccionada será responsable de brindar apoyo a nuestra gerencia de servicios, asegurando la eficiencia, seguridad y estabilidad de los sistemas desplegados en los entornos productivos. Reportará directamente al jefe de operaciones.

Apply to this job without intermediaries on Get on Board.

Funciones del cargo

1. Monitoreo de sistemas en producción

o Supervisión del estado de los sistemas de visión artificial.

o Gestionar herramientas de monitoreo y diagnóstico.

o Asegurar la estabilidad e integridad de los sistemas.

o Administración de cámaras de vigilancia industriales.

2. Gestión de incidencias y soporte de segundo nivel

o Atender incidentes técnicos, investigar causas raíz y aplicar soluciones.

o Escalar problemas complejos a desarrollo o ciencia de datos si es necesario.

3. Evaluación del rendimiento de modelos deep learning

o Revisar salidas de los modelos (detecciones, clasificaciones) y compararlas contra parámetros de calidad esperados.

o Reportar desviaciones o deterioro de desempeño (por ejemplo, falsos positivos/negativos).

o Descarga y recuperación de registros, métricas y material multimedia para la retroalimentación de los modelos de aprendizaje.

4. Automatización y mejora continua

o Gestión del monitoreo y alerta de sistemas mediante la integración de herramientas automatizadas.

o Contribuir en las definiciones técnicas que maximicen la estabilidad, escalabilidad, rendimiento y seguridad de los sistemas.

5. Documentación y procedimientos operativos

o Mantener documentación clara sobre incidentes, cambios en configuración, y actualizaciones en modelos o sistemas.

6. Interacción con clientes o áreas operativas

o Comunicar hallazgos técnicos de forma clara y efectiva.

o Participar en reuniones operativas y sugerir mejoras.

Requerimientos del cargo

1. Técnicas

o Dominio de sistemas Unix (consola, gestión de procesos, eventos de sistema, administración de servicios, networking). (Obligatorio)

o Manejo de herramientas de monitoreo (Prometheus, Grafana, Nagios u otras). (Obligatorio)

o Conocimientos básicos de deep learning: cómo interpretar outputs de modelos, métricas como precision, recall, etc. (Deseable)

o Sólido manejo de scripting Bash y Python.

o Manejo Git y CI/CD (ideal para revisar versiones de modelos o pipelines).

o Manejo de Docker y administración de contenedores.

o Experiencia con Jira y Confluence. (Deseable)

2. Blandas

o Disponibilidad para visitas a terreno y pasaporte vigente (o en trámite).

o Buena comunicación, tanto oral como escrita.

o Pensamiento analítico y enfoque en resolución de problemas.

o Autoaprendizaje y adaptación a nuevas tecnologías.

o Capacidad para discriminar información relevante (ej. identificar cuándo un modelo está fallando por datos de entrada, por desalineamiento, o por bugs).

Beneficios y Condiciones

o Pertenecer a una compañía joven, con gran potencial de crecimiento regional, líder en el desarrollo de tecnología de visión artificial en el ámbito de la minería y la industria.

o Café de grano gratis en oficina.

o Capacitaciones y certificaciones.

o Snack y galletas gratis en oficina.

o Permiso de 5 días administrativos al año.

o Día de cumpleaños libre.

o Contrato a tres meses, renovación a indefinido según evaluación.

APPLY VIA WEB View Job
Gross salary $2000 - 2700 Full time
DevOps
  • coderslab.io
  • Santiago (Hybrid)
Python Excel SQL Business Intelligence

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de DEVOPS para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Send CV through getonbrd.com.

Funciones del cargo

Analizar procesos actuales (AS-IS):

  • Levantar, mapear y comprender procesos operativos y contables existentes. Identificar puntos críticos, riesgos y oportunidades de mejora.

Coordinar con stakeholders:

  • Organizar y gestionar reuniones con responsables de procesos clave (operaciones, contabilidad, tecnología, etc.), recopilando información relevante de múltiples frentes.

Diseñar procesos futuros (TO-BE):

  • Proponer mejoras o rediseños que aseguren trazabilidad, eficiencia y control.
  • Documentar procesos:
  • Elaborar diagramas, manuales y guías operativas claras y reutilizables.

Desarrollar e implementar soluciones:

  • Construir automatizaciones, conciliaciones, dashboards, y scripts. Validar con usuarios clave y adaptar según feedback.

Requerimientos del cargo

Conocimientos técnicos:

  • SQL avanzado (ideal experiencia con BigQuery en Google Cloud)
  • Python para automatización, validaciones y ETL
  • Excel avanzado (visualizaciones, paneles)
  • Experiencia con herramientas de BI (Looker o Power BI)

Conocimientos funcionales:

  • Procesos bancarios: abonos, cargos, conciliaciones
  • Productos financieros: créditos, cuentas corrientes, CMR, etc.
  • Contabilidad: lectura de asientos contables y análisis de cuentas (haber/debe)

Habilidades clave:

  • Pensamiento analítico y capacidad para detectar desajustes entre sistemas
  • Autonomía para investigar y proponer soluciones
  • Experiencia documentando procesos complejos
  • Manejo de herramientas de comunicación y gestión como Microsoft Teams

Conditions

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
APPLY VIA WEB View Job
$$$ Full time
QA Automation Engineer Python/Robot Framework
  • coderslab.io
Android iOS Python Agile
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos buscando un Ingeniero Senior en Automatización para unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

Apply without intermediaries through Get on Board.

Funciones del cargo

1. Desarrollo de Automatización de Pruebas:
o Diseñar e implementar scripts automatizados para pruebas de aplicaciones web, móviles y
APIs utilizando herramientas como Robot Framework y Appium (Android/iOS).
o Garantizar la cobertura de pruebas para servicios REST y GraphQL.
o Usar Python para desarrollar soluciones personalizadas y mejorar los frameworks de prueba
existentes.
2. Pruebas de Bases de Datos:
o Realizar pruebas y validaciones en bases de datos relacionales (e.g., MySQL, PostgreSQL) y
no relacionales (e.g., DynamoDB).
3. Gestión y Colaboración:
o Documentar procesos, resultados y estrategias de prueba en herramientas como Confluence.
o Trabajar en estrecha colaboración con desarrolladores y partes interesadas del negocio para
garantizar que los requisitos de calidad se cumplan.
o Gestionar tareas, estimaciones de esfuerzo y prioridades en Jira.
4. Gestión de Infraestructura:
o Configurar pipelines de integración y despliegue continuo (CI/CD) utilizando GitHub Actions.
o Colaborar en entornos basados en la nube, como AWS, para la ejecución y el mantenimiento
de pruebas automatizadas.
5. Capacitación y Transferencia de Conocimiento:
o Capacitar a los miembros del equipo en herramientas, procesos y mejores prácticas de
automatización.
o Promover una cultura de mejora continua mediante la transferencia de conocimiento y la
mentoría.

Requerimientos del cargo

• Experiencia mínima de 5 años en QAA.
• Experiencia sólida en automatización de pruebas utilizando Robot Framework y Appium
(Android/iOS).
• Conocimiento avanzado en Python para desarrollo de scripts y frameworks.
• Experiencia en diseño y ejecución de pruebas de APIs (REST y GraphQL).
• Familiaridad con bases de datos relacionales y no relacionales (MySQL, PostgreSQL, DynamoDB).
• Conocimiento de herramientas de CI/CD como GitHub Actions.
• Experiencia trabajando con AWS.
• Manejo de herramientas de gestión como Jira y Confluence.
• Habilidades en documentación y colaboración con equipos técnicos y de negocio.
• Experiencia en entornos ágiles (Scrum)
• Capacidad para liderar iniciativas de automatización y fomentar un entorno de aprendizaje
continuo.
• Excelentes habilidades de comunicación y proactividad
• Autonomía y capacidad para gestionar múltiples tareas simultáneamente.

Conditions

Fully remote You can work from anywhere in the world.
APPLY VIA WEB View Job
$$$ Full time
Senior Site Reliability Engineer (SRE)
  • Moventi
Python MySQL Go Kubernetes
Moventi is a forward-thinking technology company dedicated to helping organizations embrace innovation through cutting-edge technologies. We provide an environment where multidisciplinary talents collaborate to drive digital transformation and shape the future with technology. Our teams engage with state-of-the-art cloud infrastructure projects and large-scale SaaS platforms designed to scale and maximize reliability and efficiency.
Our current project focuses on designing, building, and operating highly available, scalable infrastructure on cloud platforms such as AWS EKS and Azure AKS. This includes advanced data ingestion pipelines handling hundreds of terabytes to petabytes of data, leveraging technologies like Clickhouse and Kafka. We prioritize observability, security, and automation using modern tools and practices to ensure robust SaaS operations.

Job opportunity published on getonbrd.com.

Primary Responsibilities and Role Overview

As a Senior Site Reliability Engineer (SRE), you will be instrumental in architecting, deploying, and managing complex cloud-native infrastructure in large-scale SaaS environments. Your role includes designing and maintaining Kubernetes clusters (AWS EKS, Azure AKS) using Infrastructure as Code tools such as Terraform, ensuring seamless scalability and reliability.
You will be responsible for implementing observability solutions across monitoring, logging, tracing, and metrics collection using Prometheus, Grafana, Datadog, and ELK ecosystem to maintain robust system health and performance. Managing data ingestion pipelines with high-volume technologies like Clickhouse and Kafka will be part of your core tasks.
Collaboration with cross-functional teams to drive GitOps CI/CD processes, writing automation scripts in Python, Go (Golang), and Bash to streamline deployments and operations, and enforcing security best practices involving encryption, key management, and policy enforcement are key duties. In addition, you will design and maintain disaster recovery strategies for critical components such as MySQL, Kafka, and Zookeeper, ensuring business continuity and data integrity.
This role requires active participation in a large, dynamic team environment where your expertise will elevate operational standards and foster innovation around high availability SaaS platforms.

Required Experience and Skills

We are looking for a professional with a minimum of 7 years designing, building, and maintaining SaaS environments with a strong focus on large-scale cloud infrastructure. Candidates must have at least 5 years of hands-on experience working with AWS EKS and Azure AKS managed Kubernetes clusters, leveraging Terraform for infrastructure automation.
Key technical expertise includes managing data ingestion in large environments through Clickhouse and Kafka, handling data volumes scaling up to petabytes. A solid background in observability tools such as Prometheus, Grafana, Datadog, and ELK for monitoring, logging, and tracing is mandatory.
Expertise in GitOps practices and CI/CD pipelines is essential. We expect proven scripting skills in Python, Go (Golang), Bash, and AWS CLI to automate operational workflows. Candidates must demonstrate at least 3 years of experience managing security operations including enforcing infrastructure security policies, managing encryption at rest and in transit, and key management.
In-depth knowledge of disaster recovery planning and execution for distributed systems including MySQL, Kafka, and Zookeeper is required. The ideal candidate should be a proactive and collaborative team player, able to communicate complex technical concepts effectively while taking initiative in a fast-paced innovative environment. Strong problem-solving skills, risk management, and a passion for continuous improvement are imperative to succeed in this role.

Additional Preferred Skills and Experience

Experience with service mesh technologies such as Istio and Kubernetes operators is highly valued to optimize application connectivity and lifecycle management. Familiarity with large scale data architectures and tuning Kafka clusters would be advantageous. Prior exposure to cloud security frameworks and compliance standards, as well as experience leading or mentoring SRE teams within enterprise environments, will be considered a strong plus.
An innovative mindset with eagerness to explore emerging tools and automation techniques is welcome, along with excellent interpersonal skills suitable for a multidisciplinary collaborative culture.

Our Offer and Work Environment

At Moventi, we provide a stimulating and innovative work atmosphere located in the heart of San Isidro, Lima, featuring convenient parking and recreational zones to promote wellbeing during breaks. Our hybrid work model gives you the flexibility to balance time between our fully equipped office and remote work tailored to team and personal preferences.
We prioritize professional growth by exposing you to challenging, diverse projects that foster continuous learning and skills enhancement. Our organizational culture is based on transparency, collaboration, commitment, risk-taking, and innovation. We offer formal employment contracts with full legal benefits from day one, ensuring job security and comprehensive protections.

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
APPLY VIA WEB View Job
$$$ Full time
DevOps Engineer con Conocimientos en Back-end y AWS
  • coderslab.io
Java Python Agile Node.js
En CodersLab es una empresa dedicada al desarrollo de soluciones para empresas y actualmente estamos enfocados en el crecimiento global de nuestros equipos con el objetivo de posicionar nuestros productos en más países de Latinoamérica. Por esta razón, estamos buscando un DevOps Engineer con conocimientos en Backend y AWS

Te sumarás a un equipo desafiante y ambicioso con ganas de innovar en el mercado, haciendo que tus propuestas sean altamente valiosas para el negocio.
¡Aplica ahora para este increíble reto!

Apply to this job from Get on Board.

Funciones del cargo

  • Diseñar, implementar y mantener pipelines CI/CD para aplicaciones backend.
  • Automatizar despliegues y configuraciones en entornos AWS (EC2, Lambda, ECS, EKS, S3, RDS, etc.).
  • Gestionar infraestructura como código usando herramientas como Terraform, CloudFormation o similares.
  • Monitorizar y optimizar el rendimiento de sistemas y aplicaciones.
  • Colaborar con desarrolladores backend para integrar y mejorar procesos de desarrollo y despliegue.
  • Implementar prácticas de seguridad en la infraestructura y aplicaciones.
  • Gestionar la escalabilidad, alta disponibilidad y recuperación ante desastres.
  • Documentar procesos y arquitecturas implementadas.

Requerimientos del cargo

  • Experiencia mínima de 2 años como DevOps Engineer o en roles similares.
  • Conocimientos sólidos en AWS y sus servicios principales.
  • Experiencia en desarrollo backend con lenguajes como Python, Node.js, Java o Go.
  • Dominio de herramientas CI/CD (Jenkins, GitLab CI, GitHub Actions, etc.).
  • Conocimientos en infraestructura como código (Terraform, CloudFormation).
  • Experiencia con contenedores y orquestadores (Docker, Kubernetes).
  • Familiaridad con monitoreo y logging (Prometheus, Grafana, ELK, CloudWatch).
  • Buenas prácticas de seguridad en la nube.
  • Capacidad para trabajar en equipo y comunicar efectivamente.
Deseables:
  • Certificaciones AWS (AWS Certified DevOps Engineer, AWS Solutions Architect).
  • Experiencia con microservicios y arquitecturas serverless.
  • Conocimiento en bases de datos SQL y NoSQL.
  • Experiencia en metodologías ágiles.

APPLY VIA WEB View Job
$$$ Full time
DevOps Engineer
  • Softserve
Python Linux DevOps Virtualization
WE ARE
SoftServe is an IT & global digital solutions company with headquarters in Austin, Texas, founded in 1993 in Ukraine. Our associates work on 2,000+ projects with clients in the USA, Europe, and APAC region. We are about people who create bold things, who make a difference, who have fun, and who love their work. In January 2022, we started our operations in Latin America. We committed to grow our local community to 3,500 associates by 2025 and invest in the market.

This job offer is on Get on Board.

Funciones del cargo

AND YOU WANT TO
  • Collaborate with the LATAM DevOps Practice to contribute to cloud platforms for globally innovative companies
  • Engage in diverse private and public cloud-oriented projects of various scales
  • Participate in enterprise-scale migrations, cloud-native application development, and trending technology initiatives
  • Build, maintain, and optimize CI/CD pipelines for automated deployment and updates
  • Configure and manage scalable, secure, and high-performing cloud environments
  • Use tools like Terraform for infrastructure as code (IaC) to enhance deployment consistency and minimize manual interventions

Requerimientos del cargo

IF YOU ARE
  • Experienced with SRE/DevOps best practices
  • Proficient in AWS core IaaS and PaaS services, including IAM, VPC, Internet Gateway, NAT Gateway, ELB, RDS, EC2, S3, Security Groups, ACLs, and Routing Tables
  • Skilled in Docker, Kubernetes, and EKS
  • Adept in HELM charts and troubleshooting workloads in K8s clusters
  • Knowledgeable in Infrastructure as Code using Terraform or CloudFormation
  • Skilled in scripting languages such as Shell or Bash
  • Proficient in Linux, including administration, command-line expertise, and service debugging
  • Experienced in configuring log collectors and using observability platforms for containerized workloads

Opcionales

  • Good at maintaining existing CI/CD pipelines with tools like Jenkins, GitHub, GitLab, or CircleCI (as a plus)
  • Familiar with Python and tools like Prometheus and Grafana (would be a plus)
  • Knowledgeable in AFT Control Tower and Landing Zone (optional)

Condiciones

SoftServe is an Equal Opportunity Employer. All qualified applicants will receive consideration for employment regardless of race, color, religion, age, sex, nationality, disability, sexual orientation, gender identity and expression, veteran status, and other protected characteristics under applicable law. Let’s put your talents and experience in motion with SoftServe.

Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Softserve pays or copays health insurance for employees.
Computer provided Softserve provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Softserve gives you paid vacations over the legal minimum.
Beverages and snacks Softserve offers beverages and snacks for free consumption.
APPLY VIA WEB View Job
$$$ Full time
DevOps Lead
  • Moventi
Python Linux DevOps Virtualization

We are seeking an experienced DevOps Lead to join our team, who will be responsible for designing, implementing, and maintaining our cloud-based infrastructure on Amazon Web Services (AWS).
En este rol, tendrás la oportunidad de liderar proyectos relacionados con la innovación tecnológica, garantizando que cumplamos con los estándares más altos.

Job opportunity published on getonbrd.com.

Funciones del cargo

As a DevOps Lead, you will be responsible for leading our DevOps team, ensuring the smooth operation of our cloud infrastructure, and driving the adoption of DevOps best practices across the organization.

  • Cloud Infrastructure: Design, implement, and maintain our cloud infrastructure on AWS, ensuring scalability, security, and high availability.
  • CI/CD Pipelines: Develop and maintain CI/CD pipelines using GitHub Actions, ensuring automated testing, building, and deployment of our applications.
  • Automation: Automate repetitive tasks, and implement infrastructure-as-code (IaC) using tools like Chef, CloudFormation, CDK.
  • Containerization: Implement and manage containerization using Docker, ensuring efficient and scalable deployment of our applications.
  • Security: Ensure the security and compliance of our cloud infrastructure, implementing best practices, and adhering to industry standards (e.g., HIPAA, PCI-DSS).
  • Collaboration: Work closely with cross-functional teams, including development, QA, and product, to ensure smooth operation of our applications and infrastructure.
  • Monitoring and Logging: Implement monitoring and logging tools (DataDog, CloudWatch), ensuring real-time visibility into our infrastructure and applications.
  • Troubleshooting: Identify and resolve issues, debugging complex problems, and optimizing system performance.

Requerimientos del cargo

  • Technical Skills:
  • AWS, including EC2, ECS, RDS, IAM
  • Expertise in IaC tools (preferably - AWS CDK)
  • Expertise in CI/CD pipelines using GitHub Actions
  • Proficiency in automation tools like Chef, Ansible, or Puppet
  • Experience with containerization using Docker, including Docker Compose and Docker Swarm
  • Strong understanding of security best practices, including network security, access control, and compliance
  • Strong knowledge of Python and Shell scripting
  • Familiarity with monitoring and logging tools (DataDog, AWS CloudWatch)
  • Soft Skills:
  • Excellent leadership and communication skills
  • Strong problem-solving skills, with the ability to break down complex issues into manageable parts
  • Ability to adapt to changing requirements and priorities
  • Passion for DevOps, automation, and security, with a focus on delivering high-quality solutions
  • Education
  • Bachelor's degree in Computer Science, Information Technology, or a related field
  • Experience
  • At least 5 years of experience in DevOps, with a focus on cloud infrastructure, CI/CD pipelines, and automation
  • Experience leading DevOps teams, with a proven track record of delivering high-quality solutions

Opcionales

Certifications:

  • AWS Certified DevOps Engineer - Professional
  • GitHub Actions Certified Developer
  • Chef Certified Developer
  • Docker Certified Associate

Conditions

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
APPLY VIA WEB View Job
Gross salary $2000 - 2200 Full time
Analista QA Automatizador
  • BC Tecnología
  • Santiago (Hybrid)
Python PostgreSQL Git QA
En BC Tecnología, somos una consultora de TI con un fuerte enfoque en la creación de soluciones personalizadas que se alinean perfectamente con las necesidades de nuestros clientes. Trabajamos con un diverso portafolio en sectores como servicios financieros, seguros, retail y gobierno. En nuestro proyecto actual, requerimos un Analista QA Automatizador por un periodo de 12 meses, donde el candidato será parte de un equipo ágil, encargado de asegurar la calidad de nuestros desarrollos mediante metodologías de testing avanzadas.

© getonbrd.com. All rights reserved.

Responsabilidades del Analista QA Automatizador

  • Implementar y ejecutar pruebas automatizadas utilizando Selenium WebDriver en Python u otros lenguajes de programación orientados a objetos.
  • Realizar testing de APIs, asegurando la funcionalidad solicitada y la integridad de los microservicios.
  • Manejar repositorios y versiones de software mediante Git y plataformas como GitHub, GitLab o Bitbucket.
  • Interactuar con bases de datos; realizar consultas y pruebas en PostgreSQL como parte del proceso de verificación.
  • Gestionar actividades del equipo y seguimiento de tareas a través de Jira, asegurando el cumplimiento de cronogramas establecidos.
  • Configurar pipelines de CI/CD para facilitar la integración continua y entrega de software fluida.

Requisitos y habilidades del candidato

Buscamos un profesional que posea al menos 3 años de experiencia comprobable en roles similares, con un sólido entendimiento de las prácticas de aseguramiento de calidad. El candidato debe ser capaz de trabajar de manera colaborativa en un ambiente ágil, adoptar metodologías de desarrollo modernas y comunicarse efectivamente con diferentes áreas del equipo. Se valora la proactividad y un enfoque orientado a resultados.

Habilidades deseables

Sería un plus contar con certificaciones relacionadas a testing o metodologías ágiles, así como experiencia en la gestión de pruebas dentro de equipos multidisciplinarios. La experiencia con herramientas adicionales de automatización o conocimientos en lenguajes de programación adicionales también serán considerados positivamente.

Beneficios que ofrecemos

En BC Tecnología, valoramos a nuestro personal y fomentamos un ambiente laboral positivo y colaborativo. Ofrecemos un contrato a plazo fijo que tiene la posibilidad de convertirse en indefinido. Nuestro esquema de trabajo es híbrido, permitiendo así flexibilidad en la modalidad. Además, contamos con beneficios tales como seguro complementario de salud, aguinaldo por fiestas patrias y navidad, y tarjeta de alimentación. 🌟

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB View Job
Gross salary $2000 - 2500 Full time
DBA Oracle
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL Oracle Linux
En *BC Tecnología*, somos una consultora TI con un enfoque claro en el cliente. Nuestros equipos de trabajo ágiles están diseñados para colaborar en proyectos innovadores, especialmente en el sector educativo. Tenemos más de 6 años de experiencia creando soluciones IT que se ajustan a las necesidades de nuestros clientes. Este proyecto específico es emocionante y se basa en la administración y optimización de bases de datos Oracle, siendo una oportunidad ideal para quienes buscan hacer un impacto significativo en su campo.

This posting is original from the Get on Board platform.

Tus responsabilidades:

  • 🔧 Gestionar bases de datos Oracle en producción y desarrollo, asegurando su alta disponibilidad y rendimiento.
  • ⚙️ Configurar y gestionar entornos de alta disponibilidad usando Oracle RAC y Data Guard.
  • ☁️ Migrar bases de datos a Oracle Cloud y otros entornos Cloud.
  • 🛠 Automatizar tareas de DBA y realizar monitoreo continuo para optimizar el rendimiento.
  • 🛡 Diseñar planes de recuperación ante desastres y políticas de backup/restore.
  • 🔄 Colaborar con equipos de desarrollo y operaciones para integrar las bases de datos con las aplicaciones.

¿Qué buscamos?

  • 🎯 Experiencia sólida en Oracle 19c o superior.
  • ⚡ Conocimiento profundo de Oracle RAC, Data Guard, ASM y Oracle Multitenant.
  • ☁️ Experiencia con Oracle Cloud Infrastructure (OCI) y otros servicios Cloud como AWS o Azure (deseable).
  • 🛠 Habilidades en scripting para automatización de tareas DBA (Bash, Python).
  • 📊 Experiencia en monitoreo, tuning y optimización de bases de datos.
  • 🗂 Conocimiento avanzado en PLSQL, tuning de SQL, y gestión de backups (RMAN, Data Pump).
  • 🔐 Experiencia en seguridad y encriptación de bases de datos.

¿Qué ofrecemos?

  • 🚀 Proyecto de 5 meses con posibilidad de extensión.
  • 🌍 Trabajo híbrido en un ambiente dinámico.
  • 🎓 Oportunidades de crecimiento y aprendizaje con nuevas tecnologías.

Beneficios adicionales:

  • Modalidad híbrida (presencial 2 veces por semana) en Lima, Perú.
  • Horario flexible de lunes a viernes de 9:00 a 18:00.
  • Oportunidad de trabajar en proyectos innovadores que impactan el sector educativo.
  • Ambiente dinámico y con muchas oportunidades de crecimiento.
¡Únete a un equipo donde tu talento hará la diferencia! 🌟

Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB View Job
Gross salary $2800 - 3000 Full time
DevOps Semi Senior
  • BC Tecnología
  • Santiago (Hybrid)
Ruby Python Git Linux
En BC Tecnología, somos una consultora de TI con más de 6 años de experiencia ofreciendo soluciones adaptadas a las necesidades de nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestra especialidad incluye la formación de equipos ágiles para distintas áreas de tecnología, incluyendo Infraestructura TI y Desarrollo de Software. Nos enfocamos en la creación de productos innovadores y en el apoyo organizacional mediante metodologías ágiles.

Job opportunity published on getonbrd.com.

Funciones del Rol

Como Devops Semi Senior, tus responsabilidades incluyen:
  • Implementar y gestionar infraestructuras en la nube utilizando herramientas de primeros niveles como AWS, GCP o Azure.
  • Desarrollar y mantener pipelines de CI/CD utilizando lenguajes de programación como Python, Ruby y Bash.
  • Colaborar en el uso de Infraestructura como Código mediante herramientas como Terraform y Ansible.
  • Monitorear y optimizar clústeres de producción en entornos de Linux, utilizando herramientas como Docker y Kubernetes.
  • Participar activamente en sesiones de migración de infraestructura, asesorando en el proceso de transición de on-premise a Cloud.
  • Soporte técnico continuo para el equipo en prácticas DevOps, asegurando la implementación de mejores prácticas y principios de calidad en el desarrollo.
  • Utilizar y optimizar herramientas de monitoreo y trazabilidad como Prometheus, ELK y Grafana para garantizar el rendimiento efectivo de las aplicaciones.

Descripción del Perfil

Buscamos un profesional con al menos 3 años de experiencia en roles de Ingeniero DevOps o en Infraestructura Cloud, que demuestre un profundo conocimiento en prácticas DevOps. Buscamos habilidades tanto técnicas como interpersonales, incluyendo:
  • Salto de experiencia demostrado en sistemas Linux, control de versiones con Git y implementación de contenedores con Docker y Kubernetes.
  • Conocimientos sólidos en servicios en la nube (AWS, GCP, Azure) y sus respectivas herramientas de monitoreo.
  • Capacidad para trabajar en un entorno híbrido, manteniendo una comunicación efectiva tanto en ambientes remotos como presenciales.
  • Iniciativa propia y aptitud para resolver problemas, así como la capacidad de colaborar colaborativamente dentro de equipos multidisciplinarios.

Habilidades Deseables

Además de los requisitos mencionados, serán valoradas las siguientes habilidades:
  • Experiencia previa con herramientas de Infraestructura como Código como Terraform y Ansible.
  • Certificaciones en plataformas de nube como AWS o Azure.
  • Conocimientos en metodologías ágiles de gestión y desarrollo de software.
  • Capacidades en sistemas de logging y trazabilidad, aumentando la visibilidad del rendimiento de las aplicaciones.

Beneficios de Trabajar en BC Tecnología

En BC Tecnología, cuidamos el bienestar de nuestro equipo. Ofrecemos:
  • Seguro Complementario de Salud y Seguro de Vida para todos los empleados.
  • Bonos de rendimiento y aguinaldos durante festividades importantes.
  • Flexibilidad de horarios con múltiples turnos y una jornada laboral adaptable.
  • Acceso a certificaciones y cursos en AWS, Azure y otras tecnologías relevantes.
  • Convenios con instituciones de salud y acceso a un gimnasio cercano.
  • Oportunidades para participar en actividades externas y enriquecedoras.
¡Únete a un equipo donde tu talento hará la diferencia! 🌟

Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB View Job
Gross salary $2200 - 2700 Full time
QA Automation
  • coderslab.io
Android iOS Python Agile

En CodersLab, actualmente estamos enfocados en el crecimiento global de nuestros equipos con el objetivo de posicionar nuestros productos en más países de Latinoamérica. Por esta razón, estamos buscando un QA AUTOMATION motivado y orientado a objetivos.

Te unirás a un equipo desafiante y ambicioso con ganas de innovar en el mercado, haciendo que tus propuestas sean altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Apply through Get on Board.

Funciones del cargo

Responsabilidades Principales:

1. Desarrollo de Automatización de Pruebas:

o Diseñar e implementar scripts automatizados para pruebas de aplicaciones web, móviles y

APIs utilizando herramientas como Robot Framework y Appium (Android/iOS).

o Garantizar la cobertura de pruebas para servicios REST y GraphQL.

o Usar Python para desarrollar soluciones personalizadas y mejorar los frameworks de prueba existentes.

2. Pruebas de Bases de Datos:

o Realizar pruebas y validaciones en bases de datos relacionales (e.g., MySQL, PostgreSQL) y no relacionales (e.g., DynamoDB).

3. Gestión y Colaboración:

o Documentar procesos, resultados y estrategias de prueba en herramientas como Confluence.

o Trabajar en estrecha colaboración con desarrolladores y partes interesadas del negocio para garantizar que los requisitos de calidad se cumplan.

o Gestionar tareas, estimaciones de esfuerzo y prioridades en Jira.

4. Gestión de Infraestructura:

o Configurar pipelines de integración y despliegue continuo (CI/CD) utilizando GitHub Actions.

o Colaborar en entornos basados en la nube, como AWS, para la ejecución y el mantenimiento de pruebas automatizadas.

5. Capacitación y Transferencia de Conocimiento:

o Capacitar a los miembros del equipo en herramientas, procesos y mejores prácticas de automatización.

o Promover una cultura de mejora continua mediante la transferencia de conocimiento y la mentoría.

Requerimientos del cargo

• Experiencia mínima de 5 años en QAA.

• Experiencia sólida en automatización de pruebas utilizando Robot Framework y Appium (Android/iOS).

• Conocimiento avanzado en Python para desarrollo de scripts y frameworks.

• Experiencia en diseño y ejecución de pruebas de APIs (REST y GraphQL).

• Familiaridad con bases de datos relacionales y no relacionales (MySQL, PostgreSQL, DynamoDB).

• Conocimiento de herramientas de CI/CD como GitHub Actions.

• Experiencia trabajando con AWS.

• Manejo de herramientas de gestión como Jira y Confluence.

• Habilidades en documentación y colaboración con equipos técnicos y de negocio.

• Experiencia en entornos ágiles (Scrum)

• Capacidad para liderar iniciativas de automatización y fomentar un entorno de aprendizaje continuo.

• Excelentes habilidades de comunicación y proactividad

• Autonomía y capacidad para gestionar múltiples tareas simultáneamente.

Conditions

Fully remote You can work from anywhere in the world.
APPLY VIA WEB View Job
$$$ Full time
Analista de Producto, Analítica de Usuarios e Insights
  • BNamericas
  • Santiago (Hybrid)
Python Analytics Agile Data Analysis

BNamericas es la plataforma de inteligencia de negocios líder en América Latina, con 29 años de trayectoria aportando información actualizada y de alto valor de sectores estratégicos de Infraestructura, Minería, Energía Eléctrica, Petróleo y Gas, TIC y Servicios Financieros. Nuestra plataforma ofrece noticias, actualización de proyectos, personas y compañías, facilitando que nuestros clientes tomen decisiones informadas y acertadas.
¿Eres una persona analítica, curiosa y detallista? ¿Te apasiona entender cómo los usuarios interactúan con productos digitales para transformar datos en decisiones estratégicas? Esta oportunidad laboral puede ser para ti.
Hoy buscamos a un/a analista de producto orientada/o a datos, que jugará un rol clave en el análisis del comportamiento de usuarios, el monitoreo del desempeño de la plataforma y la generación de insights estratégicos
que impulsen la evolución de nuestro producto digital.

Exclusive offer from getonbrd.com.

Responsabilidades Clave

Análisis de comportamiento y uso

  • Monitorear y analizar patrones de uso, puntos de fricción y engagement.
  • Crear dashboards e informes utilizando Amplitude.
  • Compartir insights accionables con los equipos de producto, marketing y liderazgo.
  • Definir y mantener KPIs clave de uso, retención y satisfacción.

Implementación y monitoreo

  • Colaborar con el equipo de desarrollo para asegurar una correcta implementación del tracking.
  • Auditar planes de tracking y asegurar la calidad de los datos.

Soporte al desarrollo de producto

  • Apoyar la validación de hipótesis con datos reales.
  • Participar en discovery entregando insights que guíen la priorización de funcionalidades.

Medición de impacto

  • Evaluar el éxito de lanzamientos mediante KPIs y objetivos de producto.
  • Crear frameworks de medición de product-market fit y satisfacción de usuarios.

Contribución estratégica

  • Identificar oportunidades de mejoras, nuevas funcionalidades y productos.
  • Comunicar hallazgos de forma clara a equipos multidisciplinarios.

Requerimientos del cargo

  • +2 años de experiencia en roles similares (analítica de producto, inteligencia de negocios, data-driven roles).
  • Sólido manejo de herramientas de análisis, idealmente Amplitude.
  • Conocimiento de metodologías ágiles y procesos de desarrollo de producto.
  • Capacidad analítica, pensamiento crítico y excelentes habilidades de comunicación.
  • Conocimiento sobre tracking, eventos y estructuras de datos.
  • Dominio de inglés (oral y escrito).
  • Se valorará experiencia con Python, Pandas, Jupyter y SQL.

Condiciones

En BNamericas fomentamos un ambiente laboral inclusivo, diverso, creativo y altamente colaborativo.

Ofrecemos múltiples beneficios, tales como bono por referidos para la incorporación de nuevos talentos recomendados, salidas anticipadas en fechas especiales como fiestas patrias y Navidad, oportunidades de formación continua y desarrollo profesional, .

Te invitamos a ser parte de una empresa con propósito que promueve el desarrollo sostenible en la región.

Modalidad de trabajo con flexibilidad laboral: híbrido para residentes en Santiago y 100% remoto para el resto de Latinoamérica.

Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB View Job
$$$ Full time
Data Scientist
  • NeuralWorks
  • Santiago (Hybrid)
C Python SQL Docker

NeuralWorks es una compañía de alto crecimiento fundada hace 3 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

Find this vacancy on Get on Board.

Descripción del trabajo

El equipo de Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.

Como Data Scientist, trabajarás en conjunto con Machine Learning Engineers,Translators, Data Engineers entre otros perfiles, construyendo productos basados en datos que permitan llevar las prácticas de negocio al siguiente nivel.

El equipo de Analítica no opera como un equipo de Research separado, sino que está profundamente integrado con nuestros clientes y sus unidades de negocio, esto permite un feedback loop rápido para iterar, corregir y perfeccionar para finalmente conseguir el impacto de negocio.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, una pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Tu trabajo variará de proyecto a proyecto, pero siguiendo una estructura similar:

  • Identificar problemas de analítica que tengan un mayor impacto para la organización.
  • Familiarizarte con el problema junto a expertos, recabar información, opiniones y facts
  • Investigar las mejores prácticas de la industria.
  • Definir hipótesis de trabajo y approach técnico para resolver el problema, incluyendo el set de datos a utilizar, variables, periodo de tiempo, etc.
  • Recopilar datasets estructurados y no estructurados desde múltiples fuentes.
  • Realizar limpieza de datos y validar correctitud.
  • Aplicar modelos y algoritmos para minería de datos.
  • Analizar resultados e identificar patrones y tendencias.
  • Diseñar junto a Machine Learning Engineers soluciones que permitan capturar oportunidades.
  • Comunicar los resultados y discutirlos junto a expertos o tomadores de decisiones.
  • Algunos proyectos pueden incluir desafíos complejos en visión por computador.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia previa en roles de Data Scientist, Data Engineer o similar.
  • Experiencia con Python.
  • Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida la optimización de consultas.
  • Entendimiento de flujo de vida completo modelos de Machine Learning y productos de datos.
  • Habilidades analíticas, de diseño y resolución de problemas.
  • Habilidades de colaboración y comunicación.
  • Buen manejo comunicacional y skills colaborativos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” D. Gaucher , J. Friesen and A. C. Kay, Journal of Personality and Social Psychology, 2011.

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Experiencia con servidores cloud (GCP, AWS o Azure), especialmente el conjunto de servicios de procesamiento de datos.
  • Experiencia usando pipelines de CI/CD y Docker.
  • Experiencia en visión por computador (Computer Vision), incluyendo uso de librerías como OpenCV, PyTorch/TensorFlow, YOLO, Detectron2 u otras.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Vestimenta informal
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
APPLY VIA WEB View Job
$$$ Full time
Data Engineer
  • NeuralWorks
  • Santiago (Hybrid)
C Python SQL Virtualization

NeuralWorks es una compañía de alto crecimiento fundada hace 3 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

Apply directly through getonbrd.com.

Descripción del trabajo

El equipo de Data y Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.
Dentro del equipo multidisciplinario con Data Scientist, Translators, DevOps, Data Architect, tu rol será clave en construir y proveer los sistemas e infraestructura que permiten el desarrollo de estos servicios, formando los cimientos sobre los cuales se construyen los modelos que permiten generar impacto, con servicios que deben escalar, con altísima disponibilidad y tolerantes a fallas, en otras palabras, que funcionen. Además, mantendrás tu mirada en los indicadores de capacidad y performance de los sistemas.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Como Data Engineer, tu trabajo consistirá en:

  • Participar activamente durante el ciclo de vida del software, desde inception, diseño, deploy, operación y mejora.
  • Apoyar a los equipos de desarrollo en actividades de diseño y consultoría, desarrollando software, frameworks y capacity planning.
  • Desarrollar y mantener arquitecturas de datos, pipelines, templates y estándares.
  • Conectarse a través de API a otros sistemas (Python)
  • Manejar y monitorear el desempeño de infraestructura y aplicaciones.
  • Asegurar la escalabilidad y resiliencia.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia práctica de al menos 3 años en entornos de trabajo como Data Engineer, Software Engineer entre otros.
  • Experiencia con Python.
    Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida optimización de consultas.
  • Pasión en problemáticas de procesamiento de datos.
  • Experiencia con servidores cloud (GCP, AWS o Azure), especialmente el conjunto de servicios de procesamiento de datos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.
  • Habilidades de comunicación y trabajo colaborativo.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” D. Gaucher , J. Friesen and A. C. Kay, Journal of Personality and Social Psychology, 2011.

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Vestimenta informal
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
APPLY VIA WEB View Job
$$$ Full time
Práctica Mantenedor de Datos Control de Gestión (Finanzas)
  • BNP Paribas Cardif
  • Santiago (Hybrid)
Python Excel SQL Power BI

¿Quieres ser parte de los líderes en la revolución de los seguros?

BNP Paribas Cardif está presente en más de 30 países en América, Europa y Asia, contamos con 25 años de trayectoria en Chile y nuestra misión es hacer los seguros más accesibles, justos y valiosos.

✅ Por nuestro ambiente laboral único, somos una organización centrada en el bienestar de las personas y nuestro espíritu Cardif.
✅ Porque el deporte y sus valores son parte de nuestra cultura: la colaboración, la empatía y el respeto guían nuestro trabajo.
✅ Por la cercanía con nuestros líderes, somos una organización que cree en el talento y damos las oportunidades para desarrollarte y aprender juntos.
✅ Por nuestro modelo de trabajo mixto, teletrabajando tres días a la semana.
✅ Estamos comprometidos con el medio ambiente.
✅ Estamos comprometidos con la diversidad, equidad e inclusión.

Official source: getonbrd.com.

Funciones

Este rol implica la mantención de la base de gastos de gestión financier. Cuyas actividades principales son preparar, actualizar y publicar las bases de datos y planes de cuentas, que son las fuentes de información principal para los reportes de gestión financieros, junto con la documentación del proceso asociado a la mantención de bases de datos.

Requerimiento del cargo

Requisitos mínimos:

  • Ser estudiante de carreras técnicas o ingenierías asociadas al área de gestión financiera, Control de Gestión y/o Administración.
  • Habilidades en:
    • Dominio de Excel intermedio
    • Conocimientos en SQL/Python (no excluyente).
    • Familiaridad con herramientas de visualización como Power BI, Qlik (no excluyente).
  • Disponibilidad para realizar la práctica por 6 meses en Santiago.
  • Se requiere una persona con ganas de aprender, capacidad de trabajo en equipo, comunicación eficaz, productividad, tolerancia a la frustración y compromiso.

Beneficios

¿Y cuáles son nuestros beneficios?

  • Trabajamos eficientemente: 40 horas semanales en horarios flexibles y los viernes salimos a las 14:00.
  • Queremos que seas tú mismo: Contamos con política de vestimenta flexible.
  • Modalidad de trabajo híbrido: dos días presencial y teletrabajo.
  • Bono de práctica.

¿Te sumas a la revolución de la industria del seguro?

Esperamos tu postulación ¡seguro y con todo!

“Todas las contrataciones están sujetas a la ley 21015. En BNP Paribas Cardif creemos en lugares de trabajos inclusivos y diversos, donde todas las personas son bienvenidas. En caso de necesitar adaptaciones para ser parte de nuestro proceso de selección, favor comunicarlo en la sección de preguntas”.

Partially remote You can work from your home some days a week.
Computer provided BNP Paribas Cardif provides a computer for your work.
Informal dress code No dress code is enforced.
Beverages and snacks BNP Paribas Cardif offers beverages and snacks for free consumption.
APPLY VIA WEB View Job
Gross salary $1500 - 1800 Full time
Business Intelligence Analyst
  • Vemo México
  • Ciudad de México (Hybrid)
Python Data Analysis Excel SQL

¡Únete a VEMO y sé parte del futuro de la movilidad limpia!

Quiénes somos?

En VEMO, somos una empresa de electromovilidad impulsada por su gente y tecnología, que integra todo el ecosistema de movilidad limpia para México y América Latina. Nuestra misión es acelerar la adopción de soluciones de movilidad limpia, mejorando la calidad de vida urbana, preservando el medio ambiente y generando empleo sostenible de alto impacto.

¡Estamos comprometidos con una movilidad responsable, limpia e inteligente!

Applications: getonbrd.com.

Funciones del cargo

Propósito del Puesto
Recopilar, analizar e interpretar datos para ayudar a la empresa a tomar decisiones estratégicas informadas.

Principales Responsabilidades
- Análisis de datos avanzados de métricas clave de negocio.
- Elaboración de reportes escritos y presentación que faciliten la toma de decisiones de líderes de la empresa.
- Diseño de KPIs y elaboración de dashboards que faciliten el monitoreo del negocio.
- Optimización de modelos de datos que cataloguen clientes de negocio.
- Acompañamiento a negocio en iniciativas de alto impacto.

Requerimientos del cargo

Formación Académica
· Graduados universitarios de las carreras de Ingenierías, Económicas, Administración o Finanzas con experiencia en análisis de datos.

Experiencia Requerida
- Experiencia laboral en 3 años en entornos corporativos trabajando en equipo
- 3 años en Análisis de datos y presentación de resultados

Conocimientos Técnicos Clave
- Análisis de datos y visualizaciones con MS Excel - Avanzado
- Análisis de datos y visualizaciones con Python – Avanzado
- Análisis estadístico - Avanzado
- Elaboración de queries y vistas con SQL – Intermedio
-Storytelling con datos y preparaciones de presentaciones con MS Power Point – Avanzado
- Power BI o similar – Intermedio

Conditions

Health coverage Vemo México pays or copays health insurance for employees.
Computer provided Vemo México provides a computer for your work.
Informal dress code No dress code is enforced.
APPLY VIA WEB View Job
Gross salary $1500 - 2000 Full time
Ingeniero de Datos
  • Compara
Python PostgreSQL Back-end Kafka

Compara es una plataforma digital que permite cotizar y comparar los principales seguros y productos financieros de Latinoamérica. La empresa trabaja con productos como Seguro Automotriz, SOAP, Asistencias en Viaje, Crédito Hipotecario y Tarjeta de Crédito, ofreciendo a los usuarios una solución integral para tomar decisiones financieras informadas dentro del mercado latinoamericano.

Apply from getonbrd.com.

🎯 ¿Qué harás?

  • Mantener y optimizar nuestro data warehouse basado en PostgreSQL y gestionar los pipelines de ingesta de datos que se encuentran en producción.
  • Liderar la transición hacia una arquitectura más moderna, basada en tecnologías como Databricks, dbt y un data lake en S3.
  • Desarrollar y escalar pipelines para el procesamiento y transformación eficiente de datos.
  • Monitorear, depurar y documentar procesos de datos para garantizar su calidad y confiabilidad.

🔎 ¿A quién buscamos?

  • Persona con más de 2 años de experiencia en ingeniería de datos, construyendo y manteniendo pipelines en producción.
  • Dominio de Python para procesamiento de datos, incluyendo el uso de librerías como pandas, SQLAlchemy y psycopg2.
  • Experiencia trabajando con orquestadores de workflows, especialmente Airflow.
  • Conocimiento sólido de bases de datos relacionales, especialmente PostgreSQL, incluyendo modelamiento y optimización de rendimiento.
  • Experiencia práctica con almacenamiento en la nube (S3 o equivalente) y formatos como Parquet.
  • Autonomía y capacidad de tomar decisiones técnicas.

🌟 Será un plus si cuentas con

  • Experiencia con dbt y modelado de datos.
  • Conocimiento en Databricks, Delta Lake, Apache Iceberg o arquitecturas de lakehouse.
  • Experiencia con diseño e implementación de pipelines CDC (Change Data Capture) usando Debezium, Kafka o similares.
  • Conocimientos de buenas prácticas de DevOps para data (versionado de pipelines, testing, CI/CD).
  • Inglés técnico para leer documentación y colaborar en proyectos internacionales.

🚀 Únete a nuestro equipo

En Compara, ofrecemos horarios flexibles y un entorno que favorece el crecimiento profesional. Valoramos la cultura de aprendizaje continuo y el desarrollo de cada miembro del equipo, por lo que si disfrutas optimizando infraestructuras de datos, impulsando mejoras estratégicas y explorando nuevas herramientas, ¡nos encantaría conocerte! 🚀

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Compara provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Compara gives you paid vacations over the legal minimum.
APPLY VIA WEB View Job
Gross salary $2000 - 2400 Full time
Data Engineer
  • Wild Foods
  • Santiago (In-office)
JavaScript Python MySQL PostgreSQL
En Wild Foods perseguimos la excelencia a todo nivel. Buscamos al mejor talento para incorporarse a nuestro equipo de Transformación Digital. Un equipo joven, dinámico y lleno de desafíos. Si te interesa ser parte de una empresa innovadora y aprender en un entorno de alto rendimiento, anímate a postular!

Apply at getonbrd.com without intermediaries.

Funciones del cargo

¿Qué harás?
  • Diseñar y desarrollar soluciones ELT: Crear y mantener los procesos y flujos de datos necesarios para extraer datos de distintas fuentes, transformarlos según los requisitos de negocio y cargarlos en un almacén de datos centralizado.
  • Integración de múltiples plataformas: Establecer conexiones y configuraciones entre las diferentes plataformas, como Shopify, SAP, Facebook Ads, Google Ads y GCP, para garantizar la extracción y carga de datos de manera segura y eficiente.
  • Mantenimiento y optimización: Realizar tareas de monitoreo, mantenimiento y optimización de los flujos de datos existentes, identificando y solucionando posibles problemas o cuellos de botella que afecten el rendimiento del sistema.
  • Asegurar la calidad de los datos: Implementar y mantener controles de calidad para garantizar la integridad, precisión y consistencia de los datos que se están integrando desde las diferentes fuentes.
  • Data Governance: Implementar prácticas y controles de gobernanza de datos para garantizar la calidad, privacidad, seguridad y conformidad de los datos integrados. Establecer políticas y procedimientos para la gestión y uso adecuado de los datos, así como realizar seguimiento de cumplimiento normativo y resolución de problemas relacionados con la gobernanza de datos.

Requerimientos del cargo

¿Quién eres?
  • Una persona con sólidas habilidades analíticas y de resolución de problemas, capaz de identificar y solucionar problemas técnicos relacionados con la integración de datos, así como optimizar y mejorar los flujos de datos existentes.
  • Con excelentes habilidades de comunicación. Tendrás que comunicarte efectivamente con equipos multidisciplinarios, traduciendo los requisitos técnicos en términos comprensibles para el negocio.
  • Altamente proactivo y autónomo. En Wild Foods confiamos en el motor propio de cada miembro de nuestra organización.
Experiencia que traes:
  • Título universitario en Ingeniería Industrial, Informática o Comercial o carreras afín.
  • 1 a 3 años de experiencia.
  • Dominio de herramientas ELT: experiencia en el diseño y desarrollo de soluciones ELT utilizando herramientas y lenguajes como Google Dataflow, Airflow, Airbyte, DBT, Python, SQL, Javascript, entre otros.
  • Conocimientos en bases de datos: familiaridad con sistemas de gestión de bases de datos relacionales y no relacionales, como Google BigQuery, MySQL, PostgreSQL, MongoDB, etc.
  • Conocimientos de cloud computing: experiencia trabajando en entornos de computación en la nube, especialmente en Google Cloud Platform (GCP), y conocimientos de servicios como Google Cloud Storage, Google Pub/Sub, entre otros.
  • Inglés avanzado.

Condiciones

- Vacaciones ilimitadas
- Hasta un 60% de descuento en marcas Wild Brands
- Stock Options
- Día libre de cumpleaños
- Entre muchos otros!

Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Wild Foods pays or copays health insurance for employees.
Computer provided Wild Foods provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Wild Foods gives you paid vacations over the legal minimum.
Beverages and snacks Wild Foods offers beverages and snacks for free consumption.
APPLY VIA WEB View Job
$$$ Full time
Data Engineer Especialista en GCP
  • Muruna
  • Lima (Hybrid)
Java Python Scala Business Intelligence

Muruna es una empresa chilena especializada en el sector financiero, enfocada en entregar soluciones tecnológicas y servicios de staffing altamente especializados. Nuestro portafolio incluye proyectos estratégicos que abordan la gestión y transformación de grandes volúmenes de datos, fundamentales para la toma de decisiones en organizaciones líderes del rubro financiero.

Este rol está orientado a la ingeniería de datos, con foco en la construcción, desarrollo y optimización de pipelines dentro del ecosistema Google Cloud Platform, asegurando la disponibilidad, calidad y continuidad de la información para los equipos de negocio y análisis.

En Muruna fomentamos un entorno de innovación, colaboración y mejora continua, donde el talento no solo aporta valor técnico, sino que también impulsa el éxito operativo y estratégico de nuestros clientes.

Apply to this job at getonbrd.com.

Responsabilidades principales

  • Diseñar, desarrollar y mantener pipelines robustos de ETL/ELT en Google Cloud Platform para transformar datos crudos en formatos analíticos optimizados.
  • Gestionar y optimizar bases de datos relacionales, Big Data, Data Lake y Data Warehouse, garantizando un almacenamiento eficiente y de alta disponibilidad.
  • Extraer y procesar datos de diversas fuentes internas y externas, asegurando la integridad, calidad y utilidad de la información para su análisis posterior.
  • Implementar procesos automatizados de limpieza, homologación y clasificación de datos para facilitar su análisis y visualización.
  • Automatizar el flujo de datos para mantener actualizaciones constantes y confiables en los sistemas de información.
  • Colaborar estrechamente con usuarios de negocio para entender sus requerimientos específicos y traducirlos en soluciones técnicas efectivas, aplicando principios de Business Intelligence y estrategias de datos para dashboards y reportes.
  • Procesar grandes volúmenes de datos utilizando herramientas de Big Data en la nube, principalmente en GCP y, de manera complementaria, en AWS.

Requisitos y conocimientos clave

Buscamos profesionales con formación universitaria en Ingeniería de Sistemas, Ingeniería de Software o carreras relacionadas, que cuenten con al menos 3 años de experiencia en la construcción e implementación de pipelines de datos en entornos Google Cloud Platform. Es fundamental que manejen servicios como Cloud Storage, DataFlow, BigQuery, BigTable, Pub/Sub, DataProc y Composer.

La certificación Data Engineer en GCP será una ventaja considerable, especialmente en candidatos con al menos un año de experiencia práctica en GCP. Se requiere experiencia sólida en Business Intelligence, entendiendo cómo aplicar estrategias de negocio para gestionar y analizar datos orientados a dashboards.

El dominio intermedio-avanzado de bases de datos SQL es imprescindible, así como experiencia de al menos 3 años en explotación y manipulación de bases de datos. Se valorará conocimiento básico en programación con Java y Python o Scala para el tratamiento y exposición de datos vía APIs.

Experiencia en ambientes cloud, principalmente GCP, con al menos un año de trabajo en estos entornos. Conocimientos en metodologías ágiles serán un plus importante para adaptarse al ritmo dinámico del equipo.

Además, buscamos candidatos que cuenten con habilidades destacadas en comunicación, análisis crítico, pensamiento estratégico, orientación a resultados y trabajo colaborativo en equipos multidisciplinarios. El nivel de inglés requerido es intermedio para interactuar en contextos técnicos y documentales.

Habilidades y conocimientos deseables

Se valorará especialmente contar con certificaciones oficiales de Google Cloud Platform en Data Engineering, experiencia previa con AWS y conocimientos avanzados en herramientas de Big Data como Apache Spark o Hadoop. Asimismo, la familiaridad con metodologías ágiles como Scrum o Kanban facilitará la integración y adaptación a los ciclos de desarrollo y despliegue.

Competencias blandas adicionales como iniciativa, proactividad para resolver problemas complejos y capacidad para trabajar en equipos interdisciplinarios distribuidos también serán muy bien valoradas.

Beneficios y ambiente laboral

  • 🎂 Medio día libre en tu cumpleaños + una Gift Card de $25 para que celebres a tu manera.
  • 📚 Certificaciones oficiales de Google (¡somos Partners!), para que sigas creciendo profesionalmente.
  • 🧠 Coaching profesional personalizado, para acompañarte en tu desarrollo y bienestar.
  • 📦 Día libre por mudanza, porque sabemos que cambiarse de casa requiere tiempo (y energía).
  • 👶 Bono por nacimiento, porque los grandes momentos merecen celebrarse.
  • 🇨🇱 Bonode Fiestas Patrias, para que disfrutes con todo el sabor local.
  • 😄 Bono por Referido.

Computer provided Muruna provides a computer for your work.
APPLY VIA WEB View Job
Gross salary $3000 - 3500 Full time
Data Engineer SSR
  • Improving South America
SQL Azure Power BI Cloud Computing

Hola! somos Improving South America.

Nacimos como una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA principalmente.

Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.

Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development y También trabajamos en desarrollo backend.

Valoramos a las personas dinámicas en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Official source: getonbrd.com.

Funciones del cargo

Actualmente estamos en la búsqueda de un Data Analyst con experiencia que se quiera unir a Improving South America.
Buscamos personas con muchas ganas de aprender, de sumar y que tenga buen manejo del trabajo en equipo.
Su trabajo consiste en hacer que las tareas se realicen utilizando todos los recursos disponibles (tangibles e intangibles) con un fuerte nivel de análisis para manejar troubleshooting en caso de errores de datos, entre otros en un proyecto de finanzas con alcance internacional para clientes de USA.
Se trabajará en el departamento de desarrollo de tecnología de la empresa.
El proyecto es con clientes en USA, pero trabajarás con nuestros equipos de Improving.
Será responsable de avanzar en los diferentes requerimientos del cliente, junto con su equipo.

Requerimientos del cargo

  • Contar con un nivel de inglés intermedio/avanzado (B2/C1). Excluyente.
  • +5 años de experiencia trabajando con SQL Server.
  • Experiencia práctica con Microsoft Fabric, Power BI y Data Flows.
  • Dominio de Azure Logic Apps y automatización en la nube.
  • Sólido conocimiento en modelado de datos, optimización del rendimiento e indexación.
  • Experiencia integrando datos desde múltiples fuentes, incluyendo APIs y almacenamiento en la nube.

Nice to have

  • Experiencia con Azure Data Factory, Synapse Analytics y Dataverse.
  • Familiaridad con Python o PowerShell para automatización.
  • Conocimiento de prácticas DevOps y CI/CD para canalizaciones de datos.
  • Certificaciones de Microsoft (por ejemplo, Azure Data Engineer Associate, Certificación en Power BI).
  • Experiencia en almacenamiento de datos (Data Warehousing) y ciencia de datos.

Beneficios

  • 100% Remoto.
  • Vacaciones y PTOs.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Improving South America gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB View Job
Gross salary $2500 - 2700 Full time
Data Engineer Semi Senior
  • TCIT
  • Santiago (In-office)
Git SQL Cloud Computing Google Cloud Platform
En TCIT, somos líderes en el desarrollo de software en modalidad Cloud, con la misión de transformar digitalmente organizaciones a través de soluciones sostenibles e innovadoras. Nuestro equipo está compuesto por profesionales apasionados y enfocados en generar un impacto positivo. Hemos trabajado en proyectos variados, desde sistemas de gestión agrícola hasta soluciones específicas para la industria judicial. Actualmente colaboramos con importantes partners tecnológicos en ambiciosos proyectos en países como Canadá.

This job is exclusive to getonbrd.com.

Dentro de las principales funciones se destacan:

  • Serás responsable de entregar soluciones eficientes, robustas y escalables en GCP. Tu rol implicará:
  • Diseñar, construir y mantener sistemas de procesamiento de datos escalables y de alto rendimiento en GCP.
  • Desarrollar y mantener pipelines de datos para la extracción, transformación y carga (ETL) de datos desde diversas fuentes en GCP.
  • Implementar soluciones para el almacenamiento y procesamiento eficiente de grandes volúmenes de datos utilizando las herramientas y servicios de GCP.
  • Colaborar con equipos multidisciplinarios para entender los requisitos y diseñar soluciones adecuadas en el contexto de GCP.
  • Optimizar el rendimiento de los sistemas de procesamiento de datos y garantizar la integridad de los datos en GCP.

Habilidades requeridas:

  • Fuerte comprensión de conceptos de bases de datos y modelado de datos.
  • Competencia en SQL, experiencia en el diseño y optimización de consultas.
  • Experiencia implementando y manteniendo soluciones y arquitecturas Cloud.
  • Experiencia en construcción y mantenimiento de Arquitecturas y Pipelines de datos.
  • Habilidades de resolución de problemas.
  • Pensamiento analítico y crítico.
  • Conocimiento de seguridad de datos y cumplimiento normativo en GCP (deseable).
  • Experiencia con herramientas de control de versiones como Git.
  • Conocimiento y experiencia del ciclo de implementación de metodologías ágiles.

Experiencia requerida:

  • Profesional titulado en informática, ingeniería, estadística o matemáticas.
  • Inglés nivel B2 intermedio/avanzado (Excluyente).
  • 3 o más años de experiencia práctica en Data Engineering en GCP.
  • Certificaciones en Google Cloud Platform (GCP) para Data Engineer.
  • Experiencia sobre Apache Spark, Hadoop en el contexto de GCP.
  • Experiencia en consumo de datos mediante servicios de GCP como Pub/Sub, BigQuery, Dataflow, Dataproc, Cloud run.
  • Conocimiento de Ejecuciones de servicios GCP mediante Google Cloud SDK.
  • Experiencia en Modelado de Datos con DBT.
  • Experiencia en el uso de lenguajes de programación como Python, Java o Scala para el desarrollo de pipelines de datos en GCP.
  • Experiencia construyendo código con shell scripting para la ejecución automatizada de flujos de datos
  • Experiencia con herramientas de orquestación, administración de flujos y monitoreo como Airflow ó Control-M
  • Experiencia trabajando con herramientas de seguimiento de metodologías ágiles (Scrum, Kanban, Lean, etc.) (deseable)

Condiciones

En TCIT, garantizamos un ambiente laboral enriquecedor con:
  • Oficinas accesibles, a solo pasos del metro, para facilitar tu día a día. 🚇
  • Flexibilidad horaria que se adapta a tu estilo de vida, permitiéndote encontrar el equilibrio perfecto. 🕒
  • Aumento en los días de vacaciones para que puedas recargar energías. 🌴
  • Acceso a beneficios exclusivos y oportunidades con Caja de Compensación Los Andes y ACHS. 🎁
  • Oportunidades para certificaciones gratuitas, siendo Google Partners. 🎓
  • Equipamiento y soporte técnico adecuados, asegurando que tengas todo lo necesario para desempeñar tu trabajo. 🔧
  • Un ambiente de trabajo con áreas de descanso y una estación de cafetería para tus momentos de relax. ☕
  • Reuniones y celebraciones informales para fomentar un buen clima laboral. 🎉
¡Esperamos que te unas a la revolución digital de TCIT y a nuestra apasionada comunidad!

APPLY VIA WEB View Job
$$$ Full time
Data Engineer
  • Promarketing
Python SQL Business Intelligence Power BI

Promarketing Chile es una empresa de desarrollo de software especializada en soluciones web escalables e innovadoras, utilizando tecnologías de vanguardia para impulsar la transformación digital, optimizar procesos y destacarse en el mercado.

Contamos con profesionales altamente capacitados y fomentamos un espacio de trabajo colaborativo y orientado al crecimiento tecnológico de nuestros colaboradores y del negocio.

¡Queremos que te unas a nuestro equipo como Data Engineer!

🚀 Sobre el desafío:

En Promarketing Chile queremos elevar la retención de usuarios y aumentar el valor promedio de los depósitos, y para eso buscamos un perfil que combine ingeniería de datos, pensamiento estratégico y visión centrada en el usuario.

Find this job on getonbrd.com.

Funciones del cargo

  • Diseñar y optimizar el Customer Journey basado en datos reales de comportamiento, desde el registro hasta la retención o abandono.
  • Implementar y mantener flujos de datos eficientes desde múltiples fuentes (CRM, pagos, sesiones).
  • Automatizar el análisis del comportamiento de usuarios y segmentación por valor y riesgo de abandono.
  • Crear dashboards interactivos (Power BI o similares) para visualizar KPIs críticos de conversión, depósitos y retención.
  • Proponer e implementar integraciones de APIs externas que mejoren el análisis de usuarios.
  • Colaborar con los equipos de marketing y TI para tomar decisiones basadas en datos.

Requerimientos del cargo

  • Experiencia de 2+ años en ingeniería de datos, análisis o BI.
  • Dominio de SQL (queries complejas, segmentación, cohortes).
  • Dominio de Python
  • Conocimiento práctico en Power BI, Looker o similares.
  • Conocimiento en GTM y GA4
  • Experiencia diseñando o implementando Customer Journeys con base en datos.
  • Capacidad de traducir datos en acciones estratégicas y recomendaciones claras.

Opcionales

  • Deseable: experiencia con herramientas como dbt, Fivetran, BigQuery, Segment, Airflow.
  • Experiencia previa o interés en el sector de casinos online, gaming, fintech o ecommerce.

Condiciones

  • Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos.
  • Un entorno de trabajo flexible y dinámico.
  • Día libre para tu cumpleaños.
  • Trabajo 100% Remoto
  • 40 Hora de trabajo semanales

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB View Job
$$$ Full time
Senior Data Engineer
  • Moventi
Python Analytics SQL Web server
Moventi is a forward-thinking technology company dedicated to empowering organizations to lead in their industries through innovation and advanced technology solutions. Our work culture encourages transparency, teamwork, and continuous learning. We operate from a centrally located office offering modern collaborative spaces, including agile meeting tables and recreational areas, fostering a vibrant and supportive environment. The Senior Data Engineer will join a multidisciplinary team working on transformative projects in healthcare technology and software services, enabling data-driven decision making that positively impacts healthcare outcomes and technological advancements within our clients' businesses.

This job offer is on Get on Board.

Role and Responsibilities

As a Senior Data Engineer at Moventi, you will be a key player in architecting, developing, and maintaining scalable data pipelines and infrastructure. Your responsibilities will include:
  • Designing and implementing robust ETL/ELT pipelines using SQL, Python, and Airflow to process large volumes of complex data efficiently.
  • Managing and optimizing data storage and processing frameworks, particularly leveraging Snowflake's cloud data platform for high performance and scalability.
  • Collaborating closely with data scientists, analysts, and stakeholders to translate business needs into effective data solutions.
  • Developing and maintaining data visualization tools and dashboards using Tableau to provide actionable insights to business users.
  • Ensuring data quality, security, and governance best practices are implemented and monitored.
  • Mentoring junior data engineers and sharing knowledge to enhance team capabilities.
Your role is vital to transforming raw data into meaningful analytics deliverables that drive strategic business decisions and innovation within healthcare technology and software service domains.

Requirements and Qualifications

We are looking for a Senior Data Engineer with the following expertise and skills:
  • 5+ years of professional experience in data engineering or analytics engineering roles
  • Proven expertise with Snowflake (data modeling, performance optimization, security)
  • Strong proficiency in Python for data processing and automation
  • Hands-on experience with Apache Airflow for the orchestration of workflows
  • Proficiency in SQL with experience in optimizing queries and data transformations
  • Experience developing data visualizations using Tableau
  • Familiarity with healthcare technology, software services, or tech-enabled analytics platforms
  • Excellent communication skills and experience working with multidisciplinary stakeholders
  • Comfortable working autonomously and capable of delivering high-quality work independently
  • Previous exposure to remote-first work environments; adaptable and collaborative

Desirable Skills and Experience

Preferred additional skills include:
  • Experience with other cloud platforms such as AWS, Azure, or GCP.
  • Knowledge of containerization tools like Docker and orchestration platforms such as Kubernetes.
  • Familiarity with machine learning pipelines and collaboration with data science teams.
  • Understanding of healthcare data standards (e.g., HL7, FHIR) and data privacy regulations like HIPAA or GDPR.
  • Participation in open-source data engineering projects or community involvement.

Why Join Moventi?

  • Continuous opportunities for professional growth and ongoing learning within a multidisciplinary environment.
  • Flexible remote work options, enabling you to balance work and personal life effectively.
  • Participation in highly challenging projects that encourage innovation and skill development.
  • A positive and collaborative company culture based on transparency, commitment, and innovative thinking.
  • Central office location with modern facilities including parking and recreational areas, ideal for hybrid work if preferred.

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
APPLY VIA WEB View Job
$$$ Full time
Ingeniero de Data Pipelines Cloud
  • BC Tecnología
  • Santiago (Hybrid)
Java Python Data Analysis Excel
En BC Tecnología, una consultora especializada en servicios IT con más de 6 años de experiencia, diseñamos y ejecutamos soluciones tecnológicas a medida para clientes en sectores como financieros, seguros, retail y gobierno. Nuestro enfoque está en metodologías ágiles, cambio organizacional y desarrollo de productos innovadores. Como parte del equipo de datos, trabajarás en proyectos de modernización y optimización de ductos de datos en entornos cloud, colaborando con áreas de infraestructura y desarrollo para potenciar la gestión de datos en importantes clientes del área retail y otros sectores clave.

Apply without intermediaries through Get on Board.

Responsabilidades principales

Entre las funciones principales del rol se incluyen:
  • Diseñar, construir y mantener pipelines de datos eficientes y escalables en entornos cloud, preferentemente en AWS.
  • Colaborar en la ingesta, transformación y carga de datos provenientes de diversas fuentes internas y externas.
  • Trabajar junto a un líder técnico en iniciativas de modernización y mejora continua de los sistemas de datos.
  • Implementar soluciones técnicas alineadas con los lineamientos de arquitectura y estrategia de datos corporativa.
  • Interpretar y traducir requerimientos de negocio relacionados con datos en conjunto con analistas y desarrolladores para ofrecer soluciones que aporten valor.
  • Apoyar en la documentación técnica y seguimiento de buenas prácticas en desarrollo de pipelines.

Requisitos y experiencia requerida

Buscamos un profesional con experiencia práctica en proyectos relacionados con datos y pipelines en ambientes cloud, con capacidad para integrarse rápidamente a equipos multidisciplinarios. Es fundamental contar con:
  • Experiencia íntima con herramientas de visualización de datos, destacando Power BI y Metabase, que permitan el análisis y presentación clara de información.
  • Manejo intermedio de Excel para análisis de datos y manipulación básica.
  • Fuerte manejo en computación en la nube, idealmente con AWS, y servicios como Glue, Airflow y Redshift para orquestación, transformación y almacenamiento de datos.
  • Dominio de bases de datos SQL y/o NoSQL, para consulta, modelamiento y optimización del acceso a datos.
  • Conocimientos en lenguajes de programación como Python o Java, utilizados para desarrollo y automatización en la ingeniería de datos.
  • Experiencia previa en el rubro retail, entendiendo sus particularidades y necesidades en el manejo de datos.
  • Disponibilidad para trabajar en modalidad híbrida desde Chile, con flexibilidad para combinar trabajo remoto y presencial.
Valoramos habilidades blandas como colaboración, comunicación efectiva, orientación al detalle y capacidad de adaptación a entornos dinámicos y multidisciplinarios.

Habilidades y conocimientos deseables

Además, será altamente valorado que el candidato cuente con:
  • Experiencia en otras plataformas cloud además de AWS, como Azure o Google Cloud.
  • Conocimientos en frameworks y herramientas de orquestación de flujos de datos adicionales a Airflow.
  • Capacidad para diseñar arquitecturas de datos escalables y resilientes.
  • Conocimientos en seguridad y gobernanza de datos para garantizar integridad y cumplimiento normativo.
  • Experiencia previa en metodologías ágiles y trabajo colaborativo con equipos multifuncionales.

Beneficios y cultura de trabajo

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

APPLY VIA WEB View Job
Gross salary $1400 - 1700 Full time
Administrador de Bases de Datos
  • Zerviz Technologies
  • Santiago (In-office)
MySQL PostgreSQL NoSQL MongoDB

En ZerviZ, somos una empresa líder en innovación tecnológica y transformación digital desde 2017, con presencia en más de 16 países de América Latina. Nos especializamos en diseñar, implementar y optimizar proyectos digitales que mejoran la experiencia del cliente y optimizan procesos operativos, atención, servicio y gestión. Participarás en un equipo que impulsa más de 150 proyectos exitosos utilizando tecnologías de punta y metodologías ágiles, siempre buscando ir más allá de lo convencional para entregar soluciones flexibles y personalizadas a clientes en diversas industrias.

Applications at getonbrd.com.

Funciones

  • Administrar y optimizar bases de datos relacionales (SQL Server, MySQL, PostgreSQL) y no relacionales (MongoDB).
  • Desarrollar y ejecutar scripts en SQL para automatizar tareas y mejorar el rendimiento.
  • Implementar y mantener políticas de seguridad de bases de datos (encriptación, control de acceso, auditoría).
  • Gestionar planes de backup, recuperación de datos y garantizar alta disponibilidad.
  • Monitorear el rendimiento de las bases de datos y diagnosticar posibles problemas.
  • Gestionar bases de datos en entornos virtualizados y plataformas en la nube (AWS, Azure, Google Cloud).

Requisitos

  • Experiencia en Sistemas de Gestión de Bases de Datos (SGBD): Se requiere experiencia en el manejo y administración de SGBD como Microsoft SQL Server, MySQL, PostgreSQL, MongoDB, entre otros, tanto en bases de datos relacionales como no relacionales.
  • Instalación, configuración y administración: Se debe contar con la capacidad para instalar, configurar y administrar diferentes tipos de SGBD, adaptándolos a las necesidades específicas de la organización.
  • Conocimientos en arquitectura de bases de datos: Se debe tener un conocimiento sólido en la arquitectura de bases de datos, comprendiendo su diseño, escalabilidad y optimización, asegurando un desempeño eficiente y seguro de las bases de datos.

Experiencias Deseables

  • Seguridad de la información: Conocimiento en herramientas y técnicas de seguridad, encriptación de datos y gestión de riesgos.
  • Certificaciones en Cloud: Certificaciones en plataformas de computación en la nube como AWS, Azure o Google Cloud.
  • Business Intelligence (BI): Conocimientos en herramientas de BI para el análisis y visualización de datos.
  • Automatización y scripting: Familiaridad con herramientas de automatización y scripting (PowerShell, Python, etc.) para optimizar procesos y tareas administrativas.

Conditions

Life insurance Zerviz Technologies pays or copays life insurance for employees.
Health coverage Zerviz Technologies pays or copays health insurance for employees.
Dental insurance Zerviz Technologies pays or copays dental insurance for employees.
Computer provided Zerviz Technologies provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB View Job
$$$ Full time
Senior Ingeniero de Datos
  • Devsu
  • Quito (Hybrid)
Java Python SQL NoSQL

Con más de 10 años de experiencia creando innovación para empresas, desde startups hasta las mayores compañías de US y Latinoamérica en diferentes industrias como banca y seguros.

En Devsu te encontrarás trabajando con los mejores profesionales de los que podrás aprender constantemente y participar en proyectos emocionantes y desafiantes para clientes globales.

Buscamos un Ingeniero de Datos con amplia experiencia en el ciclo completo de desarrollo de soluciones de información, incluyendo análisis, diseño, desarrollo, certificación, despliegue y mantenimiento, en entornos OnPremise y tecnologías Big Data. Se valorará la capacidad de liderar y colaborar con equipos multidisciplinarios para acelerar el cumplimiento de objetivos.

Es una posición híbrida en la ciudad de Quito-Ecuador, en donde serás asignado/a a uno de nuestros clientes más importantes en el sector financiero/bancario de Latinoamérica.

Apply without intermediaries from Get on Board.

Funciones del cargo

  • Diseñar y desarrollar soluciones de datos alineadas con la visión de Arquitectura de Datos.
  • Crear y optimizar ETLs, ELTs y APIs para manejo eficiente de datos.
  • Implementar estrategias de testing para validar calidad funcional y no funcional.
  • Proponer mejoras continuas en procesos y productos de datos.
  • Resolver incidencias técnicas y documentar soluciones conforme a estándares.
  • Mentorizar y apoyar el onboarding de nuevos integrantes del equipo.

Herramientas y Tecnologías

  • Apache Spark, Kafka, Flink, Hadoop, HDFS.
  • Servicios Cloud: AWS, Azure, GCP.
  • Lenguajes: Python, Scala.

Requerimientos del cargo

  • Al menos 3 años de experiencia como ingeniero de datos.
  • Experiencia en optimizacion de SQL y Spark.
  • Experiencia con streaming de datos.
  • Bases de datos relacionales y NoSQL, diseño de Datawarehouse, Datamarts, Datalakes y Lakehouse.
  • Procesamiento distribuido con Hadoop, Spark y arquitecturas batch/streaming.
  • Desarrollo en Python, Scala o Java, aplicando principios de Clean Code.
  • Construcción de pipelines con herramientas ETL (Azure Data Factory, AWS Glue, SSIS).
  • Estrategias de DataOps/MLOps y despliegue CI/CD.

Deseable: Certificaciones en AWS, Azure, o Big Data, y experiencia en arquitecturas modernas como Data Mesh o Data Fabric.

Beneficios

En Devsu, queremos crear un ambiente donde puedas prosperar tanto personal como profesionalmente. Al unirte a nuestro equipo, disfrutarás de:

  • Un contrato estable a largo plazo con oportunidades de crecimiento profesional
  • Seguro médico privado
  • Programas continuos de capacitación, mentoría y aprendizaje para mantenerte a la vanguardia de la industria
  • Acceso gratuito a recursos de capacitación en IA y herramientas de IA de última generación para elevar tu trabajo diario
  • Una política flexible de tiempo libre remunerado (PTO) además de días festivos pagados
  • Proyectos de software desafiantes de clase mundial para clientes en Estados Unidos y Latinoamérica
  • Colaboración con algunos de los ingenieros de software más talentosos de Latinoamérica y Estados Unidos, en un entorno de trabajo diverso

Únete a Devsu y descubre un lugar de trabajo que valora tu crecimiento, apoya tu bienestar y te empodera para generar un impacto global.

Wellness program Devsu offers or subsidies mental and/or physical health activities.
Internal talks Devsu offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Digital library Access to digital books or subscriptions.
Health coverage Devsu pays or copays health insurance for employees.
Computer provided Devsu provides a computer for your work.
Education stipend Devsu covers some educational expenses related to the position.
Personal coaching Devsu offers counseling or personal coaching to employees.
APPLY VIA WEB View Job
$$$ Full time
Arquitecto de Datos
  • Devsu
  • Quito (In-office)
Python SQL Business Intelligence Virtualization

Con más de 10 años de experiencia creando innovación para empresas, desde startups hasta las mayores compañías de US y Latinoamérica en diferentes industrias como banca y seguros.

En Devsu te encontrarás trabajando con los mejores profesionales de los que podrás aprender constantemente y participar en proyectos emocionantes y desafiantes para clientes globales.

Buscamos un profesional con sólida experiencia técnica y capacidad estratégica para liderar la evolución y arquitectura de productos digitales en el sector financiero.

Buscamos un Arquitecto de Datos con sólida experiencia en la plataforma Stratio y ecosistemas de datos sobre (AWS).

Es una posición remota si vives en Latam y presencial si vives en la ciudad de Quito, Ecuador, en donde serás asignado/a a uno de nuestros clientes más importantes en el sector financiero/bancario de Latinoamérica.

Apply directly from Get on Board.

Funciones del cargo

  • Diseñar e implementar soluciones de procesamiento de datos en NRT y por lotes utilizando Spark.
  • Diseñar y evolucionar arquitecturas de datos utilizando Stratio Data Fabric.
  • Construir y optimizar pipelines de datos en AWS: ingestión, transformación, almacenamiento y exposición.
  • Implementar políticas de seguridad, calidad y gobierno de datos.
  • Colaborar con equipos de desarrollo, analítica y DevOps para garantizar la integración continua y despliegues eficientes.
  • Documentar arquitecturas, modelos de datos y decisiones técnicas clave.
  • Liderar la toma de decisiones sobre herramientas, patrones y estándares tecnológicos.

Requerimientos del cargo

  • 5+ años de experiencia en arquitectura de datos.
  • Experiencia real con Stratio Platform: configuración, virtualización, gobierno de datos, etc.
  • Experiencia sólida en AWS: S3, Glue, Redshift, Lambda, Athena, Kinesis, EMR, IAM.
  • Conocimiento en arquitecturas orientadas a eventos, datos en tiempo real, Data Lakes y Lake Houses.
  • Experiencia con Terraform o CloudFormation para infraestructura como código.
  • Conocimiento de lenguajes como Python, SQL y frameworks tipo Spark / PySpark.

Deseables:

  • Certificaciones AWS (ej. Data Analytics, Solutions Architect).
  • Experiencia previa en banca, seguros o telcos.
  • Experiencia en herramientas de visualización (Power BI, Looker, Tableau).

Beneficios

En Devsu, queremos crear un ambiente donde puedas prosperar tanto personal como profesionalmente. Al unirte a nuestro equipo, disfrutarás de:

  • Un contrato estable a largo plazo con oportunidades de crecimiento profesional
  • Seguro médico privado
  • Programas continuos de capacitación, mentoría y aprendizaje para mantenerte a la vanguardia de la industria
  • Acceso gratuito a recursos de capacitación en IA y herramientas de IA de última generación para elevar tu trabajo diario
  • Una política flexible de tiempo libre remunerado (PTO) además de días festivos pagados
  • Proyectos de software desafiantes de clase mundial para clientes en Estados Unidos y Latinoamérica
  • Colaboración con algunos de los ingenieros de software más talentosos de Latinoamérica y Estados Unidos, en un entorno de trabajo diverso

Únete a Devsu y descubre un lugar de trabajo que valora tu crecimiento, apoya tu bienestar y te empodera para generar un impacto global.

Wellness program Devsu offers or subsidies mental and/or physical health activities.
Internal talks Devsu offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Digital library Access to digital books or subscriptions.
Health coverage Devsu pays or copays health insurance for employees.
Computer provided Devsu provides a computer for your work.
Education stipend Devsu covers some educational expenses related to the position.
Personal coaching Devsu offers counseling or personal coaching to employees.
APPLY VIA WEB View Job
$$$ Full time
Ingeniero de Datos
  • BC Tecnología
Java C Python SQL
En BC Tecnología somos una consultora especializada en servicios de IT, con fuerte expertise en diferentes áreas tecnológicas. Nuestra organización se dedica a administrar portafolios, desarrollar proyectos e implementar soluciones a medida, además de realizar outsourcing y selección de profesionales para clientes destacados en sectores como servicios financieros, seguros, retail y gobierno. La posición de Ingeniero de Datos se enmarca dentro de proyectos innovadores enfocados en la transformación digital y optimización de procesos mediante el aprovechamiento de datos. Trabajamos con metodologías ágiles para diseñar soluciones que se adaptan a las necesidades específicas de cada cliente, creando equipos multidisciplinarios con un fuerte enfoque en colaboración, calidad y entrega continua.

Apply to this posting directly on Get on Board.

Responsabilidades del Ingeniero de Datos

El Ingeniero de Datos será responsable de diseñar, implementar y mantener procesos ETL (Extract, Transform, Load) para la ingesta y procesamiento de grandes volúmenes de datos provenientes de diversas fuentes. Deberá garantizar la integridad y calidad de los datos, facilitando su disponibilidad para análisis y reportes.
Sus tareas principales incluirán:
  • Construir y administrar almacenes y lagos de datos escalables y seguros.
  • Automatizar flujos de datos mediante herramientas y tecnologías específicas del ecosistema Microsoft Azure, como Data Lake, Data Factory y Databricks.
  • Colaborar con equipos de analistas, científicos de datos y desarrolladores para entender necesidades y entregar soluciones ajustadas.
  • Implementar monitoreo y optimización de pipelines de datos para garantizar eficiencia y rendimiento.
  • Documentar procesos y arquitecturas de datos para mantener buenas prácticas y facilitar la transferencia de conocimiento.

Requisitos y habilidades técnicas

Buscamos profesionales con hasta 3 años de experiencia en ingeniería de datos, con un perfil orientado al desarrollo y operación de plataformas de datos. Es fundamental tener conocimiento avanzado en SQL y experiencia práctica con lenguajes de programación orientados a datos como C# y Java, mientras que Python y PySpark son habilidades deseables que aportan valor agregado a la posición.
Se requiere experiencia comprobable en el diseño y ejecución de procesos ETL, así como en la administración y manejo de almacenes de datos (data warehouses). La familiaridad con herramientas de visualización como Power BI es necesaria; conocimientos en Tableau son un plus.
Se valoran conocimientos y experiencia en servicios de nube, especialmente Azure Data Lake, Azure Data Factory y Databricks, lo que permitirá implementar soluciones modernas y escalables.
Además, se considerará positivamente la comprensión de aspectos del negocio relacionados con ingresos, precios y tarifarios, especialmente en sectores como retail, telecomunicaciones o aerolíneas, donde el análisis de estos datos es crítico.
La formación requerida es técnica o profesional en carreras afines a TI, preferentemente con certificaciones o cursos especializados en plataformas Microsoft Azure y tecnologías de ingeniería de datos.
Competencias blandas imprescindibles incluyen capacidad para trabajar en equipo, buena comunicación, adaptabilidad, proactividad y orientación a resultados.

Conocimientos deseables

  • Experiencia con lenguajes de scripting para automatización de procesos.
  • Conocimiento de arquitecturas Big Data y herramientas asociadas.
  • Familiaridad con librerías de Python para ingeniería de datos o ciencia de datos.
  • Habilidades en visualización avanzada con Tableau o herramientas similares.
  • Certificaciones adicionales en Microsoft Azure o plataformas similares de nube.

Beneficios y cultura organizacional

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional mediante la integración y el intercambio de conocimientos entre equipos.
Ofrecemos una modalidad híbrida de trabajo desde nuestras oficinas en Las Condes, favoreciendo la flexibilidad para combinar el trabajo remoto con la colaboración presencial, lo que permite un mejor equilibrio entre vida personal y laboral.
Formarás parte de proyectos innovadores con clientes de alto nivel y en sectores diversos, en un entorno inclusivo que respeta la diversidad y fomenta el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB View Job
Gross salary $3400 - 4400 Full time
Senior Data Engineer
  • Checkr
  • Santiago (Hybrid)
Java Ruby Python SQL
Checkr crea una infraestructura de personas para el futuro del trabajo. Hemos diseñado una forma más rápida y justa de seleccionar a los solicitantes de empleo. Fundada en 2014, Checkr pone la tecnología moderna impulsada por el aprendizaje automático en manos de los equipos de contratación, ayudando a contratar a grandes nuevas personas con una experiencia que es rápida, suave y segura. Checkr tiene más de 100.000 clientes, entre ellos DoorDash, Coinbase, Lyft, Instacart y Airtable.
Buscamos un Ingeniero de Datos Senior con experiencia para que se incorpore a nuestro equipo de operaciones de datos. Este equipo desempeña un papel crucial en nuestra misión, ya que desarrolla y mantiene los sistemas que realizan verificaciones de antecedentes precisas y eficientes.
Como ingeniero de datos sénior del equipo de operaciones de datos, trabajarás en proyectos de gran impacto que contribuyen directamente a la funcionalidad principal de los servicios de verificación de antecedentes de Checkr.

Apply to this job at getonbrd.com.

Responsabilidades del cargo

  • Crear y mantener canales de datos y conjuntos de datos fundamentales para satisfacer las necesidades del producto y del negocio.
  • Diseñar y construir arquitecturas de bases de datos con datos masivos y complejos, equilibrando la carga computacional y el coste.
  • Desarrollar auditorías para la calidad de los datos a gran escala, implementando alertas según sea necesario.
  • Crear paneles de control y informes escalables para apoyar los objetivos empresariales y permitir la toma de decisiones basada en datos.
  • Solucionar y resolver problemas complejos en entornos de producción.
  • Trabajar en estrecha colaboración con los gestores de productos y otras partes interesadas para definir e implementar nuevas funciones.

Calificaciones y Requisitos del cargo

  • Más de 5 años de experiencia en desarrollo de software full-stack.
  • Gran dominio de al menos uno de los siguientes lenguajes: Ruby (preferible), Python o Golang.
  • Experiencia en el procesamiento de datos a gran escala, tanto por lotes como en streaming.
  • Sólidos conocimientos de sistemas de bases de datos, tanto SQL como NoSQL.
  • Experiencia con tecnologías de big data como Kafka, Spark, Iceberg, Datalake, AWS Glue, Athena y S3.
  • Experiencia con ETL/ELT, procesamiento de datos en streaming y por lotes a gran escala.
  • Conocimiento de las mejores prácticas de seguridad y cuestiones relacionadas con la privacidad de los datos.
  • Experiencia con arquitectura de microservicios y API RESTful.
  • Fuertes habilidades para resolver problemas y atención al detalle.
  • Habilidades avanzadas de comunicación en inglés y capacidad para trabajar en un entorno colaborativo.

Competencias Deseables

  • Experiencia/conocimiento de plataformas de procesamiento de datos como Databricks o Snowflake.

Conditions

  • Un entorno de colaboración y rápido movimiento
  • Formar parte de una empresa internacional con sede en Estados Unidos
  • Asignación de reembolso por aprendizaje y desarrollo
  • Remuneración competitiva y oportunidades de promoción profesional y personal
  • Cobertura médica, dental y oftalmológica del 100% para empleados y dependientes
  • Vacaciones adicionales de 5 días y flexibilidad para tomarse tiempo libre
  • Reembolso de equipos para trabajar desde casa
En Checkr, creemos que un entorno de trabajo híbrido fortalece la colaboración, impulsa la innovación y fomenta la conexión. Nuestras sedes principales son Denver, CO, San Francisco, CA, y Santiago, Chile.
Igualdad de oportunidades laborales en Checkr

Checkr se compromete a contratar a personas cualificadas y con talento de diversos orígenes para todos sus puestos tecnológicos, no tecnológicos y de liderazgo. Checkr cree que la reunión y celebración de orígenes, cualidades y culturas únicas enriquece el lugar de trabajo.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Checkr pays or copays health insurance for employees.
Computer provided Checkr provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Checkr gives you paid vacations over the legal minimum.
Beverages and snacks Checkr offers beverages and snacks for free consumption.
APPLY VIA WEB View Job
Gross salary $3000 - 3500 Full time
Data Scientist – LLM Expert
  • Niuro
Python Virtualization Amazon Web Services Azure
Niuro collaborates with leading U.S. companies by connecting them with elite, autonomous, high-performance tech teams worldwide. Through innovative solutions, Niuro simplifies global talent acquisition ensuring maximum efficiency and quality. Our teams focus on challenging projects involving advanced industrial data, where continuous professional growth and leadership development are core values. By handling the administrative side—hiring, payments, training—Niuro empowers specialists to deliver exceptional results while advancing their careers in a collaborative and stimulating environment.

Job source: getonbrd.com.

About the Role

At Niuro, we are seeking a Data Scientist with expertise in Large Language Models (LLMs) to become an integral part of our engineering team. Your role will involve building intelligent agents that seamlessly integrate data, tools, and various models to produce measurable and impactful outcomes.
You will own the entire development loop: from framing complex problems and defining success criteria to developing, deploying, and maintaining efficient, trustworthy, and maintainable AI-powered solutions over time. Your work will be essential in advancing our data science capabilities and delivering reliable, production-grade features that leverage AI and LLM technologies.

Requirements

  • Solid, hands-on experience in classical Data Science techniques, including modeling, feature engineering, statistics, and experimentation.
  • Strong proficiency in Python programming is mandatory.
  • Proven production experience shipping AI/ML or LLM-powered features to live environments.
  • Experience working with at least one major cloud platform such as AWS, Azure, or Google Cloud Platform (GCP).
  • Professional proficiency in English to effectively communicate in a global team.
  • Systems thinking with the ability to understand data flows, failure modes, and optimize trade-offs related to cost, latency, and throughput.
  • Commitment to writing clean, testable, and maintainable code that meets industry best practices.
  • A strong respect for privacy, security, and operational reliability in AI systems.

Nice to Have

  • Experience building or maintaining Retrieval-Augmented Generation (RAG) systems, enhancing LLM responses with external knowledge bases.
  • Familiarity with tool/function calling mechanisms and Multi-Component Processing (MCP)-based integrations to extend AI capabilities.

Why Join Niuro?

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and foster professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing you to work flexibly from anywhere in the world. We invest in your career development through continuous training programs and leadership opportunities, ensuring that you grow and succeed alongside us.
Following successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our commitment to building lasting relationships with team members.
Join Niuro to be part of a global community committed to technological excellence, supported by a strong administrative infrastructure that lets you focus fully on delivering impactful work.

Informal dress code No dress code is enforced.
APPLY VIA WEB View Job
$$$ Full time
Analista de Datos SEO
  • WiTi
Python Analytics SEO SEM
Nos dedicamos al desarrollo de software y soluciones tecnológicas. Nuestra especialidad es la integración de sistemas, software a medida y desarrollos innovadores en el mundo de los dispositivos móviles. Nuestra mayor motivación es resolver problemas complejos a través de soluciones innovadoras.
Trabajamos a través de un método que se basa en entender el negocio y la necesidad del cliente; queremos ser un "partner", de tal modo poder apoyar en la toma de decisiones a la hora de implantar soluciones tecnológicas.

Applications are only received at getonbrd.com.

Funciones del cargo

Serás la voz de los datos dentro del equipo SEO Regional: diseñarás y mantendrás dashboards en Looker Studio para exponer el rendimiento orgánico, analizarás a fondo métricas de tráfico, rankings y conversión en GA4 y Search Console, y escudriñarás logs del servidor y herramientas SEO como SEMrush o Ahrefs para detectar oportunidades técnicas. Convertirás hallazgos complejos en historias claras y accionables para audiencias técnicas y de negocio, colaborando estrechamente con Analítica Digital y Business Intelligence para integrar nuevas fuentes de datos y garantizar una visión 360° del cliente. Tu trabajo guiará decisiones estratégicas, acelerará el crecimiento orgánico regional y demostrará, con evidencia, el impacto comercial de cada iniciativa.

Requerimientos del cargo

3 – 5 años de experiencia total en analítica digital, business intelligence o SEO; mínimo 2 años aplicando análisis de datos a SEO o marketing digital.
Certificaciones deseables en Google Analytics 4 y herramientas de visualización; posgrados en Business Analytics, Data Science o Marketing Digital son un plus.
Dominio avanzado de:
  • Google Analytics 4
  • Google Search Console
  • Google Looker Studio / Power BI / Tableau
  • Excel / Google Sheets (tablas dinámicas, funciones avanzadas)
Nivel intermedio-avanzado de SQL para consulta de bases de datos.
Deseable manejo de herramientas SEO (SEMrush, Ahrefs, Moz), conocimientos de Python y uso de APIs de plataformas SEO.

Competencias clave

  • Pensamiento analítico y cuantitativo
  • Data storytelling
  • Influencia y colaboración
  • Visión de negocio
  • Atención rigurosa al detalle.

Condiciones

En WiTi, ofrecemos un entorno de trabajo 100% remoto, lo que permite una gran flexibilidad y autonomía. Además, promovemos un ambiente colaborativo donde la cultura del aprendizaje es parte fundamental. Entre nuestros beneficios están:
  • Plan de carrera personalizado para el desarrollo profesional.
  • Certificaciones, para continuar creciendo en tu carrera.
  • Cursos de idiomas, apoyando el desarrollo personal y profesional.
Si eres apasionado por la tecnología y quieres formar parte de nuestro equipo, ¡nos encantaría conocerte!

Fully remote You can work from anywhere in the world.
Internal talks WiTi offers space for internal talks or presentations during working hours.
Digital library Access to digital books or subscriptions.
Computer provided WiTi provides a computer for your work.
Education stipend WiTi covers some educational expenses related to the position.
Personal coaching WiTi offers counseling or personal coaching to employees.
Conference stipend WiTi covers tickets and/or some expenses for conferences related to the position.
APPLY VIA WEB View Job
Gross salary $1500 - 1700 Full time
Analista Business Intelligence
  • Global Mobility Apex, S.A.
Python Git Data Analysis SQL

En Global Mobility Apex, S.A., una corporación multinacional de bebidas y alimentos con más de 15,000 colaboradores y presencia en más de 14 países, buscamos fortalecer nuestra estrategia dinámica de expansión y crecimiento a través del talento. La empresa se ha dividido en cuatro unidades de negocio: Apex (transformación), CBC (distribución), Beliv (innovación en bebidas) y BIA (alimentos), enfocadas en liderar el mercado con amplia experiencia y socios estratégicos como PepsiCo y AB InBev.

El equipo tecnológico desempeña un papel fundamental en la construcción de soluciones innovadoras y escalables que soportan este crecimiento global y la transformación digital de la compañía.

Opportunity published on Get on Board.

Responsabilidades

  • Trabajar con el equipo de Business Intelligence (BI) y de Ingeniería de Datos para desarrollar soluciones de reportería, lo cual incluye la recolección, modelado y presentación de datos relevantes para la toma de decisiones de los equipos de gestión y Product Owners de los casos de uso digitales.
  • Comunicar hallazgos y recomendaciones derivados del análisis de los datos de manera efectiva a los equipos de gestión y Product Owners de los casos de uso digitales.
  • Ayudar en el mantenimiento de las soluciones ya existentes y las nuevas que se implementen dentro del equipo de BI.
  • Asistir en el soporte de incidencias de las soluciones ya existentes y las nuevas que se implementen dentro del equipo de BI.

Requisitos del puesto

  • Licenciatura en ingeniería o carrera afín
  • Uso de herramientas de visualización, particularmente Power BI
  • Conocimiento de SQL y Python
  • Experiencia en desarrollo de proyectos de reportería
  • Conocimiento básico de metodología ágil
  • Conocimiento de sistemas de control de versión como Git (deseable)
  • Conocimiento de herramientas como Tabular Editor y Power Automate (deseable)

Beneficios

  • Ambiente de trabajo colaborativo y dinámico.
  • Desarrollo profesional continuo y oportunidades de crecimiento.
  • Flexibilidad de horarios y equilibrio entre vida laboral y personal.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Global Mobility Apex, S.A. pays or copays health insurance for employees.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB View Job
$$$ Full time
Especialista en SEO Técnico y Data & Reporting
  • Adecco
  • Santiago (Hybrid)
Python SEO SEM Data Analysis

Adecco es la empresa líder mundial en servicios de Recursos Humanos, con más de 35 años de presencia en Chile y una extensa red de más de 25 sucursales en las principales ciudades del país. Su compromiso con la calidad y la adaptación a las necesidades específicas de cada cliente, sumado a la certificación bajo norma ISO 9001:2015, posiciona a Adecco Chile como referente en soluciones integrales en selección, staffing, payroll y capacitación en diversos sectores industriales. Este rol forma parte de un proyecto estratégico de nuestro cliente enfocado en optimizar el canal orgánico de las plataformas digitales de Adecco y sus clientes, a través de la implementación y mantenimiento de infraestructura avanzada para el análisis y reporte de SEO y datos asociados. El equipo responsable impulsa la toma de decisiones basada en datos precisos que favorecen el crecimiento y la mejora continua del posicionamiento orgánico regional.

Find this job on getonbrd.com.

Responsabilidades principales

  • Desarrollar y mantener dashboards y reportes de SEO que integren indicadores clave como tráfico web, rankings y conversiones.
  • Realizar análisis cuantitativos profundos para identificar tendencias, oportunidades de crecimiento y posibles áreas de mejora en el canal orgánico.
  • Ejecutar diagnósticos técnicos mediante el análisis de datos de rastreo y logs del servidor para detectar problemas que impactan el rendimiento SEO.
  • Comunicar de forma clara y efectiva los hallazgos mediante data storytelling, adaptando la presentación a audiencias técnicas y no técnicas.
  • Integrar datos SEO con otras fuentes de información del negocio en colaboración con el equipo de Business Intelligence, asegurando una visión holística.
  • Coordinar con el equipo de Analítica Digital para validar la correcta medición y etiquetado de los datos mediante herramientas como GA4 y Google Tag Manager.
  • Colaborar transversalmente con áreas de BI, Desarrollo/TI y marketing para alinear las iniciativas de SEO con los objetivos de negocio.

Requisitos del cargo

Buscamos un profesional con formación en Ingeniería Comercial, Civil Industrial, Informática, Estadística, Data Science o carreras afines con enfoque cuantitativo. Se requiere una experiencia total de 3 a 5 años en análisis digital, inteligencia de negocio o SEO, con un mínimo de 2 a 3 años enfocados específicamente en análisis de datos aplicados a SEO o marketing digital.

Es deseable contar con certificaciones en Google Analytics 4 y plataformas de visualización de datos, así como estudios avanzados como diplomados o magísteres en Business Analytics, Data Science o Marketing Digital.

En el plano técnico, es fundamental un dominio avanzado de Google Analytics 4, Search Console, Looker Studio (o Power BI/Tableau) y Excel/Google Sheets. También se valorará conocimiento intermedio-avanzado de SQL y experiencia con herramientas SEO como SEMrush, Ahrefs o Moz. Conocimientos de Python y gestión de APIs SEO son un plus.

El candidato debe poseer un nivel de inglés intermedio-alto para comunicarse eficazmente con stakeholders regionales y acceder a documentación técnica.

Se valoran competencias como pensamiento analítico y cuantitativo, habilidades para contar historias con datos (data storytelling), capacidad de influencia y colaboración interdisciplinaria, orientación al impacto de negocio, y atención minuciosa al detalle en análisis y reportes.

Competencias y habilidades deseables

Se considerarán positivamente conocimientos adicionales en programación con Python para automatización y análisis avanzado de datos. Familiaridad con metodologías ágiles de trabajo y experiencia en coordinación de proyectos multidisciplinarios.

También es deseable tener experiencia en ambientes regionales y multilingües, así como habilidades interpersonales para comunicar resultados a distintos niveles jerárquicos y equipos técnicos y no técnicos. La capacidad para adaptarse a entornos dinámicos y gestionar prioridades en colaboración con diversas áreas complementará el perfil requerido.

¿Qué te ofrecemos?

Nuestro cliente ofrecemos un ambiente laboral desafiante y dinámico que impulsa tu desarrollo profesional y personal. Trabajarás con un equipo altamente capacitado y profesional que favorece la colaboración y el aprendizaje constante.

Dispondrás de formación continua para mantenerte actualizado en las últimas tecnologías y tendencias del sector.

Contarás con oportunidades reales de crecimiento dentro de la empresa y del sector tecnológico, con contratos inicialmente a plazo fijo y posteriormente indefinidos con el cliente final.

Tu modalidad de trabajo será híbrida, con tres días remotos y dos presenciales en nuestra oficina ubicada en la comuna de Las Condes, Santiago.

APPLY VIA WEB View Job
Gross salary $2500 - 2600 Full time
Data Integration Engineer
  • Inetum
  • Lima (Hybrid)
Python Agile SQL Linux

Somos Inetum, una compañía de servicios ágiles que proporciona soluciones digitales y un grupo global de tecnólogos que acompaña a sus clientes. Ofrecemos a nuestros clientes una combinación única de proximidad, organización sectorial y soluciones de calidad. Presente en más de 26 países, el grupo tiene cerca de 27,000 colaboradores y apunta a seguir creciendo.

This job is original from Get on Board.

¿Cuáles serán tus funciones?

  • Diseñar, desarrollar y optimizar procesos de integración de datos en entornos on-premise (Oracle) y Cloud (Azure) y la migración e integración entre ellos.
  • Implementar y gestionar procesos batch y real-time, garantizando eficiencia y escalabilidad en la ejecución.
  • Desarrollar soluciones con SQL, PySpark/Spark, aplicando buenas prácticas de programación y optimización.
  • Orquestar flujos de datos mediante herramientas como el orquestador en Mainframe, Data Factory.
  • Automatizar procesos de datos para mejorar la eficiencia operativa y reducir tiempos de procesamiento.
  • Optimizar el rendimiento y los costos de servicios en Azure, asegurando el uso eficiente de los recursos en la nube.
  • Integrar los pipelines de datos con aplicaciones y microservicios, facilitando la interoperabilidad dentro del ecosistema bancario.
  • Colaborar con equipos de negocio y tecnología para garantizar la calidad y disponibilidad de los datos.

¿Cuáles son los requisitos para la posición?

  • Profesional de Ingeniería de Sistemas, Informática, Ciencias de la Computación u otras carreras afines.
  • Experiencia con lenguajes Python, PLSQL, PySpark (SparkSQL / Spark Dataframes), SQL. (mandatorio).
  • Experiencia en Tuning y optimización de procesos distribuidos, Shell Scripting y Comandos Linux / Unix. (mandatorio)
  • Experiencia en Cloud Azure y Databricks (Notebooks, Repos, Cluster Management, Unit Catalog) (mandatorio)
  • Experiencia en Azure Data Factory y Azure SQL / Azure Cosmos DB. (mandatorio)
  • Experiencia en Formato de Datos con Delta, CSV, Parquet, JSON y/o Avro.
  • Experiencia en Despliegues de soluciones con herramientas IC (Jira, Jenkins, Github).
  • Conocimientos generales en Arquitectura BigData, Pipeline de Datos, Data Quality y metodologías agile (Scrum).

Además, valoraremos talentos que muestren competencias desarrolladas de Comunicación Asertiva a todo nivel, Autonomía / Autogestión para la toma de decisiones, Orientación al Logro para la consecución de objetivos y Adaptabilidad al Cambio en cualquier entorno.

¿Qué puedes esperar de nosotros?

  • Remuneración en planilla con todas las condiciones de ley.
  • Bono de movilidad y bono de alimentos con tarjeta Pluxee.
  • Capacitaciones constantes acorde a tu línea de carrera y otras de interés general (plataformas de e-learning).
  • Pago de certificaciones acordes a tu perfil y a las necesidades del negocio, además de invitaciones a eventos o congresos relacionados a la comunidad.
  • Beneficios corporativos a través de nuestra plataforma de descuentos y de salud (psicología / nutrición)
  • Línea de carrera con objetivos definidos para tu crecimiento profesional.

APPLY VIA WEB View Job
$$$ Full time
Ingeniero de Datos
  • Assetplan
  • Santiago (Hybrid)
Python Agile Excel SQL
Assetplan es una compañía líder en renta residencial en Chile, con presencia también en Perú. Actualmente, gestionamos más de 30.000 propiedades para clientes retail e institucionales y operamos más de 80 edificios multifamily, lo que refleja un sólido posicionamiento en el sector inmobiliario y de administración de propiedades en la región. El equipo de datos tiene un rol clave para optimizar y dirigir los procesos internos mediante soluciones tecnológicas de análisis y visualización de datos, apoyando la toma de decisiones estratégicas en la empresa.

Apply directly on Get on Board.

Responsabilidades principales

  • Diseñar, desarrollar y optimizar procesos ETL (Extract, Transform, Load) utilizando herramientas clave como Python (librerías Pandas y Numpy) y SQL.
  • Desarrollar y mantener dashboards y paneles en Power BI, integrando visualizaciones estratégicas para acompañar los procesos ETL y proporcionar insights relevantes.
  • Trabajar de forma colaborativa con diferentes áreas de la organización para interpretar y transformar sus necesidades en soluciones de datos que faciliten la toma de decisiones estratégicas.
  • Promover la calidad, escalabilidad y gobernanza de los datos durante el diseño, desarrollo y mantenimiento de los procesos y pipelines de datos, asegurando soluciones escalables y accesibles.
  • Mantener una comunicación efectiva con los equipos de negocio y tecnología para asegurar que las soluciones implementadas se alineen con los objetivos corporativos y generen impacto real en la organización.

Requisitos profesionales

Buscamos un profesional con 1 a 3 años de experiencia demostrable en el área de datos, en roles de ingeniería o análisis que impliquen manipulación y transformación de datos.
  • Manejo de SQL a nivel medio.
  • Manejo de Python Intermedio/Avanzado (excluyente), con experiencia en librerías Pandas y Numpy.
  • Manejo de Power BI a nivel medio para desarrollo y mantenimiento de dashboards.
  • Manejo avanzado de Excel para análisis y procesamiento de información.
  • Experiencia mínima de 1 a 3 años.
Es deseable poseer experiencia en ambientes ágiles y metodologías de desarrollo colaborativo que faciliten la integración entre equipos técnicos y de negocio.
Valoramos conocimientos en otras herramientas de visualización o procesamiento de datos, así como experiencia en gestión de la calidad y gobernanza de datos que permitan fortalecer el ecosistema de información de la empresa.

Habilidades y conocimientos deseables

Se valoran conocimientos en metodologías ágiles para la gestión y desarrollo colaborativo de proyectos, capacidades de comunicación efectiva para la interacción con equipos multidisciplinarios y experiencia en herramientas adicionales de visualización y procesamiento de datos. Asimismo, la experiencia en buenas prácticas de gobernanza y calidad de datos será un plus importante para aportar a la robustez del ecosistema de información de Assetplan.

Beneficios

En Assetplan valoramos y reconocemos el esfuerzo y dedicación de nuestros colaboradores, ofreciendo un ambiente laboral positivo basado en el respeto mutuo y la colaboración.
Entre nuestros beneficios contamos con:
  • Días extras de vacaciones por años de antigüedad.
  • Modalidad de trabajo híbrido y flexibilidad para trámites personales.
  • Monto mensual en app de snacks en la oficina.
  • Medio día libre en tu cumpleaños.
  • Copago en seguro complementario de salud.
  • Reajuste anual de renta basado en IPC.
  • Bono anual por desempeño.
  • Eventos empresa y happy hours financiados por la compañía.
  • Acceso a plataforma de cursos de formación.
  • Convenios con gimnasios, descuentos y más.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Assetplan pays or copays health insurance for employees.
Computer provided Assetplan provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Assetplan gives you paid vacations over the legal minimum.
Beverages and snacks Assetplan offers beverages and snacks for free consumption.
APPLY VIA WEB View Job
$$$ Full time
Lead Data Engineer
  • Bertoni Solutions
Python Analytics SQL Azure

We are Bertoni Solutions, a multinational team uniting Latin American talent and Swiss precision. Since 2016, we have helped clients translate technology into success by combining the creativity and passion of Latin American professionals with the rigor and organizational mindset of Swiss culture. Our development team is located across Latin America, including Lima, and we deliver consulting software and digital transformation services to organizations worldwide, always working 100% remotely. We focus on innovative, impactful projects leveraging the latest technology trends and digital transformation initiatives, offering a truly multicultural and global collaboration environment.

This job offer is available on Get on Board.

Key Responsibilities

  • Design and develop scalable data pipelines using PySpark to support analytics and reporting needs.
  • Write efficient SQL and Python code to transform, cleanse, and optimize large datasets.
  • Collaborate with machine learning engineers, product managers, and developers to understand data requirements and deliver effective solutions.
  • Implement and maintain robust ETL processes to integrate structured and semi-structured data from multiple sources.
  • Ensure data quality, integrity, and reliability across all pipelines and systems.
  • Participate in code reviews, troubleshooting, and performance tuning activities.
  • Work independently and proactively identify and resolve data-related issues.
  • Contribute to cloud-based data solutions, specifically on Azure platforms such as Azure Data Factory, Synapse, ADLS, Databricks, and Fabric.
  • Support cloud migration initiatives and adopt DevOps best practices.
  • Provide guidance on best practices and mentor junior team members when needed.

Job Description and Requirements

We are looking for a highly skilled Lead Data Engineer with extensive experience in PySpark, SQL, Python, Azure Data Factory, Synapse, Databricks, and Microsoft Fabric. The candidate must have a solid understanding of ETL processes, data warehousing principles, and end-to-end data engineering workflows.

Required Skills and Experience:

  • 8+ years of experience working in cross-functional teams that include machine learning engineers, developers, product managers, and analytics teams.
  • 3+ years of hands-on experience developing and managing data pipelines using PySpark.
  • 3 to 5 years of experience with Azure-native services such as Azure Data Lake Storage (ADLS), Azure Data Factory (ADF), Azure Databricks, Azure Synapse Analytics, Azure SQL Database, and Fabric.
  • Strong programming skills in Python and SQL.
  • Proven expertise in ETL processes, data modeling, and data warehousing end-to-end solutions.
  • Self-driven, resourceful, and comfortable working in fast-paced, dynamic environments.
  • Excellent communication skills and fluency in written and spoken English at an advanced level (B2, C1 or C2 only).
  • Demonstrated leadership experience in current or previous projects.
  • Must be located in Central or South America due to nearshore position requirements.

Soft Skills: Effective communication, proactive problem-solving, collaboration, mentoring capacity, and adaptability to changing priorities and technologies are crucial to succeed in this role.

Desirable Skills

  • Databricks certification.
  • Knowledge of DevOps practices, including CI/CD pipelines and cloud migration best practices.
  • Familiarity with Azure Event Hub, IoT Hub, Azure Stream Analytics, Azure Analysis Services, and Cosmos DB.
  • Basic understanding of SAP HANA.
  • Intermediate experience with Power BI.

Why Join Us?

  • 100% Remote Work.
  • Multicultural and Diverse Environment.
  • Continuous Professional Development:.
  • Challenging and Innovative Projects.

More Details:

  • Contract type: Independent contractor (This contract does not include PTO, tax deductions, or insurance. It only covers the monthly payment based on hours worked).
  • Location: The client is based in the United States; however, the position is 100% remote for nearshore candidates located in Central or South America.
  • Contract/project duration: Initially 6 months, with extension possibility based on performance.
  • Time zone and working hours: Full-time, Monday to Friday (8 hours per day, 40 hours per week), from 8:00 AM to 5:00 PM PST (U.S. time zone).
  • Equipment: Contractors are required to use their own laptop/PC.
  • Start date expectation: As soon as possible.
  • Payment methods: International bank transfer, PayPal, Wise, Payoneer, etc.

APPLY VIA WEB View Job
$$$ Full time
Data Engineer GCP Excluyente
  • coderslab.io
Java Python Agile NoSQL
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un DATA ENGINEER para unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

Apply directly on Get on Board.

Funciones del cargo

  • Diseñar, desarrollar y mantener procesos de ingesta, transformación y carga (ETL/ELT) de datos para asegurar la disponibilidad y calidad de la información.
  • Crear y administrar pipelines de datos eficientes y escalables que soporten el flujo continuo de datos desde múltiples fuentes hacia los sistemas de almacenamiento y análisis.
  • Implementar y promover buenas prácticas en el manejo de datos, incluyendo seguridad, gobernanza, control de acceso y cumplimiento de normativas.
  • Desarrollar soluciones de procesamiento distribuido para manejar grandes volúmenes de datos en entornos cloud.
  • Gestionar y optimizar los servicios de Google Cloud Platform (GCP) relacionados con la ingeniería de datos, como Pub/Sub, Dataflow, Dataproc, Dataprep, Cloud Functions, BigQuery, Composer y Cloud Storage.
  • Colaborar con equipos multidisciplinarios para entender requerimientos de datos y traducirlos en soluciones técnicas robustas.
  • Realizar monitoreo, mantenimiento y mejora continua de los pipelines y sistemas de datos para garantizar alta disponibilidad y rendimiento.
  • Documentar procesos, arquitecturas y estándares técnicos relacionados con la ingeniería de datos.

Requerimientos del cargo

  • Experiencia comprobable en diseño y desarrollo de procesos ETL/ELT y pipelines de datos.
  • Sólidos conocimientos en Google Cloud Platform (GCP), especialmente en los servicios:
    • Pub/Sub
    • Dataflow
    • Dataproc
    • Dataprep
    • Cloud Functions
    • BigQuery
    • Composer
    • Cloud Storage
  • Dominio en programación con Python y Java para desarrollo de scripts, automatización y procesamiento de datos.
  • Conocimientos en bases de datos SQL y NoSQL, con experiencia en MongoDB y BigQuery.
  • Experiencia en procesamiento distribuido y manejo de grandes volúmenes de datos.
  • Conocimiento en buenas prácticas de seguridad y gobernanza de datos.
  • Capacidad para trabajar en equipos ágiles y multidisciplinarios.
  • Habilidades de comunicación efectiva para presentar soluciones técnicas y colaborar con otras áreas

Condiciones

Modalidad de contratación: Plazo fijo
Duración del proyecto: 18 MESES con posibilidad de extensión

APPLY VIA WEB View Job
$$$ Full time
Financial Planning & Analytics Analyst
  • Wherex
  • Santiago (Hybrid)
Python Analytics Excel SQL

WherEX es una scale up tecnológica de comercio industrial con operaciones en México, Colombia, Chile y Perú 🚩

Estamos enfocados en transformar el comercio B2B con la aplicación de tecnología de vanguardia (Inteligencia Artificial, Data Analytics) para optimizar la toma de decisiones en el abastecimiento industrial, teniendo como pilares fundamentales la competencia, transparencia y eficiencia en las compras industriales. Creemos en el comercio B2B sostenible, donde todos los oferentes tengan la oportunidad de competir en igualdad de condiciones y los compradores pueda encontrar su mejor alternativa.

Queremos ir por más ¿nos acompañas?🚀 ¡Postula con nosotros!
Puedes enterarte un poco más de nosotros aquí

Apply without intermediaries from Get on Board.

Job functions

  • Realizar estudios y análisis específicos requeridos por distintas áreas.
  • Diseño de KPIs internos.
  • Generar y mantener los modelos de forecasting de la empresa.
  • Apoyar la creación y seguimiento de los presupuestos.
  • Apoyar el seguimiento de los resultados.
  • Desarrollar Dashboards y KPI’s financieros para la toma de decisiones y expansión del negocio

Qualifications and requirements

  • Ingeniero civil industrial.
  • 0 a 1 año de experiencia.
  • Manejo de excel avanzado.
  • Manejo de SQL básico.
  • Deseable conocimiento en programación.
  • Deseable uso de Python o herramienta similar.
  • Uso de herramientas de visualización (Power BI, Tableau, CartoDB o Google Studio).
  • Inglés.

Conditions

  • 🏖️ Días adicionales de descanso: nos importa que tengas tiempo para tu familia, tus hobbies o en lo que sea que quieras usar esos días.
  • 🏥 Seguro complementario: para que encargarte de tu salud no sea una preocupación.
  • Flexibilidad horaria: confiamos en tu gestión del tiempo y tu habilidad para organizarte.
  • 😷​ Licencia médica pagada durante dos días: te apoyamos en esos días que peor te sientes.
  • Trabajo híbrido 😎 llevando a la oficina y al equipo tu soporte un día a la semana

Además, serías parte de una cultura donde prima el trabajo en equipo, la colaboración, la buena onda y profesionales de alto nivel técnico que mantendrán tu standard muy elevado.

APPLY VIA WEB View Job