No encontramos ningún resultado.

Prueba con otro grupo de palabras.

Si crees que esto es un error, por favor contáctanos.

$$$ Tiempo completo
Junior Data Analyst & Automation
  • Banco Santander Chile
  • Santiago (Hybrid)
Python Data Analysis SQL Power BI

Banco Santander Chile es una organización internacional líder en el sector financiero con presencia en más de 20 países, reconocida por su compromiso con el desarrollo profesional, el aprendizaje continuo y la movilidad interna. La Vicepresidencia de Tecnología y Operaciones del banco es un área estratégica que impulsa la innovación tecnológica, la optimización y mejora de procesos con el objetivo de contribuir al progreso de las personas y empresas. Este departamento está enfocado en liderar iniciativas tecnológicas de vanguardia que fortalecen la posición de Santander como líder en el sector financiero chileno y a nivel internacional, promoviendo un ambiente de trabajo colaborativo, desafío constante y crecimiento profesional.

Apply exclusively at getonbrd.com.

Misión del cargo

Buscamos jóvenes profesionales comprometidos y flexibles para integrarse al equipo de Tecnología y Operaciones, donde contribuirán a la optimización y mejora continua de procesos mediante el uso de tecnologías punteras.

El rol implica colaborar en proyectos estratégicos que impulsen la innovación tecnológica dentro del banco, trabajando estrechamente con diferentes áreas para apoyar la transformación digital y la eficiencia operativa.

Además, se espera que el candidato participe activamente en el aprendizaje permanente y el desarrollo de competencias técnicas y colaborativas, favoreciendo un ambiente dinámico y orientado al trabajo en equipo.

Qué te ayudará a tener éxito en el proceso

  • Para tener éxito en esta posición, buscamos egresados de carreras como Ingeniería Civil Industrial, Ingeniería Civil en Informática o afines, con no más de un año de experiencia profesional, ya que aspiramos a formar jóvenes talentos que aporten con nuevas ideas y ganas de aprender.
  • Debe contar con formación o experiencia en automatización de procesos, analítica avanzada y manejo de datos, con conocimientos intermedios en SQL, Power BI y/o Tableau. Se valoran conocimientos deseables en Python, Spark y Appian, orientados a potenciar habilidades técnicas y tecnológicas en análisis de datos.
  • El candidato debe tener un nivel intermedio de inglés (B1), mostrando capacidad para manejar información en este idioma y comunicarse de forma básica en el contexto laboral.
  • Buscamos personas con interés genuino en las herramientas tecnológicas de análisis de datos, motivadas a contribuir en un entorno desafiante y colaborativo, con habilidades blandas como adaptabilidad, actitud proactiva y capacidad de trabajo en equipo.
  • Se requiere disponibilidad para incorporarse en junio de 2025.

Conocimientos y habilidades deseables

  • Nos interesa especialmente candidatos que hayan desarrollado conocimientos en programación avanzada, analítica de datos con Python y Spark, así como familiaridad con plataformas de automatización como Appian.
  • Valoramos la capacidad para desenvolverse en entornos multidisciplinarios, con habilidades comunicativas y de gestión del tiempo, que contribuyan a un equipo colaborativo y efectivo.
  • Además, la experiencia en proyectos relacionados con la transformación digital y optimización de procesos se considera un plus importante, aunque no es requisito excluyente.

¿Qué te ofrecemos?

  • Formar parte de la principal empresa financiera de Chile y uno de los mejores lugares para trabajar en el país.
  • Aprendizaje mediante la experiencia práctica, con múltiples oportunidades de desarrollo, formación continua y movilidad interna para participar en proyectos estratégicos.
  • Acompañamiento formativo durante el proceso de adaptación y desarrollo del rol, asegurando una integración exitosa y crecimiento profesional.
  • Redes internas de colaboración que potencian el aprendizaje, la creación de vínculos profesionales y la expansión de la mirada laboral.
  • Beneficios orientados a mejorar la calidad de vida y el desarrollo profesional del colaborador.
  • Contrato indefinido que aporta estabilidad laboral y seguridad.

POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2200 Tiempo completo
Analista de Datos
  • Genesys Tecnologías de Inform. SpA
  • Santiago (Hybrid)
PostgreSQL Data Transformation ETL Power BI
Genesys Tecnologías de Inform. SpA es una empresa con más de 30 años de trayectoria en el mercado Latinoamericano, especializada en desarrollo de software y servicios TI para acompañar a las empresas en sus procesos de transformación digital. Con sedes en Concepción y Santiago, Genesys se especializa en ofrecer soluciones basadas en tecnologías de última generación como Cloud, Data Analytics, Inteligencia Artificial y Automatización de Procesos (RPA).
En esta oportunidad, el proyecto se enfoca en la definición e implementación de una arquitectura de datos moderna y eficiente que soporte la toma de decisiones, facilite la interoperabilidad entre sistemas y garantice la calidad y trazabilidad de la información. Se trata de un proyecto de transformación estratégica dentro de la compañía, donde el equipo técnico de alto nivel trabaja con tecnologías y buenas prácticas aplicadas en un entorno real y desafiante.

© Get on Board.

Responsabilidades Clave

  • Diseñar la arquitectura de datos del proyecto, abarcando esquemas lógicos y físicos, así como los flujos de datos necesarios para garantizar la integridad y escalabilidad.
  • Modelar y normalizar estructuras de datos relacionales optimizadas en PostgreSQL, asegurando eficiencia en almacenamiento y consulta.
  • Participar activamente en la recolección y análisis de los requerimientos de negocio, interpretándolos para desarrollar modelos de datos alineados con las necesidades analíticas y operativas.
  • Establecer procesos robustos de ingesta, limpieza, transformación y catalogación de datos, para soportar casos de uso presentes y futuros en la organización.
  • Colaborar con equipos multidisciplinarios en la definición e integración de mecanismos de transferencia de datos mediante APIs, servicios externos y diversas fuentes de datos.
  • Definir y aplicar estándares claros de calidad, gobernanza y seguridad de datos en conjunto con los roles técnicos relacionados.
  • Apoyar la construcción y validación de dashboards o reportes exploratorios cuando sea necesario para dar soporte a las áreas de negocio.
  • Documentar meticulosamente las estructuras de datos, procesos implementados y decisiones tomadas para asegurar la trazabilidad y reutilización futura de los modelos desarrollados.

Requisitos Técnicos y de Experiencia

Buscamos profesionales con experiencia comprobable como Analista de Datos, Data Engineer o roles afines, preferentemente que hayan participado en proyectos de arquitectura de datos o transformación digital organizacional.
El candidato ideal debe tener dominio avanzado en el diseño y modelamiento de bases de datos relacionales, con un énfasis particular en PostgreSQL, además de conocimientos en bases de datos no relacionales.
Es imprescindible el entendimiento profundo de arquitecturas de datos modernas, incluyendo Data Lakes, Data Warehouses o arquitecturas híbridas que se complementen entre sí para soportar cargas analíticas y operativas.
Se requiere experiencia demostrable en el diseño y ejecución de procesos ETL/ELT para la obtención, procesamiento y almacenamiento eficiente de grandes volúmenes de datos.
Se valorará positivamente el manejo de herramientas específicas de ETL/ELT, así como el conocimiento en plataformas de visualización de datos tales como Power BI, Metabase, Tableau o Looker, para la realización de pruebas exploratorias y validaciones de datos.
Además de las competencias técnicas, buscamos una persona con mentalidad analítica orientada a la comprensión profunda del negocio facilitada por el análisis de datos, con iniciativa, atención al detalle y un fuerte compromiso con la calidad y consistencia en la información. La capacidad para trabajar en entornos colaborativos y multidisciplinarios, así como para comunicar conceptos técnicos complejos en términos claros y estructurados, es fundamental. Se valorará la curiosidad y la apertura para el aprendizaje continuo, contribuyendo así al crecimiento profesional y al éxito del equipo.

Habilidades y Herramientas Deseables

Además de los requisitos técnicos principales, es deseable que el candidato posea experiencia con herramientas específicas de ETL/ELT que faciliten la automatización y optimización de los procesos de transformación de datos.
Se valorará el conocimiento en herramientas de visualización de datos reconocidas en el mercado, como Power BI, Tableau, Looker o Metabase, para la validación rápida y exploratoria de los datos procesados, permitiendo una mejor toma de decisiones basada en información confiable.
El manejo de técnicas y metodologías de gobernanza de datos, calidad y seguridad será un plus para asegurar la integridad y protección de la información en todos los procesos.
Finalmente, poseer habilidades comunicativas y colaborativas que faciliten la interacción entre áreas técnicas y de negocio será un diferencial para fortalecer el trabajo en equipo.

Se Ofrece

Ofrecemos un contrato a plazo fijo dentro de un ambiente laboral dinámico y colaborativo, que fomenta el crecimiento profesional y el aprendizaje constante. Nuestro horario laboral es de lunes a jueves de 08:30 a 18:30 hrs, y viernes de 08:30 a 17:30 hrs, bajo modalidad híbrida que combina trabajo presencial y remoto.
Formarás parte de una empresa con más de 30 años de experiencia en el sector tecnológico, con presencia en las ciudades de Concepción y Santiago. Valoramos el talento y promovemos el desarrollo de nuestros colaboradores en un entorno que impulsa la innovación y la excelencia técnica.
Únete a Genesys Tecnologías de Inform. SpA y sé parte de un equipo tecnológico comprometido con mantener los negocios en movimiento y elevar el estándar tecnológico de las empresas en Latinoamérica. ¡Te esperamos con entusiasmo para crecer juntos! 😊

Computer provided Genesys Tecnologías de Inform. SpA provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3000 - 4000 Tiempo completo
Senior Data Engineer (Rag)
  • Niuro
Python MySQL PostgreSQL SQL
Niuro is a company dedicated to connecting projects with elite technology teams specializing in partnerships with leading U.S. companies. Our mission focuses on simplifying global talent acquisition through innovative and efficient solutions that emphasize maximizing quality and performance. We empower autonomous, high-performance tech teams by offering a collaborative environment enriched with continuous professional growth, training in both technical and soft skills, and leadership development. Through managing all administrative tasks, including hiring, payments, and training, Niuro allows teams to concentrate fully on delivering excellent and innovative outcomes aligned with cutting-edge technology and client needs.

Exclusive to Get on Board.

Responsibilities

  • Design, implement, and maintain scalable, reliable, and efficient data pipelines tailored to Retrieval-Augmented Generation (RAG) based applications, ensuring seamless automation of intelligent query processes.
  • Configure, manage, and optimize vector databases and advanced search engines to support high-performance embedding and retrieval functionalities.
  • Collaborate closely with Data Scientists and AI Engineers to deploy embedding models and generative AI solutions, fostering integration across teams.
  • Develop and fine-tune ETL/ELT processes to guarantee outstanding data quality, pipeline performance, and resilience within production environments.
  • Ensure system scalability, stability, and operational efficiency to support high-demand data workloads and AI-powered services.

Requirements & Professional Profile

We require candidates with a minimum of 4 to 5 years of experience as a Data Engineer, demonstrating a proven track record managing data-intensive projects and environments. Expertise in Retrieval-Augmented Generation (RAG) methodologies is essential as you will lead innovative data pipeline development.
Technical proficiency must include deep experience with at least one tool or technology from each of the following categories:
  • Vector Databases: Experience with Pinecone, Milvus, Qdrant, Weaviate, or equivalent solutions to manage embedding data effectively.
  • Databases: Proficiency in SQL databases such as PostgreSQL and MySQL, plus NoSQL databases including MongoDB and Cassandra.
  • Data Warehousing: Knowledge of warehouse platforms such as Redshift, BigQuery, or Snowflake to support analytical processing.
  • ETL/ELT Tools: Skilled in dbt, Apache NiFi, Talend, or Informatica for robust data transformation workflows.
  • Big Data Frameworks: Experience with Apache Spark and Kafka for handling large-scale data streams.
  • Search Engines: Familiarity with Elasticsearch, Solr, or OpenSearch to implement advanced search capabilities.
  • Cloud Platforms: Working knowledge of AWS, Google Cloud Platform, or Azure for scalable cloud infrastructure.
  • Containers: Proficient with Docker to containerize and deploy applications reliably.
  • Programming: Advanced skills in Python for scripting, automation, and integration.
Strong analytical aptitude and problem-solving capabilities are vital to address complex data challenges. We seek candidates who thrive in agile, cross-functional teams and possess excellent communication and collaboration skills to work effectively across different roles and disciplines.

Nice-to-have Skills

  • Experience with machine learning frameworks including TensorFlow, PyTorch, and Scikit-learn to support advanced model deployment.
  • Familiarity with natural language processing tools such as spaCy, NLTK, and Hugging Face Transformers to enhance text and language-related functionalities.
  • Knowledge of generative AI models like OpenAI, Azure GPT, and Amazon Bedrock is beneficial for working on cutting-edge AI augmentation projects.
  • Competence in container orchestration using Kubernetes to manage containerized applications at scale.

What We Offer

  • 🌍 100% Remote – Embrace full flexibility by working from anywhere around the world, enabling an optimal work-life balance.
  • 📈 Career Growth – Become part of a tech-forward, innovative, and collaborative team committed to your ongoing professional development and success.
  • 📝 Full-time employment contract with an initial 3-month trial period followed by an indefinite contract, ensuring job stability and continuous collaboration.

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Scientist
  • Forma - Moovmedia Group
Python SQL BigQuery Docker
¡Hola! Somos Forma y somos parte de Moov Media Group, una familia de empresas que también integran Metrix y Moov. Nuestro modelo es colaborativo, ¿qué significa esto? Que trabajamos de manera específica o integral según las necesidades de cada cliente.
Buscamos ser el mejor partner de nuestros clientes apañándolos en la transformación digital. Nos peinamos con el desarrollo tecnológico y el uso de datos, siempre con una mirada estratégica que nos lleve a tomar la mejor decisión.
Hoy queremos seguir creciendo y para eso buscamos un Data Scientist que nos acompañe a recorrer el mundo digital en una empresa con cultura flexible, ágil e innovadora. ¿Te interesa? Entonces déjanos contarte un poco más.
El proceso de selección consta de:

  • Llamado telefónico
  • Entrevista con Selección
  • Entrevista con jefatura directa.
¿Te interesa? ¡Dale! Escríbenos y conversemos.

Apply at the original job on getonbrd.com.

Funciones del cargo

Diseñar, entrenar y desplegar modelos de Machine Learning y algoritmos de predicción (scikit-learn, XGBoost, etc.)
Liderar procesos de análisis estadístico y modelado de datos con Python y SQL
Automatizar pipelines de datos e integraciones con APIs (Google Ads, Meta, ecommerce, CRM)
Desarrollar dashboards interactivos y embebidos (Power BI, Looker Studio, Tableau)
Validar y mantener la calidad de modelos en producción, utilizando ML Ops básico
Colaborar con equipos de ingeniería, automatización, media y producto

Requerimientos del cargo

Requisitos técnicos:
  • Lenguajes obligatorios: Python (Pandas, Scikit-learn, Numpy, Matplotlib), SQL.
  • Cloud: GCP o AWS (manejo de BigQuery, S3, Redshift u otros).
  • Automatización: Airflow, dbt o scripts programados.
  • Visualización: Power BI y/o Looker Studio (excluyente).
  • Modelos ML: Clasificación, regresión, clustering, análisis de series temporales.
Otros requisitos:
  • Ingeniero en Estadística, Computación, Ciencia de Datos o afín.
  • 3+ años de experiencia en proyectos de data science o advanced analytics.
  • Capacidad para explicar conceptos técnicos a equipos no técnicos.
  • Mentalidad de experimentación y prototipado rápido (MVPs, hackathons).

Opcionales

Deseable: ML Ops (Vertex AI, SageMaker, MLflow), APIs REST, web scraping, Docker
Deseable: experiencia en ecommerce, retail o marketing digital.

Conditions

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Scientist & GCP Specialist
  • Forma - Moovmedia Group
Python SQL BigQuery Machine Learning

¡Hola! Somos Moov Media Group, una familia de empresas integrada por Moov, Metrix y Forma. Nuestro modelo es colaborativo, ¿qué significa esto? Que trabajamos de manera específica o integral según las necesidades de cada cliente.

Navegamos en el mundo digital usando la tecnología, la data analytics, los medios y la publicidad para encontrar soluciones de marketing multicanal que nos conviertan en los más secos de Latinoamérica.

Hoy queremos seguir creciendo y para eso buscamos un Data Scientist & GCP Specialist que nos acompañe a recorrer el mundo digital en una empresa con cultura flexible, ágil e innovadora. ¿Te interesa? Entonces déjanos contarte un poco más.

El proceso de selección consta de:

  • Llamado telefónico
  • Entrevista con Selección
  • Entrevista con jefatura directa.

¿Te interesa? ¡Dale! Escríbenos y conversemos.

Exclusive offer from getonbrd.com.

Funciones del cargo

Diseñar, entrenar y desplegar modelos de Machine Learning avanzados usando Vertex AI.
Gestionar y optimizar infraestructura cloud en GCP (BigQuery, Cloud Storage, Dataflow, Compute Engine).
Automatizar pipelines avanzados de datos con Cloud Composer (Airflow), Cloud Functions y APIs externas.
Desarrollar dashboards interactivos avanzados principalmente con Looker Studio.
Implementar y gestionar prácticas de ML Ops avanzadas (monitoreo, versionado, CI/CD) en Vertex AI.
Colaborar y asesorar técnicamente a equipos de ingeniería, media y producto.

Requerimientos del cargo

Requisitos técnicos:

  • Lenguajes obligatorios: Python (Pandas, TensorFlow/Keras, Scikit-learn, Numpy), SQL.
  • Cloud: Google Cloud Platform (Vertex AI, BigQuery, Dataflow, Cloud Storage, Compute Engine).
  • Automatización: Cloud Composer (Airflow), Cloud Functions, Dataflow.
  • Visualización: Looker Studio (excluyente), Power BI o Tableau (deseable).
  • Modelos ML: Clasificación, regresión, clustering, detección de anomalías, series temporales.
  • Ingeniero en Estadística, Computación, Ciencia de Datos o carrera afín.
  • 3+ años de experiencia especializada en proyectos utilizando Google Cloud Platform y Vertex AI.

Opcionales

Deseable: experiencia previa en ecommerce, retail o marketing digital.

Conditions

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer
  • 2BRAINS
Python Git Data Analysis SQL

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

This job offer is available on Get on Board.

El/la Data Engineer de 2Brains

Se encarga de participar en el diseño y desarrollo de los nuevos modelos de información de gestión y las mantenciones evolutivas de los existentes. Participar en las iniciativas de Analítica avanzada del área, apoyando las exploración de modelos de información internos y externos (Data Discovery). Obtener datos históricos desde múltiples fuentes de información interna para apoyar las iniciativas de analítica avanzada del equipo.

El/la Data Engineer de 2Brains debe

  • Construir y optimizar pipelines de datos para la ingesta, transformación y carga eficiente de información.
  • Manejar infraestructuras en la nube (AWS, GCP, Azure), asegurando escalabilidad y eficiencia en costos.
  • Automatizar y monitorear procesos mediante herramientas de DevOps como Airflow, Terraform o Kubernetes.
  • Implementar controles de calidad y gobernanza para garantizar la integridad y disponibilidad de los datos.
  • Colaborar con equipos de Data Science, Producto y Desarrollo para diseñar soluciones alineadas con las necesidades del negocio.

Qué conocimientos buscamos en/la Data Engineer

  • Excluyente Experiencia trabajando con tecnologías de BI
  • Experiencia en la construcción/operación de sistemas distribuidos de extracción, ingestión y procesamiento de grandes conjuntos de datos de gran disponibilidad.
  • Capacidad demostrable en modelado de datos, desarrollo de ETL y almacenamiento de datos.
  • Experiencia en el uso de herramientas de informes de inteligencia empresarial (Power BI)
  • Excluyente conocimiento en consumo de microservicios de APIs Rest
  • Excluyente conocimiento en Git , Bitbucket, Docker,Jenkins,Webhooks
  • Programación con Python y bases sólidas de ingeniería de software.
  • Automatización y scripting.
  • Uso de librerías de Python para manipulación y análisis de datos y Apache Spark.
  • Conocimientos en bases de datos SQL y NoSQL.
  • Conocimiento en CI/CD, Dataflow
  • Conocimiento en S3, Redshift y Glue AWS

Que competencias buscamos en/la Data Engineer

  • Empatía
  • Buena capacidad de comunicación.
  • Colaboración y trabajo en equipo.
  • Proactividad.
  • Autonomía.
  • Foco en los objetivos de proyectos.

Condiciones

Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos

Acceso a grandes clientes y proyectos desafiantes

Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales

Un entorno de trabajo flexible y dinámico

Beneficios especiales: día libre para tu cumpleaños, días de descanso a convenir.

Informal dress code No dress code is enforced.
Vacation over legal 2BRAINS gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer
  • Niuro
Python MySQL Git Docker
At Niuro, we connect elite tech teams with top-tier U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality. We empower projects by providing autonomous, high-performance tech teams, and we offer continuous professional growth opportunities to ensure everyone involved is set for success in innovative and challenging projects.

© getonbrd.com.

Key Responsibilities

  • Ingest, process, and integrate data from multiple systems and platforms using Big Data tools.
  • Design and implement data pipelines to transfer data from source to destination systems, ensuring alignment with integration standards and existing frameworks.
  • Guarantee high data quality, availability, and compliance across applications and digital products.
  • Collaborate with product teams to identify required datasets and evaluate existing sources (e.g., update frequency, data reliability, known issues).
  • Contribute to the delivery of scalable, strategic data engineering solutions aligned with our data roadmap.

Requirements

🔹 Experience: 3+ years in data engineering or a similar role.
🔹 Tech Stack:
  • Cloud & Big Data: Proficient with AWS services including Lambda, S3, Glue.
  • Data Orchestration: Experience designing and managing workflows using Airflow.
  • Data Modeling & Transformation: Hands-on experience with dbt.
  • Data Warehousing: Solid knowledge of Snowflake.
  • Databases: Experience with MySQL or SQL Server.
  • Programming: Strong Python skills, including scripting, automation, and unit testing.
🔹 Other Skills:
  • Good understanding of data quality and governance practices.
  • Familiarity with various data sources and types in data mining and analytics.
  • Intermediate to advanced English for international team collaboration.

Nice to Have

🔸 Experience deploying dbt in production environments.
🔸 Knowledge of Data Lake and Lakehouse architectures.
🔸 Familiarity with CI/CD tools and Git-based version control (GitHub, GitLab, or Azure DevOps).
🔸 Experience with Docker for containerized data workflows.

What We Offer

  • 🌍 100% Remote – Work from anywhere in the world.
  • 🚀 Growth Opportunities – Be part of shaping a robust and modern data ecosystem.

Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2200 Tiempo completo
Data Engineer Senior GCP
  • coderslab.io
  • Santiago (Hybrid)
Python SQL Big Data BigQuery

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente nos encontramos apuntando al crecimiento de nuestros equipos de manera global con el objetivo de posicionarnos con nuestros productos en más países de Latinoamérica, es por ello que estamos en búsqueda de un Data Engineer Senior - GCP para sumarse a nuestro equipo.

Te sumarás a un equipo desafiante y ambicioso con ganas de renovar el mercado, por lo que tus propuestas serán de mucho valor para el negocio.

¡Postula para este tremendo desafío!

This job is original from Get on Board.

Job functions

  • Ejecutar procesos de ingesta y modelamiento de datos en entornos de Google Cloud Platform (GCP).
  • Participar activamente en el desarrollo y mantenimiento de pipelines de datos (ETLs).
  • Colaborar en el diseño y optimización de arquitecturas de datos eficientes.
  • Trabajar de forma colaborativa en equipos multidisciplinarios, tanto de forma remota como presencial.
  • Documentar procesos y contribuir a las buenas prácticas de desarrollo y versionamiento de código.

Qualifications and requirements

Experiencia comprobable en proyectos de datos (ETLs) sobre GCP.

Dominio de productos de GCP como:

  • BigQuery
  • Cloud Functions
  • Cloud Composer / Airflow
  • Cloud Storage

Conocimientos en DBT (deseable).

Sólida experiencia en SQL y Python.

Experiencia trabajando con sistemas de versionamiento como GitLab, Bitbucket o GitHub.

Habilidades blandas:

  • Alta capacidad de trabajo en equipo.
  • Autonomía y habilidades de autogestión.
  • Buenas capacidades analíticas y de resolución de problemas.

Conditions

Modalidad: Híbrida (mínimo 2 días presencial en Santiago, Chile)
Duración: contrato por 8 meses con extension

POSTULAR VÍA WEB Ver trabajo
Gross salary $2400 - 2600 Tiempo completo
Data Engineer AWS
  • BC Tecnología
  • Santiago (Hybrid)
Python Data Analysis SQL Web server
En BC Tecnología, nos especializamos en la consultoría de TI, ofreciendo un amplio rango de servicios para adaptarnos a las necesidades específicas de nuestros clientes, principalmente en finanzas, seguros, retail y gobierno. Nuestro equipo trabaja mediante metodologías ágiles, lo que nos permite diseñar e implementar soluciones tecnológicas efectivas y dirigidas al cliente. Actualmente, estamos buscando un Data Engineer con experiencia en AWS para sumarse a nuestro equipo y contribuir a proyectos innovadores en la gestión y explotación de datos.

Exclusive to Get on Board.

Responsabilidades del Cargo

  • Desarrollar y gestionar procesos de ETL, asegurando la calidad y fiabilidad de los datos.
  • Optimizar la explotación de datos a través de técnicas de Tuning.
  • Implementar soluciones utilizando herramientas de AWS, incluyendo Glue, Lambda, S3, Redshift y DynamoDB.
  • Colaborar con los equipos de desarrollo de software para asegurar la integración de datos eficiente.
  • Realizar análisis y visualización de datos para apoyar en la toma de decisiones.
  • Mantener un enfoque en la innovación y la mejora continua de los procesos y herramientas utilizadas.

Descripción del Cargo

Buscamos un Data Engineer AWS con un mínimo de 3 años de experiencia en el manejo de datos. El candidato ideal tendrá conocimientos sólidos en:
  • Explotación de datos y Tuning.
  • Diseño e implementación de procesos ETL.
  • Desarrollo de consultas efectivas en SQL.
  • Programación en Python.
  • Uso de herramientas de orquestación como Apache Airflow (deseable).
Valoramos habilidades como el trabajo en equipo, la proactividad y la capacidad para adaptarse a nuevas tecnologías. La combinación de habilidades técnicas y soft skills es esencial para unirse a nuestro equipo dinámico.

Habilidades Deseables

Además de los requisitos mencionados, sería beneficioso contar con experiencia en:
  • Integraciones y gestión de datos en múltiples fuentes.
  • Implementación de soluciones en la nube de AWS.
  • Conocimientos en herramientas de visualización de datos.
Estas habilidades ayudarán al candidato a integrarse de manera efectiva en nuestros equipos de trabajo y contribuir a proyectos futuros.

Beneficios de Trabajar con Nosotros

En BC Tecnología, valoramos a nuestro equipo y ofrecemos un entorno flexible y beneficios atractivos:
  • Contrato indefinido.
  • Modalidad híbrida, combinando trabajo remoto y en oficina.
  • Paquete de beneficios corporativos que incluye salud prepaga de primer nivel para el empleado y su familia.
  • Un día de home office a la semana, junto con desayunos y un comedor en la planta.
  • Acceso a un Sport Club y asistencia de un nutricionista.
¡Únete a nosotros y marca una diferencia en el mundo de la tecnología! 🎉

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer
  • Compara
Python PostgreSQL DevOps Kafka

Compara es una plataforma digital que permite cotizar y comparar los principales seguros y productos financieros de Latinoamérica. En nuestra empresa, buscamos un Data Engineer que ayude a construir, optimizar y evolucionar nuestra infraestructura de datos. Con un énfasis en la modernización y mejora continua, esta posición es clave para asegurar que nuestros procesos de datos sean eficientes y escalables.

Find this vacancy on Get on Board.

🎯 ¿Qué harás?

  • Mantener y optimizar nuestro data warehouse en PostgreSQL y los pipelines de ingesta de datos en producción.
  • Liderar la transición hacia una arquitectura moderna basada en Databricks, dbt y un data lake en S3.
  • Desarrollar y escalar pipelines de procesamiento y transformación de datos.
  • Monitorear, depurar y documentar procesos de datos para garantizar su calidad y confiabilidad.

🔎 ¿A quién buscamos?

  • Persona con más de 3 años de experiencia en ingeniería de datos, construyendo y manteniendo pipelines en producción.
  • Dominio de Python para procesamiento de datos, incluyendo el uso de librerías como pandas, SQLAlchemy y psycopg2.
  • Experiencia trabajando con orquestadores de workflows, especialmente Airflow.
  • Conocimiento sólido de bases de datos relacionales, especialmente PostgreSQL, incluyendo modelamiento y optimización de rendimiento.
  • Experiencia práctica con almacenamiento en la nube (S3 o equivalente) y formatos como Parquet.
  • Autonomía y capacidad de tomar decisiones técnicas.

🌟 Será un plus si cuentas con

  • Experiencia con dbt y modelado de datos.
  • Conocimiento en Databricks, Delta Lake, Apache Iceberg o arquitecturas de lakehouse.
  • Experiencia con diseño e implementación de pipelines CDC (Change Data Capture) usando Debezium, Kafka o similares.
  • Conocimientos de buenas prácticas de DevOps para data (versionado de pipelines, testing, CI/CD).
  • Inglés técnico para leer documentación y colaborar en proyectos internacionales.

🚀Únete a nuestro equipo

En Compara, ofrecemos horarios flexibles y un entorno que favorece el crecimiento profesional. Valoramos la cultura de aprendizaje continuo y el desarrollo de cada miembro del equipo, por lo que si disfrutas optimizando infraestructuras de datos, impulsando mejoras estratégicas y explorando nuevas herramientas, ¡nos encantaría conocerte! 🚀

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Vacation over legal Compara gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1000 - 1200 Tiempo completo
Analista de Datos
  • LFi
  • Santiago (Hybrid)
Data Analysis Excel Marketing SQL

En LFI buscamos talento para ofrecer las mejores soluciones de tecnología y marketing de la región. Desarrollamos proyectos que construyen la presencia digital de nuestros clientes y que hacen la vida más fácil y mejor a sus usuarios. Queremos innovar, buscar nuevas tecnologías, ser un equipo diverso y combinar nuestros talentos.

© Get on Board. All rights reserved.

Funciones del cargo

Nos encontramos en búsqueda de un Analista de Datos talentoso para unirse a nuestro equipo dinámico y en crecimiento.
Como Analista de Datos, jugarás un papel crucial en la extracción de información valiosa de nuestros datos, lo que nos ayudará a tomar decisiones estratégicas más informadas y mejorar nuestras campañas de marketing digital.

Funciones:

  • Recopilar, limpiar y analizar grandes conjuntos de datos de diversas fuentes.
  • Identificar tendencias y patrones en los datos que sean relevantes para nuestras campañas de marketing digital.
  • Crear informes y visualizaciones de datos claros y concisos para comunicar los hallazgos a las partes interesadas.
  • Desarrollar y mantener modelos de análisis de datos para predecir y optimizar el rendimiento de las campañas.
  • Colaborar con el equipo de marketing digital para desarrollar e implementar estrategias basadas en datos.

Requerimientos del cargo (excluyentes)

  • Ingeniero civil industrial, Ingeniero industrial, Ingeniero comercial o carrera afín.
  • Mínimo de 2 años de experiencia laboral como Analista de Datos.
  • Sólida experiencia en SQL, Power BI y Office avanzado.
  • Excelentes habilidades de comunicación escrita y oral.
  • Capacidad para trabajar de forma independiente y como parte de un equipo.
  • Fuerte orientación a los detalles y capacidad para resolver problemas.
  • Pasión por el marketing digital y los datos.

Habilidades

- Excelente trato con el clientes y colaboradores
- Entusiasta
- Proactividad.
- Adaptabilidad.
- Trabajo en equipo.

Condiciones y beneficios

  • De lunes a jueves de 9 a 17 hs y los días viernes de 9 a 16hs
  • Inicialmente la posición es presencial, luego es modalidad híbrida. Las oficinas se encuentran ubicadas en Santiago Centro
  • Desarrollo profesional ilimitado... ¡el cielo es el límite!
  • Entrenamiento permanente con diversas plataformas
  • Metodologías de trabajo colaborativas en un buen ambiente
  • Respeto total
  • Día de cumpleaños off

Partially remote You can work from your home some days a week.
Computer provided LFi provides a computer for your work.
Informal dress code No dress code is enforced.
Beverages and snacks LFi offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2300 Tiempo completo
Ingeniero de Datos/ Dbt
  • BC Tecnología
  • Santiago (Hybrid)
SQL Big Data BigQuery Google Cloud Platform

En BC Tecnología, somos una consultora de TI con más de seis años de experiencia, especializada en ofrecer soluciones personalizadas para nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Nos enfocamos en consultoría, outsourcing, desarrollo de proyectos y formación de equipos, siempre con un claro compromiso hacia la satisfacción del cliente. Como parte de nuestro equipo, el ingeniero/a de datos jugará un papel clave en la creación de soluciones basadas en tecnologías de la nube, impulsando la innovación y la colaboración en un entorno de trabajo ágil.

Job opportunity published on getonbrd.com.

Responsabilidades Clave

El ingeniero/a de datos será responsable de:

  • Diseñar y mantener pipelines de datos utilizando BigQuery y DBT.
  • Implementar tareas programadas en Google Cloud Platform (GCP) para la ingesta y procesamiento continuo de datos.
  • Construir y documentar modelos de datos optimizados para su análisis.
  • Validar y realizar pruebas para garantizar la precisión de los datos transformados.
  • Realizar seguimiento y documentación de cambios en modelos y sus transformaciones.

Requisitos Técnicos

Buscamos un ingeniero/a de datos con:

  • Experiencia avanzada en BigQuery y DBT.
  • Conocimiento práctico en Google Cloud Platform, incluyendo la programación de tareas y almacenamiento.
  • Sólido manejo de SQL y experiencia en modelado de datos.
  • Capacidad para documentar procesos y realizar pruebas de calidad de datos de manera eficiente.

Lo que ofrecemos

Brindamos un contrato por proyecto de 12 meses en modalidad híbrida, lo que permite combinar trabajo remoto con visitas a la oficina 2 a 3 días a la semana. También garantizamos un enfoque en la inclusión, en cumplimiento con la Ley Nº 21.015, promoviendo un entorno donde todos los empleados puedan prosperar.

POSTULAR VÍA WEB Ver trabajo
Gross salary $2200 - 2600 Tiempo completo
Data Analytics Residente Uruguay
  • BC Tecnología
Python Analytics Data Analysis SQL
En BC Tecnología, somos una consultora de TI especializada en diversas áreas tecnológicas, con más de seis años de experiencia diseñando soluciones adecuadas a las necesidades de nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestro enfoque incluye consultoría y diseño de soluciones, formación de equipos, desarrollo de proyectos y servicios de soporte y administración IT.

This job is published by getonbrd.com.

Responsabilidades principales:

  • Extraer y procesar datos desde diversas fuentes mediante SQL y Python (PySpark).
  • Diseñar y optimizar modelos de datos en Power BI para reportes avanzados.
  • Implementar y mejorar flujos ETL para la integración de datos.
  • Colaborar con áreas de negocio para entender necesidades analíticas y generar soluciones BI.
  • Asegurar la calidad y disponibilidad de los datos en los reportes.

Requisitos:

  • SQL Avanzado: Creación, optimización y modelado de datos.
  • Python (PySpark): Procesamiento y transformación de datos en entornos Big Data.
  • Power BI: Nivel medio-alto en creación de reportes y dashboards interactivos.
  • Databricks: Deseable, con experiencia en plataformas de datos en la nube.
  • Experiencia mínima de 3 años en roles de BI, Data Analytics o similares.
  • Habilidades de comunicación y trabajo en equipo para traducir necesidades de negocio en soluciones BI.

Deseable:

  • Experiencia con Databricks sería un plus, mostrando la capacidad de trabajar con plataformas de datos en la nube.

Condiciones

  • Trabajo 100% remoto.
  • El cargo puede ser desempeñado desde cualquier lugar del mundo.
En BC Tecnología, fomentamos un entorno laboral flexible que impulsa el crecimiento profesional. Si te consideras una mente analítica que quiere marcar la diferencia, ¡te invitamos a ser parte de nuestro equipo y a impulsar la transformación organizacional! 🚀✨

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Booster
  • 2BRAINS
Python Data Analysis SQL Web server

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

Official source: getonbrd.com.

El/la Data Booster de 2Brains

Se encarga de participar en el diseño y desarrollo de los nuevos modelos de información de gestión y las mantenciones evolutivas de los existentes. Participar en las iniciativas de Analítica avanzada del área, apoyando las exploración de modelos de información internos y externos (Data Discovery). Obtener datos históricos desde múltiples fuentes de información interna para apoyar las iniciativas de analítica avanzada del equipo.

Qué harás como Data Booster de 2Brains

  • Identificar oportunidades y definir hipótesis basadas en datos para mejorar procesos y generar impacto en el negocio.
  • Diseñar y ejecutar experimentos que permitan validar soluciones con métricas claras y medibles.
  • Construir modelos analíticos y aplicar IA para transformar datos en insights accionables.
  • Facilitar la co-creación de productos de datos, asegurando que sean escalables y sostenibles.
  • Optimizar el desarrollo y adopción de soluciones según la madurez del squad y las necesidades del negocio.
  • Colaborar con equipos de tecnología, negocio y data science para alinear soluciones con los objetivos estratégicos.
  • Garantizar la calidad y gobernanza de los datos, promoviendo mejores prácticas en el manejo y uso de información.

Qué conocimientos buscamos en/la Data Booster

  • Métodos de análisis estadístico (regresión, pruebas de hipótesis, análisis multivariante).
  • Técnicas de modelado predictivo y prescriptivo.
  • Análisis de series temporales.
  • Algoritmos de machine learning supervisados y no supervisados.
  • Modelos de clasificación, regresión, clustering, y reducción de dimensionalidad.
  • Técnicas de deep learning y redes neuronales.
  • Limpieza, transformación y preprocesamiento de datos (ETL).
  • Manejo de grandes volúmenes de datos y optimización del procesamiento (Big Data).
  • Uso de herramientas de análisis de datos como Pandas, NumPy, Spark.
  • Diseño de experimentos (A/B testing, pruebas de causalidad).
  • Métodos de validación de modelos (cross-validation, métricas de evaluación).
  • Técnicas de evaluación de impacto y pruebas de hipótesis.
  • Creación de dashboards y reportes con herramientas como Tableau, Power BI, Looker.
  • Visualización avanzada con bibliotecas de Python como Matplotlib, Seaborn, Plotly.
  • Python/R para análisis de datos y desarrollo de modelos.
  • SQL para consultas y manipulación de bases de datos.
  • Experiencia con plataformas de nube como AWS, GCP, Azure para almacenamiento y procesamiento de datos.
  • Uso de servicios de data engineering en la nube (como Google BigQuery, Amazon Redshift, Azure Synapse).
  • Prácticas de DevOps aplicadas a proyectos de datos (automatización, integración continua).
  • MLOps para la automatización de la implementación y monitoreo de modelos.
  • Estándares y buenas prácticas en el manejo de datos (calidad, privacidad, seguridad).
  • Herramientas para la gobernanza de datos como Apache Atlas, Collibra.

Que competencias buscamos en/la Data Booster

  • Empatía
  • Buena capacidad de comunicación.
  • Colaboración y trabajo en equipo.
  • Proactividad.
  • Autonomía.
  • Foco en los objetivos de proyectos.

Te ofrecemos

  • Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos
  • Acceso a grandes clientes y proyectos desafiantes
  • Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales
  • Un entorno de trabajo flexible y dinámico
  • Beneficios especiales: día libre para tu cumpleaños, 4 semanas de vacaciones

Wellness program 2BRAINS offers or subsidies mental and/or physical health activities.
Internal talks 2BRAINS offers space for internal talks or presentations during working hours.
Education stipend 2BRAINS covers some educational expenses related to the position.
Informal dress code No dress code is enforced.
Shopping discounts 2BRAINS provides some discounts or deals in certain stores.
Vacation over legal 2BRAINS gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1000 - 1300 Tiempo completo
Data Scientist Junior
  • coderslab.io
  • Santiago (Hybrid)
Python SQL Business Intelligence Big Data

CodersLab es una empresa dedicada al desarrollo de soluciones en el sector IT. Actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina. Por eso, estamos buscando un Data scientist Junior para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Official job site: Get on Board.

Job functions

  • Diseñar y desarrollar modelos de aprendizaje automático utilizando herramientas de Vertex AI (AutoML, Pipelines, Feature Store, etc.).
  • Implementar flujos de trabajo de datos en GCP, utilizando servicios como BigQuery, Dataflow, Pub/Sub y Cloud Storage.
  • Desplegar y gestionar modelos de ML en producción, asegurando rendimiento, escalabilidad y monitoreo continuo.
  • Crear y optimizar pipelines de MLOps para el desarrollo ágil de modelos y su mantenimiento.
  • Colaborar con ingenieros de datos, analistas y DevOps para integrar los modelos en sistemas productivos.
  • Analizar grandes volúmenes de datos y generar insights accionables que respondan a las necesidades del negocio.
  • Comunicar resultados técnicos y hallazgos analíticos a audiencias técnicas y no técnicas.
  • Mantenerse actualizado sobre las últimas innovaciones en GCP, Vertex AI y aprendizaje automático.

Qualifications and requirements

  • Experiencia mínima de 3 años trabajando como Data Scientist o en roles similares.
  • Conocimiento avanzado de Google Cloud Platform (GCP), incluyendo:
    • BigQuery
    • Dataflow
    • Cloud Storage
    • Pub/Sub
    • Cloud Composer
  • Experiencia en el uso de Vertex AI para el desarrollo y despliegue de modelos de aprendizaje automático.
  • Dominio de lenguajes como Python y SQL.
  • Conocimiento de frameworks de aprendizaje automático como TensorFlow, PyTorch o scikit-learn.
  • Experiencia en construcción de pipelines de datos y MLOps.
  • Familiaridad con herramientas de visualización como Looker, Tableau o Data Studio.

Conditions

Hibrido en Santigo de Chile
Renta en pesos Chilenos

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Scientist
  • 2BRAINS
Python SQL NoSQL Big Data

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

Apply exclusively at getonbrd.com.

El Data Scientist de 2Brains

Es responsable de analizar y extraer conocimiento a partir de datos mediante técnicas de Machine Learning, estadística y análisis avanzado, con el fin de optimizar la toma de decisiones y generar impacto en el negocio. Trabaja en conjunto con el equipo digital para desarrollar productos de datos, asegurando su calidad, documentación y correcta implementación. Además, mide el impacto de sus soluciones mediante estándares de experimentación, contribuyendo a la mejora continua y eficiencia operativa.

El Data Scientist de 2Brains deberá

  • Analizar grandes volúmenes de datos para identificar patrones, tendencias y oportunidades de mejora.
  • Diseñar, desarrollar e implementar modelos de Machine Learning y técnicas estadísticas para resolver problemas de negocio.
  • Desarrollar productos de datos en colaboración con el equipo digital, asegurando calidad, mantenimiento y escalabilidad.
  • Aplicar métodos de experimentación y validación (A/B testing, causal inference, etc.) para medir el impacto de las soluciones implementadas.
  • Garantizar la correcta documentación de los modelos, algoritmos y procesos desarrollados.
  • Optimizar y mejorar continuamente los modelos en producción en función de su desempeño y nuevos datos.
  • Colaborar con equipos de negocio y tecnología para alinear soluciones de datos con objetivos estratégicos.
  • Explorar nuevas herramientas y tecnologías para potenciar el uso de datos dentro de la organización.

¿Qué conocimientos buscamos en el/la Data Scientist?

  • Python/R, SQL y Spark. Para programar modelos de machine learning, realizar análisis estadístico y manipular datos, además de procesar grandes volúmenes de datos en paralelo y a gran escala.
  • Machine Learning, métricas de evaluación de modelos.
  • Pruebas A/B.
  • Deployment de modelos
  • Análisis estadístico
  • Desarrollo de productos de datos.
  • Deseables:
  • NoSQL, Bayesian Statistics, MLOps avanzado.
  • Herramientas de visualización como Streamlit.

¿Qué competencias buscamos en el/la Data Scientist?

  • Curiosidad
  • Foco en los objetivos
  • Colaboración y trabajo en equipo (ínter y multidisciplinario)
  • Proactividad
  • Autonomía

Te ofrecemos

  • Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos.
  • Un proyecto con foco en los usuarios, visión de UX e integrada al desarrollo.
  • Acceso a grandes clientes y proyectos desafiantes.
  • Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales.
  • Un entorno de trabajo flexible y dinámico.
  • Beneficios especiales: un día libre de regalo por tu cumpleaños, días de descanso (previa coordinación), convenios para cursos de especialización.

Wellness program 2BRAINS offers or subsidies mental and/or physical health activities.
Internal talks 2BRAINS offers space for internal talks or presentations during working hours.
Informal dress code No dress code is enforced.
Shopping discounts 2BRAINS provides some discounts or deals in certain stores.
Vacation over legal 2BRAINS gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer Azure
  • Factor IT
  • Santiago (Hybrid)
Python Agile SQL NoSQL
En FactorIT, buscamos un Ingeniero de Datos con experiencia en banca y entidades financieras para liderar y ejecutar proyectos de Data & Analytics. Te unirás a un equipo innovador en el que tu trabajo impactará directamente en la transformación digital de importantes instituciones en el sector financiero.
Este rol es clave para potenciar el uso de datos dentro de la banca, asegurando que la infraestructura y los procesos estén alineados con los objetivos estratégicos del negocio. Tendrás la oportunidad de trabajar con tecnologías de vanguardia, incluyendo Azure Databricks y otros servicios en la nube, asegurando soluciones escalables y seguras que optimicen la toma de decisiones.

Apply to this job through Get on Board.

Responsabilidades:

  • Diseñar y desarrollar soluciones de ingestión, transformación y modelado de datos en Azure Databricks y otras tecnologías relacionadas.
  • Optimizar procesos de ETL/ELT, asegurando calidad, integridad y eficiencia en el procesamiento de datos.
  • Colaborar con equipos de negocio para entender sus necesidades, identificar oportunidades y proponer soluciones basadas en datos.
  • Implementar arquitecturas de datos escalables que soporten analítica avanzada, machine learning e inteligencia de negocio.
  • Garantizar la seguridad y el cumplimiento normativo en el manejo de datos, siguiendo estándares bancarios y regulatorios.
  • Desarrollar y optimizar pipelines de datos para la explotación en entornos analíticos y de reportes.
  • Documentar procesos, arquitecturas y modelos de datos, asegurando buenas prácticas de gobernanza.
  • Trabajar en conjunto con equipos de Data Science, BI y Tecnología para garantizar la disponibilidad y calidad de los datos.

Requisitos Técnicos y Habilidades:

Buscamos un profesional con un mínimo de 3 años de experiencia en ingeniería de datos, idealmente en el sector financiero. Debe poseer un conocimiento avanzado en:
  • Azure Databricks, Spark y servicios de datos en la nube como Azure Data Factory, Azure Synapse y Data Lake.
  • Modelado de datos, optimización de consultas y bases de datos en SQL y NoSQL.
  • Programación en Python y/o Scala para el desarrollo de pipelines y procesamiento de datos.
  • Arquitecturas de datos escalables y distribuidas.
  • Principios de seguridad y cumplimiento normativo en banca (ej. GDPR, PCI-DSS, BCBS 239).
  • Herramientas de orquestación y automatización de flujos de datos.
Además, necesitaremos que cuentes con habilidades blandas como excelente comunicación, pensamiento analítico, proactividad y capacidad de trabajo en equipo en entornos ágiles y dinámicos.

Habilidades Deseables:

Sería un plus contar con experiencia previa en proyectos de transformación digital en el sector bancario, así como familiaridad con herramientas de visualización de datos y reportes. La capacidad para adaptarse rápidamente a nuevas tecnologías y seguir aprendiendo continuamente es muy valorada dentro de nuestra cultura.

Beneficios:

En FactorIT, brindamos un entorno de trabajo dinámico y colaborativo donde puedes trabajar con tecnologías de punta. Ofrecemos un plan de crecimiento profesional, capacitaciones en IA y automatización, y un salario competitivo acorde a tu experiencia.
Promovemos el equilibrio entre la vida personal y laboral mediante trabajo 100% remoto 🌍 y flexibilidad laboral. Únete a nosotros y sé parte de un equipo que está transformando el futuro de la tecnología en la región.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Computer provided Factor IT provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2500 Tiempo completo
Analista de BI Latam
  • BC Tecnología
Python Analytics Data Analysis SQL

En BC Tecnología, somos una consultora de TI especializada en diversas áreas tecnológicas, ofreciendo un entorno de trabajo colaborativo donde se valora el compromiso y el desarrollo profesional. Trabajamos con clientes en los sectores de servicios financieros, seguros, retail y gobierno, diseñando soluciones adecuadas a sus necesidades desde hace más de seis años. Nuestro enfoque incluye consultoría y diseño de soluciones, formación de equipos, desarrollo de proyectos, y servicios de soporte y administración IT.

Applications at getonbrd.com.

Responsabilidades principales:

  • Extraer y procesar datos desde diversas fuentes mediante SQL y Python (PySpark).
  • Diseñar y optimizar modelos de datos en Power BI para reportes avanzados.
  • Implementar y mejorar flujos ETL para la integración de datos.
  • Colaborar con áreas de negocio para entender necesidades analíticas y generar soluciones BI.
  • Asegurar la calidad y disponibilidad de los datos en los reportes.

Requisitos:

  • SQL Avanzado – Creación, optimización y modelado de datos.
  • Python (PySpark) – Procesamiento y transformación de datos en entornos Big Data.
  • Power BI (Nivel medio-alto) – Creación de reportes y dashboards interactivos.
  • Databricks (Deseable) – Experiencia en plataformas de datos en la nube.
  • Experiencia mínima de 3 años en roles de BI, Data Analytics o similares.
  • Habilidades de comunicación y trabajo en equipo para traducir necesidades de negocio en soluciones BI.

Deseable:

Experiencia con Databricks sería un plus, mostrando la capacidad de trabajar con plataformas de datos en la nube.

Conditions

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer
  • Improving South America
SQL Business Intelligence Virtualization Amazon Web Services
Leniolabs_ que ahora es Improving South America es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España, USA y Canadá.
Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes.
Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.
Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

This job is published by getonbrd.com.

Responsabilidades del Ingeniero de Datos

  • Descubrimiento de Fuentes Legacy: Utilizar SQL avanzado y scripting (Python/PowerShell) para automatizar procesos y documentar sistemas heredados.
  • Análisis de Calidad de Datos: Ejecutar perfiles de datos, identificar problemas de calidad y generar métricas clave de calidad (KPIs).
  • Limpieza Inicial de Datos: Aplicar herramientas ETL/ELT (Informatica, Talend, dbt) y realizar limpieza de datos en base a las comunicaciones con expertos.
  • Definición de Estrategias de Archivo vs. Migración: Diseñar modelos de datos y evaluar soluciones de almacenamiento equilibrando cumplimiento y costos.
  • Mapping a la Plataforma del Proveedor: Desarrollar procesos de mapeo y transformación para garantizar la correcta transferencia de datos.
  • Análisis de Necesidades Actuales de BI/Reportes: Colaborar con usuarios para optimizar consultas SQL y estructurar datos para reportes.
  • Tareas Adicionales: Orquestación de pipelines (Airflow), CI/CD, contenedorización (Docker, Kubernetes) y automatización en la nube (AWS).

Requisitos Técnicos y Habilidades Deseadas

Buscamos un profesional con el siguiente perfil:

  • Dominio en SQL avanzado, así como experiencia en herramientas ETL/ELT como Informatica, Talend y dbt. Conocimientos en sistemas de almacenamiento en la nube (AWS S3, Redshift)
  • Habilidades en orquestación de pipelines (Airflow, Docker, Kubernetes)
  • Familiaridad con herramientas de BI como Power BI o Tableau.
  • Nivel de inglés intermedio/avanzado o avanzado.
  • A nivel de habilidades blandas, esperamos que los candidatos tengan un fuerte pensamiento crítico, atención al detalle y la capacidad de comunicar hallazgos técnicos a diferentes públicos.

Habilidades Deseables

Si bien no son imprescindibles, se valorarán conocimientos adicionales en el trabajo con big data y experiencia en entornos ágiles. La capacidad de adaptarse rápidamente a nuevas herramientas y requisitos será muy apreciada, al igual que la iniciativa para proponer mejoras a nuestros procesos actuales.

¿Qué Ofrecemos?

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Power BI Analyst Sr
  • Improving South America
Data Analysis SQL Big Data BigQuery
Leniolabs_ es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA.
Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.
Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.

Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Job source: getonbrd.com.

Funciones del cargo

En Leniolabs estamos en la búsqueda de un SR Power BI Analyst.

El candidato ideal debe contar con un mínimo de 6 años de experiencia, el equipo está buscando recursos para ayudar a satisfacer las necesidades de sus clientes internos de EE. UU. Los miembros de nuestro equipo recibirán tickets de solución de ServiceNow y ejecutarán informes/consultas centrados en los datos de uso del cliente, la validación de datos, etc.

El objetivo es crear un equipo de mejora. Este grupo quiere familiarizarse y sentirse cómodo con la mejora.

El rol implica colaborar estrechamente con arquitectos, ingenieros y propietarios de producto para diseñar soluciones técnicas que soporten altos niveles de disponibilidad y consistencia.

Buscamos perfiles con un compromiso claro con la excelencia técnica, la innovación y un interés genuino en las últimas tecnologías, capaces de trabajar en un entorno ágil y de alto rendimiento.

Requerimientos del cargo

  • Contar con mínimo 6 años de experiencia trabajando con Power BI y SQL.
  • Manejo de Google Cloud Platform (GCP) y BigQuery.
  • Experiencia en ETL (idealmente con Talend) y capacidad para trabajar con grandes volúmenes de datos (terabytes).
  • Sólidas habilidades de redacción y comunicación, además de iniciativa.
  • Nivel de inglés intermedio-avanzado (B2/C1).

Beneficios

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Internal talks Improving South America offers space for internal talks or presentations during working hours.
Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Improving South America gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2300 Tiempo completo
Data Engineer – Proyecto de 6 Meses
  • BC Tecnología
  • Santiago (Hybrid)
Python Git SQL Scala
En BC Tecnología, somos una consultora de TI comprometida con ofrecer soluciones innovadoras y adaptadas a las necesidades de nuestros clientes. Con más de 6 años de experiencia en el sector, trabajamos con empresas en diferentes industrias, incluyendo servicios financieros, seguros, retail y gobierno. En este proyecto de Data Engineering, tendrás la oportunidad de contribuir al diseño y construcción de pipelines de datos para nuestros clientes, utilizando metodologías ágiles y colaborando con equipos altamente especializados.

Apply to this job opportunity at getonbrd.com.

Responsabilidades del Rol

  • Diseñar y construir pipelines de datos efectivos para cumplimentar las necesidades analíticas de nuestros clientes.
  • Programar usando lenguajes como Python, Scala o SQL para manipulación y transformación de datos.
  • Implementar y gestionar herramientas de orquestación de pipelines, como Airflow, Mage, NiFi o similares.
  • Colaborar en prácticas de CI/CD, incluidos conocimientos básicos en Git y versionado de código.
  • Integrar arquitecturas de datos, con un enfoque en Datalakes, Datawarehouses o Lakehouse.
  • Participar en modelado de datos utilizando técnicas dimensional, estrella y copo de nieve, si es requerido.

Requisitos y Habilidades

Buscamos candidatos que cuenten con al menos 2 años de experiencia en el área de Data Engineering. Deberán tener competencias en diseño y construcción de pipelines de datos, así como experiencia con lenguajes de programación pertinentes como Python, Scala o SQL.
Es esencial dominar herramientas de orquestación de datos, y tener un conocimiento básico sobre integraciones de CI/CD y flujos de trabajo de versionamiento de código. Adicionalmente, es deseable contar con experiencia en arquitecturas de datos y modelado, incluidos Datalakes y técnicas de modelado específicas.
La modalidad de trabajo es híbrida, lo que permitirá equilibrar la colaboración en persona con flexibilidad laboral.

Habilidades Deseables

Si bien no es un requisito, consideraremos positivamente la experiencia previa con Datalakes y Datawarehouses, así como familiaridad con técnicas de modelado como dimensional, estrella o copo de nieve. Esto contribuirá a un mejor entendimiento del contexto de las soluciones que desarrollaremos.

Beneficios y Condiciones

Ofrecemos un contrato por proyecto de 6 meses, con posibilidad de extensión. Los empleados disfrutarán de un sueldo a convenir, además de beneficios adicionales como:
  • Seguro complementario.
  • Amipass de $4,500 por día laborado.
  • Convenciones, actividades y bonos.
Estamos ubicados en Alto Las Condes, permitiendo un ambiente de trabajo funcional y moderno. ¡Nos encantaría contar contigo en nuestro equipo! 🌟

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2300 Tiempo completo
Data Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Python Git SQL Scala
En BC Tecnología, somos una consultora de TI que cuenta con un equipo experto en diversas áreas tecnológicas. Nuestra misión es brindar soluciones personalizadas que se adapten a las necesidades de nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Actualmente, buscamos incorporar un Data Engineer para diseñar, construir y mantener pipelines de datos, utilizando tecnologías modernas.
Contamos con un enfoque ágil y orientado al cliente, lo que nos permite ofrecer servicios de consultoría, desarrollo de proyectos y administración IT de alta calidad.

Official source: getonbrd.com.

✅ Funciones

  • Diseñar y construir pipelines de datos eficientes para mover y transformar datos.
  • Garantizar que los procesos de datos sean consistentes y confiables en el tiempo.
  • Implementar flujos de trabajo de CI/CD para la integración con ambientes de desarrollo y productivos.
  • Colaborar con el equipo para mejorar la calidad y eficiencia de los procesos de datos.
  • Apoyarse en líderes técnicos para lineamientos y mejores prácticas en el desarrollo.

✅ Requerimiento:

Se requiere entre 1 a 2 años de experiencia en diseño y construcción de pipelines de datos. Consideraciones específicas incluyen:
  • Lenguajes de programación: Python, Scala o SQL.
  • Herramientas de orquestación de pipelines: Airflow, Mage, NiFi o similares.
  • CI/CD: Conocimientos básicos en Git y flujos de trabajo de versionamiento de código.

Deseables:

  • Arquitectura de datos: Familiaridad con Datalakes, Datawarehouses o Lakehouse.
  • Modelado de datos: Conocimiento en técnicas como dimensional, estrella, copo de nieve.

✅ Condiciones:

El contrato es por proyecto, estimado en 3 meses, con metodología de trabajo híbrido en Alto las Condes (2 a 3 veces por semana). Los postulantes deben tener disponibilidad de lunes a viernes. Sueldo a convenir y disfrutará de beneficios como seguro complementario, Amipass de $4,500 por día laborado, convenios, actividades y bonos. 🌟

POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 1700 Tiempo completo
Analista de Datos
  • BC Tecnología
  • Buenos Aires (Hybrid)
Python Data Analysis SQL Business Intelligence
En BC Tecnología, somos una consultora especializada en servicios IT, trabajando con clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestro equipo de BI & Analytics juega un papel crucial en la optimización de procesos y toma de decisiones informadas mediante la administración y análisis de datos. Buscamos un Analista de Datos que se una a nuestro equipo, aportando experiencia y conocimiento en herramientas clave.

Job opportunity published on getonbrd.com.

Responsabilidades

Como Analista de Datos, serás el representante del equipo de BI & Analytics en Argentina. Tus responsabilidades incluirán:
  • Desarrollar y optimizar consultas SQL para la extracción y transformación de datos.
  • Implementar y gestionar pipelines de datos en Databricks.
  • Aplicar Python para el procesamiento y análisis avanzado de datos.
  • Servir como enlace entre el equipo de BI & Analytics y las áreas de negocio en el país, asegurando que las iniciativas de BI estén alineadas con las necesidades estratégicas de la empresa.
  • Asegurar la calidad y disponibilidad de los datos para la toma de decisiones.
  • Colaborar con equipos multidisciplinarios para definir y mejorar modelos analíticos.

Requisitos

  • Experiencia sólida en desarrollo BI con SQL avanzado.
  • Conocimiento y experiencia en Databricks (deseable).
  • Habilidad en Python para manipulación y análisis de datos.
  • Experiencia en entornos de análisis y procesamiento de datos en la nube (Azure, AWS, GCP es un plus).

Habilidades Deseables

Buscamos a alguien que no solo cumpla con los requisitos técnicos, sino que también posea habilidades interpersonales para colaborar efectivamente con equipos diversos y facilitar la comunicación entre departamentos. La adaptabilidad y una mentalidad centrada en soluciones son altamente valoradas en nuestra cultura de trabajo.

Beneficios

En BC Tecnología, te ofrecemos un entorno laboral dinámico y colaborativo, con un modelo de trabajo híbrido que idealiza la integración entre lo presencial y lo remoto. Además, tendrás acceso a oportunidades de capacitación continua, un ambiente que fomenta la innovación y centenares de oportunidades para crecer profesionalmente al lado de expertos. Valoramos a nuestros colaboradores y buscamos su desarrollo constante.

Health coverage BC Tecnología pays or copays health insurance for employees.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Microsoft Power BI Developer
  • Improving South America
SQL SAP Big Data Azure

Leniolabs_ es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA.

Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.

Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.

Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Apply from getonbrd.com.

Funciones del cargo

En Leniolabs estamos en la búsqueda de un SSR/SR Microsoft Power BI Developer.

El candidato ideal debe contar con un mínimo de 5 años de experiencia. Además de conocimientos y experiencia en informes analíticos, es fundamental que tenga experiencia en SQL, ya que en el proyecto deberá trabajar en reportes, realizar extracción y manejo de datos en SQL.

El rol implica colaborar estrechamente con arquitectos, ingenieros y propietarios de producto para diseñar soluciones técnicas que soporten altos niveles de disponibilidad y consistencia.

Buscamos perfiles con un compromiso claro con la excelencia técnica, la innovación y un interés genuino en las últimas tecnologías, capaces de trabajar en un entorno ágil y de alto rendimiento.

Requerimientos del cargo

  • Contar con aproximadamente 5 años de experiencia como Data Engineer.
  • Manejo de Power BI y SQL (Excluyente).
  • Experiencia con Synapse y Azure Data Factory.
  • Es deseable la experiencia con Data Lake y SAP SCM
  • Habilidad para crear documentación técnica.
  • Inglés avanzado.

Beneficios

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo,

Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Improving South America gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2200 Tiempo completo
Ingeniero de Datos GCP
  • BC Tecnología
  • Santiago (Hybrid)
SQL Big Data BigQuery Data Transformation
En *BC Tecnología*, somos un equipo apasionado de consultores de TI que ofrece soluciones innovadoras. Nos especializamos en proyectos relacionados con el análisis de datos, principalmente en plataformas como Google Cloud. Como parte de nuestro equipo, estarás involucrado en diseñar y mantener sistemas eficaces de gestión y análisis de datos que atienden a clientes de diversos sectores, incluyendo servicios financieros, seguros y retail. Este puesto te permitirá aplicar tus habilidades en un ambiente que fomenta el crecimiento personal y profesional mediante el uso de tecnologías avanzadas como BigQuery y DBT.

Apply to this posting directly on Get on Board.

Responsabilidades Clave

  • Diseñar y mantener pipelines de datos en BigQuery utilizando DBT.
  • Implementar tareas programadas en Google Cloud Platform (GCP) para ingesta y procesamiento continuo de datos.
  • Construir y documentar modelos de datos optimizados para análisis.
  • Validar y probar la precisión de los datos transformados para asegurar su calidad.
  • Realizar seguimiento de cambios en modelos y transformaciones para asegurar la adaptabilidad y eficiencia de los procesos.

Requisitos Técnicos

Buscamos un profesional especializado que tenga experiencia avanzada con BigQuery y DBT. Debes tener un amplio conocimiento práctico en Google Cloud Platform, específicamente en la creación y programación de tareas, así como en el almacenamiento de datos. Un sólido manejo de SQL y habilidades en modelado de datos son esenciales. Además, es crucial que tengas la capacidad para documentar de manera efectiva y realizar pruebas de datos, asegurando que los procesos sean eficientes y que los resultados sean confiables.

Habilidades Deseables

Si bien no son estrictamente necesarias, se valoran habilidades adicionales como experiencia previa en proyectos de transformación de datos o en el sector de TI. Una comprensión de las metodologías ágiles y la experiencia en trabajo colaborativo será un plus, ya que buscamos un candidato que se adapte rápidamente a nuestro entorno de trabajo dinámico.

Beneficios

En *BC Tecnología*, valoramos el bienestar y crecimiento profesional de nuestro equipo. Ofrecemos un ambiente de trabajo colaborativo y ágil, así como beneficios como seguro complementario, Amipass de $4.500 por día laborado para fomentar tu desarrollo, activaciones y actividades especiales, y bonos de rendimiento. ¡Únete a nosotros y sé parte de un equipo donde tu talento hará la diferencia! 🌟

POSTULAR VÍA WEB Ver trabajo
Gross salary $2500 - 2800 Tiempo completo
Data Scientist
  • Niuro
Python SQL Azure Artificial Intelligence
At Niuro, we are dedicated to connecting cutting-edge projects with elite tech teams, collaborating closely with leading U.S. companies. Our mission revolves around simplifying global talent acquisition through innovative solutions that enhance efficiency and quality. As part of our team, you will engage in dynamic and challenging projects that are pivotal to our clients' success.
By providing autonomous, high-performance tech teams, we empower our professionals through continuous training in both technical and soft skills, along with leadership development. Our structure supports collaborative growth and excellence.

Official job site: Get on Board.

Responsibilities:

  • Design, develop, and evaluate machine learning and statistical models aimed at enhancing various business processes.
  • Analyze large datasets to derive insights and formulate data-driven strategies.
  • Deploy models into production utilizing tools such as TensorFlow, PyTorch, or Scikit-learn.
  • Create dashboards and reports via visualization tools like Tableau, Power BI, or Looker.
  • Collaborate with engineering teams to optimize data pipelines and model infrastructures.
  • Deliver findings and recommendations to non-technical stakeholders in a clear and concise manner.

Requirements:

  • 3-5 years of experience in data science, machine learning, and statistical analysis.
  • Proficiency in Python with solid knowledge of data science libraries including Pandas, Polars, Scikit-learn, TensorFlow, and PyTorch.
  • Experience with SQL and both relational and non-relational databases.
  • Knowledge of feature engineering, model selection, and cross-validation techniques.
  • Experience with Generative AI frameworks and libraries, such as Hugging Face Transformers and LangChain, alongside API usage and prompt engineering skills.
  • Able to visualize data with tools like Matplotlib, Seaborn, and Plotly.
  • Strong communication skills with a knack for data storytelling.
  • Intermediate to advanced English proficiency (written and spoken).

Nice-to-Haves:

  • Experience with cloud computing platforms such as AWS, GCP, or Azure.
  • Familiarity with real-time data processing using tools like Apache Kafka or Spark Streaming.
  • Working knowledge of deep learning frameworks.
  • Understanding of MLOps techniques for deploying models effectively.
  • Curiosity and enthusiasm for exploring the latest trends in Generative AI within the field of data analysis.

Salary & Benefits:

We offer a competitive salary ranging from $2,500 to $2,800 USD per month, depending on your experience. Our organization embraces a fully remote work environment, paired with flexible working hours to enhance your work-life balance.
At Niuro, you will find ample opportunities for professional development, along with access to training in advanced data analysis tools. Join us, and be part of a team that values continuous learning and growth!

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3000 - 3900 Tiempo completo
Senior Data Engineer
  • Apply Digital Latam
Python Agile SQL Virtualization
ABOUT APPLY DIGITAL
Apply Digital is a global digital transformation partner for change agents. Leveraging expertise that spans Business Transformation Strategy, Product Design & Development, Commerce, Platform Engineering, Data Intelligence, Change Management, and beyond, we enable our clients to modernize their organizations and deliver meaningful impact to the business and to their customers. Our 650+ team members have helped transform global companies like Kraft Heinz, NFL, Moderna, Lululemon, Games Workshop, Atlassian, and The Very Group. Visit applydigital.com to learn how we can unlock your company’s potential.
If you'd like to learn more about Apply Digital's culture click HERE.
LOCATION: Apply Digital is hybrid/remote-friendly. The preferred candidate should be based in Latin America, preferably working in hours that align to ET (Eastern Timezone) or PT (Pacific Timezone).

Apply exclusively at getonbrd.com.

Responsibilities:

  • Design, build, and optimize ETL/ELT pipelines using Python and SQL
  • Develop and maintain data warehouse schemas and analytics solutions
  • Implement data models and ensure data quality, consistency, and integrity
  • Leverage cloud data platforms (e.g., AWS Athena, Databricks, Snowflake, Azure Synapse/Fabric, Google BigQuery) for storage, processing, and querying
  • Create and maintain optimal data pipeline architecture.
  • Collaborate with analysts and stakeholders to define requirements and deliver data solutions that meet business needs
  • Communicate with stakeholders to understand data requirements and develop solutions.
  • Design, develop, implement, and maintain data architectures and pipelines.
  • Optimize query performance and ensure efficient data workflowsDocument data pipelines, architectures, and processes
  • Continuously improve and refine existing data infrastructure and solution
  • Develop and implement best practices for data management, security, and privacy.

Requirements:

  • A Bachelor's degree in Computer Science, Information Systems, or a related field.
  • At least 5 years of experience in data engineering or related fields.
  • Strong expertise in SQL, ETL, and data warehousing technologies.
  • Strong working knowledge of Python and PySpark
  • Proven experience with at least one major cloud data platform (AWS Athena, Databricks, Snowflake, Azure Synapse/Fabric, or Google BigQuery)
  • Knowledge of data migration tools and techniques.
  • Good knowledge of databases.
  • Strong background in data warehouse design, ETL/ELT processes, and data modeling, ideally with modern data warehouse and DBT
  • Familiarity with cloud engineering concepts and best practices
  • Experience working with large datasets and optimizing performance
  • Excellent problem-solving skills and attention to detail
  • Outstanding communication skills in English, both written and verbal.

Nice-to-haves:

  • Knowledge of multiple cloud platforms (AWS, Azure, GCP) and their data services
  • Familiarity with data governance and compliance requirements
  • Knowledge of CI/CD practices for data engineering
  • Familiarity with Agile development methodologies
  • Experience with containerization (Docker, Kubernetes)

Conditions

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Apply Digital Latam provides a computer for your work.
Vacation over legal Apply Digital Latam gives you paid vacations over the legal minimum.
Beverages and snacks Apply Digital Latam offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 2000 Tiempo completo
Analista de Datos
  • coderslab.io
  • Santiago (Hybrid)
Data Analysis SQL Big Data BigQuery
En CodersLab actualmente nos encontramos apuntando al crecimiento de nuestros equipos de manera global con el objetivo de posicionarnos con nuestros productos en más países de Latinoamérica, es por ello que estamos en búsqueda de un ANALISTA DE PROCESAMIENTO DE DATOS quien deberá ser una persona motivada y orientada al cumplimiento de objetivos.
Te sumarás a un equipo desafiante y ambicioso con ganas de renovar el mercado, por lo que tus propuestas serán de mucho valor para el negocio.
¡Postula para este tremendo desafío!

Applications: getonbrd.com.

Funciones del cargo

  1. Utilización de BigQuery:
    • Realizar análisis de datos, ingesta y procesamiento continuo mediante tareas programadas en GCP utilizando BigQuery.
  2. Transformación de Datos:
    • Aplicar técnicas de transformación de datos utilizando DBT (Data Build Tool) para asegurar que los datos sean precisos y estén listos para su análisis.
  3. Pruebas de Precisión de Datos:
    • Testear la precisión y validez de los datos, asegurando que se cumplan los estándares de calidad antes de su utilización.
  4. Seguimiento de Cambios:
    • Realizar un seguimiento de los cambios en los datos y actualizar la documentación correspondiente para mantener un registro claro y comprensible.
  5. Construcción de Modelos de Datos:
    • Diseñar y construir modelos de datos adecuados que soporten las necesidades del negocio y faciliten el análisis.
  6. Escritura de Código de Transformación:
    • Escribir y validar código para la transformación de datos, garantizando que sea eficiente y escalable.
  7. Implementación y Documentación:
    • Implementar mejoras en los procesos de datos y documentar todos los procedimientos que se lleven a cabo, facilitando la comprensión y el uso por parte de otros equipos.

Requerimientos del cargo

  • BigQuery:
    • Experiencia en el uso de BigQuery para el manejo y análisis de grandes volúmenes de datos.
  • DBT (Data Build Tool):
    • Conocimiento y experiencia en DBT para modelar, transformar y documentar datos.
  • Lenguajes de Programación:
    • Familiaridad con SQL y posiblemente con otros lenguajes relacionados con el procesamiento de datos.
  • Análisis de Datos:
    • Capacidad para analizar datos, identificar patrones y tendencias, y ofrecer recomendaciones basadas en los hallazgos.
  • Atención al Detalle:
    • Fuerte atención al detalle y habilidades analíticas para asegurar la precisión de los datos.
  • Comunicación:
    • Habilidades de comunicación efectivas, tanto escritas como verbales, para colaborar con otros equipos y presentar resultados de manera clara.

Competencias Personales:
  • Habilidad para trabajar en un ambiente dinámico y bajo presión.
  • Capacidad de trabajo en equipo y colaboración interdepartamental.
  • Flexibilidad y adaptabilidad a cambios en proyectos y prioridades.

POSTULAR VÍA WEB Ver trabajo
Gross salary $3100 - 4500 Tiempo completo
Data Engineer
  • Haystack News
  • Lima (Hybrid)
Python Analytics Data Analysis SQL

Haystack News is the leading local & world news service on Connected TVs reaching millions of users! This is a unique opportunity to work at Haystack News, one of the fastest-growing TV startups in the world. We are already preloaded on 37% of all TVs shipped in the US!

Be part of a Silicon Valley startup and work directly with the founding team. Jumpstart your career by working with Stanford & Carnegie Mellon alumni and faculty who have already been part of other successful startups in Silicon Valley.

You should join us if you're hungry to learn how Silicon Valley startups thrive, you like to ship quickly and often, love to solve challenging problems, and like working in small teams.

See Haystack's feature at this year's Google IO:

This job is published by getonbrd.com.

Job functions

  • Analyze large data sets to get insights using statistical analysis tools and techniques
  • Collaborate with the Marketing, Editorial and Engineering teams on dataset building, querying and dashboard implementations
  • Support the data tooling improvement efforts and help increase the company data literacy
  • Work with the ML team on feature engineering and A/B testing for model building and improvement
  • Design, test and build highly scalable data management and monitoring systems
  • Build high-performance algorithms, prototypes and predictive models

Qualifications and requirements

  • Strong written and spoken English is a must!
  • Bachelor's degree in Computer Science, Statistics, Math, Economics or related field
  • 2+ years experience doing analytics in a professional setting
  • Advanced SQL skills, including performance troubleshooting
  • Experience with data warehouses (e.g. Snowflake, BigQuery, Redshift)
  • Proficient in Python including familiarity with Jupyter notebooks
  • Strong Math/Stats background with statistical analysis experience on big data sets
  • Strong communication skills, be able to communicate complex concepts effectively.

Conditions

  • Unlimited vacations :)
  • Travel to team's offsite events
  • 100% paid Uber rides to go to the office
  • Learn about multiple technologies

Accessible An infrastructure adequate for people with special mobility needs.
Relocation offered If you are moving in from another country, Haystack News helps you with your relocation.
Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Meals provided Haystack News provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Company retreats Team-building activities outside the premises.
Computer repairs Haystack News covers some computer repair expenses.
Commuting stipend Haystack News offers a stipend to cover some commuting costs.
Computer provided Haystack News provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 2000 Tiempo completo
Analista Funcional Semi Senior
  • BC Tecnología
  • Santiago (Hybrid)
Data Analysis SQL Agile Methodologies Technical Documentation
En BC Tecnología somos una consultora de servicios IT con más de 6 años diseñando soluciones a medida para nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Nos especializamos en consultoría, desarrollo de proyectos, outsourcing y soporte IT, formando equipos ágiles para áreas de infraestructura tecnológica, desarrollo de software y unidades de negocio. Actualmente buscamos integrar un Analista Funcional Semi Senior para trabajar en un proyecto clave enfocado en el desarrollo de un Sistema de Cobranzas ICS, con énfasis en procesos batch y análisis de datos críticos que garantizan la eficiencia y continuidad operativa en ambientes con alta demanda y complejidad.

Apply to this posting directly on Get on Board.

¿Qué harás?

  • Participar activamente en el análisis funcional y desarrollo de sistemas relacionados con el proyecto de Sistema de Cobranzas ICS.
  • Diseñar, implementar y optimizar procesos batch esenciales para el procesamiento eficiente de grandes volúmenes de datos.
  • Colaborar estrechamente con equipos técnicos multidisciplinarios para asegurar la correcta integración y funcionamiento de los sistemas.
  • Proponer mejoras innovadoras y optimizaciones sobre los procesos existentes, enfocándose en la robustez y desempeño.
  • Documentar detalladamente los procesos y validar su correcto desempeño dentro del entorno de producción.

¿Qué buscamos?

Buscamos un perfil semi senior, comprometido, analítico y con fuerte experiencia técnica para desempeñarse en un entorno desafiante y exigente. El candidato ideal debe demostrar manejo avanzado de SQL para la gestión y consulta de bases de datos, además de conocimientos sólidos en Shell scripting para automatización de tareas y procesos de sistemas.
La experiencia con herramientas de orquestación de procesos batch, especialmente Control-M, será fundamental para administrar y monitorear las ejecuciones programadas en ambientes críticos. Se requiere además capacidad para realizar análisis funcional profundo y análisis de datos, entendiendo los flujos y requerimientos del negocio para entregar soluciones alineadas con las necesidades operativas.
El rol demanda habilidades para trabajar bajo presión en procesos batch; se valoran cualidades como atención al detalle, pensamiento crítico, proactividad en la identificación de oportunidades de mejora y comunicación efectiva con equipos técnicos y de negocio.

Requisitos adicionales valorados

Se valorará experiencia previa en proyectos similares en sectores financieros o de cobranzas, donde la gestión de procesos batch es crítica. Conocimientos de metodologías ágiles y experiencia en documentación técnica formal. Habilidades interpersonales para colaborar con equipos multidisciplinarios y adaptación flexible a cambios en el alcance del proyecto.

¿Qué ofrecemos?

Ofrecemos un contrato inicial por un proyecto de 2 meses, con posibilidad de continuidad dependiendo del desempeño y necesidades del proyecto. La jornada laboral es híbrida, aprendizaje constante, apoyados por metodologías ágiles y un equipo diverso orientado a resultados y calidad en la entrega. Si te entusiasma enfrentar retos tecnológicos en ambientes críticos, este proyecto es para ti.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Product Owner
  • ICONSTRUYE
  • Bogotá (Hybrid)
Agile Excel SQL DevOps

En iConstruye, nos posicionamos como la empresa líder en soluciones y servicios tecnológicos innovadores, trabajando con un enfoque en el suministro y la gestión de la construcción, así como en industrias con alta complejidad logística. Nuestro equipo está comprometido a diseñar e implementar soluciones efectivas y escalables, ayudando a nuestros clientes a alcanzar sus objetivos de manera eficiente y con éxito.

Tu misión: Responsable de la construcción del producto, generando valor al desarrollo y velando por la satisfacción de los clientes. Diseña, modela, construye, le da valor, entrega y mejora permanentemente los productos, basándose en las necesidades de nuestros clientes, conectándose con los objetivos de nuestra compañía y siendo partner de las demás áreas de la empresa.

© Get on Board. All rights reserved.

Tus funciones:

  • Participar en el proceso creativo del producto, colaborando con el PM y el CX para diseñar la experiencia de usuario y definir los requisitos comerciales, generando el backlog.
  • Diseñar épicas y redactar historias de usuario.
  • Liderar la célula de trabajo, supervisando el cumplimiento de los puntos de historia asignados.
  • Definir y asegurar el cumplimiento de las fechas de entrega de los productos.
  • Priorizar características a implementar que generen valor al desarrollo.
  • Resolver dudas del equipo con respecto al desarrollo, buscando información de los Stakeholders.
  • Ajustar características y prioridades en cada iteración del producto.
  • Garantizar la calidad del producto entregado.
  • Conocer y comprender los indicadores de éxito del cliente, como NPS y CSAT.

Requerimientos:

  • Experiencia comprobada en metodología Agile; se valora tener certificación de PO (no excluyente).
  • Conocimientos en Excel, tablas dinámicas e idealmente SQL.
  • Dominio de MS Office y Google Docs.
  • Experiencia en herramientas como Whimsical, Notion y plataformas similares a Azure DevOps.
  • Dominio del idioma inglés.
  • Experiencia demostrable en equipos Scrum, así como en la entrega de resultados a través de gráficos de Burn Down y productividad.
  • Experiencia en la industria de la construcción será considerada un plus.
  • Conocimientos sobre sistemas de medición de NPS y CSAT.

Deseable:

Si cuentas con experiencia en la industria de la construcción, sería un gran aporte para nuestro equipo. Además, el conocimiento en sistemas de medición de la satisfacción, como NPS y CSAT, enriquecería tu perfil y contribuiría significativamente al éxito en el rol.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Mambu Champion
  • TCIT
Agile REST API SQL Scrum

Una de nuestras misiones en TCIT es descubrir y potenciar a los mejores talentos, por lo que te invitamos a ser parte de nuestro team!

Nuestro propósito es transformar digitalmente a distintas organizaciones a través de soluciones de calidad, sostenibles e innovadoras. Trabajamos con metodologías ágiles, utilizamos tecnologías de última generación y somos expertos en desarrollo de software en tecnologías Cloud.

Algunos de nuestros desarrollos son un sistema de gestión agrícola, un sistema de remates en línea, un sistema de gestión de las causas para los tribunales judiciales, un sistema para monitoreo de certificaciones para trabajadores mineros, un sistema de liquidaciones de sueldo y otras soluciones de gestión de empresas en ámbitos como transporte de carga y bodegaje, entre muchos otros.

Además, trabajamos en países como Canadá en ambiciosos proyectos con nuestros partners tecnológicos.

¡Súmate a la revolución digital TCIT!

This posting is original from the Get on Board platform.

¿Qué harás?

  • Liderar la implementación y configuración de Mambu según los requerimientos del negocio.
  • Diseñar soluciones específicas utilizando las capacidades de Mambu, asegurando la escalabilidad y sostenibilidad.
  • Colaborar con las áreas de negocio y tecnología para identificar necesidades y traducirlas en soluciones técnicas.
  • Participar en el levantamiento de requerimientos y diseñar flujos de trabajo adaptados a Mambu.
  • Planificar y coordinar proyectos relacionados con Mambu, asegurando el cumplimiento de plazos, alcance y presupuesto.
  • Monitorear avances y generar reportes para stakeholders.
  • Capacitar a los equipos internos y usuarios clave en el uso de Mambu.
  • Actuar como punto de contacto para consultas y resolución de problemas relacionados con la plataforma.
  • Supervisar la integración de Mambu con otros sistemas y plataformas utilizadas por la organización.
  • Coordinar con equipos de TI para asegurar una conectividad fluida y segura.

¿Cómo nos gustaría que fueras?

  • Título profesional en Ingeniería en Informática, Sistemas, Computación o carrera afín.
  • Experiencia mínima de 3-5 años en la implementación y gestión de Mambu
  • Experiencia en metodologías ágiles de gestión de proyectos (Scrum, Kanban).
  • Conocimientos demostrables en integraciones mediante APIs RESTful.
  • Sólida comprensión de la arquitectura de Mambu y su configuración.
  • Experiencia en herramientas de integración y middleware.
  • Conocimientos de bases de datos SQL y herramientas de monitoreo.
  • Excelentes habilidades de comunicación y liderazgo.
  • Capacidad para gestionar múltiples proyectos simultáneamente.
  • Orientación a resultados y resolución de problemas.
  • Adaptabilidad y capacidad para trabajar en entornos dinámicos.

Te amaríamos más si tuvieras/fueras:

  • Certificaciones relacionadas con Mambu u otras plataformas de core bancario.

Beneficios TCIT

🚇 Trabajarás 100% remoto: puedes trabajar 100% online, pero si quieres conocer a tu team, eres bienvenido en nuestras oficinas ubicadas a pasos del metro
🕒 Flexibilidad que se adapta a ti: Contamos con permisos flexibles para que tengas el equilibrio que necesitas.
🌴 ¡Más días de descanso! Disfruta de más días de vacaciones y recarga energías.
🎁 Beneficios increíbles: Accede a cientos de convenios y oportunidades con Caja de Compensación Los Andes y ACHS.
🎓 ¡Certifícate gratis! Somos Google Partners, y te damos acceso gratuito a certificaciones para que sigas creciendo.
🔧 Equipos y soporte técnico: ¡No te preocupes por las herramientas! Te entregamos un computador y cubrimos cualquier falla técnica.
Recarga energías: Contamos con una estación de cafetería para que siempre estés a gusto.
🎉 ¡Ven a compartir! Los asados y reuniones son parte de nuestra cultura; cualquier excusa es buena para celebrar.

Outdoors The premises have outdoor spaces such as parks or terraces.
Fully remote You can work from anywhere in the world.
Internal talks TCIT offers space for internal talks or presentations during working hours.
Meals provided TCIT provides free lunch and/or other kinds of meals.
Bicycle parking You can park your bicycle for free inside the premises.
Computer repairs TCIT covers some computer repair expenses.
Commuting stipend TCIT offers a stipend to cover some commuting costs.
Computer provided TCIT provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal TCIT gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero/a de Proyectos TI
  • CMPC
  • Santiago (Hybrid)
Agile Excel SQL SAP

MISIÓN DEL CARGO

La misión del cargo es liderar estratégicamente los proyectos de infraestructura TI, tanto en entornos OnPremise como en la nube, abarcando además aspectos clave de ciberseguridad y networking. Su responsabilidad incluye la planificación, ejecución y supervisión de iniciativas dentro de la unidad de Hosting & Cloud, asegurando el cumplimiento de los plazos, la calidad del servicio y la optimización de costos.

Find this job on getonbrd.com.

Funciones del cargo

  • Definir, revisar, estructurar, presentar, colaborar y planificar proyectos Onpremise y cloud en la unidad de Hosting & Cloud.
  • Asegurar la ejecución del plan de proyectos de la unidad Hosting & Cloud.
  • Actuar de interfaz entre las áreas internas de CMPC, proveedores y clientes internos durante la ejecución de proyectos.
  • Preparar y liderar las pruebas de aceptación de los proyectos y entrega a operaciones.
  • Mantenerse actualizado respecto a las tecnologías de su ámbito de acción.

Requerimientos del cargo

Formación:

  • Ingeniería en informática, industrial, en computación o carreras afines
  • Deseable diplomado en Infraestructura Cloud y/o Gerencia de Proyectos.

Experiencia:

  • 3 años o más el roles similares.

Conocimiento específico:

  • Metodologías ágiles (Scrum, Kanban, otras) y Cascada (PMI) para la gestión de proyectos; requerida: Experiencia, cursos y/o certificaciones. EXCLUYENTE
  • Conocimientos de servicios Cloud: GCP y Azure; experiencia, deseables cursos y/o certificaciones. EXCLUYENTE
  • Conocimientos de Sistemas Operativos: Windows, Unix (Linux,AiX, otros); experiencia, deseable cursos y/o certificaciones. EXCLUYENTE
  • Conocimiento de plataforma SAP; experiencia, deseables cursos y/o certificaciones. DESEABLE
  • Conocimiento de soluciones de virtualización (VMware, Hyper-V, GCE, GCVE, otros) tanto OnPremise como en nube; experiencia, deseable cursos y/o certificaciones. DESEABLE
  • Conocimientos en Motores de Base de Datos tradicionales y Cloud (SQL Server, Oracle, HANA, Cloud SQL, BigQuery, otros); experiencia, deseables cursos y/o certificaciones. DESEABLE
  • Conocimientos en comunicaciones: Switching, routers, Wifi, Firewall, etc. DESEABLE
  • Deseable manejo de productos para automatizar tareas: Ansible, app script, entre otros. DESEABLE

Experiencia:

  • Experiencia en la gestión de proyectos usando metodologías ágiles (Scrum, Kanban, otras) y Cascada (PMI). EXCLUYENTE
  • Experiencia en la gestión de costos, alcance, riesgos y tiempo en proyectos tecnológicos. EXCLUYENTE
  • Experiencia en la gestión de proyectos para la implantación de servicios de operación de infraestructura tecnológica On-Premise y Nube. EXCLUYENTE
  • Experiencia en la gestión de proyectos de infraestructura tecnológica SAP y No SAP, renovación y migración de plataformas On-Premise y Nube; Requerida: Experiencia, cursos y/o certificaciones. DESEABLE
  • Experiencia en la gestión de proyectos de Ciberseguridad, conocimiento de Servicios de Ciberseguridad de Infraestructura y networking, normativas y herramientas; Experiencia, cursos y/o certificaciones.Experiencia en la gestión de proyectos de Networking, conocimiento de Servicios de Networking OnPremise y Cloud; Experiencia, cursos y/o certificaciones. DESEABLE
  • Experiencia gestionando proyectos de implementación de soluciones de respaldos y recuperación, monitoreo, gestión de parches, entre otros. Requerida experiencia. EXCLUYENTE
  • Requerido manejo superior de herramientas ofimáticas y de proyectos: Project, Monday, Google docs, sheets, presentaciones, etc. EXCLUYENTE
  • Conocimiento generales servicios OT. DESEABLE

Conducir: Deseable licencia de conducir clase B al día.

Computación:

  • Manejo superior de herramientas ofimáticas y de proyectos: Project, Monday, Google docs, sheets, presentaciones, office: Word, Excel, PowerPoint, etc.

Condiciones

  • Contrato: Indefinido
  • Ubicación: Edificio Corporativo CMPC Santiago Centro.
  • Modalidad: 4 x1 (4 días presencial en oficina, 1 día online) / Disponibilidad de trabajo en terreno a plantas dentro de Chile y en el extranjero.

POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2500 Tiempo completo
Jefe de Proyecto
  • Genesys Tecnologías de Inform. SpA
Project Manager SQL Server Project Management Trello

En Genesys Tecnologías de Información SpA, una empresa con más de 30 años de experiencia en el mercado Latinoamericano, ofrecemos soluciones innovadoras en desarrollo de software y servicios TI. Apoyamos la transformación digital de las empresas utilizando tecnologías de última generación como Cloud, Data Analytics, Inteligencia Artificial y Automatización de Procesos.
Buscamos un profesional con sólida experiencia en la gestión de proyectos de implementación de software, deseable con conocimientos en el ámbito financiero. Este líder debe contar con conocimientos técnicos en herramientas de desarrollo y bases de datos, así como habilidades para manejar equipos diversos y coordinar proyectos complejos en entornos de alta exigencia.

Apply to this job at getonbrd.com.

Principales Responsabilidades

  • Gestión de Proyectos: Planificar, ejecutar y supervisar todas las fases del proyecto desde la concepción hasta la implementación, asegurando el cumplimiento de objetivos, calidad y tiempos establecidos.
  • Gestión de Equipos: Coordinar y supervisar a los equipos de desarrollo, pruebas y soporte. Garantizar un flujo de comunicación efectivo entre las partes interesadas internas y externas.
  • Supervisión Técnica: Proporcionar soporte y orientación técnica a los equipos de desarrollo, participando en la revisión y validación de arquitecturas y soluciones propuestas.
  • Gestión de Riesgos y Calidad: Identificar riesgos técnicos y operativos, implementando planes de mitigación y asegurando que el software cumpla con los estándares de calidad requeridos.

Descripción del Puesto

Buscamos un profesional con al menos 5 años de experiencia como Jefe de Proyecto en implementación de software, con antecedentes sólidos en proyectos de sistemas financieros o de gestión empresarial. El candidato ideal debe tener un historial de éxito en la entrega de proyectos, cumpliendo plazos y ajustándose a presupuestos. Además, se espera que posea conocimientos técnicos en herramientas de desarrollo y bases de datos, así como habilidades de liderazgo para manejar equipos diversos y coordinar proyectos complejos en entornos de alta exigencia.

Habilidades Deseables

Se valorarán conocimientos en Genexus, incluyendo desarrollo y mantenimiento de aplicaciones; así como experiencia en Visual Studio .NET para supervisar proyectos bajo esta plataforma. También, es deseable una sólida competencia en SQL Server, incluyendo diseño, gestión y optimización de bases de datos relacionales. La familiaridad con metodologías tradicionales de gestión de proyectos y enfoques ágiles es un plus. Por último, la experiencia con herramientas de gestión de proyectos como Microsoft Project, Trello, y conocimientos en plataformas de colaboración como SharePoint y Teams serán considerados.

Se Ofrece

Ofrecemos un tipo de contrato indefinido y la modalidad de trabajo es 100% remoto. Nuestro horario de oficina es de lunes a viernes, de 08:30 a 18:30 horas. Formar parte de Genesys significa ser parte de una organización en crecimiento que valora la innovación y el desarrollo profesional.

Health coverage Genesys Tecnologías de Inform. SpA pays or copays health insurance for employees.
Dental insurance Genesys Tecnologías de Inform. SpA pays or copays dental insurance for employees.
Computer provided Genesys Tecnologías de Inform. SpA provides a computer for your work.
Shopping discounts Genesys Tecnologías de Inform. SpA provides some discounts or deals in certain stores.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2500 Tiempo completo
UI Engineer
  • coderslab.io
JavaScript Ruby HTML5 CSS

At CodersLab, we are currently focused on expanding our teams globally with the goal of positioning our products in more countries across Latin America. That’s why we are looking for a UI Engineer—a motivated individual who is goal-oriented and driven to achieve results.

You will join a dynamic and ambitious team eager to transform the market, where your ideas and proposals will be highly valuable to the business.

Apply now and take on this amazing challenge!

Exclusive to Get on Board.

Job functions

POSITION OVERVIEW
This role is remote. Chairish Inc. is looking for a UI engineer to work on the team developing
our core commerce platform.
As a member of the core platform engineering team you will participate in all stages of the product
development lifecycle from business analysis, requirements development, and, of course, product
development. As a key driver of the product process, this role presents the opportunity to have a
direct and meaningful impact on the business while working to advance the innovation that drives
the home decor industry online at an ever fast pace.

Responsibilities
● Focus on the development and architecture of Chairish's web UI for both mobile and desktop
devices
● Develop and review technical designs and document them
● Participate in code reviews
● Automated unit test creation and manual testing of your code
● Work closely with product management, logistics, and production staff to manage product
scope and requirements
● Continue to be responsible for your code once it's in production

Qualifications and requirements

● At least 3 years of prior software development experience
● Bachelor's degree in Computer Science or a related field (or equivalent experience)
● You love HTML
● You have a deep understanding of CSS
● Strong Javascript skills
● Excellent verbal and written communication
● Natural problem-solver and troubleshooter
● One or more server side scripting languages (e.g. Python, Ruby, PHP, Javascript). We work
primarily in Python but it's easy enough to learn if you've got related experience.
● Comfortable working in a GNU Linux/Unix environment
● Familiarity with one or more relational databases (e.g. MySQL, Postgres, etc...) and solid
knowledge of SQL

Desirable skills

Bonus but not required
● Experience with LESSCSS
● Experience with jQuery, RequireJS, Webpack, Vue, or React
● Experience optimizing front-end performance

Conditions

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Machine Learning Engineer
  • Haystack News
  • Lima (Hybrid)
Python SQL NoSQL Big Data

Haystack News is the leader in transitioning younger audiences to a next-generation TV news product. We empower users to watch the news they care about with a personalized headline news channel. Our personalization and big data technology enable a seamless lean-back experience reaching millions of users. In 2020, we streamed billions of minutes of news to users around the globe.

We're available on a variety of TV platforms (Roku, Fire TV, Android TV, Apple TV, Chromecast, Vizio) as well as mobile, tablet, and desktop.

© getonbrd.com. All rights reserved.

Job functions

We are looking for an outstanding machine learning engineer to join Haystack and help improve the experience of millions of users that rely on Haystack to get the news every day.

Within the team you’ll find many opportunities to work on various aspects of Machine Learning and Data Engineering. The job offers the opportunity of generating a major impact on the product while working with an awesome and talented team, using the latest technologies.

You will:

  • Analyze large data sets to get insights using statistical analysis tools and techniques
  • Build, evaluate and deploy machine learning models
  • Maintain ongoing reliability, performance, and support of the data infrastructure, providing solutions based on application needs and anticipated growth.
  • Work with tools to configure, monitor and orchestrate data infrastructure and pipelines.
  • Run and monitor AB Tests
  • Build and manage APIs

Qualifications and requirements

  • Bachelor's degree in Computer Science, Statistics, Math or related field.
  • 3+ years experience writing software in a professional setting
  • Knowledge of AWS and Python
  • Strong Math/Stats background with statistical analysis experience on big data sets
  • Experience with SQL and NoSQL (e.g. MongoDb or DynamoDB)
  • Big Plus: Experience with data warehouses (e.g. Snowflake, Big Query, Redshift)
  • Exposure to ML/AI libraries such as sklearn, LightGBM and, XGBoost.
  • Travel Visa to the US (desired)

Conditions

Uber rides to come to the office!
Travel to team's offsite events
Learn about multiple technologies

Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Meals provided Haystack News provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Company retreats Team-building activities outside the premises.
Computer repairs Haystack News covers some computer repair expenses.
Commuting stipend Haystack News offers a stipend to cover some commuting costs.
Computer provided Haystack News provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Conference stipend Haystack News covers tickets and/or some expenses for conferences related to the position.
Informal dress code No dress code is enforced.
Vacation over legal Haystack News gives you paid vacations over the legal minimum.
Beverages and snacks Haystack News offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Machine Learning Engineer
  • NeuralWorks
  • Santiago (Hybrid)
Python Data Analysis SQL Big Data

NeuralWorks es una compañía de alto crecimiento fundada hace 3 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

© Get on Board. All rights reserved.

Descripción del trabajo

El equipo de Data y Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.

Trabajarás transformando los procesos a MLOps y creando productos de datos a la medida basados en modelos analíticos, en su gran mayoría de Machine Learning, pero pudiendo usar un espectro de técnicas más amplio.

Dentro del equipo multidisciplinario con Data Scientist, Translators, DevOps, Data Architect, tu rol será extremadamente importante y clave para el desarrollo y ejecución de los productos, pues eres quien conecta la habilitación y operación de los ambientes con el mundo real. Te encargarás de aumentar la velocidad de entrega, mejorar la calidad y la seguridad del código, entender la estructura de los datos y optimizar los procesos para el equipo de desarrollo.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Como MLE, tu trabajo consistirá en:

  • Trabajar directamente con el equipo de Data Scientists para poner en producción modelos de Machine Learning utilizando y creando pipelines de ML.
  • Recolección de grandes volúmenes y variados conjuntos de datos.
  • Recolección de interacción con la realidad para su posterior reentrenamiento.
  • Construir las piezas necesarias para servir nuestros modelos y ponerlos a interactuar con el resto de la compañía en un entorno real y altamente escalable.
  • Trabajar muy cerca de los Data Scientists buscando maneras eficientes de monitorear, operar y darle explicabilidad a los modelos.
  • Promover una cultura técnica impulsando los productos de datos con las prácticas DevSecOps, SRE y MLOps.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia práctica de al menos 3 años en entornos de trabajo como Software Engineer, ML Engineer, entre otros.
  • Experiencia con Python.
  • Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida optimización de consultas.
  • Experiencia usando pipelines de CI/CD y Docker.
  • Pasión en problemáticas de procesamiento de datos.
  • Experiencia con servidores cloud (GCP, AWS o Azure, de preferencia GCP), especialmente el conjunto de servicios de procesamiento de datos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.
  • Habilidades de comunicación y trabajo colaborativo.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” Gaucher, D., Friesen, J., & Kay, A. C. (2011).

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.
  • Stack orientado a modelos econométricos (statsmodels, pyfixest), serialización.
  • Experiencia con algún motor de datos distribuido como pyspark, dask, modin.
  • Interés en temas "bleeding edge" de Inferencia Causal: (Técnicas Observacionales, Inferencia basada en diseño, Probabilidad y Estadística [Fuerte énfasis en OLS y sus distintas expansiones]).

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Vestimenta informal
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Machine Learning Engineer IA Senior
  • Bci
  • Santiago (Temporarily remote)
Machine Learning LLMs APIs Agile Methodologies

La principal misión del cargo será desarrollar e implementar mediante metodologías ágiles de desarrollo de software de nuevos productos y servicios innovadores para la corporación BCI, con el propósito de hacerlos disponibles para nuestros clientes y colaboradores, contribuyendo a la generación de nuevos negocios, a la continuidad operacional del negocio, a la satisfacción del cliente y al cumplimiento de visión innovadora corporativa, asegurando la calidad, escalabilidad y time to market de las soluciones.

Exclusive offer from getonbrd.com.

En este rol tendrás la oportunidad de:

Diseñar soluciones tecnológicas end-to-end para proyectos que utilizan tecnologías de Gen AI. Reconocer y sistematizar los aprendizajes obtenidos en la implementación de los casos de uso en una metodología de trabajo end to end, que incluya desde la selección y tratamiento de las fuentes de datos no estructurados, su indexación, la construcción de las interacciones con los modelos, la evaluación de los resultados, las herramientas necesarias para su supervisión, entre otros. Evaluar el desempeño de los modelos de Gen AI en los casos de uso en construcción y en producción, definiendo métricas y estableciendo alternativas para lograr mejores resultados. Entender los modelos de costo asociados a los distintos proveedores de servicios de IA Generativa, permitiendo escalar los casos de uso con un costo eficiente y previsible. Dirigir el desarrollo de integraciones complejas y optimizadas con diversas APIs de LLMs, implementar estrategias avanzadas de fine-tuning, y utilizar frameworks como LangGraph para diseñar arquitecturas de agentes complejos y flujos de trabajo multi-agente altamente eficientes y mantenibles. Diseñar y desarrollar procesos y modelos de datos con la finalidad de proveer de data estructurada y no estructurada a las soluciones desarrolladas. Mantenerse a la vanguardia del ecosistema de Gen AI, liderando la evaluación y selección de modelos LLMs comerciales y Open Source, hyperscalers y proveedores de soluciones, con un enfoque estratégico en las alianzas del banco como Microsoft, Salesforce y Google, para identificar oportunidades de innovación y ventaja competitiva.

Requerimientos del cargo

Lidera el diseño, desarrollo y deployments de sistemas de machine learning, guiando e implementando casos de uso que generen impacto y estableciendo una metodología de trabajo que permita escalar la capacidad en forma gradual a las unidades de negocio y áreas habilitadoras del banco.

Para tener éxito en esta posición necesitas:

Ingeniería Civil (Computación, Industrial, Matemática, etc), Economía, o carreras afines (Magister en Data Science, Inteligencia Artificial, Tecnología, etc. para carreras no afines). Entre 4 a 6 años de experiencia en analytics, data science, machine learning y/o productos de datos. Desde 2 años de experiencia en desarrollo de soluciones de GenAI, incluyendo agentes, bots, o similares utilizando LLMs. Nivel avanzado en alguna de las siguientes herramientas como SPSS, Knime, Matlab, Machine Learning Studio, MLFlow, Kubeflow, Databricks, R, TensorFlow. Experiencia comprendiendo, utilizando y aplicando tecnologías de IA en contextos empresariales. Nivel avanzado en Python. Nivel avanzado en programación de datos con lenguajes como SQL, Spark, Scala, Hbase, MongoDB. Experiencia en Machine Learning, incluyendo elección de algoritmos, mejora de modelos (fine-tune), conversión de outputs, y visualización de insights.

Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Bci pays or copays health insurance for employees.
Computer provided Bci provides a computer for your work.
Fitness subsidies Bci offers stipends for sports or fitness programs.
POSTULAR VÍA WEB Ver trabajo
Gross salary $4000 - 5500 Tiempo completo
Sr. Full-Stack Data Scientist
  • TECLA
TECLA is a fully remote software development company with a diverse and highly skilled team of 100+ experts across Latin America. We specialize in AI, cloud, automation, and DevOps, building innovative solutions for high-growth startups and established mid-market technology companies in the U.S.
Our work culture is agile, collaborative, and fast-paced—we take our work seriously while keeping the environment fun and engaging. As a remote-first company, we emphasize strong teamwork and close collaboration, working seamlessly with our U.S. partners as one integrated unit. Whether optimizing cloud environments, developing AI-driven applications, or enhancing DevOps automation, TECLA is at the forefront of technical innovation, solving complex challenges with cutting-edge technology.

Job opportunity on getonbrd.com.

Job Details:

We are growing to the next level of maturity, having found early success and market validation. We are seeking a stellar Full-Stack Data Scientist to lead the development of data-driven features and insights that will shape our core product and elevate customer decision-making. The selected candidate will work directly with senior leadership and will own the machine learning and data roadmap, from problem definition to production deployment. If you have world-class data science skills, thrive in ambiguity, move fast, and are excited about building technology that makes a difference, this role is for you.

What You’ll Do:

  • Design and implement the ML, AI and data science solutions that power customer-facing features.
  • Own the full ML lifecycle, from data expiration and modelling to deployment and monitoring.
  • Translate customer problems into scalable, data-driven solutions.
  • Contribute to our overall data and ML infrastructure, including tooling and deployment pipelines.
  • Collaborate cross-functionally to ensure insights are delivered effectively and reliably.
  • Help define our data strategy.

What You Bring:

  • BS or MS in Data Science, Machine Learning, Computer Science, or a related field.
  • 5+ years of proven track record delivering ML/AI-driven products in commercial environments.
  • Expertise in both supervised and unsupervised learning techniques, including model selection, tuning, and evaluation.
  • Strong skills across machine learning, statistical modeling, and data engineering.
  • Experience working with LLMs for summarization, generation, and agentic workflows.
  • Experience shipping models to production, including deployment, monitoring, and versioning.
  • Proven ability to work independently in a fast-paced, ambiguous, early-stage environment.
  • Strong communication and interpersonal skills.

Bonus Points For:
  • Familiarity with MLOps.
  • Comfort working across backend infrastructure (e.g., Django, APIs, PostgreSQL).
  • Prior experience in Fintech.

Benefits:

  • A fully remote position with a structured schedule that supports work-life balance.
  • The opportunity to make a huge impact by contributing to cutting-edge technology and product innovation.
  • Two weeks of paid vacation per year.
  • 10 paid days for local holidays.
*Please note we are only looking for full-time dedicated team members who are eager to fully integrate within our team.

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer Inteligencia Artificial
  • Factor IT
Java Python SQL Web server
FactorIT es un líder en tecnología con presencia en 8 países y se dedica a ofrecer soluciones innovadoras en Data y Analytics, Transformación Digital e Inteligencia Artificial. Estamos buscando un profesional talentoso para unirse a nuestro equipo en el desarrollo de infraestructuras de datos específicas para proyectos de IA, lo que representa una gran oportunidad para participar en iniciativas desafiantes y significativas que tendrán un impacto en múltiples industrias.

Apply only from getonbrd.com.

Responsabilidades:

En esta función, el candidato será responsable de:
  • Desarrollar y optimizar pipelines de datos para modelos de IA.
  • Colaborar con arquitectos de datos y científicos de datos para construir soluciones escalables y eficientes.
  • Gestionar la integración y almacenamiento de grandes volúmenes de datos utilizando diversas herramientas y plataformas de IA.
  • Mejorar la calidad de los datos garantizando su adecuada preparación para el entrenamiento de modelos de Machine Learning.
  • Implementar procesos automatizados para la recolección y el procesamiento de datos.

Requisitos:

Buscamos a alguien que cumpla con las siguientes calificaciones:
  • Experiencia mínima de 4 años en ingeniería de datos con un énfasis en Inteligencia Artificial.
  • Conocimientos técnicos en herramientas de procesamiento de datos como Apache Spark, Kafka, Hadoop, entre otros.
  • Experiencia trabajando con grandes volúmenes de datos y tecnologías de almacenamiento en la nube.
  • Dominio de lenguajes de programación como Python, SQL y otros orientados a la manipulación de datos.
  • Conocimiento práctico en la implementación de Machine Learning y Deep Learning.

Deseable:

Experiencia en entornos de trabajo ágil y capacidad para gestionar múltiples proyectos simultáneamente. La pasión por la innovación y el deseo de aprendizaje continuo son altamente valorados.

Ofrecemos:

En FactorIT, promovemos un entorno dinámico y de innovación tecnológica. Ofrecemos:
  • Capacitación continua en tecnologías emergentes, especialmente en IA.
  • Flexibilidad y opción de trabajo remoto, permitiendo un mejor balance entre la vida personal y laboral.
  • Oportunidades de crecimiento profesional en un ambiente inclusivo que valora la creatividad y el trabajo en equipo.
¡Si eres un experto en ingeniería de datos con pasión por la Inteligencia Artificial, te estamos esperando! 🚀

Fully remote You can work from anywhere in the world.
Computer provided Factor IT provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Jefe Planning & Actuarial Performance
  • BNP Paribas Cardif
  • Santiago (In-office)
Python Data Analysis Excel SQL

¿Quieres ser parte de los líderes en la revolución de los seguros?

BNP Paribas Cardif está presente en más de 30 países en América, Europa y Asia, contamos con 25 años de trayectoria en Chile y nuestra misión es hacer los seguros más accesibles, justos y valiosos.

✅ Por nuestro ambiente laboral único, somos una organización centrada en el bienestar de las personas y nuestro espíritu Cardif.
✅ Porque el deporte y sus valores son parte de nuestra cultura: la colaboración, la empatía y el respeto guían nuestro trabajo.
✅ Por la cercanía con nuestros líderes, somos una organización que cree en el talento y damos las oportunidades para desarrollarte y aprender juntos.
✅ Por nuestro modelo de trabajo mixto, teletrabajando tres días a la semana.
✅ Estamos comprometidos con el medio ambiente.
✅ Estamos comprometidos con la diversidad, equidad e inclusión.
✅Nos encontramos entre los top 20 "Mejores lugares para trabajar en Chile" (contamos con certificación de GPTW).

Exclusive offer from getonbrd.com.

Job functions

Hoy en BNP Paribas Cardif buscamos a un Jefe de Planning & Actuarial Perfomance que se sume al equipo de Técnica y Financiera, donde tú misión será ser responsable de desarrollar y mejorar los modelos de evaluación y proyección de resultados de los distintos productos de la compañía, de forma tal que los mismos sean un input no solo para el presupuesto de la compañía sino también para otros estudios y reportes técnicos.

¿Cuáles son los principales desafíos del cargo?

· Desarrollar y mejorar los modelos de evaluación y herramientas de cálculo.

· Analizar la rentabilidad de la cartera de productos con el nivel de detalle requerido a fin de garantizar una adecuada proyección del portafolio.

· Garantizar que la metología utilizada para la proyección refleja el real comportamiento del negocio y que la misma se apega a los estándares actuariales del grupo.

· Explicar y comunicar de forma clara los desvíos entre lo obvervado y lo proyectado.

· Entregar a la alta gerencia las herramientas y los informes necesarios para la toma de decisiones.

· Gestionar y analizar los datos de la compañía con el fin de abordar distintas problemáticas actuariales que permitan apoyar el proceso de transformación.

· Seguimiento, estudio y control de los riesgos que enfrenta cada cartera de productos.

· Participar activamente en proyectos transversales tanto a la gerencia técnica como a nivel compañía, aportando desde el punto de vista técnico y financiero.

· Buscar la mejora continua los procesos y procedimientos del área, buscando la agilidad y perfeccionamiento de las metodologías de cálculo.

¿Cómo saber si hago match con esta vacante?

Buscamos a alguien que:

Formación:

Profesional universitario, título en Actuariado, Estádística, Matemática o afines.

Experiencia Requerida:

Mínimo 5 años de experiencia en áreas de Actuariado o afines, ya sea en cálculo de reservas, tarificación o modelación estadística del riesgo.

Desirable skills

Conocimientos y Habilidades:

  • Manejo de MS Office, nivel avanzado, especialmente Excel
  • Manejo intermedio en bases de datos y de programación en SQL, SAS , PHYTHON y/o R excluyente.
  • Deseable: manejo de software actuarial (desarrollo de siniestros)
  • Manejo de inglés intermedio
  • Alta capacidad de síntesis y análisis
  • Rigurosidad técnica

Conditions

¿Te sumas a la revolución de la industria del seguro?

Esperamos tu postulación ¡seguro y con todo!

“Todas las contrataciones están sujetas a la ley 21015. En BNP Paribas Cardif creemos en lugares de trabajos inclusivos y diversos, donde todas las personas son bienvenidas. En caso de necesitar adaptaciones para ser parte de nuestro proceso de selección, favor comunicarlo en la sección de preguntas.”

Accessible An infrastructure adequate for people with special mobility needs.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage BNP Paribas Cardif pays or copays health insurance for employees.
Computer provided BNP Paribas Cardif provides a computer for your work.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Vacation over legal BNP Paribas Cardif gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
Parental leave over legal BNP Paribas Cardif offers paid parental leave over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Analista de Datos BI
  • S3 Groups
  • 🇨🇱 Chile - Remoto 🌎
Full Time Programación Plataformas proyectos

$1,200.00/mo - $1,700.00/mo

S3 Chile es una empresa líder en la entrega de servicios de outsourcing especializada en procesos de negocio. Nuestro enfoque está en brindar soluciones integrales que permiten a nuestros clientes optimizar sus operaciones a través de la gestión eficiente de datos y análisis avanzado. El equipo de análisis de datos juega un rol fundamental, colaborando con diversas áreas como marketing, ventas y negocios para impulsar estrategias basadas en inteligencia analítica. Nuestra misión es ofrecer un entorno de aprendizaje continuo y profesionalización en consonancia con las últimas tendencias tecnológicas, fomentando el crecimiento tanto del equipo como de la organización. Ser parte de S3 Chile significa contribuir directamente al éxito de grandes clientes mediante innovación y manejo experto de datos.

Responsabilidades principales

  • Análisis de datos: Recopilar, limpiar y analizar grandes volúmenes de datos provenientes de diversas fuentes para identificar tendencias, patrones y oportunidades de mejora.
  • Desarrollo de modelos predictivos y estadísticos: Diseñar y construir modelos estadísticos y algoritmos para predecir resultados, evaluar riesgos y optimizar procesos empresariales.
  • Visualización de datos: Crear visualizaciones claras e impactantes mediante herramientas como Tableau y Power BI para comunicar hallazgos de manera efectiva a las partes interesadas.
  • Elaboración de informes y presentaciones: Preparar reportes detallados y presentaciones ejecutivas que resuman insights clave y recomendaciones prácticas para equipos ejecutivos y operativos.
  • Colaboración interdisciplinaria: Trabajar estrechamente con equipos de negocio, marketing, ventas y tecnología para definir requerimientos, validar hipótesis y co-crear soluciones basadas en datos.

Habilidades y competencias requeridas

  • Conocimientos en estadística y matemáticas: Dominio de conceptos avanzados como regresión, correlación, análisis de varianza (ANOVA) y otras técnicas estadísticas aplicadas.
  • Programación: Experiencia sólida en lenguajes como Python, R y SQL para manipulación de datos, construcción de modelos y automatización de procesos.
  • Manejo de herramientas analíticas: Capacidad para utilizar herramientas como Excel avanzado, Tableau, Power BI y otras plataformas de visualización y análisis.
  • Bases de datos: Conocimiento práctico en gestión y consultas sobre bases de datos relacionales como MySQL y PostgreSQL.
  • Plataformas de análisis digital: Familiaridad con Google Analytics, Mixpanel y otras herramientas para análisis de comportamiento en entornos digitales.
  • Pensamiento crítico y resolución de problemas: Aptitud para examinar situaciones complejas, identificar causas raíz y generar soluciones innovadoras y eficientes.
  • Comunicación efectiva: Habilidad para explicar conceptos técnicos complejos en un lenguaje claro, adaptado a diferentes audiencias, facilitando la toma de decisiones basadas en datos.

Requisitos Académicos y Experiencia

  • Título universitario en Ingeniería Comercial, Ingeniería Civil, Estadística, Matemáticas, Ciencias de la Computación o áreas afines.
  • Experiencia mínima de 2 a 3 años en análisis de datos o roles relacionados, preferiblemente en entornos empresariales.
  • Certificaciones profesionales como Certified Data Analyst (CDA) o Certified Analytics Professional (CAP) serán consideradas un plus significativo.

Habilidades y conocimientos deseables

  • Experiencia en manejo de grandes volúmenes de datos (Big Data) y conocimiento de herramientas o frameworks asociados.
  • Conocimiento en técnicas de machine learning y su aplicación práctica en modelos predictivos.
  • Familiaridad con metodologías ágiles de trabajo y gestión de proyectos.
  • Experiencia previa trabajando en equipos multidisciplinarios y en ambientes dinámicos.
  • Habilidades avanzadas en storytelling con datos para mejorar la comunicación visual y estratégica.

Lo que ofrecemos

Renta competitiva acorde al mercado.

Oportunidades reales de desarrollo profesional dentro de la empresa.

Beneficios corporativos que incluyen programas de bienestar y capacitaciones continuas.

Un equipo comprometido que promueve un entorno de aprendizaje constante alineado con los nuevos avances tecnológicos.

Entorno colaborativo, flexible y remoto, alineado con las necesidades actuales del mercado laboral en Chile.

Las Condes, Santiago Metropolitan Region, Chile 1 week ago

Las Condes, Santiago Metropolitan Region, Chile 2 months ago

Las Condes, Santiago Metropolitan Region, Chile 4 days ago

Analista de Datos Senior - Trabajo Remoto | REF#251560

Las Condes, Santiago Metropolitan Region, Chile 3 days ago

Las Condes, Santiago Metropolitan Region, Chile 3 months ago

Las Condes, Santiago Metropolitan Region, Chile 8 months ago

Analista Riesgo Operacional y Continuidad de Negocio

Programa de Pasantías - Analista de Negocios

Las Condes, Santiago Metropolitan Region, Chile 1 week ago

Las Condes, Santiago Metropolitan Region, Chile 5 days ago

#J-18808-Ljbffr
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Product Manager
  • Times Colonist (Victoria)
  • Remoto 🌎
Full Time SQL herramientas de A/B Testing plataformas de UX research herramientas de debugging análisis de funnels

¿Querés trabajar en una plataforma de juegos de mesa digitales con millones de jugadores? En Colonist, estamos buscando una persona apasionada por la experiencia del usuario, los datos y la mejora continua para liderar nuestra estrategia de producto.

💼 Sobre el rol:

Como Product Manager, vas a tener impacto directo en la experiencia de millones de usuarios, trabajando en mejoras de onboarding, retención y finalización de partidas tanto en versión web como mobile. Vas a traducir insights de jugadores en soluciones escalables, simples y divertidas, todo dentro de un entorno asíncrono y colaborativo.

🧩 Responsabilidades:

  • Mejorar los funnels de activación detectando puntos de abandono y aplicando A/B testing.
  • Investigar problemas del producto en mobile usando feedback, reportes de errores y datos de comportamiento.
  • Realizar entrevistas, playtests y análisis cualitativo con jugadores.
  • Priorizar y definir el alcance de nuevas funcionalidades.
  • Aumentar el porcentaje de partidas completadas mediante iteraciones de diseño.
  • Mejorar el onboarding, landing pages y funciones impulsadas por la comunidad.
  • Colaborar de forma asíncrona con founders, diseñadores y desarrolladores.

Requisitos:

  • +7 años de experiencia en roles de Product Management (idealmente en gaming).
  • Dominio de análisis de funnels, A/B testing y segmentación de usuarios.
  • Experiencia en entrevistas a usuarios y playtesting.
  • Conocimiento profundo de desarrollo de productos mobile y mejores prácticas UX.
  • Comunicación escrita clara y estructurada (fundamental en entornos asíncronos).
  • Conocimientos de SQL (joins, group by, etc.).
  • Capacidad para priorizar, dividir tareas complejas y entregar mejoras rápidamente.
  • Comprensión de diseño de juegos y comportamiento de jugadores.

💡 Plus (no excluyentes):

  • Experiencia usando herramientas de debugging y crash reports.
  • Conocimientos sobre chatbots con IA.
  • Capacidad para leer código.
  • Experiencia en moderación de foros o soporte a la comunidad.

🏆 Lo que valoramos en Colonist:

  • Responsabilidad sin supervisión constante.
  • Mentalidad de ownership.
  • Comunicación clara y directa.
  • Ejecución eficiente sin complicaciones.
  • Curiosidad y aprendizaje continuo.

💸 Beneficios y compensación:

  • Salario competitivo en USD.
  • Stock options 💰
  • Trabajo remoto 100% y horario flexible.
  • Vacaciones ilimitadas 🏖️
  • Equipo de trabajo incluido.
  • Impacto real en millones de jugadores y crecimiento profesional acelerado 🚀

Si te apasiona crear productos que la gente ama, y querés trabajar con autonomía, impacto y un equipo global, este es tu lugar. ✨

📍Ubicación: Remoto desde cualquier país

🕓Horario: Asíncrono

  • 💰Salario: Competitivo + Stock Options
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Product Manager
  • Times Colonist (Victoria)
  • Remoto 🌎
Full Time SQL herramientas de A/B Testing plataformas de UX research herramientas de debugging análisis de funnels

¿Querés trabajar en una plataforma de juegos de mesa digitales con millones de jugadores? En Colonist, estamos buscando una persona apasionada por la experiencia del usuario, los datos y la mejora continua para liderar nuestra estrategia de producto.

💼 Sobre el rol:

Como Product Manager, vas a tener impacto directo en la experiencia de millones de usuarios, trabajando en mejoras de onboarding, retención y finalización de partidas tanto en versión web como mobile. Vas a traducir insights de jugadores en soluciones escalables, simples y divertidas, todo dentro de un entorno asíncrono y colaborativo.

🧩 Responsabilidades:

  • Mejorar los funnels de activación detectando puntos de abandono y aplicando A/B testing.
  • Investigar problemas del producto en mobile usando feedback, reportes de errores y datos de comportamiento.
  • Realizar entrevistas, playtests y análisis cualitativo con jugadores.
  • Priorizar y definir el alcance de nuevas funcionalidades.
  • Aumentar el porcentaje de partidas completadas mediante iteraciones de diseño.
  • Mejorar el onboarding, landing pages y funciones impulsadas por la comunidad.
  • Colaborar de forma asíncrona con founders, diseñadores y desarrolladores.

Requisitos:

  • +7 años de experiencia en roles de Product Management (idealmente en gaming).
  • Dominio de análisis de funnels, A/B testing y segmentación de usuarios.
  • Experiencia en entrevistas a usuarios y playtesting.
  • Conocimiento profundo de desarrollo de productos mobile y mejores prácticas UX.
  • Comunicación escrita clara y estructurada (fundamental en entornos asíncronos).
  • Conocimientos de SQL (joins, group by, etc.).
  • Capacidad para priorizar, dividir tareas complejas y entregar mejoras rápidamente.
  • Comprensión de diseño de juegos y comportamiento de jugadores.

💡 Plus (no excluyentes):

  • Experiencia usando herramientas de debugging y crash reports.
  • Conocimientos sobre chatbots con IA.
  • Capacidad para leer código.
  • Experiencia en moderación de foros o soporte a la comunidad.

🏆 Lo que valoramos en Colonist:

  • Responsabilidad sin supervisión constante.
  • Mentalidad de ownership.
  • Comunicación clara y directa.
  • Ejecución eficiente sin complicaciones.
  • Curiosidad y aprendizaje continuo.

💸 Beneficios y compensación:

  • Salario competitivo en USD.
  • Stock options 💰
  • Trabajo remoto 100% y horario flexible.
  • Vacaciones ilimitadas 🏖️
  • Equipo de trabajo incluido.
  • Impacto real en millones de jugadores y crecimiento profesional acelerado 🚀

Si te apasiona crear productos que la gente ama, y querés trabajar con autonomía, impacto y un equipo global, este es tu lugar. ✨

📍Ubicación: Remoto desde cualquier país

🕓Horario: Asíncrono

  • 💰Salario: Competitivo + Stock Options
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Scientist
  • Divelement Web Services
  • Remoto 🌎
Full Time Python SciPy NumPy OpenCV Git

Ubicación: Remoto

Tipo de empleo: Tiempo completo

Departamento: Desarrollo de Software

Divelement Web Services está buscando un/a Data Scientist apasionado/a por crear soluciones científicas de vanguardia. Esta posición te permitirá colaborar con investigadores para diseñar, desarrollar y optimizar herramientas computacionales que impulsen descubrimientos científicos. Vas a implementar algoritmos complejos, optimizar el rendimiento y asegurar la reproducibilidad de los análisis computacionales.


🚀 ¿Cómo trabajamos?

Somos un equipo remoto, multifuncional y orientado a la calidad, con un enfoque ágil y colaborativo:

  • ✅ Commits diarios para iteraciones rápidas y mejora continua.
  • ✅ Resolución autónoma de problemas, priorizando la acción.
  • ✅ Feedback honesto y constructivo.
  • ✅ Ciclos cortos de desarrollo incremental.

🔬 ¿Quién sos?

  • Tenés una base sólida en programación y computación científica.
  • Te entusiasma trabajar con científicos en entornos de investigación.
  • Disfrutás implementar y documentar algoritmos complejos.
  • Te desenvolvés bien en contextos remotos, dinámicos y con autonomía.
  • Mantenés curiosidad por las tecnologías emergentes en computación científica.

🛠️ Responsabilidades

  • Diseñar y mantener aplicaciones científicas y pipelines de análisis de datos.
  • Traducir objetivos científicos en soluciones computacionales.
  • Implementar y optimizar algoritmos para simulaciones, análisis y modelado estadístico.
  • Garantizar el rendimiento, escalabilidad y reproducibilidad.
  • Documentar código y generar guías de uso.
  • Resolver errores complejos en entornos científicos.
  • Mantenerse actualizado/a en lenguajes y frameworks relevantes.

🎯 Requisitos

  • ✅ Título en Ciencias de la Computación, Ciencias Computacionales o similar (se prefiere Maestría o PhD en Física).
  • ✅ +5 años de experiencia programando en entornos científicos (Python, SciPy, NumPy, OpenCV).
  • ✅ Manejo de librerías y frameworks de computación científica.
  • ✅ Experiencia con Git y buenas prácticas de desarrollo.
  • ✅ Habilidad demostrada para implementar algoritmos científicos.
  • ✅ Conocimiento de visualización de datos.
  • ✅ Atención al detalle y capacidad de resolución.

💡 Plus (Nice to Have)

  • ➕ Experiencia en entornos de computación de alto rendimiento (HPC).
  • ➕ Conocimiento de frameworks de machine learning.
  • ➕ Experiencia con plataformas cloud (AWS, Azure o GCP).
  • ➕ Background en áreas científicas específicas (bioinformática, química computacional, física).
  • ➕ Contribuciones a proyectos open source científicos.
  • ➕ Conocimientos en gestión de bases de datos y SQL.

🌍 Beneficios

  • 💰 Salario en USD.
  • 🌐 Trabajo 100% remoto.
  • 🚀 Proyectos impactantes en ciencia y tecnología.
  • 📈 Oportunidades de crecimiento profesional.
  • 🤝 Entorno ágil y colaborativo.
  • 🎉 Actividades virtuales con el equipo.

📩 ¿Te interesa?

Si te motiva desarrollar herramientas computacionales para la investigación, ¡postulate y sumate al equipo de Divelement!

POSTULAR VÍA WEB Ver trabajo
Gross salary $3500 - 5000 Tiempo completo
Software Development Engineer in Test (SDET) CI/CD
  • Agility IO
JavaScript Python PHP Git

Agility IO is a software development firm that designs and builds custom applications for startups and Fortune 500 companies. We are a global team of over 400 developers, QA engineers, project managers, and UX/UI designers with offices in New York City and Vietnam.

We’re seeking a proactive SDET to help elevate our software quality through automated testing, tooling, and best practices. You’ll contribute to test automation, integration testing, observability, and CI/CD to ensure robust, reliable systems.

This job offer is available on Get on Board.

Job Responsibilities

  • Design and maintain automated test suites for web and API layers using tools such as Playwright, Jest, and Supertest.
  • Implement and manage behavior-driven testing with Cucumber and Gherkin.
  • Develop test cases and mocking strategies using Jest Mocks, Sinon, or Axios Mock Adapter.
  • Conduct comprehensive API testing utilizing Postman, Newman, and REST-assured.
  • Monitor system logs and performance metrics with Application Insights, Splunk, and similar tools.
  • Validate authentication flows, including machine-to-machine (m2m) scenarios.
  • Collaborate closely with developers and DevOps teams to integrate automated tests within CI/CD pipelines using GitHub Actions and containerized environments like Docker.
  • Ensure test environments are scalable, observable, and aligned with modern microservices architectures.

Qualifications & Experience

  • Proficiency in JavaScript, TypeScript, and experience with Python; familiarity with PHP is a plus.
  • Hands-on experience with modern testing tools including Jest, React Testing Library, Mocha, and Pytest.
  • Experience with E2E testing tools such as Playwright, Puppeteer, Selenium, or Cypress.
  • Familiarity with containerization and cloud platforms, especially Docker, AWS, and/or GCP.
  • Working knowledge of SQL databases and ORM tools.
  • Comfortable using Git and participating in code review processes, with an understanding of code coverage and test structure best practices.
  • Strong English communication skills are required to effectively collaborate with both clients and internal teams, and to successfully meet project goals.

Preferred Qualifications

  • Experience defining and implementing test strategies for scalable web applications.
  • Exposure to microservices architecture and distributed system observability.
  • Experience with telemetry and performance monitoring tools such as Application Insights and Splunk.
  • Familiarity with complex authentication workflows, including machine-to-machine (m2m) authentication.
  • Strong collaboration and communication skills within Agile environments.

What We Offer

  • Competitive salary and performance-based bonuses.
  • Remote work arrangements allowing flexibility.
  • Career development opportunities and mentorship programs.
  • A collaborative and forward-thinking team culture committed to innovation and excellence.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1100 - 1400 Tiempo completo
Administrador de Bases de Datos (DBA) Controller Call Center
  • S3 Chile
  • Santiago (In-office)
Data Analysis Excel SQL Business Intelligence

S3 Chile es una empresa especializada en la entrega de servicios de Outsourcing enfocados en los procesos de negocios de sus clientes, con una fuerte presencia en la gestión de operaciones relacionadas con el área de Contact Centers y análisis de datos. El equipo está comprometido con la innovación tecnológica y la mejora continua, apoyando a sus clientes mediante soluciones de análisis de datos y reportes que optimizan la operación de campañas y segmentaciones dentro del entorno de call centers, utilizando herramientas avanzadas de Business Intelligence y administración de bases de datos.

Apply to this job at getonbrd.com.

Responsabilidades

  • Diseñar, desarrollar y mantener reportes y dashboards que faciliten la visualización y toma de decisiones para las operaciones del call center.
  • Gestionar bases de datos y segmentaciones, asegurando la integridad, disponibilidad y actualización oportuna de la información.
  • Analizar grandes volúmenes de datos para detectar oportunidades de mejora en los procesos y campañas, aportando con insights basados en datos reales.
  • Colaborar estrechamente con el equipo de Business Intelligence para optimizar procesos, mejorar la calidad de la información y automatizar tareas relacionadas con el análisis y la generación de reportes.

Requisitos

Buscamos un profesional con formación en Ingeniería o carreras afines, que cuente con experiencia en Business Intelligence o análisis de datos, idealmente en entornos de Contact Centers. Es imprescindible un manejo avanzado de SQL para administrar y consultar bases de datos complejas, así como experiencia con herramientas de visualización de datos como Power BI o similares. El candidato debe contar con conocimientos avanzados de Excel para procesamiento y análisis de información.

Además, se valorará experiencia previa o conocimiento en Genesys Cloud, una plataforma líder en gestión de centros de contacto, lo que facilitará la integración y administración de las campañas vía base de datos.

Las habilidades blandas incluyen capacidad analítica, orientación al detalle, trabajo colaborativo, proactividad en la mejora continua y una actitud hacia el aprendizaje constante de nuevas tecnologías.

Deseable

Se valorará positivamente experiencia específica en administración y optimización de campañas en call centers, conocimiento en otras plataformas de gestión de centros de contacto, y habilidades en programación para automatización de reportes o tareas analíticas (por ejemplo, Python o R). También es deseable experiencia en diseño de dashboards interactivos y manejo de grandes volúmenes de datos.

Lo que ofrecemos

💼 Renta competitiva acorde al mercado.
📈 Oportunidades reales de desarrollo profesional dentro de la empresa.
🎁 Beneficios corporativos.
👥 Un equipo comprometido y un entorno de aprendizaje continuo, en línea con los nuevos desarrollos tecnológicos.En S3 Chile fomentamos una cultura orientada a datos y mejora continua, con foco en la innovación y crecimiento profesional constante. Formarás parte de un equipo que valora el trabajo colaborativo y la actualización permanente de sus conocimientos.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
QA Funcional Senior
  • 2BRAINS
  • Santiago (Hybrid)
Excel SQL QA Jira
2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.
Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.
En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

Find this vacancy on Get on Board.

¿Cuáles son las funciones del QA Funcional?

Estamos en búsqueda de un/a QA Funcional con experiencia en certificación de soluciones tecnológicas para sumarse a un equipo que trabaja en proyectos clave de alto impacto. Buscamos personas comprometidas con la calidad, detallistas y orientadas a la mejora continua.

  • 📍 Modalidad de trabajo: Híbrida (remoto con instancias presenciales coordinadas según necesidad del proyecto)

Funciones:

  • Ejecutar actividades de certificación funcional en distintas iniciativas tecnológicas.
  • Revisar y comprender los requisitos funcionales entregados por el equipo de análisis.
  • Diseñar la estrategia de pruebas funcionales y elaborar planos de prueba considerando los criterios de aceptación.
  • Ejecutar casos de uso y registrar resultados con documentación clara y trazable.
  • Detectar, registrar, hacer seguimiento y gestionar el cierre de defectos encontrados durante las pruebas.
  • Apoyar en pruebas de regresión y validación de flujos críticos antes de la puesta en producción.
  • Analizar y reproducir incidencias, confirmando condiciones y pasos para facilitar el diagnóstico técnico.
  • Validar correcciones aplicadas mediante pruebas específicas, asegurando que no se generen efectos colaterales.
  • Coordinador con los equipos de análisis, desarrollo, QA técnico y usuarios clave para asegurar un flujo de certificación continuo.
  • Mantener actualizado un tablero de certificación con métricas clave: cobertura de pruebas, estado de ejecución, errores detectados, etc.
  • Consolidar semanalmente entregables como planos de prueba, evidencias, aprobaciones formales y documentación técnica del proceso de validación.

¿Qué conocimientos buscamos en el/la QA Funcional?

  • Al menos 3 años de experiencia en QA funcional o aseguramiento de calidad en proyectos tecnológicos.
  • Manejo sólido de herramientas ofimáticas (Excel, Word).
  • Dominio de Jira como herramienta de gestión de incidencias.
  • Conocimientos en bases de datos relacionales y capacidad para realizar consultas en SQL .
  • Experiencia generando documentación clara, estructurada y alineada con estándares técnicos.
  • Deseable experiencia en industrias financieras, previsionales o seguridad social (ej. AFP, cajas de compensación, IPS).

¿Qué competencias buscamos en/la QA Funcional?

  • Atención al detalle y orientación a la calidad.
  • Capacidad analítica y pensamiento estructurado.
  • Habilidad para trabajar de forma autónoma y organizada.
  • Comunicación efectiva con equipos funcionales y técnicos.
  • Proactividad y compromiso con la mejora continua.
  • Adaptabilidad a entornos colaborativos y normativos.

Te ofrecemos

  • Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos.
  • Acceso a grandes clientes y proyectos desafiantes.
  • Aprendizaje y crecimiento permanente, organizamos encuentros, capacitaciones y actividades culturales.
  • Un entorno de trabajo flexible y dinámico.
  • Beneficios especiales: un día libre de regalo por tu cumpleaños, días de descanso (previa coordinación), convenios para cursos de especialización, asignación por internet y uso del computador.

Outdoors The premises have outdoor spaces such as parks or terraces.
Wellness program 2BRAINS offers or subsidies mental and/or physical health activities.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks 2BRAINS offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Health coverage 2BRAINS pays or copays health insurance for employees.
Computer provided 2BRAINS provides a computer for your work.
Education stipend 2BRAINS covers some educational expenses related to the position.
Informal dress code No dress code is enforced.
Shopping discounts 2BRAINS provides some discounts or deals in certain stores.
Vacation over legal 2BRAINS gives you paid vacations over the legal minimum.
Beverages and snacks 2BRAINS offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Administrador de Base de Datos
  • Zerviz Technologies
  • Santiago (Hybrid)
MySQL Oracle Azure SQL Server
En ZerviZ innovamos e implementamos proyectos de transformación digital con la mejor tecnología, acompañando a nuestros clientes desde el diseño hasta la implementación ágil y personalizada de soluciones tecnológicas. Desde 2017, hemos transformado procesos en diversas industrias y países de América Latina, posicionándonos como especialistas en tecnología y experiencia de cliente. Con más de 150 proyectos en 16 países, apoyamos la optimización operativa, atención, servicio y gestión a través de desarrollos a medida y soluciones innovadoras.

Apply directly at getonbrd.com.

Funciones

  • Administración de bases de datos en SQL Server y MySQL (excluyente), Oracle (no excluyente).
  • Monitoreo del rendimiento, realización de respaldos y tuning.
  • Gestión de múltiples entornos: desarrollo, testing, staging y producción.
  • Administración de accesos, roles y permisos a nivel base de datos y servidor.
  • Implementación de políticas de auditoría y cumplimiento normativo.
  • Monitoreo del uso de CPU, memoria, disco y tiempos de respuesta de bases de datos.
  • Revisión y optimización de scripts.
  • Conocimiento en Azure y AWS será valorado pero no excluyente.

Descripción

Buscamos un DBA con experiencia sólida en la administración de bases de datos SQL Server y MySQL, con capacidad para gestionar múltiples entornos y asegurar la disponibilidad y rendimiento óptimo de las plataformas. Es fundamental tener conocimientos en configuración de roles, permisos y auditorías para garantizar la seguridad y cumplimiento en las bases de datos.
Se valoran habilidades analíticas para el monitoreo del desempeño, resolución de problemas y optimización (tuning). La proactividad, atención al detalle y responsabilidad serán claves para la correcta ejecución de las tareas. Se requiere conocimientos básicos o intermedios en la nube, especialmente Azure y AWS, que permitan futuras integraciones o migraciones.
El puesto demanda trabajar en modalidad híbrida (3 días presencial, 2 remoto), valorando la adaptabilidad y capacidad de trabajo en equipo en entornos colaborativos.

Deseable

Conocimientos en Oracle para soporte secundario o complementario.
Experiencia en ambientes de alta disponibilidad y recuperación ante desastres.
Familiaridad con herramientas de monitoreo en la nube y automatización de tareas.
Certificaciones relacionadas con bases de datos o plataformas cloud.

Beneficios

Ofrecemos un ambiente laboral colaborativo y enriquecedor, ideal para tu desarrollo profesional continuo. Puedes disfrutar de flexibilidad laboral y la oportunidad de trabajar en proyectos internacionales, lo que te brindará una vasta experiencia en el ámbito digital.
En ZerviZ, fomentamos un ambiente diverso e inclusivo donde la creatividad y la innovación son fundamentales.
Apoyamos tu crecimiento profesional y confiamos en tu capacidad para marcar la diferencia en nuestros proyectos.
Modalidad de trabajo híbrida 3x2, con un sueldo líquido de $2.200.000 CLP.

Wellness program Zerviz Technologies offers or subsidies mental and/or physical health activities.
Relocation offered If you are moving in from another country, Zerviz Technologies helps you with your relocation.
Partially remote You can work from your home some days a week.
Health coverage Zerviz Technologies pays or copays health insurance for employees.
Mobile phone provided Zerviz Technologies provides a mobile phone for work use.
Computer provided Zerviz Technologies provides a computer for your work.
Informal dress code No dress code is enforced.
Beverages and snacks Zerviz Technologies offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Cloud/DevOps Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Python NoSQL DevOps Virtualization
En BC Tecnología somos una consultora de IT con amplia experiencia en diversas áreas tecnológicas, trabajando para clientes de sectores financieros, seguros, retail y gobierno. Nuestro enfoque está en el diseño y desarrollo de soluciones, administración de portafolios y outsourcing de profesionales, siempre bajo metodologías ágiles y con un fuerte alineamiento con las necesidades de los clientes. Este proyecto en particular tiene una duración inicial de 6 meses con posibilidad de extensión, y se basa en tecnologías punteras de la nube, automatización e infraestructura como código, enfocándose en ambientes cloud modernos y escalables.

Apply directly at getonbrd.com.

Responsabilidades principales

  • Participar en el desarrollo, implementación y mantenimiento de infraestructura en Google Cloud Platform (GCP), utilizando herramientas como BigQuery, Cloud Run, GKE y Cloud Scheduler.
  • Automatizar procesos y gestionar infraestructura mediante Terraform, asegurando la correcta gestión de recursos y estados.
  • Configurar y mantener pipelines CI/CD en GitLab, promoviendo la integración y entrega continua de software.
  • Administrar contenedores usando Docker y orquestación con Kubernetes para asegurar despliegues consistentes y escalables.
  • Gestionar bases de datos SQL y NoSQL, así como servicios serverless para optimizar la arquitectura del proyecto.
  • Trabajar en entornos Unix/Linux, asegurando la estabilidad y buen funcionamiento de la infraestructura.
  • Documentar procesos técnicos y colaborar activamente con el equipo para proponer mejoras continuas y soluciones innovadoras.

Requisitos técnicos y perfil del candidato

Buscamos un profesional con experiencia intermedia o superior en Python, capaz de desarrollar y automatizar componentes relacionados con DevOps y Cloud. Se requiere un sólido conocimiento en GCP, incluyendo servicios esenciales como BigQuery, Cloud Run, GKE y Cloud Scheduler, para construir infraestructuras escalables y eficientes.
El manejo avanzado de Terraform es imprescindible para gestionar la infraestructura como código, incluyendo la administración de recursos y estados. Además, la familiaridad con GitLab CI/CD es necesaria para orquestar pipelines de integración y despliegue continuo.
Se valoran también competencias en Docker y Kubernetes para la gestión de contenedores, así como experiencia en bases de datos SQL y NoSQL y en la utilización de servicios serverless. Un buen dominio de sistemas operativos Unix/Linux es requerido para el correcto desempeño en el entorno de trabajo.
Desde el punto de vista de habilidades blandas, buscamos personas con pensamiento crítico, autonomía y proactividad para detectar y sugerir mejoras en procesos. La capacidad para documentar procedimientos y colaborar eficazmente en equipo es fundamental para el éxito en este rol.
Si te apasiona trabajar en entornos cloud modernos con tecnologías escalables y afrontar retos técnicos constantes, esta posición es una gran oportunidad para seguir desarrollándote profesionalmente.

Habilidades y conocimientos adicionales valorados

Se valorará experiencia previa en manejo de servicios serverless avanzados y en la implementación de soluciones completas de infraestructura como código que involucren múltiples nubes o servicios híbridos. Conocimientos en metodologías ágiles, como Scrum o Kanban, serán apreciados, junto con habilidades para proponer y ejecutar mejoras que optimicen la eficiencia operacional. La experiencia en entornos de trabajo colaborativo y multidisciplinarios también es deseable.

Beneficios y ambiente laboral

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

POSTULAR VÍA WEB Ver trabajo
Gross salary $1100 - 1400 Tiempo completo
Ingeniero DevOps
  • TREM Group
Python Redis MySQL Linux
En TREM Group nos especializamos en proyectos tecnológicos innovadores orientados al sector inmobiliario. Nuestra misión es crear soluciones tecnológicas que transformen y optimicen los procesos en esta industria. El equipo de Ingeniería es el núcleo técnico que desarrolla y mantiene infraestructuras robustas y escalables en la nube para soportar un crecimiento masivo y entrega continua. Buscamos profesionales que se unan a este equipo, participando activamente en el diseño, construcción y evolución de plataformas de alto rendimiento y alta disponibilidad, facilitando a los desarrolladores alcanzar su máximo potencial mediante una base tecnológica sólida, flexible y segura.

Exclusive offer from getonbrd.com.

Funciones del Puesto

Como Ingeniero DevOps, formarás parte de un equipo técnico multidisciplinario encargado de diseñar, crear, mantener, escalar, monitorear y proteger nuestra infraestructura en la nube. Colaborarás estrechamente con equipos de ingeniería para identificar y aplicar herramientas que permitan iterar rápidamente nuestras líneas de productos, garantizando la seguridad en cada despliegue.
Entre tus responsabilidades principales estarán:
  • Implementar y mantener pipelines de integración y entrega continua automatizadas.
  • Gestionar infraestructuras usando herramientas de Infraestructura como Código (IaC) para asegurar la reproducibilidad y escalabilidad.
  • Optimizar el rendimiento, confiabilidad y seguridad de los sistemas en producción.
  • Monitorear y responder proactivamente a incidentes utilizando sistemas de observabilidad como Prometheus, Grafana y Loki.
  • Ejecutar y administrar contenedores en producción con plataformas como Docker, Kubernetes o AWS ECS.
  • Brindar soporte y colaboración técnica a desarrolladores para que conviertan buenas prácticas en estándares de excelencia.
  • Comunicar de manera clara los planes, avances y desafíos al equipo de ingeniería, facilitando la toma de decisiones y la mejora continua.

Requisitos y Habilidades

Buscamos un ingeniero con entre 2 y 6 años de experiencia (preferentemente 4 o más) que disfrute una combinación de ingeniería de software, confiabilidad del sitio, automatización, optimización y operaciones. Debes ser un usuario avanzado de Linux, con sólida experiencia en scripting Bash y familiaridad con herramientas Open Source.
Es fundamental que tengas experiencia construyendo y gestionando infraestructuras en la nube utilizando Infraestructura como Código, con herramientas como Terraform, Ansible, scripting en Go o Python y el uso directo de APIs de proveedores cloud.
Debes conocer profundamente la creación y operación de contenedores (Docker principalmente) y la gestión de éstos en producción usando plataformas como AWS ECS, Kubernetes o Docker Swarm.
Tienes que haber implementado pipelines de integración y entrega continua con herramientas como GitLab CI, Travis o CircleCI, que permitan despliegues automatizados y confiables.
Serás competente manejando bases de datos relacionales y NoSQL como MySQL, Redis, Elasticsearch y MongoDB, comprendiendo su alta disponibilidad y limitaciones operativas.
Valoramos que tengas una mentalidad orientada a la toma de decisiones basada en datos y que puedas comunicar con claridad temas técnicos complejos, manteniendo la calma bajo presión y mostrando empatía y escucha activa en el equipo.
Experiencia con monitoreo y observabilidad a través de herramientas como Prometheus, Grafana y Loki es imprescindible.
Contar con conocimientos en distribuciones avanzadas de despliegue de software como Canary Deploys o Blue/Green Deployments, así como en pruebas de producción automatizadas, es un plus importante.
Preferimos candidatos que entiendan las arquitecturas distribuidas, los compromisos entre consistencia, disponibilidad y tolerancia a particiones, y que tengan experiencia con AWS y metodologías ágiles.

Conocimientos y Experiencia Deseables

Te destacará tener experiencia en software desarrollado en ámbitos académicos o de estudios de grado. El manejo de metodologías ágiles y trabajo en entornos dinámicos será una ventaja. Deseamos candidatos con capacidad para implementar prácticas avanzadas de despliegue continuo (Canary y Blue/Green) y que puedan diferenciar claramente cuándo usar bases de datos relacionales o NoSQL.
Una experiencia superior a 3 años con AWS y en infraestructura basada en Terraform o Ansible será muy valorada, al igual que la capacidad para aportar en proyectos distribuidos y escalables. El trabajo 100% remoto es posible, por lo que buscamos profesionales autónomos y con excelente comunicación remota.

Beneficios

  • Compensación competitiva acorde a la experiencia.
  • Relación laboral a largo plazo (freelance, contrato o tiempo completo).
  • Acceso a las mejores plataformas de e-learning para crecimiento continuo.
  • Ambiente de trabajo colaborativo, innovador y con gran soporte entre compañeros.
Nuestro proceso de selección incluye una prueba técnica corta online. Si estás listo para trabajar en proyectos reales e impactantes del sector inmobiliario con un equipo dinámico y comprometido, esta es tu oportunidad para crecer y desarrollar tu carrera profesional.

Fully remote You can work from anywhere in the world.
Pet-friendly Pets are welcome at the premises.
Digital library Access to digital books or subscriptions.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
DevOps Sr
  • coderslab.io
  • Santiago (Hybrid)
Python Docker Kubernetes CI/CD

CodersLab es una compañía dedicada al desarrollo de soluciones para empresas y actualmente estamos enfocados en el crecimiento global de nuestros equipos con el objetivo de posicionar nuestros productos en más países de Latinoamérica. Por esta razón, estamos buscando un Devops

Te sumarás a un equipo desafiante y ambicioso con ganas de innovar en el mercado, haciendo que tus propuestas sean altamente valiosas para el negocio.

¡Aplica ahora para este increíble reto!

Find this job on getonbrd.com.

Funciones del cargo

  • Diseñar e implementar arquitecturas basadas en contenedores usando Kubernetes
  • Gestionar infraestructura como código (IaC) utilizando Terraform
  • Implementar y mantener pipelines CI/CD
  • Administrar plataformas de automatización y orquestación
  • Garantizar la seguridad y cumplimiento normativo de la infraestructura
  • Optimizar y mantener sistemas Oracle Linux
  • Desarrollar scripts de automatización

Requerimientos del cargo

🔧 REQUISITOS TÉCNICOS
Cloud y Virtualización:

  • Experiencia avanzada en Oracle Cloud Infrastructure (OCI)
  • Conocimiento de redes, IAM, VCN, WAF en OCI
  • Manejo de almacenamiento en la nube

Sistemas Operativos:

  • Dominio de Oracle Linux 8/9
  • Experiencia en hardening y tuning de sistemas
  • Conocimientos de SELinux y systemd

Contenedores y Orquestación:

  • Docker y Kubernetes
  • Helm Charts
  • ArgoCD
  • Kong API Gateway

IaC y Automatización:

  • Terraform (nivel avanzado)
  • GitLab CI/CD
  • HashiCorp Vault
  • Experiencia en GitOps

Programación:

  • Bash scripting avanzado
  • Python para automatización
  • APIs REST

Bases de Datos:

  • Conocimientos en MSSQL, PostgreSQL y MySQL (deseable)

Seguridad:

  • Experiencia en implementación de estándares PCI-DSS
  • Gestión de secretos y políticas de seguridad
  • Escaneo de vulnerabilidades

👥 HABILIDADES BLANDAS

  • Capacidad de liderazgo técnico
  • Excelente comunicación
  • Resolución de problemas complejos
  • Trabajo en equipo
  • Gestión de stakeholders

📝 DETALLES DEL CONTRATO

  • Duración: 12 meses
  • Inicio: 16 de junio 2025
  • Modalidad: Híbrida
  • Ubicación: Presidente Riesco 5435, Las Condes, Santiago, Chile

🎯 EXPERIENCIA REQUERIDA

  • Mínimo 5 años en roles DevOps
  • Experiencia demostrable en entornos bancarios o regulados
  • Proyectos exitosos de implementación de IaC y CI/CD

💪 VALORAMOS

  • Certificaciones en OCI, Kubernetes, Terraform
  • Experiencia en transformación digital
  • Conocimiento de metodologías ágiles
  • Participación en proyectos multicloud

Condiciones

Modalidad de contratación: Plazo fijo
Duración del proyecto: 7 meses

POSTULAR VÍA WEB Ver trabajo
Gross salary $2500 - 3500 Tiempo completo
System Administrator & Developer (D365)
  • TECLA
C C# DevOps Azure

TECLA is a fully remote software development company with a diverse and highly skilled team of 100+ experts across Latin America. We specialize in AI, cloud, automation, and DevOps, building innovative solutions for high-growth startups and established mid-market technology companies in the U.S.

Our work culture is agile, collaborative, and fast-paced—we take our work seriously while keeping the environment fun and engaging. As a remote-first company, we emphasize strong teamwork and close collaboration, working seamlessly with our U.S. partners as one integrated unit. Whether optimizing cloud environments, developing AI-driven applications, or enhancing DevOps automation, TECLA is at the forefront of technical innovation, solving complex challenges with cutting-edge technology.

This job is exclusive to getonbrd.com.

Job Details:

We are seeking an experienced Microsoft Dynamics 365 (D365) System Administrator and Developer to support our enterprise D365 environment. This role will be responsible for administration, customization, and development within D365 modules (such as Finance & Operations, Supply Chain, and/or Customer Engagement).

Responsibilities:

System Administration

  • Configure, manage, and maintain D365 environments, including user management, security roles, workflows, and data management.
  • Oversee system health, monitor performance, and troubleshoot system errors or issues.
  • Collaborate with internal teams to define and implement security models and access controls.
  • Manage integrations with third-party applications and services, including Power BI and Azure services.
  • Perform system upgrades, patches, and routine maintenance to ensure optimal performance.

Development

  • Design, develop, test, and deploy customizations, extensions, and integrations using X++, C#, Power Platform, and other Microsoft technologies.
  • Create and maintain reports and dashboards using built-in D365 reporting tools and Power BI.
  • Develop and maintain data import/export routines, APIs, and other integrations between D365 and external systems.
  • Collaborate with business users and functional teams to gather requirements and translate them into technical solutions.

Additional Duties

  • Provide training and support to end-users as needed.
  • Participate in system audits, compliance reviews, and documentation efforts.
  • Recommend best practices for D365 governance and change management.

Qualifications:

  • 3+ years of experience as a D365 System Administrator or Developer (Finance & Operations, Supply Chain, or Customer Engagement).
  • Strong knowledge of D365 administration, security, and customization.
  • Possesses hands-on experience in X++, C#, .NET Framework, and the Power Platform (specifically Power Apps and Power Automate).
  • Demonstrates expertise in SQL Server, data management, and Power BI integration within D365 environments.
  • Familiarity with Azure services and DevOps tools is a plus.
  • Excellent communication skills and the ability to work independently or as part of a team.

Benefits:

  • A fully remote position with a structured schedule that supports work-life balance.
  • Two weeks of paid vacation per year.
  • 10 paid days for local holidays.

*Please note we are only looking for full-time dedicated team members who are eager to fully integrate within our team.

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero/a de Software en Pruebas (SDET) , Inglés Avanzado
  • Robert Half Chile
JavaScript C Git C#

En Robert Half Chile, una firma global dedicada a la conexión entre tecnología y talento para acelerar el crecimiento profesional y empresarial, formamos parte de un proyecto desafiante dentro de una empresa multinacional líder en la industria de la construcción,
Este proyecto contempla la creación y evolución de herramientas de gestión de última generación que soportan procesos clave de producción y logística, impulsando la transformación digital en el sector.

Apply from getonbrd.com.

Principales funciones

Como Ingeniero/a de Desarrollo de Software en Pruebas (SDET), serás pieza clave en el aseguramiento de la calidad del software mediante la automatización eficiente de pruebas para una aplicación web crítica desarrollada en C#. Tu trabajo contribuirá directamente a mejorar y garantizar la funcionalidad y estabilidad de herramientas de gestión orientadas a fabricantes de componentes de madera estructural.
Entre tus principales responsabilidades estarán:
  • Desarrollar pruebas automatizadas de alta calidad para aplicaciones basadas en C#, aplicando tus sólidas habilidades de programación y testing.
  • Colaborar estrechamente con equipos multidisciplinarios, como desarrollo de producto, aseguramiento de calidad y área creativa, para alinear entregables y alcanzar un estándar óptimo en el ciclo de vida del software.
  • Participar activamente en la planificación y ejecución de ceremonias Agile Scrum, incluyendo sprints, reuniones diarias (Daily Standups), revisiones y retrospectivas.
Este rol demanda una estrecha colaboración y comunicación continua para garantizar el cumplimiento de objetivos técnicos y de calidad, manteniendo un enfoque constante en la mejora continua y la innovación en procesos de testing automatizado.

HABILIDADES Y EXPERIENCIA DESEADAS

Buscamos un/a profesional con formación en informática, tecnología, sistemas de información, ingeniería de software o experiencia equivalente que aporte una base sólida para el desarrollo y automatización de pruebas de software. Es fundamental poseer más de 3 años de experiencia demostrada desarrollando software con tecnologías como C#, ASP.NET Core, REST, Web Services y T-SQL, así como experiencia práctica en Entity Framework (EF Core).
El candidato ideal tendrá habilidades avanzadas para crear pruebas automatizadas, incluyendo conocimientos en JavaScript y herramientas de automatización construidas internamente, aplicando mejores prácticas y reutilización eficiente de código. Se requiere experiencia en pruebas unitarias automatizadas, manuales y exploratorias para asegurar una cobertura y calidad óptimas.
Además, es crucial contar con habilidades comunicativas maduras, capacidad de análisis meticuloso y enfoque en la calidad para cumplir con los tiempos y estándares establecidos. Se valorará la capacidad para tomar decisiones técnicas equilibradas, enfocadas en soluciones sostenibles a largo plazo pero con respuesta a las necesidades inmediatas del proyecto.
Tenemos especial interés en candidatos con experiencia en desarrollo ágil y manejo de CI/CD/CT, así como dominio en sistemas de control de versiones Git y Bitbucket. Además, el conocimiento y uso de JIRA y Confluence para gestión y documentación de proyectos complementa esta experiencia.

Dominio avanzado de Inglés tanto escrito como a nivel conversacional

HABILIDADES Y EXPERIENCIA DESEABLES

Conocimientos adicionales en plataformas Azure, incluyendo App Service, Functions, Logic Apps, AKS, Monitor, Key Vault y Pipelines resultan altamente deseables para ampliar las capacidades dentro del entorno cloud en el que trabaja nuestro cliente

La experiencia con frameworks y herramientas específicas como Playwright para pruebas automatizadas, Blazor para el desarrollo de interfaces web, Telerik Kendo UI para componentes UI avanzados, y familiaridad con arquitecturas limpias (Clean Architecture) son altamente deseables y aportarán un plus significativo al perfil.

BENEFICIOS

Ofrecemos un contrato inicial para el año 2025 en modalidad 100% remota, lo que garantiza máxima flexibilidad y rapidez en la integración a nuestro equipo. Posteriormente, existe la posibilidad de migrar a un modelo híbrido que combina trabajo presencial en nuestras oficinas ubicadas en Santiago con teletrabajo, promoviendo así un equilibrio saludable entre la vida personal y profesional.
Formarás parte de un proyecto retador dentro de una multinacional consolidada, con amplias perspectivas de crecimiento profesional y constante aprendizaje. Trabajamos en un ambiente ágil, colaborativo e innovador que impulsa el desarrollo del talento, la innovación tecnológica y la implementación de las mejores prácticas en ingeniería de software.

Partially remote You can work from your home some days a week.
Computer provided Protiviti provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
QA Engineer Senior
  • ARKHO
  • Santiago (Hybrid)
SQL Oracle Continuous Integration Jenkins
ARKHO es una consultora experta en tecnologías de la información, que ofrece servicios expertos de TI en el marco de modernización de aplicaciones, analítica de datos, IA, ML y migración a la nube. Nuestro trabajo facilita y acelera la adopción de la cloud en múltiples industrias.
Nos destacamos por ser Partner Advanced de Amazon Web Services, con foco estratégico en la generación de soluciones usando tecnología en la nube. Somos obsesionados por lograr los objetivos propuestos y tenemos un especial énfasis en el grupo humano que compone ARKHO (nuestros Archers), reconociendo a nuestro equipo como un componente vital para el logro de los resultados.
¿Te motivas? ¡Te esperamos!

This job is original from Get on Board.

Responsabilidades principales

  • Diseñar, preparar y ejecutar pruebas funcionales, automatizadas y de carga para proyectos diversos.
  • Ejecutar pruebas sobre servicios utilizando SOAP y Postman.
  • Automatizar pruebas para aplicaciones web y móviles con herramientas como Selenium, Appium y Cucumber.
  • Escribir criterios de prueba claros según la metodología Gherkin.
  • Realizar pruebas de carga utilizando JMeter.
  • Utilizar BrowserStack para pruebas cruzadas en diferentes navegadores y dispositivos.
  • Integrar pruebas automatizadas en pipelines de integración continua utilizando Jenkins.
  • Gestionar y dar seguimiento a casos de prueba en herramientas como Xray o Zephyr.
  • Colaborar con equipos bajo metodologías ágiles Scrum y Kanban, además de métodos tradicionales.
  • Participar en revisiones de código y asegurar la calidad técnica del producto.

Requisitos técnicos y formación

  • Formación formal o certificación completa ISTQB.
  • Experiencia integral en pruebas funcionales, automatizadas y de carga.
  • Dominio en pruebas de servicios web y APIs usando SOAP y Postman.
  • Conocimientos sólidos de bases de datos SQL Server, DB2, Oracle y PostgreSQL, con buen manejo de SQL.
  • Experiencia en automatización con Selenium, Cucumber y Appium para aplicaciones web y móviles.
  • Manejo de herramientas para pruebas de carga como JMeter.
  • Uso de BrowserStack para ejecutar pruebas multiplataforma y multiproveedor.
  • Experiencia en pipelines de integración continua con Jenkins.
  • Conocimiento en la gestión de pruebas con herramientas como Jira, Confluence, Xray o Zephyr.
  • Capacidad para trabajar en equipos multidisciplinarios y ágiles, con buena comunicación y colaboración.
  • Compromiso con la calidad y mejora continua.

Habilidades y conocimientos deseables

  • Experiencia en ambientes AWS.
  • Conocimientos en metodologías ágiles Scrum y Kanban.
  • Experiencia en automatización avanzada o en frameworks propios de testing.
  • Capacidad para liderar iniciativas de mejora en calidad de software y optimización de pruebas.
  • Habilidades analíticas para detección proactiva de defectos y mejora de procesos.

Beneficios y cultura

📆 Día administrativo semestral hasta los 12 meses
🏖️ Week off: 5 días extra de vacaciones
🎉 Celebración de cumpleaños
📚 Planes de entrenamiento continuo
☁️ Apoyo y certificación en AWS
🏡 Flexibilidad laboral con modalidad híbrida y posibilidad de trabajo remoto
💍 Regalos y días libres por matrimonio
👶 Beneficios por nacimiento de hijos
✏️ Kit escolar para hijos
🤱 Beneficio paternidad
❤️ Bonda, plataforma de descuentos y bienestar

POSTULAR VÍA WEB Ver trabajo
Gross salary $3500 - 4500 Tiempo completo
Senior QA Analyst
  • Zaelot
SQL QA Selenium English
At Zaelot, we are a progressive team-building company that specializes in developing scalable solutions for our enterprise clients. Our team consists of over 90 dedicated professionals across 9 different countries, fostering a culture of trust, innovation, and collaboration. We prioritize continuous learning and improvement, ensuring that our employees are equipped with the skills needed to thrive in a rapidly changing tech landscape. Joining us as a Senior QA Analyst means becoming part of a passionate group of analysts, designers, and engineers committed to delivering exceptional quality in our products.

This job is exclusive to getonbrd.com.

Key Responsibilities

As a Senior QA Analyst, you will play a vital role in safeguarding the quality and reliability of our web-based applications. Your main responsibilities will include:
  • Designing and executing detailed test plans and test cases.
  • Collaborating with development teams to ensure the timely delivery of high-quality software.
  • Identifying, documenting, and tracking defects using appropriate tools.
  • Performing manual and automated testing, focusing on functional, regression, and integration testing.
  • Utilizing SQL for database validation and Postman for API testing.
  • Participating in release planning and reviews to provide input on quality and risk assessments.

Required Skills and Experience

To be considered for the Senior QA Analyst position, candidates must possess:
  • A minimum of 4 years of experience in testing web-based applications.
  • ISTQB certification, validating your proficiency in testing standards.
  • Excellent proficiency in English, both written and spoken, to communicate effectively with the team.
  • Exceptional communication and interpersonal skills to collaborate across departments.
  • The ability to work independently while fostering a spirit of teamwork.

Desirable Skills

While not mandatory, the following skills and experiences will be advantageous:
  • Familiarity with performance testing tools such as JMeter or BlazeMeter.
  • Experience with Accessibility testing to ensure our products are user-friendly for everyone.
  • Proficiency in the Atlassian suite, including Jira, Confluence, and Bitbucket.
  • Hands-on experience with TestRail and SoapUI.
  • Knowledge of automation tools like Selenium for more efficient testing.

Our Offerings

At Zaelot, we value our team members and offer a range of benefits, including:
  • Paid vacations for 20 days after one year
  • Referrals program
  • Finder's fee
  • Training and certifications program
  • Work from home aid
  • English Classes
  • Fitness Program
  • Profit Share
  • Coaching sessions
We look forward to connecting with you!

Wellness program Zaelot offers or subsidies mental and/or physical health activities.
Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Paid sick days Sick leave is compensated (limits might apply).
Computer provided Zaelot provides a computer for your work.
Fitness subsidies Zaelot offers stipends for sports or fitness programs.
Personal coaching Zaelot offers counseling or personal coaching to employees.
POSTULAR VÍA WEB Ver trabajo
Gross salary $900 - 1500 Tiempo completo
Especialista en BD Access y Azure
  • Almacenes CLK
JavaScript CSS Power BI SQL Server

Nuestra empresa, dedicada al diseño y desarrollo de vestuario y calzado técnico, se enfrenta al desafío de la digitalización y automatización. Contamos con un sistema de control de gestión integral para las producciones e importaciones basado en Microsoft Access. Buscamos modernizar este sistema migrando nuestra base de datos y su interfaz de ingreso de datos a Microsoft Azure, con el objetivo de mejorar la accesibilidad, seguridad y eficiencia de nuestros procesos internos.

Apply directly on Get on Board.

Responsabilidades principales

  • Ejecutar la migración completa de la base de datos desde Microsoft Access a la plataforma Microsoft Azure.
  • Diseñar y desarrollar una nueva interfaz de usuario accesible desde navegadores web para la entrada de datos, preservando la funcionalidad existente y mejorando la experiencia del usuario en los departamentos.
  • Implementar la generación y visualización de informes a través de la nueva plataforma web, asegurando integridad y precisión de la información.
  • Colaborar con los diferentes departamentos para entender sus flujos de trabajo y adaptar la solución a sus necesidades reales.
  • Garantizar la seguridad y confidencialidad de los datos durante y después de la migración.
  • Realizar pruebas de funcionamiento y formación básica para los usuarios clave que utilizarán la nueva herramienta.

Perfil requerido

Buscamos un profesional con experiencia en migración de bases de datos Access a entornos en la nube, especialmente Microsoft Azure. Debe contar con conocimientos sólidos en diseño y desarrollo de aplicaciones web, así como en la gestión y seguridad de bases de datos.

Se valoran habilidades técnicas en SQL Server, Azure SQL Database, y desarrollo web con tecnologías como HTML, CSS y JavaScript para la creación de interfaces amigables. Además, es fundamental tener capacidad para trabajar de manera autónoma, buena comunicación para coordinar con distintos departamentos y orientación al detalle para asegurar la precisión de los datos.

Se requiere capacidad para interpretar los requerimientos de negocio y traducirlos en funcionalidades técnicas, así como experiencia en generación de reportes e integración de sistemas. La proactividad, responsabilidad y enfoque en el cliente interno serán claves para el éxito del proyecto.

Competencias adicionales deseadas

Sería un plus contar con conocimiento en Power BI o herramientas similares de visualización para enriquecer los informes. También se valorará experiencia previa en migraciones similares o en ambientes de producción ligados al sector textil y de vestuario.

Conocimientos en metodologías ágiles para gestión de proyectos y habilidades de formación a usuarios finales serán altamente valorados.

Beneficios

Ofrecemos la oportunidad de trabajar en un proyecto estratégico para la digitalización de nuestros procesos internos en una empresa consolidada del sector. Podrás desarrollar tus habilidades en tecnologías modernas y trabajar en un entorno colaborativo.

La modalidad de trabajo será remota dentro del país, con flexibilidad horaria para facilitar la conciliación personal y laboral.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1000 - 1500 Tiempo completo
Operador(a) de Tecnología de la Información (TI)
  • Biometria Aplicada
  • Santiago (In-office)
Linux PRTG Windows Server Hyper-v
En Biometría Aplicada contamos con más de 14 años de experiencia desarrollando soluciones integrales en control biométrico y tecnologías de gestión. Nos especializamos en sistemas avanzados para la gestión de asistencia del personal, control de accesos y administración de casinos corporativos, adaptando cada solución a las necesidades específicas de nuestros clientes. Ofrecemos plataformas robustas, seguras y escalables que mejoran la eficiencia operativa, optimizan el control interno y refuerzan la seguridad en organizaciones públicas y privadas.
Innovación, confiabilidad y experiencia son los pilares que nos definen.

Apply directly on the original site at Get on Board.

Responsabilidades principales

  • Monitorear continuamente el estado y funcionamiento de las plataformas productivas y sistemas TI para identificar incidentes o anomalías que puedan afectar la operación.
  • Ejecutar procedimientos de despliegue a producción, coordinándose con los equipos de desarrollo para asegurar implementaciones exitosas y sin interrupciones.
  • Aprovisionar y configurar servidores, entornos y bases de datos según las necesidades de los distintos proyectos, garantizando la disponibilidad de recursos adecuados.
  • Administrar sistemas operativos Windows Server (2016, 2019, 2022) y realizar tareas de mantenimiento preventivo para asegurar su óptimo funcionamiento.
  • Gestionar respaldos y recuperación de datos ante posibles fallos para mantener la integridad y disponibilidad de la información.
  • Mantener actualizada la documentación técnica correspondiente a procedimientos, configuraciones y actividades realizadas.
  • Coordinar con otras áreas técnicas la resolución de incidencias, implementación de mejoras y soporte general a las plataformas TI.
  • Velar por el cumplimiento de las políticas de seguridad, control de accesos y auditorías básicas dentro del entorno de TI.
  • Participar en turnos rotativos de guardia o soporte fuera de horario, cuando sea necesario, para atender emergencias o incidentes críticos.

Requisitos y perfil del candidato

Buscamos un profesional o técnico con formación en Informática, Redes, Computación o carreras afines, aunque se valora especialmente la experiencia demostrable en roles similares. El candidato debe tener sólidos conocimientos y experiencia práctica en administración de sistemas Windows Server (versiones 2016, 2019 y 2022) y un conocimiento básico de Linux para tareas de soporte y operación.
Es indispensable la capacidad para manejar herramientas y servicios de infraestructura como Active Directory, DNS, DHCP y GPOs para gestionar y controlar el ambiente de red y usuarios. Asimismo, se requiere conocimientos en administración básica de bases de datos, preferentemente SQL Server, para soporte y configuración.
Debe tener experiencia en herramientas de monitoreo como Zabbix, Nagios, PRTG u otras similares, que permitan la supervisión proactiva de plataformas y alertas tempranas. La automatización de tareas a través de scripts en PowerShell o Bash es necesaria para optimizar procesos operativos y reducir errores manuales.
El candidato debe contar con habilidades en plataformas de virtualización, principalmente VMware e Hyper-V, y conocimientos sobre herramientas y procedimientos de respaldo y recuperación, tales como Veeam o Acronis, para garantizar la disponibilidad de la información ante incidentes.
Deseamos también que tenga familiaridad con herramientas ITSM y sistemas de gestión de tickets para un control eficiente de incidencias y solicitudes.
En cuanto a competencias blandas, valoramos la orientación al detalle, responsabilidad, compromiso con la operación continua y buena comunicación con equipos técnicos y no técnicos. La capacidad para trabajar bajo presión en entornos críticos y una disposición proactiva para aprender y adaptarse a nuevas tecnologías son cualidades esenciales.

Competencias y conocimientos deseables

Es deseable que el candidato tenga experiencia previa en la participación de turnos rotativos, entendiendo la importancia de la disponibilidad para soporte continuo. Se valoran habilidades adicionales en scripting avanzado y la capacidad para proponer mejoras en los procesos tecnológicos.
Además, el manejo de herramientas avanzadas de gestión de configuración y automatización, así como una actitud proactiva para integrar nuevas tecnologías de monitoreo y seguridad, serán considerados una ventaja para el desarrollo del rol.

Beneficios y ambiente laboral

En Biometría Aplicada ofrecemos un entorno laboral colaborativo y enriquecedor, enfocado en la promoción del desarrollo profesional continuo y la innovación tecnológica. Formarás parte de un equipo experimentado donde la excelencia y el aprendizaje constante son valores centrales que promovemos activamente.
El trabajo es 100% presencial, facilitando una interacción directa y dinámica con el equipo técnico y los líderes de proyecto, lo cual mejora la comunicación y la cooperación diaria.
Fomentamos el crecimiento profesional y personal dentro de un ambiente motivador y comprometido con la calidad, donde podrás aportar significativamente al éxito de nuestros clientes y a la evolución de nuestras soluciones biométricas.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero(a) de Aseguramiento de Calidad (QA)
  • Biometria Aplicada
  • Santiago (In-office)
JavaScript Java Python SQL

En Biometría Aplicada contamos con más de 14 años de experiencia desarrollando soluciones integrales en control biométrico y tecnologías de gestión. Nos especializamos en sistemas avanzados para la gestión de asistencia del personal, control de accesos y administración de casinos corporativos, adaptando cada solución a las necesidades específicas de nuestros clientes. Ofrecemos plataformas robustas, seguras y escalables que mejoran la eficiencia operativa, optimizan el control interno y refuerzan la seguridad en organizaciones públicas y privadas. Innovación, confiabilidad y experiencia son los pilares que nos definen.

Send CV through getonbrd.com.

Responsabilidades Principales

  • Diseñar, implementar y ejecutar pruebas funcionales manuales y automatizadas.
  • Analizar requerimientos funcionales y técnicos para construir casos de prueba efectivos.
  • Desarrollar y mantener scripts de automatización para pruebas de regresión y pruebas continuas.
  • Colaborar con desarrolladores y product owners para asegurar la cobertura de pruebas.
  • Documentar defectos encontrados, hacer seguimiento y verificar su resolución.
  • Participar en revisiones de historias de usuario, criterios de aceptación y documentación técnica.
  • Ejecutar pruebas en diferentes entornos y dispositivos según los criterios del proyecto.
  • Contribuir a la mejora continua del proceso de QA y automatización de pruebas.

Requisitos Técnicos y Competencias

Buscamos un profesional con sólidos conocimientos en metodologías de testing como funcional, regresión, smoke e integración, y experiencia en herramientas de automatización como Selenium, Cypress o Playwright. Es necesario manejar lenguajes de scripting para automatización entre los que se incluyen JavaScript, Python o Java, además de herramientas de gestión de pruebas tales como TestRail, Zephyr o Xray.

También debe tener experiencia en integración continua (CI/CD), ejecutando pruebas automatizadas dentro de pipelines, así como el manejo de pruebas en APIs con Postman u otras herramientas similares. Conocimientos básicos en bases de datos, especialmente SQL para la validación de datos, son necesarios. Es deseable experiencia con herramientas BDD como Cucumber o SpecFlow.

En cuanto a competencias blandas, valoramos la atención al detalle, pensamiento analítico, trabajo en equipo, comunicación efectiva, orientación a la calidad y la mejora continua, proactividad, autonomía y adaptabilidad frente a cambios y nuevas tecnologías. La formación deseada es título en Ingeniería en Informática, Computación, Control de Calidad de Software o carrera afín; sin embargo, la experiencia puede suplir esta necesidad.

Habilidades Deseables

Se considera un plus la experiencia previa con herramientas BDD como Cucumber y SpecFlow, así como familiaridad con la integración de pruebas automatizadas en pipelines CI/CD. Además, se valoran habilidades adicionales en comunicación para la colaboración efectiva con equipos multidisciplinarios y una mentalidad orientada a la innovación y mejora continua en procesos de aseguramiento de calidad.

Beneficios

En Biometría Aplicada ofrecemos un entorno laboral colaborativo y enriquecedor, enfocado en la promoción del desarrollo profesional continuo y la innovación tecnológica. Formarás parte de un equipo experimentado donde la excelencia y el aprendizaje constante son valores centrales que promovemos activamente.

El trabajo es 100% presencial, facilitando una interacción directa y dinámica con el equipo técnico y los líderes de proyecto, lo cual mejora la comunicación y la cooperación diaria.

Fomentamos el crecimiento profesional y personal dentro de un ambiente motivador y comprometido con la calidad, donde podrás aportar significativamente al éxito de nuestros clientes y a la evolución de nuestras soluciones biométricas.

Health coverage Biometria Aplicada pays or copays health insurance for employees.
Computer provided Biometria Aplicada provides a computer for your work.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
DevOps Senior
  • coderslab.io
  • Santiago (Hybrid)
Python MySQL PostgreSQL Linux
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un devops senior para unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

This job is original from Get on Board.

Funciones del cargo

  • Diseño, implementación y operación de arquitecturas basadas en contenedores usando Kubernetes, Helm, GitLab CI/CD, ArgoCD y Kong API Gateway.
  • Backend Cloud DEvops
  • Automatización
  • servicios Cloud
  • Despliegues seguros, reproducibles y escalables con fuerte orientación a la seguridad.
  • Gestión de secretos y credenciales con HashiCorp Vault, asegurando cumplimiento de estándares como PCI-DSS.
  • Desarrollo y mantenimiento de pipelines CI/CD robustos y automatización de procesos mediante scripting avanzado en Bash y Python.
  • Integración y operación en entornos regulados, especialmente bancarios.
  • Administración y optimización de infraestructura en OCI, incluyendo redes, IAM, VCN, almacenamiento y seguridad (WAF, escaneo de vulnerabilidades).
  • Implementación de infraestructura versionada y reproducible con Terraform.
  • Gestión de imágenes Docker y orquestación con Kubernetes.
  • Colaboración en entornos híbridos y multicloud.

Requerimientos del cargo

  • Experiencia avanzada en Oracle Cloud Infrastructure (OCI).
  • Oracle Linux 8/9: endurecimiento, SELinux, systemd, optimización y troubleshooting.
  • Terraform: módulos reutilizables, workspaces, estados remotos.
  • GitLab CI/CD y ArgoCD para pipelines y GitOps.
  • Kubernetes, Helm, Docker, Argo Workflows, Kong API Gateway.
  • HashiCorp Vault para gestión de secretos y políticas de seguridad.
  • Scripting avanzado en Bash y Python.
  • Experiencia con bases de datos MSSQL, PostgreSQL y MySQL (deseable).
  • Conocimiento en normativas y buenas prácticas de ciberseguridad y cumplimiento (PCI-DSS).

Condiciones

Modalidad de contratación: Plazo fijo
Duración del proyecto: 7 meses

POSTULAR VÍA WEB Ver trabajo
Gross salary $2400 - 2600 Tiempo completo
Desarrollador Automatizador Senior (Performance Tester)
  • BC Tecnología
  • Santiago (Hybrid)
JavaScript Java Python SQL
En BC Tecnología somos una consultora de servicios IT con amplia experiencia en diversas áreas tecnológicas. Durante más de 6 años hemos diseñado soluciones a medida para clientes de sectores como servicios financieros, seguros, retail y gobierno, gestionando desde portafolios hasta desarrollos complejos y outsourcing profesional.
Este proyecto específico corresponde a la participación en un equipo especializado en pruebas de rendimiento y automatización dentro de clientes de alto nivel, llevado a cabo bajo metodologías ágiles. Nuestra fuerte orientación al cliente, el cambio organizacional y el desarrollo de productos innovadores marcan la diferencia en cada iniciativa que emprendemos.

Originally published on getonbrd.com.

Responsabilidades clave

  • Diseñar, desarrollar y ejecutar pruebas de carga y rendimiento utilizando herramientas como JMeter para evaluar sistemas críticos.
  • Automatizar los procesos de testeo mediante scripts en Python, Java o JavaScript, asegurando la eficiencia y repetibilidad de las pruebas.
  • Analizar los resultados obtenidos en las pruebas de performance, identificando cuellos de botella y proponiendo mejoras concretas.
  • Integrar las pruebas de rendimiento dentro de flujos de trabajo CI/CD, colaborando estrechamente con el equipo de QA para garantizar la calidad continua.
  • Participar activamente en reuniones de seguimiento, aportar visiones técnicas y documentar los resultados y procesos de manera clara y precisa.

Requisitos técnicos y perfil

Buscamos un profesional con sólida experiencia como Performance Tester, con un manejo avanzado de herramientas como JMeter para la ejecución de pruebas de carga y consumo de APIs. Es indispensable el conocimiento práctico en automatización utilizando lenguajes como Python, Java o JavaScript.
Se valoran conocimientos adicionales en herramientas complementarias como Postman para pruebas de APIs, Locust para simulaciones de carga, Grafana y Datadog para monitoreo de métricas y análisis, así como competencias en bases de datos SQL y gestión documental con Confluence y Jira.
Desde el punto de vista personal, buscamos un perfil autónomo, analítico y orientado a resultados, capaz de trabajar de manera independiente dentro de un entorno colaborativo. La afinidad o background en matemática y estadística será un plus que permitirá un mejor entendimiento y análisis de datos de performance.

Habilidades y conocimientos deseables

  • Experiencia previa en integración de pruebas de performance en pipelines CI/CD con herramientas modernas de DevOps.
  • Conocimientos en monitoreo y visualización avanzada de métricas con Grafana y Datadog para insights profundos de performance.
  • Familiaridad con metodologías ágiles y trabajo en equipos multidisciplinarios orientados a la mejora continua.
  • Capacidad para documentar procesos técnicos complejos y comunicar hallazgos a equipos técnicos y no técnicos.

Beneficios y cultura organizacional

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $4500 - 6000 Tiempo completo
Data DevOps Engineer
  • Kore RPO
Python SQL Scala Business Intelligence

We understand how complicated it can be to run a recruiting organization. Here at KORE RPO, we help reduce recruiting costs and increase candidate engagement without increasing the number of recruiters in your organization.

We have senior recruitment resources readily available to assist with all your recruiting needs. We can increase the volume of candidates without compromising on the quality.

Unlike many other RPO companies, we have a depth of understanding of staffing and recruiting organizations. We can help you build a process and operation that integrates with your existing team to increase revenue and profitability.

Apply directly through getonbrd.com.

Job functions

  • Design, build, test, and maintain existing data integrations, ETL processes, and BI solutions within the Azure platform.
  • Participate in Azure environment refresh and cutover activities for system integration testing and go-live for major and minor releases.
  • Support existing reporting and visualization solutions using enterprise BI tools.
  • Participate in an on-call rotation to support EIM production processes and systems.
  • Build and maintain Continuous Integration and Continuous Delivery pipelines.
  • Implement automated solutions using scripting/programming languages in the Azure environment.
  • Perform other duties as assigned.

Qualifications and requirements

  • Bachelor’s Degree in Computer Science or Information Systems.
  • 1+ years of hands-on experience developing and testing Data Warehouse and Business Intelligence solutions.
  • Experience coding in one of the following languages: Python, Scala, SQL, PowerShell.
  • An understanding of relational database concepts.
  • Cloud Technology experience is a plus.

Conditions

We are looking:

  • Able to multitask and work effectively in a dynamic environment.
  • Highly organized and detail-oriented.
  • Willing to jump in where needed, learn new technologies, and work effectively across the full stack.
  • Able to work both independently and collaboratively.
  • Passionate about continuous learning, leading, and sharing knowledge. Provide subject matter expertise and guidance to less experienced staff members regarding performance management and design best practices.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Senior Cloud Platform & DevOps Engineer
  • BC Tecnología
  • Santiago (In-office)
Python SQL BigQuery Kubernetes

En BC Tecnología somos una consultora de IT con amplia experiencia en diversas áreas tecnológicas. Desde hace 6 años apoyamos a clientes de sectores como servicios financieros, seguros, retail y gobierno, brindando soluciones a medida que incluyen la consultoría, desarrollo de proyectos, outsourcing y administración de servicios IT.

Formamos equipos ágiles especializados para Infraestructura Tecnológica, Desarrollo de Software y Unidades de Negocio que garantizan la entrega de valor y el alineamiento con los objetivos empresariales de nuestros clientes. Nuestro enfoque se centra en la innovación, metodología ágil y excelencia operativa.

El área de Plataformas y Cloud es fundamental dentro de nuestra propuesta, donde integramos conocimientos avanzados en servicios cloud, automatización y DevOps para empujar la transformación digital y eficiencia operativa de las organizaciones que acompañamos.

Apply exclusively at getonbrd.com.

Funciones principales

Como Ingeniero Senior de Plataformas, serás responsable de la administración y optimización de entornos híbridos en la nube, específicamente en Google Cloud Platform. Esta posición es estratégica para la construcción y mantenimiento de infraestructura como código, automatización de despliegues continuos y soporte a operaciones críticas que aseguren la estabilidad y seguridad de los servicios.

Tu día a día incluirá desarrollar y mantener módulos de Terraform, gestionar clústeres Kubernetes (GKE), administrar pipelines CI/CD en GitLab, y trabajar estrechamente con el equipo para documentar procesos, mejorar la calidad de las implementaciones y asegurar la adherencia a buenas prácticas DevOps.

También implicará colaborar con diversas áreas para evaluar nuevas herramientas y enfoques, resolver incidentes operativos, y garantizar el cumplimiento de políticas de seguridad y gobernanza en el entorno cloud.

Descripción y requisitos del puesto

Buscamos un profesional senior con un perfil técnico sólido en ingeniería de plataformas y amplia experiencia en Google Cloud Platform. Es fundamental el dominio intermedio a avanzado de Python, que será usado para scripts y automatizaciones, junto con conocimientos avanzados en BigQuery y SQL para el manejo eficiente de datos.

Se requiere experiencia en la administración de clústeres GKE y buen nivel en Terraform, desde la creación de módulos hasta la gestión del estado y resolución de problemas. Es imprescindible el manejo de GitLab CI para orquestación de pipelines, así como un manejo básico a intermedio de Unix para la operación en consola.

El candidato debe demostrar pensamiento crítico, autogestión y proactividad para abordar retos técnicos, además de habilidades interpersonales sólidas para trabajo en equipo, atención al cliente y resiliencia ante situaciones complejas. La capacidad para redactar documentación técnica clara y precisa es fundamental.

Se valora un compromiso genuino con la diversidad, inclusión y el respeto por opiniones diversas, reflejando nuestros valores culturales.

Conocimientos y habilidades deseables

Serán altamente valorados conocimientos adicionales en IAM de GCP, particularmente en la gestión de permisos, impersonación y principios de mínimos privilegios, junto con experiencia básica o intermedia en networking tanto en entornos on-premise como en Google Cloud.

Experiencia con Kubernetes on-premise y la administración y mantenimiento de nodos fortalecerá tu candidatura. Además, familiarizarse con herramientas como ArgoCD para CD, Apache Airflow y Composer para orquestación de workflows será una ventaja competitiva.

El manejo de herramientas de inteligencia artificial asistidas como Copilot, Gemini o Cursor, así como un entendimiento de arquitecturas hexagonales y el diseño de pruebas automatizadas en Python reflejarán un perfil técnico avanzado. También se valorará experiencia con ciclos completos DevOps.

Beneficios y cultura organizacional

En BC Tecnología ofrecemos un ambiente de trabajo colaborativo que valoriza el compromiso, el aprendizaje continuo y el desarrollo profesional. Aunque no se detallan beneficios específicos en esta oferta, promovemos la integración estrecha entre equipos para facilitar el intercambio de conocimientos y fomentar tu crecimiento.

Trabajamos con metodologías ágiles junto a clientes de alto nivel en sectores diversos, lo que te permitirá participar en proyectos innovadores y desafiantes, potenciando tu carrera técnica y profesional dentro de un marco de respeto e inclusión social.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Quality Automation Engineer
  • Nisum Latam
Java SQL Data Science Back-end

Nisum is a leading global digital commerce firm headquartered in California, with services spanning digital strategy and transformation, insights and analytics, blockchain, business agility, and custom software development. Founded in 2000 with the customer-centric motto “ Building Success Together® ,” Nisum has grown to over 1,800 professionals across the United States, Chile,Colombia, India, Pakistan and Canada.

We are looking for a QA Engineer experienced in manual and automated testing of backend systems. This role is crucial in ensuring the high quality of our solutions, working closely with distributed and cross-functional teams across the globe.

If you’re passionate about software quality, skilled in tools like Postman and SQL, and hands-on with automation frameworks like Cucumber or RestAssured — this opportunity is for you!

Nisum is an Equal Opportunity Employer and we are proud of our ongoing efforts to foster diversity and inclusion in the workplace.

Apply directly through getonbrd.com.

What you will do

  • Work with product managers, developers and other Quality Engineers to develop test plans for user and technical stories
  • Test backend applications manually
  • Develop automated tests of backend applications
  • Coordinate with other teams for releases
  • Document bugs with a great level of detail
  • Troubleshoot issues and help on root cause analysis
  • Guarantee the quality of every deliverable
  • Communicate and collaborate with client teams on various topics such as requirements, releases, regression testing etc.

Qualifications and requirements

  • You must reside in Latam
  • 4+ years of relevant experience
  • Manual testing of backend systems, using Postman or similar tools
  • Proficiency in SQL
  • Good hands-on experience with automation frameworks like Cucumber, TestNG and/or RestAssured
  • Experience with Java
  • Excellent problem solving and troubleshooting
  • Excellent communication and collaboration
  • Documentation of test plans
  • Experience with different testing stages such as component testing, integration testing, E2E, regression etc.
  • Collaboration with distributed teams (USA, offshore)
  • Proficiency in English communication (verbal, written)

What can we offer you?

  • Belong to an international and multicultural company that supports diversity.
  • Be part of international projects with a presence in North America, Pakistan, India and Latam.
  • Work environment with extensive experience in remote and distributed work, using agile methodologies.
  • Culture of constant learning and development in current technologies.
  • Pleasant and collaborative environment, with a focus on teamwork.
  • Access to learning platforms, Google Cloud certifications, Databricks, Tech Talks, etc.
  • Being part of various initiatives and continuous participation in internal and external activities of innovation, hackathon, technology, agility, talks, webinars, well-being and culture with the possibility not only to participate but also to be an exhibitor.

POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2700 Tiempo completo
DevOps
  • coderslab.io
  • Santiago (Hybrid)
Python Excel SQL Business Intelligence

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de DEVOPS para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Apply to this job opportunity at getonbrd.com.

Funciones del cargo

Analizar procesos actuales (AS-IS):

  • Levantar, mapear y comprender procesos operativos y contables existentes. Identificar puntos críticos, riesgos y oportunidades de mejora.

Coordinar con stakeholders:

  • Organizar y gestionar reuniones con responsables de procesos clave (operaciones, contabilidad, tecnología, etc.), recopilando información relevante de múltiples frentes.

Diseñar procesos futuros (TO-BE):

  • Proponer mejoras o rediseños que aseguren trazabilidad, eficiencia y control.
  • Documentar procesos:
  • Elaborar diagramas, manuales y guías operativas claras y reutilizables.

Desarrollar e implementar soluciones:

  • Construir automatizaciones, conciliaciones, dashboards, y scripts. Validar con usuarios clave y adaptar según feedback.

Requerimientos del cargo

Conocimientos técnicos:

  • SQL avanzado (ideal experiencia con BigQuery en Google Cloud)
  • Python para automatización, validaciones y ETL
  • Excel avanzado (visualizaciones, paneles)
  • Experiencia con herramientas de BI (Looker o Power BI)

Conocimientos funcionales:

  • Procesos bancarios: abonos, cargos, conciliaciones
  • Productos financieros: créditos, cuentas corrientes, CMR, etc.
  • Contabilidad: lectura de asientos contables y análisis de cuentas (haber/debe)

Habilidades clave:

  • Pensamiento analítico y capacidad para detectar desajustes entre sistemas
  • Autonomía para investigar y proponer soluciones
  • Experiencia documentando procesos complejos
  • Manejo de herramientas de comunicación y gestión como Microsoft Teams

Conditions

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
QA Automation Engineer Python/Robot Framework
  • coderslab.io
Python Agile MySQL PostgreSQL
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos buscando un Ingeniero Senior en Automatización para unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

Apply to this job without intermediaries on Get on Board.

Funciones del cargo

1. Desarrollo de Automatización de Pruebas:
o Diseñar e implementar scripts automatizados para pruebas de aplicaciones web, móviles y
APIs utilizando herramientas como Robot Framework y Appium (Android/iOS).
o Garantizar la cobertura de pruebas para servicios REST y GraphQL.
o Usar Python para desarrollar soluciones personalizadas y mejorar los frameworks de prueba
existentes.
2. Pruebas de Bases de Datos:
o Realizar pruebas y validaciones en bases de datos relacionales (e.g., MySQL, PostgreSQL) y
no relacionales (e.g., DynamoDB).
3. Gestión y Colaboración:
o Documentar procesos, resultados y estrategias de prueba en herramientas como Confluence.
o Trabajar en estrecha colaboración con desarrolladores y partes interesadas del negocio para
garantizar que los requisitos de calidad se cumplan.
o Gestionar tareas, estimaciones de esfuerzo y prioridades en Jira.
4. Gestión de Infraestructura:
o Configurar pipelines de integración y despliegue continuo (CI/CD) utilizando GitHub Actions.
o Colaborar en entornos basados en la nube, como AWS, para la ejecución y el mantenimiento
de pruebas automatizadas.
5. Capacitación y Transferencia de Conocimiento:
o Capacitar a los miembros del equipo en herramientas, procesos y mejores prácticas de
automatización.
o Promover una cultura de mejora continua mediante la transferencia de conocimiento y la
mentoría.

Requerimientos del cargo

• Experiencia mínima de 5 años en QAA.
• Experiencia sólida en automatización de pruebas utilizando Robot Framework y Appium
(Android/iOS).
• Conocimiento avanzado en Python para desarrollo de scripts y frameworks.
• Experiencia en diseño y ejecución de pruebas de APIs (REST y GraphQL).
• Familiaridad con bases de datos relacionales y no relacionales (MySQL, PostgreSQL, DynamoDB).
• Conocimiento de herramientas de CI/CD como GitHub Actions.
• Experiencia trabajando con AWS.
• Manejo de herramientas de gestión como Jira y Confluence.
• Habilidades en documentación y colaboración con equipos técnicos y de negocio.
• Experiencia en entornos ágiles (Scrum)
• Capacidad para liderar iniciativas de automatización y fomentar un entorno de aprendizaje
continuo.
• Excelentes habilidades de comunicación y proactividad
• Autonomía y capacidad para gestionar múltiples tareas simultáneamente.

Conditions

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Senior Site Reliability Engineer (SRE)
  • Moventi
Python MySQL Go Kubernetes
Moventi is a forward-thinking technology company dedicated to helping organizations embrace innovation through cutting-edge technologies. We provide an environment where multidisciplinary talents collaborate to drive digital transformation and shape the future with technology. Our teams engage with state-of-the-art cloud infrastructure projects and large-scale SaaS platforms designed to scale and maximize reliability and efficiency.
Our current project focuses on designing, building, and operating highly available, scalable infrastructure on cloud platforms such as AWS EKS and Azure AKS. This includes advanced data ingestion pipelines handling hundreds of terabytes to petabytes of data, leveraging technologies like Clickhouse and Kafka. We prioritize observability, security, and automation using modern tools and practices to ensure robust SaaS operations.

Apply without intermediaries through Get on Board.

Primary Responsibilities and Role Overview

As a Senior Site Reliability Engineer (SRE), you will be instrumental in architecting, deploying, and managing complex cloud-native infrastructure in large-scale SaaS environments. Your role includes designing and maintaining Kubernetes clusters (AWS EKS, Azure AKS) using Infrastructure as Code tools such as Terraform, ensuring seamless scalability and reliability.
You will be responsible for implementing observability solutions across monitoring, logging, tracing, and metrics collection using Prometheus, Grafana, Datadog, and ELK ecosystem to maintain robust system health and performance. Managing data ingestion pipelines with high-volume technologies like Clickhouse and Kafka will be part of your core tasks.
Collaboration with cross-functional teams to drive GitOps CI/CD processes, writing automation scripts in Python, Go (Golang), and Bash to streamline deployments and operations, and enforcing security best practices involving encryption, key management, and policy enforcement are key duties. In addition, you will design and maintain disaster recovery strategies for critical components such as MySQL, Kafka, and Zookeeper, ensuring business continuity and data integrity.
This role requires active participation in a large, dynamic team environment where your expertise will elevate operational standards and foster innovation around high availability SaaS platforms.

Required Experience and Skills

We are looking for a professional with a minimum of 7 years designing, building, and maintaining SaaS environments with a strong focus on large-scale cloud infrastructure. Candidates must have at least 5 years of hands-on experience working with AWS EKS and Azure AKS managed Kubernetes clusters, leveraging Terraform for infrastructure automation.
Key technical expertise includes managing data ingestion in large environments through Clickhouse and Kafka, handling data volumes scaling up to petabytes. A solid background in observability tools such as Prometheus, Grafana, Datadog, and ELK for monitoring, logging, and tracing is mandatory.
Expertise in GitOps practices and CI/CD pipelines is essential. We expect proven scripting skills in Python, Go (Golang), Bash, and AWS CLI to automate operational workflows. Candidates must demonstrate at least 3 years of experience managing security operations including enforcing infrastructure security policies, managing encryption at rest and in transit, and key management.
In-depth knowledge of disaster recovery planning and execution for distributed systems including MySQL, Kafka, and Zookeeper is required. The ideal candidate should be a proactive and collaborative team player, able to communicate complex technical concepts effectively while taking initiative in a fast-paced innovative environment. Strong problem-solving skills, risk management, and a passion for continuous improvement are imperative to succeed in this role.

Additional Preferred Skills and Experience

Experience with service mesh technologies such as Istio and Kubernetes operators is highly valued to optimize application connectivity and lifecycle management. Familiarity with large scale data architectures and tuning Kafka clusters would be advantageous. Prior exposure to cloud security frameworks and compliance standards, as well as experience leading or mentoring SRE teams within enterprise environments, will be considered a strong plus.
An innovative mindset with eagerness to explore emerging tools and automation techniques is welcome, along with excellent interpersonal skills suitable for a multidisciplinary collaborative culture.

Our Offer and Work Environment

At Moventi, we provide a stimulating and innovative work atmosphere located in the heart of San Isidro, Lima, featuring convenient parking and recreational zones to promote wellbeing during breaks. Our hybrid work model gives you the flexibility to balance time between our fully equipped office and remote work tailored to team and personal preferences.
We prioritize professional growth by exposing you to challenging, diverse projects that foster continuous learning and skills enhancement. Our organizational culture is based on transparency, collaboration, commitment, risk-taking, and innovation. We offer formal employment contracts with full legal benefits from day one, ensuring job security and comprehensive protections.

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
DevOps Engineer con Conocimientos en Back-end y AWS
  • coderslab.io
Java Python Agile Node.js
En CodersLab es una empresa dedicada al desarrollo de soluciones para empresas y actualmente estamos enfocados en el crecimiento global de nuestros equipos con el objetivo de posicionar nuestros productos en más países de Latinoamérica. Por esta razón, estamos buscando un DevOps Engineer con conocimientos en Backend y AWS

Te sumarás a un equipo desafiante y ambicioso con ganas de innovar en el mercado, haciendo que tus propuestas sean altamente valiosas para el negocio.
¡Aplica ahora para este increíble reto!

Apply directly on the original site at Get on Board.

Funciones del cargo

  • Diseñar, implementar y mantener pipelines CI/CD para aplicaciones backend.
  • Automatizar despliegues y configuraciones en entornos AWS (EC2, Lambda, ECS, EKS, S3, RDS, etc.).
  • Gestionar infraestructura como código usando herramientas como Terraform, CloudFormation o similares.
  • Monitorizar y optimizar el rendimiento de sistemas y aplicaciones.
  • Colaborar con desarrolladores backend para integrar y mejorar procesos de desarrollo y despliegue.
  • Implementar prácticas de seguridad en la infraestructura y aplicaciones.
  • Gestionar la escalabilidad, alta disponibilidad y recuperación ante desastres.
  • Documentar procesos y arquitecturas implementadas.

Requerimientos del cargo

  • Experiencia mínima de 2 años como DevOps Engineer o en roles similares.
  • Conocimientos sólidos en AWS y sus servicios principales.
  • Experiencia en desarrollo backend con lenguajes como Python, Node.js, Java o Go.
  • Dominio de herramientas CI/CD (Jenkins, GitLab CI, GitHub Actions, etc.).
  • Conocimientos en infraestructura como código (Terraform, CloudFormation).
  • Experiencia con contenedores y orquestadores (Docker, Kubernetes).
  • Familiaridad con monitoreo y logging (Prometheus, Grafana, ELK, CloudWatch).
  • Buenas prácticas de seguridad en la nube.
  • Capacidad para trabajar en equipo y comunicar efectivamente.
Deseables:
  • Certificaciones AWS (AWS Certified DevOps Engineer, AWS Solutions Architect).
  • Experiencia con microservicios y arquitecturas serverless.
  • Conocimiento en bases de datos SQL y NoSQL.
  • Experiencia en metodologías ágiles.

POSTULAR VÍA WEB Ver trabajo
Gross salary $2100 - 2400 Tiempo completo
Administrador de Base de Datos
  • Genesys Tecnologías de Inform. SpA
  • Concepción or Biobío (Hybrid)
PostgreSQL Oracle Linux Amazon Web Services
Genesys Tecnologías de Inform. SpA es una empresa consolidada en el mercado latinoamericano con más de 30 años de trayectoria, especializada en desarrollo de software y prestación de servicios TI a través de Outsourcing. Con sedes en Concepción y Santiago, Genesys se enfoca en acompañar a sus clientes en sus procesos de Transformación Digital, utilizando tecnologías actuales como Cloud, Data Analytics, Inteligencia Artificial y Automatización de Procesos.
El equipo de desarrollo y soporte se encarga de múltiples proyectos relacionados con la modernización tecnológica de empresas de la región, manteniendo servicios de soporte, mantenimiento de aplicaciones y desarrollo, para asegurar la continuidad operacional y la innovación constante en los negocios de sus clientes.

Applications: getonbrd.com.

Funciones del Cargo

Como Administrador de Base de Datos, serás responsable de la gestión integral de las bases de datos, garantizando su disponibilidad, rendimiento y seguridad. Deberás mantener la plataforma operativa para asegurar la continuidad y la integridad de la información crítica para la operación de la empresa.
  • Administrar, configurar y monitorear bases de datos Oracle, SQL Server, PostgreSQL y MongoDB.
  • Asegurar la seguridad y el control de accesos a la información almacenada.
  • Implementar y mantener soluciones de respaldo y recuperación ante desastres.
  • Supervisar el rendimiento y optimizar consultas y procesos dentro de los sistemas de base de datos.
  • Interactuar eficientemente con usuarios y equipos técnicos para resolver incidencias y requerimientos vinculados a las bases de datos.
  • Trabajar con sistemas operativos Windows Server y Linux, asegurando un entorno estable y seguro para las bases de datos.
  • Colaborar en entornos Cloud como Azure, AWS o Google Cloud, integrando y gestionando bases de datos en la nube cuando corresponda.
Tu enfoque estará puesto en anticipar y resolver problemas, aplicar pensamiento analítico y comunicarte de forma efectiva con diferentes áreas de la organización.

Descripción del Cargo y Requisitos

Estamos buscando un profesional con un mínimo de 3 años de experiencia comprobada en administración de bases de datos, especialmente en entornos Oracle, SQL Server, PostgreSQL y MongoDB. Buscamos alguien con sólidos conocimientos técnicos en sistemas operativos Windows Server y Linux, capaz de desempeñarse en ambientes híbridos que integren tecnología on-premise y en la nube.
El candidato ideal deberá contar con habilidades avanzadas para la resolución de problemas y pensamiento analítico orientado al diagnóstico rápido y solución eficiente. Además, tendrá una gran capacidad de comunicación para interactuar con usuarios y stakeholders, comprendiendo sus necesidades y traduciéndolas en soluciones técnicas efectivas.
Es deseable poseer certificaciones en administración de bases de datos que avalen los conocimientos técnicos y la experiencia práctica en el área.
Buscamos profesionales comprometidos, organizados, con iniciativa y que tengan facilidad para trabajar en equipo, promoviendo un ambiente colaborativo que permita el crecimiento conjunto.

Requisitos Deseables

Se valorará especialmente la experiencia previa en entornos Cloud como Microsoft Azure, Amazon Web Services o Google Cloud Platform, tanto en implementación como en administración de bases de datos en dichas plataformas. Las certificaciones oficiales en gestión de bases de datos, tales como Oracle Certified Professional, Microsoft Certified: Azure Database Administrator Associate o similares, serán consideradas un plus significativo.
Además, se apreciará el conocimiento en automatización de tareas mediante scripts, familiaridad con herramientas de monitoreo y respaldo avanzadas, y la capacidad para integrarse en equipos multifuncionales de proyectos de transformación digital.

Condiciones y Beneficios

Ofrecemos un contrato a plazo fijo dentro de un ambiente laboral dinámico, colaborativo y orientado al desarrollo profesional y aprendizaje constante. Nuestro horario laboral es de lunes a viernes de 08:30 a 18:30 hrs, bajo modalidad híbrida que combina trabajo presencial en la oficina de Concepción y trabajo remoto.
Formarás parte de una empresa con más de tres décadas de experiencia en el sector tecnológico latinoamericano, con presencia en Concepción y Santiago. Valoramos el talento y fomentamos el crecimiento y la innovación continua dentro de un entorno que impulsa la excelencia técnica y la transformación digital.
Únete a Genesys Tecnologías de Inform. SpA y sé parte de un equipo comprometido con mantener los negocios en movimiento y elevar el estándar tecnológico en las empresas de la región. ¡Esperamos crecer juntos contigo! 😊

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
SRE Engineer
  • 2BRAINS
Agile SQL Scrum Kanban

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

This job is original from Get on Board.

El perfil SRE Engineer de 2Brains

Garantizar la confiabilidad, escalabilidad y disponibilidad de los sistemas y servicios de la organización, mediante la implementación de prácticas de Site Reliability Engineering (SRE). Optimizar el rendimiento y la estabilidad de las aplicaciones, alineando la infraestructura con los objetivos del negocio.

¿Qué conocimientos buscamos en el/la SRE Engineer?

  • Implementar y mantener prácticas de observabilidad (métricas, logs, trazas) para mejorar la visibilidad y diagnóstico de sistemas.
  • Definir y gestionar Service Level Indicators (SLIs), Service Level Objectives (SLOs) y Error Budget para garantizar la calidad del servicio.
  • Desarrollar y automatizar procesos de monitoreo, alertas y respuesta a incidentes para minimizar el tiempo de inactividad.
  • Aplicar metodologías de testing automatizado (funcionales, rendimiento, seguridad e integración) para mejorar la confiabilidad del software.
  • Colaborar con equipos de desarrollo para implementar mejoras en la arquitectura y diseño de aplicaciones con un enfoque en escalabilidad.
  • Optimizar el rendimiento y la estabilidad de las aplicaciones web, asegurando tiempos de respuesta eficientes.
  • Aplicar buenas prácticas de seguridad en aplicaciones y desarrollo seguro.
  • Gestionar y mejorar bases de datos relacionales y consultas en SQL para optimizar la eficiencia del acceso a datos.
  • Adoptar y fomentar metodologías ágiles (Scrum, Kanban) en la gestión de proyectos y entrega de software.
  • Participar en la investigación y adopción de nuevas tecnologías para optimizar procesos y mejorar la infraestructura.

¿Qué competencias buscamos en el/la SRE Engineer?

  • Curiosidad
  • Foco en los objetivos
  • Colaboración y trabajo en equipo (ínter y multidisciplinario)
  • Proactividad
  • Autonomía

Te ofrecemos

  • Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos.
  • Un proyecto con foco en los usuarios, visión de UX e integrada al desarrollo.
  • Acceso a grandes clientes y proyectos desafiantes.
  • Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales.
  • Un entorno de trabajo flexible y dinámico.
  • Beneficios especiales: un día libre de regalo por tu cumpleaños, días de descanso (previa coordinación), convenios para cursos de especialización.

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2200 Tiempo completo
Analista QA Automatizador
  • BC Tecnología
  • Santiago (Hybrid)
Python PostgreSQL Git QA
En BC Tecnología, somos una consultora de TI con un fuerte enfoque en la creación de soluciones personalizadas que se alinean perfectamente con las necesidades de nuestros clientes. Trabajamos con un diverso portafolio en sectores como servicios financieros, seguros, retail y gobierno. En nuestro proyecto actual, requerimos un Analista QA Automatizador por un periodo de 12 meses, donde el candidato será parte de un equipo ágil, encargado de asegurar la calidad de nuestros desarrollos mediante metodologías de testing avanzadas.

Apply to this job directly at getonbrd.com.

Responsabilidades del Analista QA Automatizador

  • Implementar y ejecutar pruebas automatizadas utilizando Selenium WebDriver en Python u otros lenguajes de programación orientados a objetos.
  • Realizar testing de APIs, asegurando la funcionalidad solicitada y la integridad de los microservicios.
  • Manejar repositorios y versiones de software mediante Git y plataformas como GitHub, GitLab o Bitbucket.
  • Interactuar con bases de datos; realizar consultas y pruebas en PostgreSQL como parte del proceso de verificación.
  • Gestionar actividades del equipo y seguimiento de tareas a través de Jira, asegurando el cumplimiento de cronogramas establecidos.
  • Configurar pipelines de CI/CD para facilitar la integración continua y entrega de software fluida.

Requisitos y habilidades del candidato

Buscamos un profesional que posea al menos 3 años de experiencia comprobable en roles similares, con un sólido entendimiento de las prácticas de aseguramiento de calidad. El candidato debe ser capaz de trabajar de manera colaborativa en un ambiente ágil, adoptar metodologías de desarrollo modernas y comunicarse efectivamente con diferentes áreas del equipo. Se valora la proactividad y un enfoque orientado a resultados.

Habilidades deseables

Sería un plus contar con certificaciones relacionadas a testing o metodologías ágiles, así como experiencia en la gestión de pruebas dentro de equipos multidisciplinarios. La experiencia con herramientas adicionales de automatización o conocimientos en lenguajes de programación adicionales también serán considerados positivamente.

Beneficios que ofrecemos

En BC Tecnología, valoramos a nuestro personal y fomentamos un ambiente laboral positivo y colaborativo. Ofrecemos un contrato a plazo fijo que tiene la posibilidad de convertirse en indefinido. Nuestro esquema de trabajo es híbrido, permitiendo así flexibilidad en la modalidad. Además, contamos con beneficios tales como seguro complementario de salud, aguinaldo por fiestas patrias y navidad, y tarjeta de alimentación. 🌟

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2500 Tiempo completo
DBA Oracle
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL Oracle Linux
En *BC Tecnología*, somos una consultora TI con un enfoque claro en el cliente. Nuestros equipos de trabajo ágiles están diseñados para colaborar en proyectos innovadores, especialmente en el sector educativo. Tenemos más de 6 años de experiencia creando soluciones IT que se ajustan a las necesidades de nuestros clientes. Este proyecto específico es emocionante y se basa en la administración y optimización de bases de datos Oracle, siendo una oportunidad ideal para quienes buscan hacer un impacto significativo en su campo.

Apply to this job opportunity at getonbrd.com.

Tus responsabilidades:

  • 🔧 Gestionar bases de datos Oracle en producción y desarrollo, asegurando su alta disponibilidad y rendimiento.
  • ⚙️ Configurar y gestionar entornos de alta disponibilidad usando Oracle RAC y Data Guard.
  • ☁️ Migrar bases de datos a Oracle Cloud y otros entornos Cloud.
  • 🛠 Automatizar tareas de DBA y realizar monitoreo continuo para optimizar el rendimiento.
  • 🛡 Diseñar planes de recuperación ante desastres y políticas de backup/restore.
  • 🔄 Colaborar con equipos de desarrollo y operaciones para integrar las bases de datos con las aplicaciones.

¿Qué buscamos?

  • 🎯 Experiencia sólida en Oracle 19c o superior.
  • ⚡ Conocimiento profundo de Oracle RAC, Data Guard, ASM y Oracle Multitenant.
  • ☁️ Experiencia con Oracle Cloud Infrastructure (OCI) y otros servicios Cloud como AWS o Azure (deseable).
  • 🛠 Habilidades en scripting para automatización de tareas DBA (Bash, Python).
  • 📊 Experiencia en monitoreo, tuning y optimización de bases de datos.
  • 🗂 Conocimiento avanzado en PLSQL, tuning de SQL, y gestión de backups (RMAN, Data Pump).
  • 🔐 Experiencia en seguridad y encriptación de bases de datos.

¿Qué ofrecemos?

  • 🚀 Proyecto de 5 meses con posibilidad de extensión.
  • 🌍 Trabajo híbrido en un ambiente dinámico.
  • 🎓 Oportunidades de crecimiento y aprendizaje con nuevas tecnologías.

Beneficios adicionales:

  • Modalidad híbrida (presencial 2 veces por semana) en Lima, Perú.
  • Horario flexible de lunes a viernes de 9:00 a 18:00.
  • Oportunidad de trabajar en proyectos innovadores que impactan el sector educativo.
  • Ambiente dinámico y con muchas oportunidades de crecimiento.
¡Únete a un equipo donde tu talento hará la diferencia! 🌟

Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2200 - 2700 Tiempo completo
QA Automation
  • coderslab.io
Android iOS Python Agile

En CodersLab, actualmente estamos enfocados en el crecimiento global de nuestros equipos con el objetivo de posicionar nuestros productos en más países de Latinoamérica. Por esta razón, estamos buscando un QA AUTOMATION motivado y orientado a objetivos.

Te unirás a un equipo desafiante y ambicioso con ganas de innovar en el mercado, haciendo que tus propuestas sean altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Find this vacancy on Get on Board.

Funciones del cargo

Responsabilidades Principales:

1. Desarrollo de Automatización de Pruebas:

o Diseñar e implementar scripts automatizados para pruebas de aplicaciones web, móviles y

APIs utilizando herramientas como Robot Framework y Appium (Android/iOS).

o Garantizar la cobertura de pruebas para servicios REST y GraphQL.

o Usar Python para desarrollar soluciones personalizadas y mejorar los frameworks de prueba existentes.

2. Pruebas de Bases de Datos:

o Realizar pruebas y validaciones en bases de datos relacionales (e.g., MySQL, PostgreSQL) y no relacionales (e.g., DynamoDB).

3. Gestión y Colaboración:

o Documentar procesos, resultados y estrategias de prueba en herramientas como Confluence.

o Trabajar en estrecha colaboración con desarrolladores y partes interesadas del negocio para garantizar que los requisitos de calidad se cumplan.

o Gestionar tareas, estimaciones de esfuerzo y prioridades en Jira.

4. Gestión de Infraestructura:

o Configurar pipelines de integración y despliegue continuo (CI/CD) utilizando GitHub Actions.

o Colaborar en entornos basados en la nube, como AWS, para la ejecución y el mantenimiento de pruebas automatizadas.

5. Capacitación y Transferencia de Conocimiento:

o Capacitar a los miembros del equipo en herramientas, procesos y mejores prácticas de automatización.

o Promover una cultura de mejora continua mediante la transferencia de conocimiento y la mentoría.

Requerimientos del cargo

• Experiencia mínima de 5 años en QAA.

• Experiencia sólida en automatización de pruebas utilizando Robot Framework y Appium (Android/iOS).

• Conocimiento avanzado en Python para desarrollo de scripts y frameworks.

• Experiencia en diseño y ejecución de pruebas de APIs (REST y GraphQL).

• Familiaridad con bases de datos relacionales y no relacionales (MySQL, PostgreSQL, DynamoDB).

• Conocimiento de herramientas de CI/CD como GitHub Actions.

• Experiencia trabajando con AWS.

• Manejo de herramientas de gestión como Jira y Confluence.

• Habilidades en documentación y colaboración con equipos técnicos y de negocio.

• Experiencia en entornos ágiles (Scrum)

• Capacidad para liderar iniciativas de automatización y fomentar un entorno de aprendizaje continuo.

• Excelentes habilidades de comunicación y proactividad

• Autonomía y capacidad para gestionar múltiples tareas simultáneamente.

Conditions

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1400 - 1700 Tiempo completo
Administrador de Bases de Datos
  • Zerviz Technologies
  • Santiago (In-office)
MySQL PostgreSQL NoSQL MongoDB

En ZerviZ, somos una empresa líder en innovación tecnológica y transformación digital desde 2017, con presencia en más de 16 países de América Latina. Nos especializamos en diseñar, implementar y optimizar proyectos digitales que mejoran la experiencia del cliente y optimizan procesos operativos, atención, servicio y gestión. Participarás en un equipo que impulsa más de 150 proyectos exitosos utilizando tecnologías de punta y metodologías ágiles, siempre buscando ir más allá de lo convencional para entregar soluciones flexibles y personalizadas a clientes en diversas industrias.

This job is original from Get on Board.

Funciones

  • Administrar y optimizar bases de datos relacionales (SQL Server, MySQL, PostgreSQL) y no relacionales (MongoDB).
  • Desarrollar y ejecutar scripts en SQL para automatizar tareas y mejorar el rendimiento.
  • Implementar y mantener políticas de seguridad de bases de datos (encriptación, control de acceso, auditoría).
  • Gestionar planes de backup, recuperación de datos y garantizar alta disponibilidad.
  • Monitorear el rendimiento de las bases de datos y diagnosticar posibles problemas.
  • Gestionar bases de datos en entornos virtualizados y plataformas en la nube (AWS, Azure, Google Cloud).

Requisitos

  • Experiencia en Sistemas de Gestión de Bases de Datos (SGBD): Se requiere experiencia en el manejo y administración de SGBD como Microsoft SQL Server, MySQL, PostgreSQL, MongoDB, entre otros, tanto en bases de datos relacionales como no relacionales.
  • Instalación, configuración y administración: Se debe contar con la capacidad para instalar, configurar y administrar diferentes tipos de SGBD, adaptándolos a las necesidades específicas de la organización.
  • Conocimientos en arquitectura de bases de datos: Se debe tener un conocimiento sólido en la arquitectura de bases de datos, comprendiendo su diseño, escalabilidad y optimización, asegurando un desempeño eficiente y seguro de las bases de datos.

Experiencias Deseables

  • Seguridad de la información: Conocimiento en herramientas y técnicas de seguridad, encriptación de datos y gestión de riesgos.
  • Certificaciones en Cloud: Certificaciones en plataformas de computación en la nube como AWS, Azure o Google Cloud.
  • Business Intelligence (BI): Conocimientos en herramientas de BI para el análisis y visualización de datos.
  • Automatización y scripting: Familiaridad con herramientas de automatización y scripting (PowerShell, Python, etc.) para optimizar procesos y tareas administrativas.

Conditions

Life insurance Zerviz Technologies pays or copays life insurance for employees.
Health coverage Zerviz Technologies pays or copays health insurance for employees.
Dental insurance Zerviz Technologies pays or copays dental insurance for employees.
Computer provided Zerviz Technologies provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1400 - 1900 Tiempo completo
Consultor Data Engineer
  • MAS Analytics
  • Santiago (Hybrid)
SQL Azure ETL Power BI

MAS Analytics es una consultora de datos e inteligencia artificail que nos dedicamos a desarrollar proyectos de Data Science (DS), Inteligencia Artificial, Cloud Architecture y Business Intelligence (BI). Hoy en día tenemos muchos proyectos con clientes de muchos rubros distintos y necesitamos ingeniero/as apasionados que estén buscando aprender y desafiarse trabajando en equipo.

Si estás buscando profundizar y trabajar aplicando tus conocimientos día a día, dentro de un equipo de mucho talento, y alto rendimiento, este puesto es lo que estás buscando.

© getonbrd.com. All rights reserved.

Funciones del cargo

Estamos buscando ingenier@s que sepan trabajar con datos, mover datos, interpretar datos y buscar datos. El cargo está orientado hacia la ingeniería de datos utilizando herramienta de ETL, Bases de datos y herramientas de reportería.

Si no manejas alguno de estos conceptos, no te preocupes, nos importa que tengas las bases para poder aprender y desafiarte día a día.

Tendrás que realizar las siguientes tareas (entre otras):

  1. Reuniones de negocio con clientes
  2. Creación de queries SQL
  3. Creación de pipelines ETL (on premise y cloud)
  4. Creación de visualizaciones en herramientas de BI

El éxito de tu trabajo se evaluará en el nivel de satisfacción de los modelos entregados a los clientes y en el cumplimiento de plazos.

Trabajarás dentro de los equipos de desarrollo de MAS Analytics teniendo reuniones de avance semanal con los clientes y otros miembros del equipo de MAS Analytics.

Requerimientos del cargo

Al ser consultoría en tecnología, necesitamos que tengas habilidades técnicas y habilidades blandas. Se privilegiarán perfiles de ingeniería civil TI o Computación.
En cuanto a las habilidades técnicas, se espera que puedas trabajar con las siguientes herramientas:
  1. Queries SQL (CRUD)
  2. Procesamiento: Dataflow (GCP, Azure), Lambda, Glue (AWS)
  3. Visualizaciones: Qlik, Tableau, Power BI
  4. Modelamiento de datos: modelos dimensionales OLAP
Con respecto a las habilidades blandas, necesitamos que estés preparada/o para:
  1. Llevar comunicación con los clientes
  2. Levantar requerimientos
  3. Trabajo en equipo
  4. Proactividad
  5. Pensamiento analítico

Opcionales

Conocimientos en herramientas Cloud (GCP, AWS, Azure)

Algunos beneficios

  1. Horario flexible
  2. Financiamiento de cursos y certificaciones 👨‍🎓👩‍🎓
  3. Ambiente laboral joven
  4. Viernes medio día
  5. Vacaciones extra 🌞🏝
  6. Celebraciones de cumpleaños 🎁🎊
  7. Actividades de empresa 🍻⚽
  8. Y muchos más que podrás conocer…

Wellness program MAS Analytics offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage MAS Analytics pays or copays health insurance for employees.
Dental insurance MAS Analytics pays or copays dental insurance for employees.
Computer provided MAS Analytics provides a computer for your work.
Education stipend MAS Analytics covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Vacation over legal MAS Analytics gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 2000 Tiempo completo
Business Intelligence Analyst
  • Compara
Python PostgreSQL Git Data Analysis

En Compara estamos buscando un Business Intelligence Analyst para unirse a nuestro equipo de Product Operations.
Tu misión será ayudarnos a comprender y optimizar el desempeño de nuestros productos basados en inteligencia artificial, convirtiendo datos en insights accionables que impulsen decisiones estratégicas y generen un impacto tangible en el negocio.

Apply without intermediaries from Get on Board.

🎯 ¿Qué harás?

  • Generar reportes, dashboards y métricas clave que nos ayuden a monitorear y potenciar nuestros productos de IA.
  • Analizar KPIs, detectar errores y generar insights para la mejora continua.
  • Colaborar con equipos de producto, tecnología y otras áreas para resolver desafíos estratégicos basados en datos.
  • Apoyar la configuración y el mantenimiento de nuestros productos de IA, incluyendo tareas relacionadas a prompt engineering.

🔎 ¿A quién buscamos?

  • Experiencia en roles de Business Intelligence.
  • Manejo de herramientas BI (idealmente Metabase).
  • Dominio de SQL (preferiblemente PostgreSQL).
  • Conocimientos prácticos de Python para análisis o automatización de datos.
  • Conocimiento básico de versionado con Git.
  • Pensamiento analítico, autonomía y habilidades colaborativas para definir métricas de producto y resolver problemas con actitud proactiva.

🌟 Será un plus si cuentas con:

  • Conocimiento en data engineering: ETL/ELT, pipelines y automatización de procesos.
  • Experiencia en prompt engineering o trabajo con modelos de lenguaje (LLMs).
  • Experiencia trabajando en contextos profesionales enfocados en soluciones y proyectos de inteligencia artificial.

Si te motiva trabajar con datos, inteligencia artificial y tecnología de punta en un equipo ágil, colaborativo y con impacto real en el negocio, ¡nos encantaría conocerte!🚀

Beneficios

En Compara, ofrecemos horarios flexibles y un entorno que favorece el crecimiento profesional. Valoramos la cultura de aprendizaje continuo y el desarrollo de cada miembro del equipo, por lo que si disfrutas optimizando infraestructuras de datos, impulsando mejoras estratégicas y explorando nuevas herramientas, ¡nos encantaría conocerte! 🚀

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Compara provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Compara gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
Gross salary $750 - 800 Tiempo completo
Técnico en Informática
  • Datasur
  • Santiago (Hybrid)
Python MySQL PostgreSQL SQL

En Datasur, somos líderes en inteligencia comercial basada en datos de comercio exterior. Nuestra plataforma procesa millones de registros de importaciones y exportaciones de más de 70 países, y estamos listos para escalar más alto.

Este debe asegurar la correcta gestión y actualización de las bases de datos de comercio internacional, manteniendo altos estándares de calidad en la información procesada. Contribuir a la generación de reportes y análisis estratégicos para clientes de diversos sectores.

© getonbrd.com.

Funciones del cargo

El tecnico en informatica sera responsable de la recolección, procesamiento y validación de información de importaciones y exportaciones en la plataforma de Datasur. Su rol es clave para garantizar la precisión y actualización de las bases de datos comerciales, apoyando el desarrollo de reportería y análisis de mercado para los clientes de la empresa.

  • Recopilar y procesar datos de importaciones y exportaciones desde diversas fuentes, incluyendo información aduanera y manifiestos de carga.
  • Validar, limpiar y estandarizar los datos para garantizar su confiabilidad y precisión.
  • Gestionar la carga y actualización de la información en la plataforma de Datasur.
  • Apoyar en la elaboración de reportería y análisis de mercado para clientes.
  • Identificar inconsistencias o errores en la información y coordinar su corrección.
  • Mantener comunicación con proveedores de datos y equipos internos para garantizar la fluidez en el proceso de actualización de información.
  • Cumplir con los protocolos de calidad y seguridad de datos definidos por la empresa.

Requerimientos del cargo

  • Título técnico en Informatica.
  • Manejo intermedio de Python
  • Conocimientos en SQL, PostgreSQL, MySQL/MariaDB
  • Al menos 1 año de experiencia en procesamiento de datos, análisis de información o manejo de bases de datos (No Excluyente)
  • Atención al detalle y precisión en el manejo de datos.
  • Capacidad analítica para identificar patrones y tendencias en la información.
  • Organización y gestión del tiempo para cumplir con cronogramas de actualización.
  • Habilidad para trabajar en equipo y comunicarse de manera efectiva.
  • Orientación a la mejora continua y resolución de problemas.

Condiciones

  • Seguro complementario de salud.
  • Posibilidad de crecimiento hacia roles de mayor especialización en análisis de datos y reportería.
  • Capacitación en herramientas de procesamiento y análisis de información.
  • Desarrollo profesional en un entorno dinámico de tecnología aplicada al comercio internacional.

Partially remote You can work from your home some days a week.
Health coverage Datasur pays or copays health insurance for employees.
Computer provided Datasur provides a computer for your work.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Analytics Engineer
  • Apply Digital Latam
JavaScript UI Design HTML5 CSS

Apply Digital Latam is part of Apply Digital, a global digital innovation and transformation company founded in 2016 in Vancouver, Canada. With over 750 team members across nine cities in North America, South America, the UK, and Europe, Apply Digital delivers impactful digital solutions for major international clients including Kraft Heinz, NFL, Moderna, Lululemon, Dropbox, Atlassian, A+E Networks, and The Very Group. Within Apply Digital, teams operate in 'pods' that combine senior leadership, subject matter experts, and cross-functional skills, facilitating agile delivery through scrum and sprint practices.. This role is based in Latin America.

Apply directly on Get on Board.

About the Role

As an Analytics Engineer at Apply Digital, you will be responsible for designing, implementing, and maintaining cutting-edge digital analytics solutions that serve our diverse client portfolio. Your core objectives will revolve around ensuring the accuracy, scalability, and reliability of data collection platforms and analytics instrumentation.

  • Develop and deploy robust analytics systems leveraging platforms such as Google Analytics (GA4), Adobe Analytics, and Customer Data Platforms (CDPs) like mParticle and Segment.
  • Collaborate closely with cross-functional teams including developers, product managers, data analysts, and client stakeholders to translate business needs into technical analytics solutions.
  • Maintain and enhance tag management strategies using tools like Google Tag Manager and Tealium, ensuring quality assurance of analytics tags across web and mobile properties.
  • Confirm thorough end-to-end tracking coverage, including attribution persistence through complex content management systems (CMS) and dynamic backend databases.
  • Implement, monitor, and refine data layers and tracking rules according to predefined instrumentation frameworks.
  • Conduct quality assurance (QA) and debugging of analytics implementations and collaborate on documentation such as data dictionaries and QA workflows.
  • Present findings and provide actionable technical recommendations to business stakeholders and senior leadership to support data-driven decision-making.
  • Stay current with industry trends and best practices, contributing to the strategic direction for Apply Digital’s Data & Analytics discipline.

Role Requirements and Qualifications

We are seeking a technically proficient Analytics Engineer with deep expertise in digital analytics platforms and tag management systems. Candidates must demonstrate strong problem-solving skills, attention to detail, and excellent communication abilities to work effectively across distributed teams in North America and Latin America.

  • 5+ years of professional experience implementing and managing advanced digital analytics solutions using platforms such as Google Analytics and Adobe Analytics.
  • Expert-level experience with Google Tag Manager, including advanced implementations, troubleshooting, and debugging.
  • Solid front-end development capabilities with strong understanding of JavaScript, HTML, CSS, and DOM manipulation, enabling precise analytics instrumentation.
  • Hands-on expertise with Customer Data Platforms (CDPs) such as mParticle or Segment to streamline and unify data collection and integration.
  • Proficient with SQL for querying large datasets, preferably with experience using BigQuery or similar cloud-based data warehouses.
  • Experience with data modeling, architecture principles, and designing scalable, privacy-compliant analytics infrastructures.
  • Knowledge of ETL/ELT processes and data warehousing concepts.
  • Familiarity with consent management tools and implementation of privacy regulations within analytics frameworks.
  • Demonstrated ability to manage multiple projects simultaneously in a dynamic, fast-paced environment.
  • Strong verbal and written communication skills in English, required to collaborate with remote and international teams.
  • Bachelor’s degree in Computer Science, Data Science, Analytics, Engineering, or a related field.
  • Experience working with BI and visualization tools such as Looker, Tableau, Power BI, or equivalents for effective data reporting.
  • Ability to translate complex data into actionable business insights, supporting strategic decision-making.
  • Experience with AI-augmented data practices, including usage of tools like Gemini AI, ChatGPT, or BigQuery’s AI SQL Assist to enhance data exploration and insight acceleration.

Soft skills essential for success in this role include a proactive mindset, collaboration, adaptability, and a strong commitment to quality and continuous improvement.

Preferred Skills and Experience

While not mandatory, the ideal candidate may also possess:

  • Familiarity with additional tag management platforms such as Tealium.
  • Experience working within Agile pod structures and knowledge of scrum methodologies.
  • Prior engagement within global, cross-cultural remote teams.
  • Advanced knowledge of data privacy laws and compliance standards such as GDPR and CCPA.
  • Experience in mentoring and guiding junior analytics engineers or analysts.
  • Involvement in open-source analytics tools or community initiatives.

Why Join Apply Digital?

  • Flexible work arrangements to ensure you work where you are most productive—remote, hybrid, or in-office.
  • Competitive benefits package tailored to your needs including extended health and dental plans.
  • Generous paid time off policy promoting a strong work-life balance.
  • Opportunities for continuous learning and professional growth with dedicated training budgets, certifications, workshops, and mentorship programs.
  • Inclusive and safe workplace where diversity is celebrated and all team members feel welcomed and respected.
  • Engaging company culture with regular events like karaoke, escape rooms, and axe throwing to foster team bonding.
  • A growing company with clear career progression paths and promotion from within.

POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2300 Tiempo completo
Data Engineer
  • Genesys Tecnologías de Inform. SpA
  • Santiago (Hybrid)
Java Python Git SQL
Genesys Tecnologías de Información SpA es una empresa consolidada en Latinoamérica con más de 30 años de experiencia en el mercado, especializada en soporte y mantenimiento de aplicaciones, RPA, inteligencia artificial, QA Automation, staff augmentation, cloud y más. Acompañamos a las empresas en su camino de transformación digital mediante tecnologías de última generación como Cloud, Data Analytics, Artificial Intelligence y Process Automation. Nuestro equipo multidisciplinario colabora estrechamente con la matriz en Santiago y otras operaciones para brindar soluciones tecnológicas que elevan el estándar tecnológico de las organizaciones.

Applications: getonbrd.com.

Responsabilidades

  • Diseñar y desarrollar canalizaciones de datos (ETL/ELT) robustas y eficientes.
  • Colaborar con equipos de ingeniería para asegurar la integración y calidad de los datos.
  • Implementar y gestionar bases de datos y data warehouses escalables.
  • Optimizar el rendimiento de las bases de datos y sistemas de almacenamiento de datos.
  • Garantizar la calidad, integridad y seguridad de los datos dentro de los sistemas.
  • Automatizar procesos de ingestión y transformación de datos para eficiencia operativa.
  • Monitorizar y solucionar problemas relacionados con los sistemas de datos.
  • Documentar procesos, arquitecturas, y mejores prácticas relacionadas con el manejo de datos para facilitar la continuidad y mejora.

Descripción

Buscamos un Data Engineer talentoso y motivado para integrarse a nuestro equipo de datos. El candidato ideal tendrá experiencia demostrable en roles similares, con habilidades para diseñar, construir y mantener sistemas de datos escalables que faciliten el análisis y la toma de decisiones dentro de la organización.
Requisitos imprescindibles incluyen una licenciatura en Ciencias de la Computación, Ingeniería Informática, Matemáticas o un campo relacionado. Debe poseer conocimientos profundos en SQL y experiencia con bases de datos relacionales y no relacionales, además de manejar grandes volúmenes de datos y trabajar con data lakes.
Es fundamental la experiencia con herramientas de procesamiento de datos como Apache Spark y lenguajes de programación Python. También exigimos conocimiento y experiencia con Google Cloud Platform (Composer, Cloud Functions, BigQuery, Dataproc, etc.), uso de Terraform y git para la gestión de infraestructura y código.
Se valoran igualmente las habilidades analíticas, la capacidad para resolver problemas complejos, excelentes habilidades de comunicación y la capacidad de trabajar colaborativamente en equipo. Además, el candidato debe poseer un nivel de inglés intermedio (B1+) para poder participar activamente en reuniones sin dificultades.

Deseable

  • Conocimientos en el lenguaje de programación Java.
  • Certificaciones relevantes en tecnologías de datos y cloud.
  • Experiencia trabajando en equipos ágiles.

Beneficios

Formarás parte de una empresa consolidada en Latinoamérica con más de tres décadas de experiencia, que valora el talento y fomenta la innovación.
Contamos con un equipo multidisciplinario y una comunicación diaria con nuestra matriz en Santiago y otras operaciones, lo que facilita la colaboración continua y el apoyo técnico.
¡Esperamos que te unas a nuestro equipo para crecer juntos! 😊

Computer provided Genesys Tecnologías de Inform. SpA provides a computer for your work.
Shopping discounts Genesys Tecnologías de Inform. SpA provides some discounts or deals in certain stores.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Analista de Producto, Analítica de Usuarios e Insights
  • BNamericas
  • Santiago (Hybrid)
Python Analytics Agile Data Analysis

BNamericas es la plataforma de inteligencia de negocios líder en América Latina, con 29 años de trayectoria aportando información actualizada y de alto valor de sectores estratégicos de Infraestructura, Minería, Energía Eléctrica, Petróleo y Gas, TIC y Servicios Financieros. Nuestra plataforma ofrece noticias, actualización de proyectos, personas y compañías, facilitando que nuestros clientes tomen decisiones informadas y acertadas.
¿Eres una persona analítica, curiosa y detallista? ¿Te apasiona entender cómo los usuarios interactúan con productos digitales para transformar datos en decisiones estratégicas? Esta oportunidad laboral puede ser para ti.
Hoy buscamos a un/a analista de producto orientada/o a datos, que jugará un rol clave en el análisis del comportamiento de usuarios, el monitoreo del desempeño de la plataforma y la generación de insights estratégicos
que impulsen la evolución de nuestro producto digital.

Send CV through Get on Board.

Responsabilidades Clave

Análisis de comportamiento y uso

  • Monitorear y analizar patrones de uso, puntos de fricción y engagement.
  • Crear dashboards e informes utilizando Amplitude.
  • Compartir insights accionables con los equipos de producto, marketing y liderazgo.
  • Definir y mantener KPIs clave de uso, retención y satisfacción.

Implementación y monitoreo

  • Colaborar con el equipo de desarrollo para asegurar una correcta implementación del tracking.
  • Auditar planes de tracking y asegurar la calidad de los datos.

Soporte al desarrollo de producto

  • Apoyar la validación de hipótesis con datos reales.
  • Participar en discovery entregando insights que guíen la priorización de funcionalidades.

Medición de impacto

  • Evaluar el éxito de lanzamientos mediante KPIs y objetivos de producto.
  • Crear frameworks de medición de product-market fit y satisfacción de usuarios.

Contribución estratégica

  • Identificar oportunidades de mejoras, nuevas funcionalidades y productos.
  • Comunicar hallazgos de forma clara a equipos multidisciplinarios.

Requerimientos del cargo

  • +2 años de experiencia en roles similares (analítica de producto, inteligencia de negocios, data-driven roles).
  • Sólido manejo de herramientas de análisis, idealmente Amplitude.
  • Conocimiento de metodologías ágiles y procesos de desarrollo de producto.
  • Capacidad analítica, pensamiento crítico y excelentes habilidades de comunicación.
  • Conocimiento sobre tracking, eventos y estructuras de datos.
  • Dominio de inglés (oral y escrito).
  • Se valorará experiencia con Python, Pandas, Jupyter y SQL.

Condiciones

En BNamericas fomentamos un ambiente laboral inclusivo, diverso, creativo y altamente colaborativo.

Ofrecemos múltiples beneficios, tales como bono por referidos para la incorporación de nuevos talentos recomendados, salidas anticipadas en fechas especiales como fiestas patrias y Navidad, oportunidades de formación continua y desarrollo profesional, .

Te invitamos a ser parte de una empresa con propósito que promueve el desarrollo sostenible en la región.

Modalidad de trabajo con flexibilidad laboral: híbrido para residentes en Santiago y 100% remoto para el resto de Latinoamérica.

Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Scientist
  • Haystack News
  • Lima (In-office)
Python Data Analysis SQL NoSQL

Haystack News is the leading local & world news service on Connected TVs reaching millions of users! This is a unique opportunity to work at Haystack News, one of the fastest-growing TV startups in the world. We are already preloaded on 37% of all TVs shipped in the US!

Be part of a Silicon Valley startup and work directly with the founding team. Jumpstart your career by working with Stanford & Carnegie Mellon alumni and faculty who have already been part of other successful startups in Silicon Valley.

You should join us if you're hungry to learn how Silicon Valley startups thrive, you like to ship quickly and often, love to solve challenging problems, and like working in small teams.

See Haystack feature at Google IO: https://www.youtube.com/watch?v=-YawUi6qPck

Apply exclusively at getonbrd.com.

Job functions

We are looking for an outstanding Data Scientist to join Haystack and help improve the experience of millions of users that rely on Haystack to get the news every day.

Within the team you’ll find many opportunities to work on various aspects of Data Science, Machine Learning, and Data Engineering. The job offers the opportunity of generating a major impact on the product while working with an awesome and talented team, using the latest technologies.

You will:

  • Analyze large data sets to get insights using statistical analysis tools and techniques
  • Build, evaluate and deploy machine learning models
  • Maintain ongoing reliability, performance, and support of the data infrastructure, providing solutions based on application needs and anticipated growth.
  • Work with tools to configure, monitor and orchestrate data infrastructure and pipelines.
  • Run and monitor AB Tests
  • Build and manage APIs

Qualifications and requirements

  • Bachelor's degree in Computer Science, Statistics, Math or related field.
  • 3+ years experience writing software in a professional setting
  • Knowledge of AWS and Python
  • Strong Math/Stats background with statistical analysis experience on big data sets
  • Experience with SQL and NoSQL (e.g. MongoDb or DynamoDB)
  • Big Plus: Experience with data warehouses (e.g. Snowflake, Big Query, Redshift)
  • Exposure to ML/AI libraries such as sklearn, LightGBM and, XGBoost.
  • Travel Visa to the US (desired)

Conditions

Uber rides to come to the office!
Travel to team's offsite events
Learn about multiple technologies

Accessible An infrastructure adequate for people with special mobility needs.
Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Meals provided Haystack News provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Bicycle parking You can park your bicycle for free inside the premises.
Company retreats Team-building activities outside the premises.
Computer repairs Haystack News covers some computer repair expenses.
Commuting stipend Haystack News offers a stipend to cover some commuting costs.
Computer provided Haystack News provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Vacation over legal Haystack News gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Especialista BI
  • SONDA
  • Santiago (Hybrid)
Data Analysis SQL Business Intelligence Big Data

En SONDA, la Innovación es parte de nuestro ADN.
Miramos hacia el futuro focalizándonos en las últimas tendencias y noticias sobre innovación, tecnologías con impacto y sostenibilidad.
Conocemos los desafíos y demandas de la región y contamos con un amplio portafolio de soluciones de negocio especializadas en las principales industrias del mercado.

Vive la experiencia SONDA en nuestra unidad de negocio Digital Application Services.

Opportunity published on Get on Board.

· Desarrollar y brindar nuevas soluciones de inteligencia empresarial a través del análisis y medición de la calidad de la información utilizada por la empresa para la toma de decisiones, con el fin de maximizar su utilidad.

· Ser responsable de apoyar la recolección, verificación de calidad, compilación, análisis y promoción de interpretaciones correctas de datos.

· Apoyar en el desarrollo de soluciones mediante el uso de plataformas de Business Intelligence (self-service BI), preparación de cuadros de mando e informes para apoyo a la gestión, estructuración, análisis, carga, inclusión, exclusión, alteración y consulta de datos relacionales, multidimensionales y geográficos.

Requerimientos del cargo

· Título profesional o licenciatura es: Ingeniería Civil o Ejecución en Computación e Informática o carrera técnica o profesional afín al rol, con más de 3 años de experiencia en cargos similares.

· Más de 3 años de experiencia en el análisis, diseño e implantación de sistemas de soporte de decisiones (dashboard, scorecard, etc.)

· Más de 3 años de experiencia en el desarrollo de reportes estadísticos.

· Más de 3 años de experiencia en el análisis y gestión de requerimientos para resolver problemas en el ámbito del BI.

· Más de 3 años de experiencia en el desarrollo de proyectos de integración de datos para Data Warehouse o Data Lake.

· Más de 3 años de experiencia en el desarrollo de procesamientos sobre datos (procesamiento SQL).

Idealmente se espera que puedas tener alguna certificación o curso en alguno de estos tópicos:

· Magíster, Diplomado, Postgrado o curso de 40 horas o más atingente a Inteligencia de Negocio o Analítica de Datos.

· Certificaciones/Cursos de desarrollo de reportes y uso de herramientas de visualización.

· Certificaciones/Cursos de bases de datos o SQL.

· Certificaciones/Cursos en herramientas de Integración de datos (ETL).

Conditions

Wellness program SONDA offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance SONDA pays or copays life insurance for employees.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage SONDA pays or copays health insurance for employees.
Retirement plan SONDA pays or matches payment for plans such as 401(k) and others.
Commuting stipend SONDA offers a stipend to cover some commuting costs.
Computer provided SONDA provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 3000 Tiempo completo
Data Engineer (AWS Data Lakes)
  • Niuro
Python SQL Virtualization Big Data
Niuro is a leading global technology talent provider specializing in connecting elite tech teams with top-tier U.S.-based companies. Our mission is to simplify global talent acquisition and maximize project quality through innovative and efficient solutions. We empower autonomous, high-performance teams by handling all administrative aspects such as hiring, payments, and training, enabling our professionals to focus fully on delivering exceptional results. Within this context, we collaborate on impactful industrial data projects with a strong emphasis on innovation and technical excellence. Our teams contribute to challenging projects that leverage cutting-edge data engineering techniques, particularly in cloud-based environments, ensuring both professional growth and meaningful contributions to the client’s success.

Apply to this job from Get on Board.

Role and Responsibilities

As a Data Engineer specializing in AWS Data Lakes, you will play a pivotal role in architecting, building, and managing scalable and robust data lake solutions on the AWS cloud platform. Your primary responsibilities will include designing and implementing data ingestion pipelines, optimizing data transformation processes, and ensuring data quality and integrity to power analytics and business intelligence initiatives.
Key tasks include:
  • Designing and maintaining data lakes using AWS services such as S3, Glue, Athena, Lambda, and Step Functions.
  • Developing and optimizing data processing workflows with PySpark and Python to transform raw data into actionable datasets.
  • Writing efficient SQL queries for data extraction and manipulation.
  • Collaborating closely with U.S.-based cross-functional teams to understand requirements and deliver solutions that align with business objectives.
  • Monitoring, troubleshooting, and improving the performance and reliability of data platforms.
You will be part of a remote, agile, and collaborative environment where continuous improvement and innovation are encouraged.

Skills and Experience Required

We are looking for a motivated Data Engineer with solid experience building and managing data lakes on AWS. The ideal candidate will demonstrate proficiency with core AWS services including S3, Glue, Athena, Lambda, and Step Functions, and have strong programming skills in Python and SQL for processing and transforming data.
Essential qualifications include:
  • Hands-on experience implementing scalable data lake architectures on AWS.
  • Competence with PySpark for distributed data processing.
  • Strong Python programming skills with the ability to create clean, maintainable code.
  • Solid SQL skills for complex queries and data manipulation.
  • Effective communication skills in conversational English to collaborate with teams and stakeholders based in the United States.
Soft skills necessary for success include a proactive attitude, problem-solving mindset, strong attention to detail, and the ability to work independently within a remote work context.

Additional Skills and Technologies (Nice to Have)

While not mandatory, the following skills will enhance your fit for this role and our projects:
  • Experience with backend frameworks and libraries such as FastAPI, Pydantic, and Gunicorn.
  • Familiarity with AWS SDKs such as Boto3 for AWS service integration.
  • Knowledge of web technologies including Aestiva HTML/OS.
  • Containerization and DevOps skills, particularly using Docker.
  • Experience with continuous integration and deployment tools like TeamCity.
  • Version control expertise using GitHub or Gitea.

What We Offer

Joining Niuro means becoming part of an innovative, supportive, and high-performing global community focused on technological excellence. We offer a fully remote position allowing you to work from anywhere in the LATAM region, providing flexibility and work-life balance.
We are committed to your continuous professional growth through ongoing technical and soft skills training, leadership development programs, and opportunities to work on impactful and technically challenging industrial data projects.
Niuro also offers a strong administrative support system, so you can focus entirely on your work without distractions related to hiring, payments, or HR processes.
We maintain a long-term vision for our collaborations, with the possibility of transitioning to stable full-time employment after the initial contract, reflecting our dedication to building lasting relationships with our team members.

Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3000 - 3500 Tiempo completo
Data Engineer Azure Salesforce
  • BC Tecnología
Python Git REST API SQL
En BC Tecnología somos una consultora líder en servicios de TI que brinda soluciones integrales en infraestructura, desarrollo de software y outsourcing para clientes de sectores como servicios financieros, seguros, retail y gobierno. Actualmente, estamos desarrollando un proyecto innovador enfocado en la creación y optimización de pipelines de datos en la nube, utilizando tecnologías de Azure y Salesforce. Buscamos integrar grandes volúmenes de datos para transformar la información en activos estratégicos a través de análisis avanzados y modelos de datos robustos, apoyando a áreas de BI y Data Science para mejorar la toma de decisiones del negocio.

Job opportunity published on getonbrd.com.

Responsabilidades principales

  • Diseñar, desarrollar y mantener pipelines de datos escalables y eficientes en Azure para la integración desde Salesforce, utilizando APIs REST y SOAP.
  • Gestionar la ingesta y almacenamiento de datos en Azure Data Lake Gen2, Azure SQL y Synapse Analytics para facilitar análisis avanzados y reporting.
  • Automatizar flujos de trabajo mediante Azure Data Factory (ADF), Logic Apps y Databricks asegurando la calidad y consistencia de los datos.
  • Implementar controles rigurosos de calidad, limpieza y transformación de datos según políticas corporativas de gobernanza y seguridad.
  • Colaborar de manera interdisciplinaria con equipos de Business Intelligence, Data Science y áreas de negocio para alinear los desarrollos con requerimientos funcionales.
  • Documentar detalladamente los procesos ETL/ELT y mantener actualizado el inventario de flujos y pipelines para facilitar la gestión y mantenimiento a futuro.

Requisitos y perfil del candidato

Buscamos un Data Engineer con al menos 3 años de experiencia en entornos cloud, preferentemente trabajando con Azure y Salesforce. El candidato ideal debe poseer experiencia práctica integrando datos desde Salesforce utilizando APIs REST, Bulk API y herramientas de Azure Data Factory.
Se requiere un conocimiento profundo en tecnologías clave de Azure como Azure Data Factory, Data Lake Gen2, Azure SQL y Synapse, así como experiencia en modelado de datos con esquemas en Estrella y Copo de Nieve.
Habilidades técnicas complementarias incluyen Python, PySpark, T-SQL y manejo avanzado de JSON/XML. Además, el candidato debe estar familiarizado con el uso de sistemas de control de versiones como Git y tener capacidad para trabajar en equipos multidisciplinarios bajo metodologías ágiles.
Valoramos competencias blandas como la proactividad, enfoque al detalle, capacidad analítica, buenas habilidades de comunicación y orientación al trabajo colaborativo.

Habilidades y certificaciones deseables

Es altamente valorado contar con certificaciones oficiales como Microsoft Azure DP-203, Power BI PL-300 y Scrum Master que respalden el conocimiento técnico y metodológico.
Contar con un nivel de inglés intermedio, tanto oral como escrito, es deseable para la comunicación con equipos globales y documentación técnica.
Experiencia previa en proyectos de integración de datos a gran escala y familiaridad con tecnologías complementarias como Logic Apps y Databricks serán consideradas un plus.

¿Qué ofrecemos?

En BC Tecnología promovemos un entorno colaborativo y basado en el aprendizaje continuo, donde valoramos el compromiso y el crecimiento profesional.
Nuestra modalidad de trabajo es 100% remoto, abierta a profesionales ubicados en toda Latinoamérica, lo que permite flexibilidad y balance personal.
Formarás parte de proyectos innovadores con clientes de alto nivel en diferentes industrias, en un clima laboral inclusivo, respetuoso y orientado al desarrollo tanto técnico como profesional.

Fully remote You can work from anywhere in the world.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2500 - 3500 Tiempo completo
Data Engineer Azure (Salesforce)
  • BC Tecnología
Python Git JSON TSQL
En BC Tecnología, una consultora de TI con 6 años de experiencia, nos especializamos en proveer soluciones tecnológicas a clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestro enfoque se centra en la formación de equipos ágiles para áreas de infraestructura, desarrollo de software y unidades de negocio, gestionando proyectos, outsourcing y soporte IT. Actualmente, buscamos incorporar un Data Engineer con experiencia en Azure y Salesforce para un proyecto 100% remoto dirigido a candidatos de LATAM, buscando potenciar nuestro equipo con talento especializado en ingeniería de datos en la nube.

Apply to this job opportunity at getonbrd.com.

Responsabilidades principales

  • Diseñar, desarrollar y mantener pipelines de datos eficientes y escalables en Azure, extrayendo información desde Salesforce utilizando API REST y SOAP.
  • Integrar y consolidar datos en Azure Data Lake Gen2, Azure SQL Database y Synapse Analytics para asegurar la disponibilidad y fiabilidad de la información.
  • Automatizar flujos ETL utilizando herramientas como Azure Data Factory (ADF), Logic Apps y Databricks para optimizar procesos y minimizar errores manuales.
  • Implementar controles estrictos de calidad y limpieza de datos para garantizar la integridad y precisión en todos los conjuntos de datos procesados.
  • Colaborar estrechamente con los equipos de Business Intelligence, Data Science y áreas de negocio para entender requerimientos y entregar soluciones alineadas a objetivos estratégicos.
  • Documentar detalladamente los procesos ETL y asegurar el cumplimiento de políticas de gobernanza de datos, seguridad y mejores prácticas en la nube.

Requisitos y habilidades necesarias

Buscamos un Data Engineer con al menos 3 años de experiencia comprobable trabajando con tecnologías cloud, especialmente en plataformas Microsoft Azure orientadas a la integración de datos desde Salesforce.
Es fundamental que el candidato tenga experiencia real y práctica en la integración de datos mediante APIs de Salesforce (REST, Bulk API) y el uso de Azure Data Factory para la orquestación de pipelines.
Además, se requieren conocimientos sólidos en:
  • Azure Data Factory para construir, automatizar y monitorear pipelines de datos.
  • Azure Data Lake Gen2 para el almacenamiento escalable y seguro de grandes volúmenes de datos.
  • Azure SQL Database y Synapse Analytics para procesamiento y análisis avanzado.
  • Power BI para visualización e interpretación de datos.
  • Lenguajes de programación y scripting como Python, PySpark y T-SQL para manipulación y transformación de datos.
  • Control de versiones con Git.
  • Modelado de datos usando esquemas estrella y copo de nieve, optimizando bases de datos y consultas.
  • Manejo avanzado de formatos de datos complejos como JSON y XML.
El candidato debe ser capaz de trabajar de forma autónoma, tener habilidades comunicativas para colaborar con múltiples equipos y orientarse a resultados con atención al detalle.

Habilidades y certificaciones deseables

  • Certificación Microsoft Azure Data Engineer (DP-203), demostrando dominio avanzado en servicios de datos de Azure.
  • Certificación Power BI Data Analyst (PL-300) para mejorar la capacidad de visualización y análisis de datos.
  • Certificación Scrum Master, lo que contribuiría a una integración más efectiva dentro de equipos ágiles y proyectos iterativos.
  • Nivel de inglés intermedio, tanto oral como escrito, para interactuar en equipos multiculturales y documentación técnica en inglés.

Beneficios y cultura de trabajo

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
Ofrecemos modalidad 100% remota con apertura a talentos de toda Latinoamérica, garantizando flexibilidad y autonomía en la gestión del tiempo.
Participarás en proyectos innovadores y desafiantes con clientes relevantes en sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional continuo.

Fully remote You can work from anywhere in the world.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 2500 Tiempo completo
Consultor Data Analyst Semisenior/Senior
  • Lisit
  • Santiago (Hybrid)
Data Analysis SQL Artificial Intelligence Data Visualization

En Lisit, somos una empresa dedicada a crear, desarrollar e implementar soluciones de software que proporcionan herramientas de automatización y optimización. Nuestro enfoque se centra en acompañar a nuestros clientes a lo largo de sus procesos de transformación digital, combinando innovación, eficiencia operativa y consultoría especializada. Formarías parte de un equipo apasionado por enfrentar desafíos técnicos complejos mediante el uso de tecnologías avanzadas para entregar valor tangible y sostenible a nuestros clientes.

Job source: getonbrd.com.

Responsabilidades del puesto

Como Consultor Data Analyst SemiSenior o Senior, serás responsable de analizar, modelar y transformar datos para extraer insights valiosos que impulsen la toma de decisiones estratégicas. Trabajarás en colaboración con equipos multidisciplinarios para diseñar soluciones basadas en datos que mejoren los procesos internos y la experiencia del cliente.

  • Realizar modelados de datos robustos y eficientes.
  • Desarrollar consultas avanzadas y optimizar bases de datos utilizando SQL.
  • Interpretar y tratar grandes volúmenes de datos para proporcionar análisis claros y accionables.
  • Preparar reportes y visualizaciones que faciliten la comprensión del negocio.
  • Colaborar con áreas técnicas y de negocio para entender requerimientos y traducirlos en soluciones analíticas.
  • Garantizar la calidad y consistencia de los datos procesados.

Requisitos del candidato

Buscamos un profesional con más de 3 años de experiencia en modelado y tratamiento de datos, que posea un conocimiento avanzado en lenguaje SQL y manejo de bases de datos. Es fundamental contar con certificación PL-300, la cual es excluyente para esta posición, dado que asegura competencia en análisis y visualización de datos con tecnologías Microsoft. Además, es deseable tener la certificación DP-600, que indica experiencia en desarrollo de soluciones con inteligencia artificial y bases de datos en Microsoft Azure.

Además de las habilidades técnicas, valoramos cualidades como pensamiento analítico, capacidad para resolver problemas complejos, atención al detalle, y facilidad para comunicar hallazgos a distintos niveles dentro de la organización.

Habilidades y certificaciones valoradas

La certificación DP-600 será altamente valorada, ya que implica conocimientos avanzados en soluciones basadas en inteligencia artificial y bases de datos dentro del ecosistema Microsoft Azure. También se considera un plus la experiencia previa en proyectos de transformación digital, manejo de herramientas de visualización complementarias, y capacidades de trabajo en equipo en entornos ágiles.

Beneficios de trabajar con nosotros

En Lisit promovemos un ambiente laboral dinámico, basado en la innovación constante y el crecimiento profesional. Formarás parte de un equipo que acompaña a clientes en procesos de transformación digital, aplicando las mejores prácticas y tecnologías actuales.

POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 2500 Tiempo completo
Especialista BI – Ssas + Power BI ( Latam)
  • I2B Technologies
Business Intelligence ETL Power BI Data Visualization

I2B Technologies es una empresa reconocida por su acompañamiento permanente a clientes para lograr un salto cualitativo en sus negocios, enfocándose en proyectos de alto impacto que mejoran la calidad de vida de los usuarios. La empresa posee una trayectoria consolidada en proyectos de transformación digital exitosos, basados en consultoría, desarrollo de software, evolución y data science. Como parte del área de Inteligencia de Negocios, participarás en proyectos estratégicos que ofrecen soluciones analíticas de alto valor para mejorar la experiencia y resultados de las empresas con sus usuarios.

This job offer is on Get on Board.

Responsabilidades del rol

  • Modelado de cubos en SQL Server Analysis Services (SSAS), tanto tabulares como multidimensionales.
  • Desarrollo de dashboards ejecutivos en Power BI, incluyendo visualizaciones complejas y avanzadas.
  • Gobierno y administración de reportes, incluyendo performance y seguridad.
  • Apoyo en la arquitectura de soluciones analíticas y procesos relacionados.

Requisitos técnicos

  • Experiencia sólida en diseño y modelado de cubos en SSAS.
  • Conocimiento avanzado en Power BI, incluyendo DAX avanzado, Power Query y creación de visualizaciones complejas.
  • Conocimientos en Data Warehouse y flujos ETL para manejo integrado de datos.
  • Buen manejo y comprensión de KPIs corporativos para la elaboración de reportes relevantes.
  • Se valoran habilidades analíticas, orientación al detalle y capacidad de trabajo en equipo remoto.

Competencias deseables

  • Experiencia previa en proyectos remotos para clientes de Latinoamérica.
  • Conocimientos en otras herramientas de BI o plataformas de datos.
  • Capacidad proactiva para proponer mejoras en procesos analíticos.
  • Habilidades de comunicación efectiva para trabajo colaborativo.

Beneficios

En I2B Technologies promovemos un ambiente laboral cercano, eficiente y colaborativo, libre de burocracia y código de vestimenta, creando un espacio cómodo y flexible para todos nuestros profesionales. Ofrecemos beneficios exclusivos incluso para colaboradores freelance, incluyendo vacaciones pagadas, medios días administrativos durante el año, medio día libre en el cumpleaños propio y de hijos, bonos y días libres por matrimonio o nacimiento. Además, brindamos financiamiento para actividades físicas con FitnessDoer, acceso a una biblioteca digital y apoyo económico para la adquisición de laptops, cursos y certificaciones para el desarrollo profesional. Te invitamos a ser parte de una empresa apasionada por la transformación digital y en constante crecimiento.

Library Access to a library of physical books.
Wellness program I2B Technologies offers or subsidies mental and/or physical health activities.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Digital library Access to digital books or subscriptions.
Computer provided I2B Technologies provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero de Datos AWS
  • BC Tecnología
Java Python SQL Scala
En BC Tecnología somos una consultora de Servicios IT con un equipo experto en diversas áreas tecnológicas. Desde hace 6 años diseñamos soluciones adaptadas a las necesidades de nuestros clientes, que operan en sectores como servicios financieros, seguros, retail y gobierno. Nuestro enfoque es combinar metodologías ágiles y el desarrollo de productos para crear soluciones efectivas y equipos de trabajo colaborativos. Actualmente buscamos un Ingeniero de Datos AWS para un proyecto desafiante que impacta en el área de gestión de datos y exploración de la nube.

Apply directly from Get on Board.

Responsabilidades principales

  • Diseñar e implementar pipelines de ingesta de datos hacia el Data Lake en AWS.
  • Gestionar y optimizar el almacenamiento y procesamiento de datos utilizando servicios como S3, Redshift y Glue.
  • Automatizar procesos mediante Lambda, Step Functions y DataSync para mejorar la eficiencia en flujos de datos.
  • Crear reportes y análisis utilizando Athena y QuickSight para apoyar la toma de decisiones.
  • Mantener la seguridad y controles de acceso con IAM.
  • Administrar bases de datos NoSQL con DynamoDB y manejar flujos de datos en tiempo real mediante Kafka.
  • Utilizar control de versiones con CodeCommit o GitLab para asegurar la calidad y trazabilidad del código.
  • Participar activamente en equipos ágiles, colaborando con equipos multidisciplinarios para cumplir objetivos del proyecto.

Requisitos y perfil del candidato

Buscamos un Ingeniero de Datos con experiencia comprobada en la construcción de soluciones robustas en AWS para la gestión de grandes volúmenes de datos. Es esencial que domine el diseño y la implementación de pipelines hacia Data Lakes y tenga un sólido conocimiento en bases de datos relacionales y no relacionales, SQL y Python.
Deberá contar con experiencia práctica en servicios AWS clave para el manejo y procesamiento de datos, incluyendo S3, Athena, Redshift, Lambda, Glue, QuickSight, IAM, Step Functions, DataSync y DynamoDB.
Se valorará experiencia previa trabajando con Kafka para la transmisión de datos en tiempo real. Además, el manejo de herramientas de control de versiones como CodeCommit o GitLab es fundamental para asegurar la correcta gestión del código y la colaboración en equipo.
El candidato debe contar con habilidades para trabajar en equipos bajo metodologías ágiles, mostrando comunicación efectiva, capacidad de adaptación, proactividad y compromiso con la calidad del trabajo entregado.

Habilidades y experiencias deseables

Sería ideal que el candidato tenga experiencia adicional en arquitecturas orientadas a microservicios y conocimientos en machine learning aplicado a big data. Asimismo, habilidades en optimización de costos en la nube y la automatización avanzada para la gestión de infraestructuras aportarán un valor agregado al equipo.
Conocer herramientas complementarias como Docker, Kubernetes y otras tecnologías de streaming de datos enriquecerá el perfil.

Beneficios y cultura laboral

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en las oficinas de Santiago Centro, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

POSTULAR VÍA WEB Ver trabajo
Gross salary $2400 - 2700 Tiempo completo
Semi Senior Data Engineer
  • 23people
Java Python SQL ETL
Equifax Chile es la filial local de Equifax Inc., una compañía global de datos, analítica y tecnología con sede en Atlanta, EE. UU., y presencia en 24 países. Desde 1979, Equifax Chile ha sido un referente en soluciones de información comercial, ofreciendo servicios como evaluación de riesgo crediticio, informes de crédito, monitoreo de identidad y análisis de datos para más de 14,000 empresas en sectores como el financiero, comercial, retail y servicios. ​Nuestra visión es empoderar a personas y organizaciones para tomar decisiones informadas, transformando el uso de la información con transparencia y seguridad. Uno de nuestros principales desafíos es liderar la transformación digital a través de nuestro Centro de Desarrollo en Santiago (SDC), que concentra el 60% de los desarrollos digitales de Equifax a nivel mundial.
Fomentamos una cultura de innovación, colaboración y excelencia técnica, donde el talento local impulsa soluciones tecnológicas de alto impacto.

This posting is original from the Get on Board platform.

Funciones del cargo

¿Qué harás en tu día a día?
  • Se realizará automatización para transformación y limpieza de datos proveniente de varias fuentes (excel, xml, csv).
  • Los archivos deben ser cargados y revisados en GCP, trabajará con pipeline de datos que alimentan Bigdata a través de script.

Requerimientos del cargo

Skills
  • Python/Java
  • Usuario de bases de datos:
  • Experiencia en procesos de Extracción, Transformación y Carga de datos (ETL).
  • Conocimientos en SQL, procedimientos almacenados y triggers.
  • Experiencia en procesos de manejo de datos:
  • Procesamiento en lotes
  • Procesamientos distribuidos.
Contrato indefinido desde el inicio con 23people
Modalidad: Home Office. Debes buscar el computador en primera instancia
Experiencia: Desde 2 años en adelante
Horario: Lunes a Viernes de 9:00 a 18:00 hrs

Deseables

  • Diseño, creación y manejo de ETL:
    • On Prem: Pentaho, Control-M, Nifi
    • Cloud: Airflow, Cloud Composer, Glue, Lambda
  • Conocimientos en las tecnologías:
    • Spark
    • DataProc / DataFlow
  • Conocimientos básicos de estadísticas.
  • Conocimientos básicos de machine learning y deep learning.
  • Conocimiento sobre el manejo de datos:
    • Conocimiento sobre los conceptos de ambientes de datos.
    • Conocimiento sobre los conceptos de calidad de datos.
    • Conocimiento de modelado de datos.
    • Conocimiento de modelado de procesos y de flujos de datos.

Beneficios

Algunos de nuestros beneficios
  • Seguro complementario: Seguro de salud, vida y dental
  • Curso de inglés: En nuestro programa de formación en idioma inglés, ofrecemos dos modalidades para adaptarnos a tus necesidades y objetivos.
  • Reembolso de certificaciones internacionales: Apoyamos el crecimiento profesional, por lo que te reembolsamos el costo de un examen de certificación internacional que quieras realizar.
  • Bono de vacaciones: Por cada semana que te tomes de vacaciones te otorgamos una compensación.
  • Aguinaldos en fiestas patrias y Navidad: Queremos que en fechas tan especiales la pases bien junto a tu familia, por lo que te entregamos un bono en septiembre y diciembre
  • Día libre de cumpleaños: Puedes optar por tomar tu día libre, el día previo a tu cumpleaños, el mismo día de tu cumpleaños o el día posterior.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance Equifax pays or copays life insurance for employees.
Health coverage Equifax pays or copays health insurance for employees.
Dental insurance Equifax pays or copays dental insurance for employees.
Computer provided Equifax provides a computer for your work.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2200 Tiempo completo
Data Engineer
  • coderslab.io
  • Santiago (Hybrid)
Java Python SQL NoSQL

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Data Engineer Ssr para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Applications: getonbrd.com.

Job functions

Estamos en búsqueda de un/a Data Engineer con experiencia y proactividad para sumarse a nuestro equipo en modalidad híbrida desde Santiago de Chile. Buscamos una persona con conocimientos sólidos en procesos de datos, cloud computing (especialmente GCP), y procesamiento distribuido.

Responsabilidades Principales

  • Diseñar y construir pipelines de datos robustos para procesos de ingesta, transformación y carga (ETL/ELT).
  • Aplicar buenas prácticas en el manejo de datos: seguridad, gobernanza y cumplimiento.
  • Trabajar con sistemas de procesamiento distribuido para manejar grandes volúmenes de datos.
  • Colaborar con equipos interdisciplinarios para impulsar decisiones basadas en datos.
  • Implementar soluciones escalables y eficientes utilizando herramientas de Google Cloud Platform (GCP).

Qualifications and requirements

  • Experiencia en creación de pipelines de datos y procesos de ETL.
  • Conocimientos sólidos en buenas prácticas de manejo de datos (seguridad, gobernanza, escalabilidad).
  • Experiencia en procesamiento distribuido.
  • Dominio de Python (Java es deseable).
  • Conocimientos en bases de datos SQL y NoSQL, especialmente MongoDB y BigQuery.

Experiencia con herramientas de GCP

  • Pub/Sub
  • Dataflow
  • Dataproc
  • Dataprep
  • Cloud Functions
  • BigQuery
  • Composer
  • Cloud Storage

Desirable skills

Experiencia en arquitectura de datos o entornos DevOps aplicados a datos.

Familiaridad con prácticas de CI/CD en flujos de datos.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer
  • coderslab.io
  • Santiago (Hybrid)
Java Python Agile SQL

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un DATA ENGINEER para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

© Get on Board. All rights reserved.

Funciones del cargo

  • Diseñar, desarrollar y mantener procesos de ingesta, transformación y carga (ETL/ELT) de datos para asegurar la disponibilidad y calidad de la información.
  • Crear y administrar pipelines de datos eficientes y escalables que soporten el flujo continuo de datos desde múltiples fuentes hacia los sistemas de almacenamiento y análisis.
  • Implementar y promover buenas prácticas en el manejo de datos, incluyendo seguridad, gobernanza, control de acceso y cumplimiento de normativas.
  • Desarrollar soluciones de procesamiento distribuido para manejar grandes volúmenes de datos en entornos cloud.
  • Gestionar y optimizar los servicios de Google Cloud Platform (GCP) relacionados con la ingeniería de datos, como Pub/Sub, Dataflow, Dataproc, Dataprep, Cloud Functions, BigQuery, Composer y Cloud Storage.
  • Colaborar con equipos multidisciplinarios para entender requerimientos de datos y traducirlos en soluciones técnicas robustas.
  • Realizar monitoreo, mantenimiento y mejora continua de los pipelines y sistemas de datos para garantizar alta disponibilidad y rendimiento.
  • Documentar procesos, arquitecturas y estándares técnicos relacionados con la ingeniería de datos.

Requerimientos del cargo

  • Experiencia comprobable en diseño y desarrollo de procesos ETL/ELT y pipelines de datos.
  • Sólidos conocimientos en Google Cloud Platform (GCP), especialmente en los servicios:
    • Pub/Sub
    • Dataflow
    • Dataproc
    • Dataprep
    • Cloud Functions
    • BigQuery
    • Composer
    • Cloud Storage
  • Dominio en programación con Python y Java para desarrollo de scripts, automatización y procesamiento de datos.
  • Conocimientos en bases de datos SQL y NoSQL, con experiencia en MongoDB y BigQuery.
  • Experiencia en procesamiento distribuido y manejo de grandes volúmenes de datos.
  • Conocimiento en buenas prácticas de seguridad y gobernanza de datos.
  • Capacidad para trabajar en equipos ágiles y multidisciplinarios.
  • Habilidades de comunicación efectiva para presentar soluciones técnicas y colaborar con otras áreas

Condiciones

Modalidad de contratación: Plazo fijo
Duración del proyecto: 18 MESES con posibilidad de extensión

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer
  • Tienda Pago
  • Ciudad de México (Hybrid)
Python SQL Big Data Back-end

✨ ¡En Tienda Pago, estamos revolucionando el mundo de las finanzas en Latinoamérica! ✨

Somos una fintech multicultural 🌎 con operación en México y Perú y colaboradores en Colombia, Argentina, República Dominicana ¡y más países! 🚀 Nuestra misión es única: impulsar a las tienditas y bodegas de barrio a crecer💪. ¿Cómo lo hacemos? A través de una plataforma digital innovadora que les da acceso a créditos para que puedan surtirse mejor y vender más 🛍️. Ofrecemos préstamos personales, crédito de inventario y recargas de celular, ¡todo con la última tecnología! 📲

En Tienda Pago, creemos en la inclusión financiera a través de la innovación💡. Llevamos + de 10 años haciendo la diferencia en la base de la pirámide económica, brindando oportunidades a quienes más lo necesitan💖.

¡Seguimos creciendo! Estamos búsqueda de un Data Engineer en CDMX para incorporar en nuestro equipo de Tech🤝

Apply directly from Get on Board.

¿Cuál es el objetivo principal de la posición? 🧑‍💻

Buscar un enfoque estratégico, liderar proyectos de medios a complejos, establecer las mejores prácticas, ejecución de tareas complejas. El candidato ideal es un profesional que trabaje indispensablemente con autonomía, lidere proyectos medios a complejos, establezca las mejores prácticas y actúe como mentor para los miembros más junior del equipo. Busque un enfoque estratégico, responsable de la modelación de datos y la toma de decisiones que afectarán la escalabilidad y eficiencia a largo plazo.

¿Cuáles serán tus principales responsabilidades? 🤔

  • Diseño y construcción de arquitecturas de modelos escalables y robustas.
  • Experiencia para implementación de diferentes técnicas de modelado como datawarehouse, data lakes y data mesh, utilizando metodologías ágiles.
  • Habilidad para diseñar, desarrollo y mantenimiento de los procesos de ingesta e integración de datos, modelos de análisis y tableros de control en esto deberá incluir optimizar pipelines complejos reduciendo costos y mejorando eficiencia.
  • Desarrollar set de datos que sean incluidos en procesos de minería y modelado de datos para datos estructurados y no estructurados.
  • Habilidad para entender los objetivos del negocio y traducirlos en una estrategia de datos a corto, mediano y largo plazo.
  • Realizar flujo completo para un proyecto de manera autónoma: análisis, diseño y bajar la idea para que él/ella o alguien del equipo lo pueda desarrollar, seguimiento hasta después de la entrega.
  • Autonomía para el manejo e interacción con las áreas de negocio.
  • Tener autoridad para tomar decisiones técnicas y que pueda presentar los resultados de forma clara orientados a los diferentes Stakeholders.
  • Detectar, diseñar e implementar nuevos atributos, estructuras, métricas o indicadores de acuerdo con las políticas de calidad, seguridad y gobernanza de Datos de Tienda Pago.
  • Capacidad para guiar a otros ingenieros, revisar el código y fomentar crecimiento profesional

¿Qué requerimos de ti para hacer un buen match? 💘

  • Mínimo 4 años de experiencia en ingeniería de datos.
  • Manejo de SQL Avanzado.
  • Lógica de programación, idealmente en Python, pero podemos considerar profesionales en otros lenguajes.
  • Implementación de colas de mensajes y servicios de mensajería y streaming.
  • Integración de datos (Data Lake, Data Warehouse, SQL).
  • Modelado de datos.
  • Abstracción y conceptualización de ideas.
  • Relación de patrones y piezas faltantes.
  • Gobernanza de datos y seguridad.
  • Experiencia en automatización de infraestructura.
  • Disponibilidad para trabajar full time - híbrido. 90% remoto; se pide ir a la oficina cerca de 2 veces al mes. Estamos ubicados en Calle Buffon, No. 46, Piso 9, Colonia Anzures, Miguel Hidalgo.CDMX, CP. 11590.

Deseables (NO son obligatorios, solo son un plus)

  • Plataforma Azure, Integration Services, DBT, DAX, Power BI (de intermedio a avanzado) .

Algunos de Nuestros Beneficios en México 🤩

  1. Aguinaldo superior a la ley.
  2. Prima Vacacional 100%
  3. Vacaciones otorgadas de acuerdo a ley, partiendo de 12 días hábiles durante el primer año e incrementando progresivamente por cada año cumplido.
  4. Días libres, asignación de 08 días libres Tienda Pago durante el primer año y luego se reajusta proporcionalmente a las vacaciones de acuerdo a la política dias libres Tienda Pago.
  5. Día libre por tu cumpleaños a elección (mismo día que cumples años o cualquier día del mes que estás de cumpleaños).
  6. Días festivos no oficiales.
  7. Seguro de Gastos Médicos Mayores.
  8. Dentegra (Beneficio Adicional del Seguro de Gastos Médicos Mayores).
  9. Seguro de Vida.
  10. Si te gusta constantemente seguir aprendiendo y perfeccionando tus conocimientos, tenemos una plataforma padrísima llamada Ubits😏.

¡Conversemos y entérate de los otros beneficios!🥳

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Tienda Pago pays or copays health insurance for employees.
Computer provided Tienda Pago provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Tienda Pago gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
Gross salary $5000 - 7000 Tiempo completo
Senior Cdp Manager / Operator
  • Zaelot
Python Analytics SQL Data governance

Zaelot is a fast-growing technology company specialized in building scalable solutions for enterprise clients worldwide. With a team of over 90 professionals spread across 9 countries, Zaelot cultivates a culture based on trust, reliability, and collaboration to deliver innovative and effective technology products. The project focus for this role is managing Customer Data Platforms (CDPs), which are critical for enabling clients to unify, govern, and leverage their customer data efficiently. Our CDP team works closely with product, engineering, and analytics stakeholders to ensure data quality and operational excellence, driving better business outcomes through optimized customer data flows and identity resolution.

Opportunity published on Get on Board.

Key Responsibilities

  • Lead the end-to-end configuration, deployment, and ongoing management of Customer Data Platforms such as Segment, Hightouch, Rudderstack, or similar tools across diverse client environments.
  • Own the creation and maintenance of tracking plans, enforce data schemas strictly, and manage customer identity resolution and audience trait development to deliver accurate and actionable customer insights.
  • Design, build, and optimize reverse ETL (Extract, Transform, Load) pipelines and destination syncs to ensure seamless data movement between CDPs and downstream systems.
  • Implement and maintain best practices around naming conventions, user roles administration, permissions, and rigorous data quality assurance (QA) processes to uphold platform integrity.
  • Provide operational enablement through detailed documentation, training, and support aimed at both internal teams and client users to maximize platform adoption and efficiency.
  • Continuously monitor platform health metrics, proactively identifying and resolving operational issues in collaboration with engineering and support teams.

Role Requirements

We are seeking an experienced Senior CDP Manager with a strong technical background and hands-on expertise in managing customer data platforms. The ideal candidate will have between 3 and 5 years of practical experience working with CDP tools such as Segment, Hightouch, Rudderstack, or equivalents, exhibiting deep knowledge of data flows, identity resolution, and audience management techniques.

The role demands a strong understanding of event-based data architecture and familiarity with product analytics platforms like Amplitude or Mixpanel to ensure effective integration and utilization of data insights. Attention to detail is critical, especially regarding documentation accuracy, configuration hygiene, and enforcing data governance standards.

This position requires excellent communication skills to effectively collaborate with both technical and non-technical stakeholders, facilitating clear understanding and alignment on CDP-related initiatives and operational support.

Preferred Qualifications

It is advantageous to have experience in marketing technology stacks beyond CDPs, such as advanced analytics, campaign management platforms, or CRM tools. Familiarity with scripting or programming languages (e.g., SQL, Python) to build custom data pipelines or automate workflows is desirable. Prior exposure to enterprise data governance policies or compliance regulations will add value to the role.

Strong problem-solving abilities, proactive mindset, and a drive for continuous learning in the rapidly evolving CDP and data ecosystem are highly appreciated.

What We Offer

  • 20 days of paid vacation after one year to support a healthy work-life balance.
  • Incentive programs including referral bonuses and finder's fees for successful candidate recommendations.
  • Robust continuous learning opportunities with training and certification programs.
  • Work-from-home support to ensure a comfortable and productive environment.
  • English language classes and fitness programs promoting professional and personal growth.
  • Profit sharing and coaching sessions fostering collective success and development.

At Zaelot, we foster a supportive and innovative culture where your skills and ambitions are valued. Join our diverse team dedicated to excellence and continuous improvement, and contribute to impactful enterprise solutions.

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Analista de Operaciones Medios de Pago
  • coderslab.io
  • Santiago (Hybrid)
Python Data Analysis SQL Power BI

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de ANALISTA DE OPERACIONES - MEDIOS DE PAGO para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Official source: getonbrd.com.

Funciones del cargo

  1. Desarrollo de Paneles:
    • Crear y mantener paneles interactivos en Power BI y Looker Studio para la visualización de datos.
    • Asegurar que los paneles reflejen métricas clave y sean accesibles para los usuarios finales.
  2. Explotación de Datos:
    • Realizar la extracción y transformación de datos desde diversas fuentes.
    • Implementar procesos de limpieza y validación de datos.
  3. Análisis de Datos:
    • Analizar grandes volúmenes de datos para identificar tendencias, patrones y oportunidades de mejora.
    • Generar informes analíticos que apoyen la toma de decisiones estratégicas.
  4. Extracción y Análisis Multiplataforma:
    • Integrar datos de diferentes plataformas y sistemas, asegurando una visión holística del rendimiento.
    • Colaborar con equipos de IT para optimizar la infraestructura de datos.
  5. Colaboración Interdepartamental:
    • Trabajar de manera colaborativa con otros departamentos para entender sus necesidades de datos y proporcionar soluciones efectivas.
    • Participar en reuniones de equipo para discutir resultados y proyecciones.
  6. Documentación:
    • Mantener documentación clara y concisa de procesos, análisis y hallazgos.
    • Presentar resultados de manera efectiva a diferentes niveles de la organización.

Requerimientos del cargo

Habilidades/Conocimientos Obligatorios

  • Herramientas y Tecnologías:
    • Power BI
    • GCP (Google Cloud Platform)
    • Looker Studio
    • SQL
    • Python
  • Educación:
    • Título universitario en áreas relacionadas (Ingeniería, Estadística, Ciencias de la Computación, etc.).
  • Experiencia:
    • Experiencia previa en análisis de datos o roles similares (preferentemente en el sector de medios de pago).
  • Habilidades Técnicas:
    • Dominio de SQL para la manipulación y consulta de bases de datos.
    • Conocimiento práctico de Python para análisis de datos y automatización de procesos.
    • Experiencia en el uso de herramientas de visualización (Power BI, Looker Studio).
  • Habilidades Blandas:
    • Excelentes habilidades de comunicación y presentación.
    • Capacidad para trabajar en equipo y colaborar con diferentes áreas.
    • Pensamiento analítico y atención al detalle.

POSTULAR VÍA WEB Ver trabajo
Gross salary $6500 - 7500 Tiempo completo
Data Engineer / Data Architect
  • Zaelot
Python SQL Web server Big Data
Zaelot is a dynamic, team-building company specializing in delivering scalable, enterprise-grade technology solutions across a global client base. With a diverse team of over 90 professionals spread across nine countries, Zaelot fosters a culture rooted in trust, reliability, and collaboration. Our teams integrate multiple disciplines—including analysis, design, and software engineering—to consistently deliver innovative and high-quality products. The Data Engineering and Architecture team plays a crucial role in this by designing and maintaining data infrastructure that supports advanced analytics, customer data platforms, and real-time business intelligence, helping Zaelot and its clients make data-driven decisions at scale.

Apply directly on the original site at Get on Board.

Role and Responsibilities

  • Design, build, and maintain robust data pipelines to ingest large volumes of behavioral and transactional data into centralized data warehouses.
  • Manage seamless data synchronization processes between our data lake, data warehouse, and Customer Data Platforms (CDPs) such as Segment and Hightouch to ensure data consistency and availability.
  • Lead data quality assurance (QA) initiatives by establishing automated monitoring and reconciliation practices that ensure data accuracy and integrity across all platforms.
  • Collaborate with cross-functional teams including data scientists, analysts, and software engineers to optimize data flow and support analytics and reporting needs.
  • Architect scalable and reliable data infrastructure that supports evolving business requirements and real-time analytics.
  • Provide technical leadership and guidance in best practices for data retention, security, and governance within the data management lifecycle.

Required Skills and Experience

We are seeking a senior Data Engineer / Architect with strong expertise in building and managing complex data pipelines and architectures. The ideal candidate will have extensive experience working with modern data warehousing solutions and Customer Data Platforms integration.
  • Proficient in designing and implementing ETL/ELT pipelines using technologies such as Apache Airflow, dbt, or equivalent orchestration tools.
  • Hands-on experience with cloud data platforms like Snowflake, BigQuery, Redshift, or similar.
  • Strong SQL skills and familiarity with scripting languages such as Python for data processing and automation.
  • Experience integrating data lakes with cloud data warehouses and managing real-time or batch data synchronization with CDPs (e.g., Segment, Hightouch).
  • Proven ability to lead data quality assurance processes, including automated monitoring, validation, and reconciliation methodologies.
  • Solid understanding of data governance principles, data privacy, and compliance considerations.
  • Excellent problem-solving skills, attention to detail, and ability to work effectively in collaborative, cross-functional teams.
  • Strong communication skills to explain complex data concepts to technical and non-technical stakeholders.

Desirable Skills and Qualifications

  • Experience with cloud infrastructure management using AWS, GCP, or Azure.
  • Knowledge of containerization and orchestration technologies such as Docker and Kubernetes.
  • Background in machine learning data pipelines or real-time streaming technologies like Kafka, Spark Streaming.
  • Certifications in cloud data engineering, big data technologies, or related fields.
  • Experience working in agile development environments and knowledge of CI/CD pipelines for data engineering.

Benefits and Perks

  • 20 days of paid vacation after one year to ensure a healthy work-life balance.
  • Referral programs with incentives for introducing talented professionals.
  • Finder's fees recognizing successful candidate recommendations.
  • Comprehensive training and certification programs to support your continuous professional development.
  • Work-from-home aid to help create a comfortable and productive remote environment.
  • English classes to enhance communication skills and career progression.
  • Fitness programs promoting healthy lifestyle choices.
  • Profit sharing to reward contributions to collective company success.
  • Coaching sessions designed to support personal and professional growth.
Zaelot is committed to fostering a supportive, innovative, and collaborative culture where every professional can thrive and contribute to cutting-edge technological solutions. Join us to grow your career with a forward-thinking global company! 🚀

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Docente Base de Datos Sede Viña del Mar
  • Duoc UC
  • Viña del Mar (In-office)
SQL Design Thinking PL/SQL Education
Duoc UC, institución de educación superior técnico profesional autónoma y católica con más de 50 años de historia y máxima acreditación CNA, busca fortalecer su escuela de Informática y Telecomunicaciones en la sede Viña del Mar. Este proyecto se enfoca en brindar una enseñanza de calidad en el área de tecnologías de la información, especialmente en bases de datos, para formar profesionales competentes que respondan a las exigencias actuales del mercado laboral.

This posting is original from the Get on Board platform.

Funciones Principales

Duoc UC Sede Viña del Mar, Escuela de Informática y Telecomunicaciones requiere contratar docentes para la asignatura de Base de Datos Aplicada I, Taller de Base de Datos con disponibilidad en jornada diurna, que será responsable de liderar el proceso de enseñanza y aprendizaje de acuerdo con el modelo educativo, alineado al marco valórico institucional, movilizando su formación y experiencia profesional, valores y conocimiento disciplinar, para ser un real aporte al aprendizaje de los estudiantes.

Perfil y Requisitos

Es requisito contar con:

  • Formación: Ingeniero(a) en Informática, Ingeniero(a) Ejecución Informática o afín.
  • Experiencia: 3 años de experiencia en el desarrollo de proyectos de software implementados en base de datos relacionales. Dominio de SQL y PL/SQL en forma avanzada
  • Disponibilidad: Jornada Diurna / Lunes de 9:31hrs a 13:50hrs, Martes de 10:11hrs a 15:20hrs, Miércoles de 9:31hrs a 10:50hrs, Viernes de 9:31hrs a 13:50hrs.
  • Otros requisitos: Deseable que cuente con certificación Oracle Database SQL Certified Associate en la versión de Base de Datos. Certificación en Design Thinking (deseable).

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer (Databricks)
  • Improving South America
Python Git Data Analysis SQL

Somos Improving South America!

Somos una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA principalmente.

Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.

Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development y También trabajamos en desarrollo backend.

Valoramos a las personas dinámicas en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Apply to this job at getonbrd.com.

Funciones del cargo

Actualmente estamos en la búsqueda de una persona proactiva y analítica para ocupar el puesto de Data Engineer Senior con experiencia sólida en SQL, Python y Databricks, orientado al diseño, construcción y mantenimiento de pipelines de datos escalables que respalden la toma de decisiones del negocio.

La persona seleccionada colaborará estrechamente con equipos de ingeniería, analítica y áreas de negocio para garantizar la disponibilidad, calidad e integridad de los datos:

  • Diseñar, desarrollar y mantener pipelines de datos ETL/ELT robustos y reutilizables utilizando Databricks sobre Azure.
  • Procesar y transformar grandes volúmenes de datos en entornos distribuidos.
  • Implementar soluciones de datos escalables dentro del ecosistema Azure (ej. Azure Data Factory, Azure Data Lake, Azure SQL, Synapse).
  • Aplicar buenas prácticas de modelado de datos y arquitectura analítica.
  • Colaborar con equipos técnicos y de negocio para identificar requerimientos y traducirlos en soluciones técnicas.
  • Mantener código limpio y versionado con Git.

Requerimientos principales del cargo

  • Nivel de inglés intermedio/ avanzado para la comunicación diaria con equipos globales.
  • Experiencia 5+ años (comprobada) en ingeniería o análisis de datos con SQL y Python.
  • Dominio experto en SQL para manipulación, transformación y optimización de rendimiento.
  • Experiencia práctica desarrollando pipelines de datos en Databricks.
  • Conocimientos avanzados en Python, aplicados a procesamiento de datos.
  • Uso fluido de Pandas y NumPy.
  • Experiencia diseñando y manteniendo pipelines ETL/ELT en entornos cloud.
  • Familiaridad con modelado de datos (esquema estrella, copo de nieve) y arquitectura de datos.
  • Experiencia trabajando con el ecosistema de Azure para datos: Azure Data Factory, Azure Data Lake, Azure SQL, Synapse, etc.
  • Conocimiento de bases de datos relacionales y no relacionales.
  • Uso habitual de herramientas de control de versiones, como Git.

Requerimientos deseables

  • Conocimiento o experiencia con Apache Spark, idealmente dentro de Databricks.
  • Familiaridad con plataformas y buenas prácticas de data warehousing.

Beneficios que ofrecemos

  • Contrato a largo plazo.
  • 100% Remoto.
  • Vacaciones y PTOs
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo
  • mucho mas..

Internal talks Improving South America offers space for internal talks or presentations during working hours.
Computer provided Improving South America provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Arquitecto/a de Soluciones (Data)
  • 2BRAINS
Python Data Analysis SQL Web server

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

Official job site: Get on Board.

El/la Arquitecto/a de Soluciones de Data de 2Brains:

El Arquitecto de Soluciones se encarga de diseñar y desarrollar sistemas de datos sólidos, lo que incluye la elaboración de diagramas de arquitectura que permitan almacenar, procesar y analizar grandes volúmenes de información de manera eficiente. Además, se debe evaluar e identificar soluciones tecnológicas en función del proveedor seleccionado, detallando los requerimientos de red, servicios asociados y herramientas necesarias para la implementación.

Como parte del proceso, también es fundamental construir pruebas de concepto (POC) que permitan transformar los datos en formatos utilizables, alineados con la solución técnica definida.

¿Qué conocimientos buscamos en/la Arquitecto/a Soluciones de Data?

  • Título en Ingeniería en Informática o carrera afín, idealmente con certificación profesional como Ingeniero/a de Datos
  • Entre 4 a 6 años de experiencia desempeñando funciones similares en el área de datos
  • Dominio de SQL para consultas estructuradas sobre bases de datos relacionales
  • Conocimiento práctico de bases de datos NoSQL como MongoDB, Cassandra o HBase para manejar datos semiestructurados o no estructurados
  • Manejo de lenguajes de programación como Python o Scala, con uso de Apache Spark para procesamiento distribuido
  • Experiencia con herramientas de Big Data como Hadoop o Apache Spark en entornos productivos
  • Familiaridad con plataformas de cloud computing como AWS, Azure o Google Cloud Platform para almacenamiento, procesamiento y análisis de datos
  • Capacidad para diseñar, implementar y mantener procesos ETL (extracción, transformación y carga de datos) desde múltiples fuentes
  • Conocimientos básicos de machine learning, aplicando modelos predictivos o descriptivos sobre datos
  • Experiencia en el diseño y automatización de pipelines de datos complejos utilizando herramientas como Apache Airflow o Luigi
  • Administración de bases de datos relacionales, NoSQL y servicios gestionados en la nube
  • Diseño y desarrollo de arquitecturas de almacenamiento como data warehouses, data lakes o soluciones LakeHouse
  • Procesamiento eficiente de grandes volúmenes de datos en entornos distribuidos
  • Uso de prácticas y herramientas DevOps orientadas a flujos de datos y operaciones analíticas en la nube

¿Qué competencias buscamos en el/la Arquitecto/a Soluciones de Data?

  • Orientación al cliente interno y externo
  • Compromiso y proactividad
  • Comunicación efectiva
  • Pensamiento analitico
  • Colaboración y trabajo en equipo

Te ofrecemos

  • Oportunidad de trabajar en un ambiente dinámico y en crecimiento, donde se valora la innovación y la creatividad.
  • Desarrollo profesional continuo con acceso a formación y certificaciones.
  • Participación en proyectos desafiantes con clientes de alto perfil.
  • Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos.
  • Un proyecto enfocado en los usuarios, visión de UX e integrada al desarrollo.
  • Acceso a grandes clientes y proyectos desafiantes.
  • Aprendizaje y crecimiento permanente, organizamos encuentros, capacitaciones y actividades culturales.
  • Programas de bienestar.
  • Trabajo Remoto.
  • Espacios para charlas internas.
  • Días de descanso.
  • Día de cumpleaños libre.
  • Horario de trabajo de México.

Wellness program 2BRAINS offers or subsidies mental and/or physical health activities.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks 2BRAINS offers space for internal talks or presentations during working hours.
Shopping discounts 2BRAINS provides some discounts or deals in certain stores.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1800 - 2800 Tiempo completo
Data Ops
  • coderslab.io
  • Santiago (Hybrid)
Python SQL DevOps Big Data

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Data Ops para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

This company only accepts applications on Get on Board.

Funciones del cargo

• Definir, construir y mantener de forma automatizada nuestras bases de datos relacionales y NO relacionales en los distintos ambientes cloud (Público y Privado).
• Colaborar en la construcción y el soporte de nuestra plataforma cloud y sus servicios.
• Colaborar con los equipos de producto identificando restricciones y requerimientos, definiendo arquitecturas de solución y aprovisionando las capacidades de la plataforma que permitan cumplir los atributos de calidad de los productos.
• Participar activamente en espacios de colaboración, mentoreando personas y equipos, e identificando oportunidades de mejora.

Requerimientos del cargo

Conocimientos lenguaje Python
Tener conocimientos de la nube GCP intermedio/avanzado y su gama de productos para serverless y contenedores (Cloud Run, Cloud Scheduler, etc)
Poseer experiencia en Bigquery (SQL)
Gitlab CI
Terraform intermedio/avanzado (generar nuevos módulos, debug de state, etc)
Manejo en GKE nivel administración
Nivel básico/intermedio en Unix (consola)
Deseable:
Estar instruido en IAM de GCP (herencia de IAM, impersonalización, principio de mínimos permisos, etc)
Conocimientos de networking tanto “on-premise” y en la nube GCP
Haber trabajado con K8S “on-premise” y tener nivel intermedio de conocimiento a nivel administración y mantención de nodos
Conocimientos en ArgoCD y Airflow/Composer
Compromiso con las responsabilidades
Manejo de herramientas de IA (Copilot, Gemini, Cursor, etc)
Conocimientos en arquitectura hexagonal y testing con Python
Estar familiarizado con el ciclo de vida DevOps

Conditions

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1200 - 1700 Tiempo completo
Analista de Datos BI
  • S3 Chile
  • Santiago (Hybrid)
Python Analytics MySQL PostgreSQL
S3 Chile es una empresa líder en la entrega de servicios de outsourcing especializada en procesos de negocio. Nuestro enfoque está en brindar soluciones integrales que permiten a nuestros clientes optimizar sus operaciones a través de la gestión eficiente de datos y análisis avanzado. El equipo de análisis de datos juega un rol fundamental, colaborando con diversas áreas como marketing, ventas y negocios para impulsar estrategias basadas en inteligencia analítica. Nuestra misión es ofrecer un entorno de aprendizaje continuo y profesionalización en consonancia con las últimas tendencias tecnológicas, fomentando el crecimiento tanto del equipo como de la organización. Ser parte de S3 Chile significa contribuir directamente al éxito de grandes clientes mediante innovación y manejo experto de datos.

Find this vacancy on Get on Board.

Responsabilidades principales

  • Análisis de datos: Recopilar, limpiar y analizar grandes volúmenes de datos provenientes de diversas fuentes para identificar tendencias, patrones y oportunidades de mejora.
  • Desarrollo de modelos predictivos y estadísticos: Diseñar y construir modelos estadísticos y algoritmos para predecir resultados, evaluar riesgos y optimizar procesos empresariales.
  • Visualización de datos: Crear visualizaciones claras e impactantes mediante herramientas como Tableau y Power BI para comunicar hallazgos de manera efectiva a las partes interesadas.
  • Elaboración de informes y presentaciones: Preparar reportes detallados y presentaciones ejecutivas que resuman insights clave y recomendaciones prácticas para equipos ejecutivos y operativos.
  • Colaboración interdisciplinaria: Trabajar estrechamente con equipos de negocio, marketing, ventas y tecnología para definir requerimientos, validar hipótesis y co-crear soluciones basadas en datos.

Habilidades y competencias requeridas

  • Conocimientos en estadística y matemáticas: Dominio de conceptos avanzados como regresión, correlación, análisis de varianza (ANOVA) y otras técnicas estadísticas aplicadas.
  • Programación: Experiencia sólida en lenguajes como Python, R y SQL para manipulación de datos, construcción de modelos y automatización de procesos.
  • Manejo de herramientas analíticas: Capacidad para utilizar herramientas como Excel avanzado, Tableau, Power BI y otras plataformas de visualización y análisis.
  • Bases de datos: Conocimiento práctico en gestión y consultas sobre bases de datos relacionales como MySQL y PostgreSQL.
  • Plataformas de análisis digital: Familiaridad con Google Analytics, Mixpanel y otras herramientas para análisis de comportamiento en entornos digitales.
  • Pensamiento crítico y resolución de problemas: Aptitud para examinar situaciones complejas, identificar causas raíz y generar soluciones innovadoras y eficientes.
  • Comunicación efectiva: Habilidad para explicar conceptos técnicos complejos en un lenguaje claro, adaptado a diferentes audiencias, facilitando la toma de decisiones basadas en datos.
Requisitos académicos y experiencia:
  • Título universitario en Ingeniería Comercial, Ingeniería Civil, Estadística, Matemáticas, Ciencias de la Computación o áreas afines.
  • Experiencia mínima de 2 a 3 años en análisis de datos o roles relacionados, preferiblemente en entornos empresariales.
  • Certificaciones profesionales como Certified Data Analyst (CDA) o Certified Analytics Professional (CAP) serán consideradas un plus significativo.

Habilidades y conocimientos deseables

  • Experiencia en manejo de grandes volúmenes de datos (Big Data) y conocimiento de herramientas o frameworks asociados.
  • Conocimiento en técnicas de machine learning y su aplicación práctica en modelos predictivos.
  • Familiaridad con metodologías ágiles de trabajo y gestión de proyectos.
  • Experiencia previa trabajando en equipos multidisciplinarios y en ambientes dinámicos.
  • Habilidades avanzadas en storytelling con datos para mejorar la comunicación visual y estratégica.

Lo que ofrecemos

💼 Renta competitiva acorde al mercado.
📈 Oportunidades reales de desarrollo profesional dentro de la empresa.
🎁 Beneficios corporativos que incluyen programas de bienestar y capacitaciones continuas.
👥 Un equipo comprometido que promueve un entorno de aprendizaje constante alineado con los nuevos avances tecnológicos.
Entorno colaborativo, flexible y remoto, alineado con las necesidades actuales del mercado laboral en Chile.

Health coverage S3 Chile pays or copays health insurance for employees.
Computer provided S3 Chile provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo