We didn't find any results.

Try with another group of words.

If you think this is a problem, please contact us.

$$$ Full time
DevOps Engineer
  • Softserve
Python Linux DevOps Virtualization
WE ARE
SoftServe is an IT & global digital solutions company with headquarters in Austin, Texas, founded in 1993 in Ukraine. Our associates work on 2,000+ projects with clients in the USA, Europe, and APAC region. We are about people who create bold things, who make a difference, who have fun, and who love their work. In January 2022, we started our operations in Latin America. We committed to grow our local community to 3,500 associates by 2025 and invest in the market.

Apply at getonbrd.com without intermediaries.

Funciones del cargo

AND YOU WANT TO
  • Collaborate with the LATAM DevOps Practice to contribute to cloud platforms for globally innovative companies
  • Engage in diverse private and public cloud-oriented projects of various scales
  • Participate in enterprise-scale migrations, cloud-native application development, and trending technology initiatives
  • Build, maintain, and optimize CI/CD pipelines for automated deployment and updates
  • Configure and manage scalable, secure, and high-performing cloud environments
  • Use tools like Terraform for infrastructure as code (IaC) to enhance deployment consistency and minimize manual interventions

Requerimientos del cargo

IF YOU ARE
  • Experienced with SRE/DevOps best practices
  • Proficient in AWS core IaaS and PaaS services, including IAM, VPC, Internet Gateway, NAT Gateway, ELB, RDS, EC2, S3, Security Groups, ACLs, and Routing Tables
  • Skilled in Docker, Kubernetes, and EKS
  • Adept in HELM charts and troubleshooting workloads in K8s clusters
  • Knowledgeable in Infrastructure as Code using Terraform or CloudFormation
  • Skilled in scripting languages such as Shell or Bash
  • Proficient in Linux, including administration, command-line expertise, and service debugging
  • Experienced in configuring log collectors and using observability platforms for containerized workloads

Opcionales

  • Good at maintaining existing CI/CD pipelines with tools like Jenkins, GitHub, GitLab, or CircleCI (as a plus)
  • Familiar with Python and tools like Prometheus and Grafana (would be a plus)
  • Knowledgeable in AFT Control Tower and Landing Zone (optional)

Condiciones

SoftServe is an Equal Opportunity Employer. All qualified applicants will receive consideration for employment regardless of race, color, religion, age, sex, nationality, disability, sexual orientation, gender identity and expression, veteran status, and other protected characteristics under applicable law. Let’s put your talents and experience in motion with SoftServe.

Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Softserve pays or copays health insurance for employees.
Computer provided Softserve provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Softserve gives you paid vacations over the legal minimum.
Beverages and snacks Softserve offers beverages and snacks for free consumption.
APPLY VIA WEB
Gross salary $2400 - 3000 Full time
DevOps
  • coderslab.io
  • Santiago (Hybrid)
Ruby Python Git Linux
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente nos encontramos apuntando al crecimiento de nuestros equipos de manera global con el objetivo de posicionarnos con nuestros productos en más países de Latinoamérica, es por ello que estamos en búsqueda de un DEVOPSpara sumarse a nuestro equipo.
Te sumarás a un equipo desafiante y ambicioso con ganas de renovar el mercado, por lo que tus propuestas serán de mucho valor para el negocio.
¡Postula para este tremendo desafío!

This offer is exclusive to getonbrd.com.

Funciones del cargo

  1. Diseño e Implementación de Infraestructura:
    • Diseñar e implementar soluciones de infraestructura que cumplan con los estándares de alta disponibilidad, escalabilidad y observabilidad.
    • Automatizar la configuración y el despliegue de los componentes de la infraestructura utilizando herramientas de Infraestructura como Código (IaC), como Terraform.
  2. Mantenimiento y Monitoreo:
    • Tomar posesión de los componentes de la infraestructura, asegurando su confiabilidad y rendimiento a través de revisiones de código y pruebas.
    • Implementar y gestionar herramientas de monitoreo y observabilidad, incluyendo ELK stack y Datadog, para garantizar la integridad y el rendimiento de los sistemas.
  3. Colaboración y Gestión de Proyectos:
    • Colaborar con otros ingenieros, partes interesadas y equipos de operaciones para comprender los requisitos comerciales y brindar soluciones técnicas efectivas.
    • Trabajar en un entorno de desarrollo ágil, utilizando herramientas como Jira y Confluence para gestionar el trabajo y realizar un seguimiento del progreso.
  4. Optimización y Mejora Continua:
    • Identificar y abordar los puntos débiles en los sistemas de la empresa a través de la automatización y la optimización.
    • Mantenerse actualizado con las tecnologías emergentes y las tendencias de la industria en el espacio DevOps/SRE para impulsar la innovación.
  5. Desarrollo y Scripting:
    • Programar en lenguajes como Python, Ruby y Bash para optimizar procesos y herramientas de infraestructura.

Requerimientos del cargo

  • Experiencia: Mínimo 3 años de experiencia como ingeniero DevOps o en roles relacionados con infraestructura cloud, incluyendo migración de infraestructura.
  • Conocimientos Técnicos:
    • Competencia en lenguajes de programación desde una perspectiva de infraestructura (Python, Ruby, Bash).
    • Familiaridad con servicios Cloud (AWS, Azure, GCP, etc.).
    • Experiencia con herramientas de monitoreo y logs, como ELK stack y Datadog.
    • Conocimiento avanzado de herramientas de infraestructura como código (IaC), específicamente Terraform.
    • Gran comprensión de los principios y prácticas de DevOps.
    • Experiencia en administración de sistemas Linux, control de versiones (Git), y tecnologías de contenedorización (Docker, Kubernetes).
  • Habilidades Personales:
    • Fuertes habilidades de comunicación y colaboración.
    • Capacidad para trabajar en un entorno ágil y adaptarse a cambios.
    • Pensamiento analítico y orientación a resultados.
    • Compromiso con la mejora continua y la innovación.

APPLY VIA WEB
Gross salary $1400 - 2000 Full time
Administrador de Sistemas
  • RiskAmerica
  • Santiago (Hybrid)
Python Linux Sysadmin Continuous Integration
RiskAmerica es una empresa consolidada en la industria FinTech, proveemos servicios de gestión e información a todas las empresas de inversiones de Chile. Nos caracterizamos por ser un agente de innovación y transformación digital estando siempre a la vanguardia en las tecnologías y metodologías que usamos.
Hoy en día nos encontramos en un proceso de expansión y buscamos un nuevo Administrador de Sistemas para ayudar a gestionar múltiples soluciones hospedadas en la nube de Google Cloud Platform con Kubernetes Engine.
¿Te atrae el rol de Solution Architect, Cloud Engineer, DevOps o Administrar Sistemas? Acá podrás aprender mucho de gente muy talentosa y podrás contribuir de manera significativa en toda la cadena de vida de los servicios de la empresa.

This company only accepts applications on Get on Board.

Que necesitamos de ti

  • Diseño, desarrollo, mantención y actualización de infraestructura para soluciones multi-tennant de alta disponibilidad.
  • Construir y administrar herramientas de monitoring de los servicios e infraestructura.
  • Ayudar a diseñar, mantener y probar la seguridad de la infraestructura de red y diversas plataformas.
  • Construir utilidades para apoyar las labores de los ingenieros de software del área.
  • Mejorar la cadena de Integración Continua de los servicios administrados.
  • Administrar la generación, almacenamiento y uso de respaldos de los distintos servicios.
  • Ayudar a diseñar, mantener y probar los planes de continuidad de negocio de los distintos servicios.

Que necesitamos de ti

  • Experiencia en seguridad de Redes
  • Experiencia Bash scripting.
  • Experiencia programando en Python.
  • Experiencia básica usando containers (Docker y/o Kubernetes) tanto en Build como Deploy.
  • Experiencia de al menos 1 año administrando cargas productivas de algún servicio
  • Interés y entusiasmo por aprender de nuevas tecnologías, con el fin de crear soluciones robustas y automáticas que requieran mínima mantención.
  • Versatilidad para aprender de diversas tecnologías y lenguajes para apoyar al equipo de Ingenieros de Software en sus diversas necesidades
  • Experiencia en sistemas Linux
  • Manejo de inglés leído técnico.

Sumas puntos si

  • Certificado de Solution Architect de AWS o GCP
  • Experiencia trabajando con Kubernetes
  • Experiencia trabajando sobre Google Cloud Platform (especialmente GKE, GCS y Compute)
  • Conocimientos teóricos de Kubernetes
  • Experiencia usando Ansible
  • Experiencia con Prometheus & Graphana
  • Experiencia con Bases de Datos MariaDB trabajando en esquemas master-slave o master-master
  • Experiencia implementando cadenas de integración continua (CI)

Que tenemos para ti

  • Excelente clima laboral junto a un gran equipo.
  • Seguro complementario de salud, incluyendo dental, catastrófico y vida.
  • Amplias posibilidades para aprender del rubro de inversiones.
  • Incentivo al ahorro previsional voluntario (APV).
  • Buena relación vida/trabajo.
Si vienes a la oficina:
  • Vestimenta casual
  • Estacionamiento para bicicletas
  • Y un buen café!

Life insurance RiskAmerica pays or copays life insurance for employees.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage RiskAmerica pays or copays health insurance for employees.
Dental insurance RiskAmerica pays or copays dental insurance for employees.
Computer provided RiskAmerica provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Beverages and snacks RiskAmerica offers beverages and snacks for free consumption.
APPLY VIA WEB
$$$ Full time
DevOps Lead
  • Moventi
Python Linux DevOps Virtualization

We are seeking an experienced DevOps Lead to join our team, who will be responsible for designing, implementing, and maintaining our cloud-based infrastructure on Amazon Web Services (AWS).
En este rol, tendrás la oportunidad de liderar proyectos relacionados con la innovación tecnológica, garantizando que cumplamos con los estándares más altos.

Apply directly at getonbrd.com.

Funciones del cargo

As a DevOps Lead, you will be responsible for leading our DevOps team, ensuring the smooth operation of our cloud infrastructure, and driving the adoption of DevOps best practices across the organization.

  • Cloud Infrastructure: Design, implement, and maintain our cloud infrastructure on AWS, ensuring scalability, security, and high availability.
  • CI/CD Pipelines: Develop and maintain CI/CD pipelines using GitHub Actions, ensuring automated testing, building, and deployment of our applications.
  • Automation: Automate repetitive tasks, and implement infrastructure-as-code (IaC) using tools like Chef, CloudFormation, CDK.
  • Containerization: Implement and manage containerization using Docker, ensuring efficient and scalable deployment of our applications.
  • Security: Ensure the security and compliance of our cloud infrastructure, implementing best practices, and adhering to industry standards (e.g., HIPAA, PCI-DSS).
  • Collaboration: Work closely with cross-functional teams, including development, QA, and product, to ensure smooth operation of our applications and infrastructure.
  • Monitoring and Logging: Implement monitoring and logging tools (DataDog, CloudWatch), ensuring real-time visibility into our infrastructure and applications.
  • Troubleshooting: Identify and resolve issues, debugging complex problems, and optimizing system performance.

Requerimientos del cargo

  • Technical Skills:
  • AWS, including EC2, ECS, RDS, IAM
  • Expertise in IaC tools (preferably - AWS CDK)
  • Expertise in CI/CD pipelines using GitHub Actions
  • Proficiency in automation tools like Chef, Ansible, or Puppet
  • Experience with containerization using Docker, including Docker Compose and Docker Swarm
  • Strong understanding of security best practices, including network security, access control, and compliance
  • Strong knowledge of Python and Shell scripting
  • Familiarity with monitoring and logging tools (DataDog, AWS CloudWatch)
  • Soft Skills:
  • Excellent leadership and communication skills
  • Strong problem-solving skills, with the ability to break down complex issues into manageable parts
  • Ability to adapt to changing requirements and priorities
  • Passion for DevOps, automation, and security, with a focus on delivering high-quality solutions
  • Education
  • Bachelor's degree in Computer Science, Information Technology, or a related field
  • Experience
  • At least 5 years of experience in DevOps, with a focus on cloud infrastructure, CI/CD pipelines, and automation
  • Experience leading DevOps teams, with a proven track record of delivering high-quality solutions

Opcionales

Certifications:

  • AWS Certified DevOps Engineer - Professional
  • GitHub Actions Certified Developer
  • Chef Certified Developer
  • Docker Certified Associate

Conditions

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
APPLY VIA WEB
$$$ Full time
QA Automation SSR Adv
  • Improving South America
JavaScript Agile QA Scrum
Leniolabs_ que ahora es Improving South America es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España, USA y Canadá.
Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes.
Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.
Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Apply directly on the original site at Get on Board.

Funciones del cargo

Actualmente, estamos en la búsqueda de un QA Automation SSR Adv/SR que se quiera unir a Leniolabs/Improving South America para trabajar de la mano de uno de nuestros importantes clientes:
  • Se trabajará en el departamento de desarrollo de tecnología de la empresa.
  • Trabajo en equipo - liderazgo.
  • Será responsable de avanzar en los diferentes requerimientos del cliente, junto con el equipo.
  • Su trabajo consiste en hacer que las tareas se realicen utilizando todos los recursos disponibles (tangibles e intangibles).
  • Contamos internamente con personas capacitadas para realizar QA, Líder de proyecto, etc, por lo cual tendrá la responsabilidad de adaptarse a cada equipo.
  • Trabajará para el área de notificaciones del sistema.
  • El trabajo está basado en ayudar a otras personas a conectar mensajes del sistema.
  • El sistema es usado por desarrolladores internos y eternos.

Requerimientos del cargo

  • Nivel de inglés intermedio/avanzado - Excluyente.
  • Experiencia realizando el ciclo completo de testing de software.
  • Experiencia de +5 años probando aplicaciones web y deseable que cuente experiencia en mobile.
  • Experiencia en la construcción de un framework para testing web.
  • Experiencia en POM.
  • Conocimientos o experiencia en JavaScript/TypeScript (Deseable).
  • Experiencia con Playwright o Cypress.
  • Manejo de metodologías agiles (Scrum).

Beneficios

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Internal talks Improving South America offers space for internal talks or presentations during working hours.
Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Improving South America gives you paid vacations over the legal minimum.
APPLY VIA WEB
$$$ Full time
DevOps Senior
  • Lemontech
Python BigQuery Azure Golang
En Lemontech, somos una empresa SaaS líder en Latinoamérica en el área Legaltech, comprometidos con modernizar procesos legales a través de tecnología innovadora. Nos especializamos en desarrollar softwares eficaces para el sector jurídico, simplificando y digitalizando lo que anteriormente era burocrático. Nuestro equipo está compuesto por talentos internacionales, cada uno aportando sus habilidades únicas para crear un ambiente colaborativo y creativo. Buscamos a un DevOps Senior que comparta nuestra visión y pasión por transformar el sistema judicial.

Apply without intermediaries from Get on Board.

Funciones del cargo

Como DevOps Senior, serás responsable de:
  • Manejar e implementar Kubernetes a nivel intermedio-avanzado, asegurando su optimización y rendimiento.
  • Realizar debugeo de infraestructura y aplicativos instalados en Kubernetes.
  • Administrar nuestros servicios en AWS, aplicando tu conocimiento avanzado en la plataforma.
  • Utilizar Helm o herramientas similares para charting, facilitando despliegues eficientes.
  • Implementar y mantener infraestructura como código utilizando Terraform.
  • Trabajar con herramientas GitOps como ArgoCD para integraciones continuas y flujos de trabajo de entrega.
  • Desarrollar y ejecutar pipelines de CI/CD utilizando GitHub Actions.
  • Implementar herramientas de monitoreo como New Relic y Datadog, desde su instalación hasta la creación de dashboards significativos.
  • Programar en lenguajes como Python o Golang para resolver problemas complejos.

Descripción del puesto

Buscamos un DevOps Senior que cuente con las siguientes habilidades y características:
  • Experiencia sólida en la administración de Kubernetes, con un enfoque en la optimización y escabilidad.
  • Haven un dominio intermedio-avanzado en debugeo de infraestructuras.
  • Experiencia avanzada con AWS, incluyendo la gestión de servicios y networking.
  • Habilidad en herramientas de charting como Helm, y en la implementación de infraestructura como código mediante Terraform.
  • Conocimientos en herramientas de CI/CD como GitHub Actions y su aplicación en procesos de desarrollo.
  • Un enfoque proactivo hacia el monitoreo de sistemas, utilizando herramientas de visualización y procesamiento de datos como New Relic y Datadog.
  • Deseable contar con conocimiento de GCP y Azure, así como experiencia usando herramientas de monitoreo con eBPF.
  • Habilidad en el manejo de herramientas de data analytics como BigQuery, dbt y Dagster.

Habilidades deseables

Además de los requisitos mencionados, se valorará:
  • Conocimiento en plataformas de GCP y/o Azure para diversificar nuestra infraestructura.
  • Experiencia con herramientas de monitoreo que utilizan eBPF, para optimizar el rendimiento del sistema.
  • Familiaridad con herramientas de data como BigQuery, dbt, y Dagster que pueden añadir valor a nuestros proyectos en el manejo y análisis de datos.

Beneficios de trabajar en Lemontech

En Lemontech, valoramos a nuestro equipo y ofrecemos una serie de beneficios atractivos:
  • Horarios flexibles que se adaptan a tu estilo de vida.
  • Trabajo remoto y una cultura basada en la colaboración.
  • Seguros de salud complementarios para tu tranquilidad.
  • Un ambiente laboral excepcional donde la buena onda es parte de la rutina, ¡nos encanta fomentar la diversión en el trabajo!
  • Oportunidades de desarrollo profesional, un excelente ambiente de trabajo y eventos sociales regulares que facilitan la creación de lazos entre colegas.

¿Estás listo para unirte a nosotros y hacer un impacto positivo en el sistema judicial? 🌍

Te compartimos nuestro aviso de Privacidad de Postulantes.

Wellness program Lemontech offers or subsidies mental and/or physical health activities.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance Lemontech pays or copays life insurance for employees.
Paid sick days Sick leave is compensated (limits might apply).
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Lemontech pays or copays health insurance for employees.
Dental insurance Lemontech pays or copays dental insurance for employees.
Free car parking You can park your car for free at the premises.
Commuting stipend Lemontech offers a stipend to cover some commuting costs.
Computer provided Lemontech provides a computer for your work.
Education stipend Lemontech covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts Lemontech provides some discounts or deals in certain stores.
Vacation over legal Lemontech gives you paid vacations over the legal minimum.
Beverages and snacks Lemontech offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Parental leave over legal Lemontech offers paid parental leave over the legal minimum.
APPLY VIA WEB
Gross salary $1200 - 1500 Full time
PL/SQL Database Administrator
  • OCUREL
  • Calama (In-office)
Python SQL Oracle ETL
Our mission is to revolutionize lead management by creating a seamless process for acquiring, nurturing, qualifying, and routing prospects for the mining industry. You will play a pivotal role in optimizing the data infrastructure that supports OCUREL's lead journey. We provide solutions and staff to different customers in the mining industry in Chile and beyond.

Apply directly from Get on Board.

Responsibilities

  1. Database Architecture & Maintenance:
    • Design, implement, and maintain scalable PL/SQL databases to support OCUREL’s lead management system.
    • Optimize database schemas for performance and reliability.
  2. Data Integration & Quality Management:
    • Integrate data from multiple sources, including web forms, CRM tools, and marketing platforms.
    • Ensure data accuracy, consistency, and integrity across systems.
    • Develop processes to clean and standardize incoming data.
  3. Performance Optimization:
    • Monitor database performance and optimize queries, indexes, and configurations.
    • Proactively address bottlenecks and implement solutions to scale systems as data volume grows.
  4. Automation & Scripting:
    • Automate data workflows, including ETL (Extract, Transform, Load) processes.
    • Develop scripts to streamline routine database tasks and reporting.
  5. Security & Compliance:
    • Implement robust data security protocols to protect sensitive lead and customer data.
    • Ensure compliance with GDPR, CCPA, and other relevant data privacy regulations.
  6. Collaboration & Support:
    • Work closely with developers to integrate databases with front-end and back-end applications.
    • Support sales and marketing teams by ensuring they have timely access to accurate data.
    • Provide technical guidance and documentation to team members.

Requirements

Technical Skills:
  • Strong experience with PL/SQL and Oracle databases.
  • Proficiency in SQL and one scripting language (e.g., Python, Bash).
  • Hands-on experience with ETL tools and processes.
  • Familiarity with cloud database solutions (AWS RDS, Azure SQL, Google BigQuery, etc.).
  • Knowledge of performance tuning, query optimization, and database indexing.
Data Security & Compliance:
  • Understanding of data protection best practices.
  • Experience implementing GDPR, CCPA, or similar compliance measures.
Soft Skills:
  • C1 English level or higher
  • Excellent problem-solving skills and attention to detail.
  • Strong communication skills for cross-functional collaboration.
  • Ability to manage multiple tasks and prioritize effectively.
Proved experience working with lead magnets.

Conditions

  • 100% in-person in our offices in downtown Calama
  • Benefits as required by law
Te compartimos nuestro aviso de Privacidad de Postulantes.

Library Access to a library of physical books.
APPLY VIA WEB
$$$ Full time
DevOps Engineer
  • Monetech Servicios

Monetech Servicios es una startup fintech de nueva generación que desarrolla soluciones inteligentes y fáciles de usar para automatizar las operaciones financieras en el segmento B2C. Nuestro objetivo es transformar el mercado y evolucionar hasta convertirnos en una entidad financiera totalmente autorizada con nuestra propia infraestructura bancaria. Esto nos permitirá emitir nuestras propias tarjetas, proporcionar servicios de crédito, ampliar nuestra oferta financiera y ofrecer el nivel de flexibilidad, accesibilidad y fiabilidad que nuestros clientes merecen.

Estamos en camino de convertirnos en el próximo neobanco inclusivo y basado en datos de México, ofreciendo financiación justa, rápida y totalmente digital a millones de personas que actualmente están fuera del sistema tradicional.

📌 Dado que somos una startup con miembros de varios países, enviar tu CV en inglés ayudará a agilizar el proceso de selección.

Find this job and more on Get on Board.

Tu día a día

  • Colaborar estrechamente con los equipos de negocio, desarrolladores e ingenieros DevOps para diseñar e implementar soluciones para funciones empresariales.
  • Contribuir al diseño de la arquitectura de infraestructura para los objetivos comerciales a mediano plazo, asegurando su alineación con estrategias de crecimiento a largo plazo.
  • Automatizar la configuración y el mantenimiento de la infraestructura, implementando las mejores prácticas de monitoreo y alertas para reducir el tiempo de resolución de problemas y mejorar la satisfacción del cliente.
  • Mantenerse actualizado sobre las últimas características de la plataforma AWS y adaptarlas a los objetivos de la empresa y las necesidades del equipo.
  • Desarrollar continuamente sus propias habilidades mientras orienta y apoya el crecimiento de los miembros del equipo.

Habilidades Indispensables

  • Experiencia como Ingeniero DevOps o en un rol similar de ingeniería de software.
  • Experiencia práctica con AWS u otros proveedores de nube, incluyendo diseño e implementación de infraestructura (redes, autoescalado, registro de logs, monitoreo, etc.).
  • Experiencia en la implementación de prácticas de seguridad a nivel de infraestructura en la nube y aplicaciones (por ejemplo, PCI DSS, protección de datos, ISO 27001).
  • Dominio de Git y flujos de trabajo con GitHub.
  • Sólidos conocimientos de scripting en Bash y Python.
  • Conocimientos de bases de datos (estructuradas/no estructuradas) y SQL.
  • Nivel de inglés B1 para comunicarse eficazmente con equipos internacionales.
  • Mentalidad resolutiva y espíritu de trabajo en equipo.
  • Título universitario (o equivalente) en Informática, Ingeniería o un campo relevante.
  • Experiencia en el desarrollo o ingeniería de aplicaciones tanto para startups como para empresas de gran escala.

¿Qué Distingue a los Mejores Candidatos?

  • Certificación en AWS (gran ventaja).
  • Experiencia en diseño de arquitectura de infraestructura en una empresa de tamaño medio o grande.
    Habilidad para mentorear y desarrollar miembros del equipo en prácticas de DevOps y cultura empresarial.
  • Fuertes habilidades de comunicación para diseñar y articular principios de infraestructura a largo plazo y patrones de arquitectura que respalden los requisitos empresariales funcionales y no funcionales con una perspectiva de más de 3 años.

¿Por Qué Unirse a Nosotros?

  • Forma parte de una empresa fintech en rápido crecimiento, impulsando la innovación en soluciones de préstamos accesibles.
  • Oportunidad de trabajar en proyectos de alto impacto en un entorno dinámico e innovador.
  • Colabora con un equipo apasionado y comprometido con la inclusión financiera.

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
Gross salary $2000 - 2200 Full time
Analista QA Automatizador
  • BC Tecnología
  • Santiago (Hybrid)
Python PostgreSQL Git QA
En BC Tecnología, somos una consultora de TI con un fuerte enfoque en la creación de soluciones personalizadas que se alinean perfectamente con las necesidades de nuestros clientes. Trabajamos con un diverso portafolio en sectores como servicios financieros, seguros, retail y gobierno. En nuestro proyecto actual, requerimos un Analista QA Automatizador por un periodo de 12 meses, donde el candidato será parte de un equipo ágil, encargado de asegurar la calidad de nuestros desarrollos mediante metodologías de testing avanzadas.

This job is published by getonbrd.com.

Responsabilidades del Analista QA Automatizador

  • Implementar y ejecutar pruebas automatizadas utilizando Selenium WebDriver en Python u otros lenguajes de programación orientados a objetos.
  • Realizar testing de APIs, asegurando la funcionalidad solicitada y la integridad de los microservicios.
  • Manejar repositorios y versiones de software mediante Git y plataformas como GitHub, GitLab o Bitbucket.
  • Interactuar con bases de datos; realizar consultas y pruebas en PostgreSQL como parte del proceso de verificación.
  • Gestionar actividades del equipo y seguimiento de tareas a través de Jira, asegurando el cumplimiento de cronogramas establecidos.
  • Configurar pipelines de CI/CD para facilitar la integración continua y entrega de software fluida.

Requisitos y habilidades del candidato

Buscamos un profesional que posea al menos 3 años de experiencia comprobable en roles similares, con un sólido entendimiento de las prácticas de aseguramiento de calidad. El candidato debe ser capaz de trabajar de manera colaborativa en un ambiente ágil, adoptar metodologías de desarrollo modernas y comunicarse efectivamente con diferentes áreas del equipo. Se valora la proactividad y un enfoque orientado a resultados.

Habilidades deseables

Sería un plus contar con certificaciones relacionadas a testing o metodologías ágiles, así como experiencia en la gestión de pruebas dentro de equipos multidisciplinarios. La experiencia con herramientas adicionales de automatización o conocimientos en lenguajes de programación adicionales también serán considerados positivamente.

Beneficios que ofrecemos

En BC Tecnología, valoramos a nuestro personal y fomentamos un ambiente laboral positivo y colaborativo. Ofrecemos un contrato a plazo fijo que tiene la posibilidad de convertirse en indefinido. Nuestro esquema de trabajo es híbrido, permitiendo así flexibilidad en la modalidad. Además, contamos con beneficios tales como seguro complementario de salud, aguinaldo por fiestas patrias y navidad, y tarjeta de alimentación. 🌟

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB
Gross salary $2000 - 2500 Full time
DBA Oracle
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL Oracle Linux
En *BC Tecnología*, somos una consultora TI con un enfoque claro en el cliente. Nuestros equipos de trabajo ágiles están diseñados para colaborar en proyectos innovadores, especialmente en el sector educativo. Tenemos más de 6 años de experiencia creando soluciones IT que se ajustan a las necesidades de nuestros clientes. Este proyecto específico es emocionante y se basa en la administración y optimización de bases de datos Oracle, siendo una oportunidad ideal para quienes buscan hacer un impacto significativo en su campo.

This job offer is on Get on Board.

Tus responsabilidades:

  • 🔧 Gestionar bases de datos Oracle en producción y desarrollo, asegurando su alta disponibilidad y rendimiento.
  • ⚙️ Configurar y gestionar entornos de alta disponibilidad usando Oracle RAC y Data Guard.
  • ☁️ Migrar bases de datos a Oracle Cloud y otros entornos Cloud.
  • 🛠 Automatizar tareas de DBA y realizar monitoreo continuo para optimizar el rendimiento.
  • 🛡 Diseñar planes de recuperación ante desastres y políticas de backup/restore.
  • 🔄 Colaborar con equipos de desarrollo y operaciones para integrar las bases de datos con las aplicaciones.

¿Qué buscamos?

  • 🎯 Experiencia sólida en Oracle 19c o superior.
  • ⚡ Conocimiento profundo de Oracle RAC, Data Guard, ASM y Oracle Multitenant.
  • ☁️ Experiencia con Oracle Cloud Infrastructure (OCI) y otros servicios Cloud como AWS o Azure (deseable).
  • 🛠 Habilidades en scripting para automatización de tareas DBA (Bash, Python).
  • 📊 Experiencia en monitoreo, tuning y optimización de bases de datos.
  • 🗂 Conocimiento avanzado en PLSQL, tuning de SQL, y gestión de backups (RMAN, Data Pump).
  • 🔐 Experiencia en seguridad y encriptación de bases de datos.

¿Qué ofrecemos?

  • 🚀 Proyecto de 5 meses con posibilidad de extensión.
  • 🌍 Trabajo híbrido en un ambiente dinámico.
  • 🎓 Oportunidades de crecimiento y aprendizaje con nuevas tecnologías.

Beneficios adicionales:

  • Modalidad híbrida (presencial 2 veces por semana) en Lima, Perú.
  • Horario flexible de lunes a viernes de 9:00 a 18:00.
  • Oportunidad de trabajar en proyectos innovadores que impactan el sector educativo.
  • Ambiente dinámico y con muchas oportunidades de crecimiento.
¡Únete a un equipo donde tu talento hará la diferencia! 🌟

Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB
Gross salary $2800 - 3000 Full time
DevOps Semi Senior
  • BC Tecnología
  • Santiago (Hybrid)
Ruby Python Git Linux
En BC Tecnología, somos una consultora de TI con más de 6 años de experiencia ofreciendo soluciones adaptadas a las necesidades de nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestra especialidad incluye la formación de equipos ágiles para distintas áreas de tecnología, incluyendo Infraestructura TI y Desarrollo de Software. Nos enfocamos en la creación de productos innovadores y en el apoyo organizacional mediante metodologías ágiles.

This job is available on Get on Board.

Funciones del Rol

Como Devops Semi Senior, tus responsabilidades incluyen:
  • Implementar y gestionar infraestructuras en la nube utilizando herramientas de primeros niveles como AWS, GCP o Azure.
  • Desarrollar y mantener pipelines de CI/CD utilizando lenguajes de programación como Python, Ruby y Bash.
  • Colaborar en el uso de Infraestructura como Código mediante herramientas como Terraform y Ansible.
  • Monitorear y optimizar clústeres de producción en entornos de Linux, utilizando herramientas como Docker y Kubernetes.
  • Participar activamente en sesiones de migración de infraestructura, asesorando en el proceso de transición de on-premise a Cloud.
  • Soporte técnico continuo para el equipo en prácticas DevOps, asegurando la implementación de mejores prácticas y principios de calidad en el desarrollo.
  • Utilizar y optimizar herramientas de monitoreo y trazabilidad como Prometheus, ELK y Grafana para garantizar el rendimiento efectivo de las aplicaciones.

Descripción del Perfil

Buscamos un profesional con al menos 3 años de experiencia en roles de Ingeniero DevOps o en Infraestructura Cloud, que demuestre un profundo conocimiento en prácticas DevOps. Buscamos habilidades tanto técnicas como interpersonales, incluyendo:
  • Salto de experiencia demostrado en sistemas Linux, control de versiones con Git y implementación de contenedores con Docker y Kubernetes.
  • Conocimientos sólidos en servicios en la nube (AWS, GCP, Azure) y sus respectivas herramientas de monitoreo.
  • Capacidad para trabajar en un entorno híbrido, manteniendo una comunicación efectiva tanto en ambientes remotos como presenciales.
  • Iniciativa propia y aptitud para resolver problemas, así como la capacidad de colaborar colaborativamente dentro de equipos multidisciplinarios.

Habilidades Deseables

Además de los requisitos mencionados, serán valoradas las siguientes habilidades:
  • Experiencia previa con herramientas de Infraestructura como Código como Terraform y Ansible.
  • Certificaciones en plataformas de nube como AWS o Azure.
  • Conocimientos en metodologías ágiles de gestión y desarrollo de software.
  • Capacidades en sistemas de logging y trazabilidad, aumentando la visibilidad del rendimiento de las aplicaciones.

Beneficios de Trabajar en BC Tecnología

En BC Tecnología, cuidamos el bienestar de nuestro equipo. Ofrecemos:
  • Seguro Complementario de Salud y Seguro de Vida para todos los empleados.
  • Bonos de rendimiento y aguinaldos durante festividades importantes.
  • Flexibilidad de horarios con múltiples turnos y una jornada laboral adaptable.
  • Acceso a certificaciones y cursos en AWS, Azure y otras tecnologías relevantes.
  • Convenios con instituciones de salud y acceso a un gimnasio cercano.
  • Oportunidades para participar en actividades externas y enriquecedoras.
¡Únete a un equipo donde tu talento hará la diferencia! 🌟

Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB
Gross salary $2200 - 2700 Full time
QA Automation
  • coderslab.io
Android iOS Python Agile

En CodersLab, actualmente estamos enfocados en el crecimiento global de nuestros equipos con el objetivo de posicionar nuestros productos en más países de Latinoamérica. Por esta razón, estamos buscando un QA AUTOMATION motivado y orientado a objetivos.

Te unirás a un equipo desafiante y ambicioso con ganas de innovar en el mercado, haciendo que tus propuestas sean altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

This company only accepts applications on Get on Board.

Funciones del cargo

Responsabilidades Principales:

1. Desarrollo de Automatización de Pruebas:

o Diseñar e implementar scripts automatizados para pruebas de aplicaciones web, móviles y

APIs utilizando herramientas como Robot Framework y Appium (Android/iOS).

o Garantizar la cobertura de pruebas para servicios REST y GraphQL.

o Usar Python para desarrollar soluciones personalizadas y mejorar los frameworks de prueba existentes.

2. Pruebas de Bases de Datos:

o Realizar pruebas y validaciones en bases de datos relacionales (e.g., MySQL, PostgreSQL) y no relacionales (e.g., DynamoDB).

3. Gestión y Colaboración:

o Documentar procesos, resultados y estrategias de prueba en herramientas como Confluence.

o Trabajar en estrecha colaboración con desarrolladores y partes interesadas del negocio para garantizar que los requisitos de calidad se cumplan.

o Gestionar tareas, estimaciones de esfuerzo y prioridades en Jira.

4. Gestión de Infraestructura:

o Configurar pipelines de integración y despliegue continuo (CI/CD) utilizando GitHub Actions.

o Colaborar en entornos basados en la nube, como AWS, para la ejecución y el mantenimiento de pruebas automatizadas.

5. Capacitación y Transferencia de Conocimiento:

o Capacitar a los miembros del equipo en herramientas, procesos y mejores prácticas de automatización.

o Promover una cultura de mejora continua mediante la transferencia de conocimiento y la mentoría.

Requerimientos del cargo

• Experiencia mínima de 5 años en QAA.

• Experiencia sólida en automatización de pruebas utilizando Robot Framework y Appium (Android/iOS).

• Conocimiento avanzado en Python para desarrollo de scripts y frameworks.

• Experiencia en diseño y ejecución de pruebas de APIs (REST y GraphQL).

• Familiaridad con bases de datos relacionales y no relacionales (MySQL, PostgreSQL, DynamoDB).

• Conocimiento de herramientas de CI/CD como GitHub Actions.

• Experiencia trabajando con AWS.

• Manejo de herramientas de gestión como Jira y Confluence.

• Habilidades en documentación y colaboración con equipos técnicos y de negocio.

• Experiencia en entornos ágiles (Scrum)

• Capacidad para liderar iniciativas de automatización y fomentar un entorno de aprendizaje continuo.

• Excelentes habilidades de comunicación y proactividad

• Autonomía y capacidad para gestionar múltiples tareas simultáneamente.

Conditions

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
Gross salary $2800 - 3000 Full time
Site Reliability Engineer (SRE)
  • BC Tecnología
  • Santiago (Hybrid)
Python Linux Virtualization Amazon Web Services
En *BC Tecnología*, somos una consultora de TI dedicada a ofrecer soluciones personalizadas en tecnología para diversas industrias como servicios financieros, seguros, retail y gobierno. En esta ocasión, buscamos un(a) Site Reliability Engineer (SRE) que se una a nuestro equipo para implementar y mantener soluciones de infraestructura y despliegue continuo en entornos críticos. Este profesional manejará tecnologías de vanguardia en plataformas multinube como AWS, GCP y Azure, desempeñándose en un ambiente dinámico que prioriza la eficiencia y la alta disponibilidad.

Send CV through Get on Board.

Funciones

  • Diseñar, implementar y gestionar pipelines de CI/CD utilizando GitLab y GitHub.
  • Monitorear, diagnosticar y optimizar sistemas para asegurar un alto rendimiento y disponibilidad.
  • Gestionar infraestructura como código (IaC) con Terraform.
  • Automatizar tareas repetitivas a través de scripting en Python y Bash.
  • Administrar clústeres de Kubernetes y servicios en AWS ECS.
  • Proveer soluciones robustas en entornos multinube (AWS, GCP, Azure).
  • Colaborar con equipos de desarrollo y operaciones para resolver incidentes y optimizar procesos.

Requerimientos

Experiencia:

  • Experiencia sólida en administración de infraestructura en AWS.
  • Dominio avanzado de GitLab y GitHub.
  • Experiencia comprobada en Terraform, Kubernetes y scripting con Python.
  • Habilidades en scripting con Bash.
  • Conocimiento de arquitecturas en la nube (IaaS, PaaS) y despliegue de contenedores.

Requisitos Deseables

Requisitos Deseables

  • Experiencia en entornos multinube (AWS, GCP, Azure).
  • Certificaciones relevantes en AWS, Kubernetes o Terraform.
  • Familiaridad con herramientas de monitoreo como Prometheus y Grafana.

Condiciones y Beneficios

Ofrecemos un contrato por proyecto estimado a 6 meses con posibilidad de extensión y una metodología de trabajo híbrida a demanda en Mall Florida / Las Condes, promediando 3 veces a la semana. El horario de trabajo es de lunes a viernes, y el salario es a convenir. Adicionalmente, proporcionamos beneficios como seguro complementario, Amipass de $4,500 por día laborado, convenios con actividades recreativas y bonos. ¡Esperamos tu interés y que te sumes a nuestro equipo en un entorno dinámico y colaborativo! 😊

APPLY VIA WEB
$$$ Full time
Ingeniero de Operaciones TI
  • Usercode SpA
Python Node.js Linux DevOps

Usercode es una empresa tecnológica especializada en el desarrollo de software para instituciones públicas y organizaciones privadas. Nuestro foco son las tecnologías Cloud, la automatización y digitalización de procesos.

Trabajamos 100% remoto, nuestro equipo está en distintas regiones de Chile, México y Perú. Para comunicarnos y trabajar utilizamos Slack, Meet Hangout y Monday.

La necesidad actual:

El volumen del negocio de Usercode está creciendo por la vía de incorporar una mayor cantidad y tipo de proyectos de desarrollo, por un lado, y por otro lado, abriendo líneas de negocio relacionadas, como mantenimiento de infraestructura, y ampliando la cartera de clientes hacia el mercado privado.

Para lograr el éxito en este proceso es clave contar con un equipo de desarrollo capaz, autónomo, responsable, con experiencia, preparado técnicamente, con profundos conocimientos en una serie de herramientas específica, capaz de aprender y adquirir el uso herramientas nuevas.

Apply at the original job on getonbrd.com.

Funciones del cargo

Para el puesto de Ingeniero de Operaciones TI con un enfoque en servicios cloud y DevOps, debe tener conocimiento en las siguientes características técnicas:

Configuración de máquinas virtuales en entornos Linux (obligatorio): Habilidad para instalar, configurar y mantener sistemas basados en Linux. Experiencia en la administración de servidores, optimización de rendimiento y seguridad de sistemas Linux.

Configuración de servicios web y de aplicaciones (obligatorio): Experiencia en la configuración y administración de servidores web y aplicaciones como Apache, Nginx, y Tomcat. Capacidad para implementar y gestionar procesos con gestores como PM2 para aplicaciones Node.js.

Seguridad de sistemas y redes (obligatorio): Conocimiento en la implementación de políticas de seguridad, gestión de accesos y configuración de firewalls y otros mecanismos de seguridad en entornos cloud y on-premise.

Monitoreo y logística (obligatorio): Experiencia en la configuración de herramientas de monitoreo y logística para garantizar la visibilidad y el rendimiento operativo, utilizando herramientas como Prometheus, Grafana, ELK Stack, etc.

Creación, mantención e implementación de productos digitales como plataformas web, aplicaciones móviles y/o sitios web.

El ingeniero de operaciones TI trabajará en el área de desarrollo de software junto con los demás desarrolladores, arquitecto de software, líder técnico y jefe de proyecto. Los proyectos serán mayoritariamente plataformas web para instituciones públicas o privadas donde debe levantar los diferentes ambientes, configurarlos, asegurar la seguridad, levantar y configurar los servicios necesarios para el correcto funcionamiento de las plataformas web y/o APIs.

Requerimientos del cargo

Requisitos técnicos:

Estamos en búsqueda de un Ingeniero de Operaciones TI, con un enfoque decidido hacia la gestión y optimización de servicios en la nube y prácticas DevOps. Esperamos que el candidato ideal tenga experiencia robusta en la implementación y manejo de ambientes cloud, utilizando herramientas modernas de CI/CD como Jenkins, y que posea habilidades sólidas en la configuración y administración de ambientes de desarrollo, prueba y producción.

El rol implica responsabilidades clave como la configuración de bases de datos y la garantía de su rendimiento óptimo, la implementación de soluciones escalables y la administración de infraestructura como código. Es fundamental que el candidato tenga la capacidad de colaborar estrechamente con equipos de desarrollo para facilitar despliegues rápidos y seguros, y asegurar la alta disponibilidad y resiliencia de los sistemas.

Buscamos a alguien que no solo se encargue de mantener la infraestructura existente, sino que también proponga y ejecute mejoras continuas, aplicando las mejores prácticas de seguridad y optimización de costos en entornos cloud.

Experiencia excluyente:

  • Configuración de máquinas virtuales en entornos Linux.
  • Configuración de servicios web y de aplicaciones.
  • Seguridad de sistemas y redes.
  • Monitoreo y logística.

Comportamiento esperado:

Lo que buscamos en ti:

  • Proactividad
  • Trabajo en equipo
  • Autonomía
  • Orientado a objetivos y resultados

Características personales:

  • Autonomía
  • Cumplimiento
  • Buenas habilidades de comunicación oral y escrita incluyendo comprensión lectora
  • Saber escuchar, atención
  • Ser respetuoso
  • Disposición a colaborar con el equipo
  • Responsable de sus tareas proyectos trabajos

Conocimientos deseables

Conocimiento en servicios AWS: Configuración y gestión de servicios clave de AWS como EC2, S3, RDS, ECS, Lambda, y VPC. Familiaridad con AWS CloudFormation o Terraform.

Gestión de bases de datos: Configuración, optimización y mantenimiento de sistemas de bases de datos. Experiencia en tareas como la configuración de replicación, backups automatizados y tuning de rendimiento.

Configuración y manejo de contenedores: Experiencia en uso de Docker para la creación y gestión de contenedores.

Orquestación con Kubernetes: Capacidad para implementar, configurar y manejar clústeres de Kubernetes.

Implementación y configuración de herramientas de CI/CD: Experiencia en la configuración y uso de Jenkins para la integración y entrega continua. Capacidad para diseñar pipelines de CI/CD.

Automatización y scripting: Habilidad en scripting con Bash, Python, o similar para la automatización de tareas administrativas y de despliegue.

Condiciones

Este puesto ofrece la flexibilidad de un entorno de trabajo remoto, sin embargo, según las necesidades específicas de nuestros clientes, puede haber ocasiones en las que se requiera tu presencia en un lugar de trabajo presencial.

  • Días extra de vacaciones.
  • Días libres 3x5, día libre por cumpleaños, cambio de domicilio, muerte de mascota
  • Pago de certificaciones seleccionadas
  • Pausa activa colaborativa
  • Aguinaldo

APPLY VIA WEB
$$$ Full time
Ingeniero de Operaciones TI
  • Usercode SpA
Python MySQL Linux DevOps

Usercode es una empresa tecnológica especializada en el desarrollo de software para instituciones públicas y organizaciones privadas. Nuestro foco son las tecnologías Cloud, la automatización y digitalización de procesos.

Trabajamos 100% remoto, nuestro equipo está en distintas regiones de Chile, México y Perú. Para comunicarnos y trabajar utilizamos Slack, Meet Hangout y Monday.

La necesidad actual:
El volumen del negocio de Usercode está creciendo por la vía de incorporar una mayor cantidad y tipo de proyectos de desarrollo, por un lado, y por otro lado, abriendo líneas de negocio relacionadas, como mantenimiento de infraestructura, y ampliando la cartera de clientes hacia el mercado privado.

Para lograr el éxito en este proceso es clave contar con un equipo de desarrollo capaz, autónomo, responsable, con experiencia, preparado técnicamente, con profundos conocimientos en una serie de herramientas específica, capaz de aprender y adquirir el uso herramientas nuevas.

Applications: getonbrd.com.

Funciones del cargo

Configuración de máquinas virtuales en entornos Linux (obligatorio): Habilidad para instalar, configurar y mantener sistemas basados en Linux. Experiencia en la administración de servidores, optimización de rendimiento y seguridad de sistemas Linux.

Configuración de servicios web y de aplicaciones (obligatorio): Experiencia en la configuración y administración de servidores web y aplicaciones como Apache, Nginx, y Tomcat. Capacidad para implementar y gestionar procesos con gestores como PM2 para aplicaciones Node.js.

Seguridad de sistemas y redes (obligatorio): Conocimiento en la implementación de políticas de seguridad, gestión de accesos y configuración de firewalls y otros mecanismos de seguridad en entornos cloud y on-premise.

Monitoreo y logística (obligatorio): Experiencia en la configuración de herramientas de monitoreo y logística para garantizar la visibilidad y el rendimiento operativo, utilizando herramientas como Prometheus, Grafana, ELK Stack, etc.

Requerimientos del cargo

Enfoque decidido hacia la gestión y optimización de servicios en la nube y prácticas DevOps. Esperamos que el candidato ideal tenga experiencia robusta en la implementación y manejo de ambientes cloud, utilizando herramientas modernas de CI/CD como Jenkins, y que posea habilidades sólidas en la configuración y administración de ambientes de desarrollo, prueba y producción.

El rol implica responsabilidades clave como la configuración de bases de datos y la garantía de su rendimiento óptimo, la implementación de soluciones escalables y la administración de infraestructura como código. Es fundamental que el candidato tenga la capacidad de colaborar estrechamente con equipos de desarrollo para facilitar despliegues rápidos y seguros, y asegurar la alta disponibilidad y resiliencia de los sistemas.

Buscamos a alguien que no solo se encargue de mantener la infraestructura existente, sino que también proponga y ejecute mejoras continuas, aplicando las mejores prácticas de seguridad y optimización de costos en entornos cloud.

El candidato ideal debe ser proactivo, trabajar bien en equipo, y manejar habilidades de comunicación efectivas. Se valoran personas con orientación a resultados, autonomía, y un enfoque en la mejora continua.

Experiencia excluyente:

  • Configuración de máquinas virtuales en entornos Linux.
  • Configuración de servicios web y de aplicaciones.
  • Seguridad de sistemas y redes.
  • Monitoreo y logística.

Comportamiento esperado:

Lo que buscamos en ti:

  • Proactividad
  • Trabajo en equipo
  • Autonomía
  • Orientado a objetivos y resultados

Características personales:

  • Autonomía
  • Cumplimiento
  • Buenas habilidades de comunicación oral y escrita incluyendo comprensión lectora
  • Saber escuchar, atención
  • Ser respetuoso
  • Disposición a colaborar con el equipo
  • Responsable de sus tareas proyectos trabajos

Opcionales

Conocimiento en servicios AWS: Experiencia en la configuración y gestión de servicios clave de AWS como EC2, S3, RDS, ECS, Lambda, y VPC. Familiaridad con AWS CloudFormation o Terraform.

Gestión de bases de datos: Sólidos conocimientos en la configuración, optimización y mantenimiento de sistemas de bases de datos como MySQL y SQL Server. Experiencia en tareas como la configuración de replicación, backups automatizados y tuning de rendimiento.

Configuración y manejo de contenedores: Experiencia en el uso de Docker para la creación y gestión de contenedores.

Orquestación con Kubernetes : Capacidad para implementar, configurar y manejar clústeres de Kubernetes, optimizando la automatización y escalabilidad de aplicaciones en producción.

Implementación y configuración de herramientas de CI/CD: Experiencia en la configuración y uso de Jenkins para la integración y entrega continua.

Automatización y scripting: Habilidad en scripting con Bash, Python, o similar.

Beneficios

Este puesto ofrece la flexibilidad de un entorno de trabajo remoto, sin embargo, según las necesidades específicas de nuestros clientes, puede haber ocasiones en las que se requiera tu presencia en un lugar de trabajo presencial.

  • Días extra de vacaciones.
  • Días libres 3x5, día libre por cumpleaños, cambio de domicilio, muerte de mascota
  • Pago de certificaciones seleccionadas
  • Pausa activa colaborativa
  • Aguinaldo

APPLY VIA WEB
Gross salary $2000 - 2500 Full time
Systems Engineer
  • Mediastream
  • Bogotá &nbsp Santiago &nbsp São Paulo (Hybrid)
Ruby Python Linux Web server
Company Description
Mediastream is a leading streaming technology company that has been in business for over 16 years. We collaborate with major companies and broadcasters around the world to offer a quality end-to-end solution for content administration, distribution, audiovisual production, and user experience. Our goal is to connect our customers with their audience in a simple and effective way, creating new revenue streams for their businesses.
Role Description
This is a hybrid role for a Systems Engineer. This role will be responsible for designing, implementing and maintaining Mediastream's content delivery network (CDN) infrastructure and services, ensuring fast, secure, robust and scalable access to our digital services for our customers. customers. users around the world, with a focus on video encoding and transcoding.

Apply exclusively at getonbrd.com.

Responsibilities

  • Design, configure, and optimize the CDN infrastructure to enhance content delivery speed and security.
  • Continuously monitor CDN performance, identify bottlenecks, and make adjustments to ensure operational continuity and speed.
  • Rotate on-call shifts and synchronously monitor high-concurrency streaming events.
  • Implement robust security measures to safeguard the CDN against threats, including DDoS attacks or others.
  • Collaborate closely with application development and cybersecurity teams to ensure efficient integration of the CDN and the implementation of security policies.
  • Work collaboratively with development and content teams to ensure that content is optimized for delivery through the CDN.
  • Research and evaluate new technologies, trends, and best practices in the CDN solutions domain, and subsequently propose, agree upon, implement, document, and provide training as necessary.

Minimum requirements

  • Operating Systems Linux Server (Ubuntu, Debian, CentOS, etc.): Exceptional
  • Network Infrastructure Management and Support (BGP, HTTP, DNS, DHCP, NTP, TCP/IP, FTP, Firewalls, among others): Advanced
  • Application and Network Monitoring Tools (Desirable: Datadog): Intermediate
  • Scripting Programming in BASH, RUBY, PYTHON, or others: Intermediate
  • Webserver Administration (Nginx): Exceptional
  • AWS Amazon CloudFront & Route 53: Intermediate
  • Video encoding and transcoding: Exceptional
  • Bachelor's degree in Computer Engineering, Systems, Networks, or related field
  • Additional Certifications: Cloud, Cisco, Linux, Networking, Nginx, Docker
  • Other: Streaming Technologies

APPLY VIA WEB
$$$ Full time
Data Engineer
  • Compara
Python PostgreSQL Kafka CI/CD

Compara es una plataforma digital que permite cotizar y comparar los principales seguros y productos financieros de Latinoamérica. En nuestra empresa, buscamos un Data Engineer que ayude a construir, optimizar y evolucionar nuestra infraestructura de datos. Con un énfasis en la modernización y mejora continua, esta posición es clave para asegurar que nuestros procesos de datos sean eficientes y escalables.

Originally published on getonbrd.com.

🎯 ¿Qué harás?

  • Mantener y optimizar nuestro data warehouse en PostgreSQL y los pipelines de ingesta de datos en producción.
  • Liderar la transición hacia una arquitectura moderna basada en Databricks, dbt y un data lake en S3.
  • Desarrollar y escalar pipelines de procesamiento y transformación de datos.
  • Monitorear, depurar y documentar procesos de datos para garantizar su calidad y confiabilidad.

🔎 ¿A quién buscamos?

  • Persona con más de 3 años de experiencia en ingeniería de datos, construyendo y manteniendo pipelines en producción.
  • Dominio de Python para procesamiento de datos, incluyendo el uso de librerías como pandas, SQLAlchemy y psycopg2.
  • Experiencia trabajando con orquestadores de workflows, especialmente Airflow.
  • Conocimiento sólido de bases de datos relacionales, especialmente PostgreSQL, incluyendo modelamiento y optimización de rendimiento.
  • Experiencia práctica con almacenamiento en la nube (S3 o equivalente) y formatos como Parquet.
  • Autonomía y capacidad de tomar decisiones técnicas.

🌟 Será un plus si cuentas con

  • Experiencia con dbt y modelado de datos.
  • Conocimiento en Databricks, Delta Lake, Apache Iceberg o arquitecturas de lakehouse.
  • Experiencia con diseño e implementación de pipelines CDC (Change Data Capture) usando Debezium, Kafka o similares.
  • Conocimientos de buenas prácticas de DevOps para data (versionado de pipelines, testing, CI/CD).
  • Inglés técnico para leer documentación y colaborar en proyectos internacionales.

🚀Únete a nuestro equipo

En Compara, ofrecemos horarios flexibles y un entorno que favorece el crecimiento profesional. Valoramos la cultura de aprendizaje continuo y el desarrollo de cada miembro del equipo, por lo que si disfrutas optimizando infraestructuras de datos, impulsando mejoras estratégicas y explorando nuevas herramientas, ¡nos encantaría conocerte! 🚀

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Compara provides a computer for your work.
Vacation over legal Compara gives you paid vacations over the legal minimum.
APPLY VIA WEB
$$$ Full time
Project Analyst Part Time
  • Tucar
  • Santiago (Hybrid)
Data Analysis Project Management Trello Asana

En Tucar, somos una empresa innovadora en el arriendo de vehículos eléctricos, con una de las flotas más grandes de Latinoamérica, compuesta por más de 700 unidades. Nuestra propuesta está enfocada en satisfacer las necesidades de los Gig Workers que utilizan aplicaciones de transporte como Uber, entregándoles vehículos eléctricos en arriendo para generar ingresos manejando. La compañía se destaca por su rapidez en el desarrollo de productos, la toma de decisiones ágil y su enfoque constante en la mejora continua y la experiencia del cliente. Nuestro equipo está comprometido con construir el futuro de la industria de movilidad, utilizando tecnología avanzada y fomentando un ambiente colaborativo e innovador.

Apply at getonbrd.com without intermediaries.

Responsabilidades Principales

  • Colaborar en la planificación y control de proyectos, garantizando el cumplimiento de plazos y metas establecidas para asegurar la eficiencia y éxito de los mismos.
  • Analizar datos clave relacionados con los proyectos y elaborar reportes detallados para apoyar a los responsables en la toma de decisiones estratégicas.
  • Apoyar la gestión y coordinación de equipos multidisciplinarios, facilitando una comunicación efectiva entre las diferentes áreas involucradas en los proyectos.
  • Proponer mejoras en los procesos internos, sustentadas en análisis cuantitativos y cualitativos, para optimizar recursos y resultados.
  • Realizar el seguimiento y monitoreo constante de los indicadores clave de desempeño (KPIs) asociados a los proyectos para medir avances y resultados.
  • Participar activamente en reuniones de planificación, aportando insights valiosos y análisis basados en datos obtenidos para impulsar la mejora continua.

Requisitos y Perfil del Candidato

  • Buscamos un estudiante de último año de Ingeniería Civil Industrial, Ingeniería Comercial o carreras afines, con ganas de adquirir experiencia práctica en un entorno dinámico y de rápida evolución.
  • El candidato debe poseer dominio avanzado de Microsoft Excel y otras herramientas de análisis de datos, junto con una fuerte capacidad analítica para identificar problemas y proponer soluciones eficientes. Es imprescindible la habilidad para manejar múltiples tareas y priorizarlas efectivamente en un contexto dinámico.
  • Se valoran habilidades sobresalientes de comunicación oral y escrita para interactuar con equipos diversos y stakeholders, así como proactividad, responsabilidad y autonomía para realizar las funciones asignadas.
  • Además, se desea un interés genuino por el sector de la movilidad eléctrica y por el trabajo en startups o ambientes tecnológicos, mostrando motivación para contribuir en un proyecto de impacto y sostenibilidad.

Experiencia y Conocimientos Deseables

  • Se valorará experiencia previa en gestión de proyectos o análisis de datos adquirida a través de pasantías, proyectos universitarios u otras actividades similares que permitan evidencia práctica del manejo de estas áreas.
  • Conocimiento de herramientas modernas de gestión de proyectos como Trello, Asana o Microsoft Project será altamente apreciado, facilitando la adaptación a las metodologías internas y flujos de trabajo colaborativos.
  • Un interés marcado en el sector de movilidad eléctrica y en tecnología emergente será un plus, alineándose con la misión y visión de Tucar.

Beneficios y Oportunidades

  • En Tucar promovemos un ambiente de trabajo colaborativo, dinámico e innovador, donde cada miembro es pieza clave para el éxito colectivo.
  • Ofrecemos la oportunidad de integrarse en un equipo joven que está construyendo el futuro de la movilidad eléctrica y el arriendo de vehículos mediante tecnología avanzada y un fuerte enfoque en la experiencia del cliente.
  • Contamos con un horario flexible, ideal para compaginar estudios y trabajo, y brindamos exposición a proyectos desafiantes que generan impacto tangible, con amplias oportunidades de desarrollo profesional y crecimiento dentro de la empresa.

APPLY VIA WEB
$$$ Full time
Ingeniero de Datos
  • Assetplan
  • Santiago (Hybrid)
Assetplan es una compañía líder en renta residencial en Chile, con presencia también en Perú. Actualmente, gestionamos más de 30.000 propiedades para clientes retail e institucionales y operamos más de 80 edificios multifamily. Con más de 10 años de trayectoria, Assetplan ha sido pionera en innovar y aplicar tecnología en el sector inmobiliario, promoviendo un modelo de negocio basado en la eficiencia, innovación y mejora continua.
El proyecto al que te integrarás busca potenciar la gestión de datos para respaldar la toma de decisiones estratégicas en toda la organización. Forma parte de un equipo joven con una estructura horizontal que valora el aprendizaje, la colaboración y la generación de valor a través de la innovación tecnológica aplicada a la información y análisis de grandes volúmenes de datos.

Apply directly through getonbrd.com.

Responsabilidades principales

Como Ingeniero de Datos, serás responsable de:
  • Diseñar, desarrollar y optimizar procesos ETL (Extract, Transform, Load) utilizando herramientas clave como Python (librerías Pandas y Numpy) y SQL.
  • Desarrollar y mantener dashboards y paneles en Power BI, integrando visualizaciones estratégicas para acompañar los procesos ETL y proporcionar insights relevantes.
  • Trabajar de forma colaborativa con diferentes áreas de la organización para interpretar y transformar sus necesidades en soluciones de datos que faciliten la toma de decisiones estratégicas.
  • Promover la calidad, escalabilidad y gobernanza de los datos durante el diseño, desarrollo y mantenimiento de los procesos y pipelines de datos, asegurando soluciones escalables y accesibles.
  • Mantener una comunicación efectiva con los equipos de negocio y tecnología para asegurar que las soluciones implementadas se alineen con los objetivos corporativos y generen impacto real en la organización.

Requisitos y habilidades necesarias

Buscamos un profesional con 1 a 3 años de experiencia demostrable en el área de datos, en roles de ingeniería o análisis que impliquen manipulación y transformación de datos.
  • Manejo de SQL Medio
  • Manejo de Python Intermedio/Avanzado (excluyente)
  • Manejo de Power BI Medio
  • Manejo de Excel Avanzado
  • 1-3 años de experiencia (excluyente)

Conocimientos adicionales deseables

Es deseable poseer experiencia en ambientes ágiles y metodologías de desarrollo colaborativo que faciliten la integración entre equipos técnicos y de negocio.
Valoramos conocimientos en otras herramientas de visualización o procesamiento de datos, así como experiencia en gestión de la calidad y gobernanza de datos que permitan fortalecer el ecosistema de información de la empresa.

Beneficios y cultura empresarial

En Assetplan valoramos y reconocemos el esfuerzo y dedicación de nuestros colaboradores, ofreciendo un ambiente laboral positivo basado en el respeto mutuo y la colaboración.
Entre nuestros beneficios contamos con:
  • Días extras de vacaciones por años de antigüedad
  • Modalidad de trabajo híbrido y flexibilidad para trámites personales
  • Monto mensual en app de snacks en la oficina
  • Medio día libre en tu cumpleaños
  • Copago en seguro complementario de salud
  • Reajuste anual de renta basado en IPC
  • Bono anual por desempeño
  • Eventos empresa y happy hours financiados por la compañía
  • Acceso a plataforma de cursos de formación
  • Convenios con gimnasios, descuentos y más

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Assetplan pays or copays health insurance for employees.
Computer provided Assetplan provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Assetplan gives you paid vacations over the legal minimum.
Beverages and snacks Assetplan offers beverages and snacks for free consumption.
APPLY VIA WEB
$$$ Full time
Especialista de Big Data
  • SONDA
  • Santiago (Hybrid)
Java Python PostgreSQL SQL

En SONDA, somos una empresa líder en transformación digital en la región. Desde nuestros inicios, creemos en el rol que desempeñamos para contribuir al desarrollo de las sociedades donde operamos mediante soluciones tecnológicas avanzadas. Actualmente, dentro de unidad de negocio de Digital Application Services, para proyecto SII - Servicio de impuestos indirectos, buscamos a Especialista de Big Data.

This job offer is on Get on Board.

Funciones del cargo

· Ser responsable de crear el "Big Data", tubería de datos, desde la recolección hasta la entrega para su análisis o para alimentar un producto o servicio basado en análisis predictivos en producción.

· Asegurar que la arquitectura de datos sea factible para que los científicos de datos trabajen con ella.

· Construir y mantener un Data Lakes y ofrece API para acceder al Especialista de Data Science que usa los datos para su análisis y ejecución de modelos de Machine Learning.

· Ser responsable de dar todo el apoyo para que el trabajo del Especialista de Data Science suceda, y sea “más efectivo”.

Requerimientos del cargo

· Estudios superiores en áreas relacionados.

· Desde 2 años de experiencia en cargos similares.

· Construcción de procesos e integración de datos en Big Data

· Conocimiento de conceptos de computación distribuida

· Experiencia y conocimiento en el uso de SQL.

· Uso de bases de datos relacionales, particularmente en Oracle y postgreSQL.

· Bases de Datos NoSQL
· Manejo de sistemas Unix/linux, shell script

· Programación orientada a objetos usando JAVA o Python

· Programación Funcional en Scala/Spark

· Manejo de herramientas de CI/CD.

· Conocimiento de almacenamiento de Datos.
· Diseño de Esquemas de datos

· Conocimiento de Hive, Impala, Kudu

· Conocimiento de Kafka ​

· Deseable conocimiento en el uso de servicios en entorno Cloudera.

Opcionales

Y mucho mejor si destacas por tener alguna certificación o curso en alguno de estos tópicos: ​

· Integración de datos

· Big data

· Desarrollo API

· Microservicios, springboot, springbatch

· Desarrollo en nube

· Desarrollo seguro

· Diseño de aplicaciones

· Metodologías ágiles

Conditions

Wellness program SONDA offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance SONDA pays or copays life insurance for employees.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage SONDA pays or copays health insurance for employees.
Retirement plan SONDA pays or matches payment for plans such as 401(k) and others.
Dental insurance SONDA pays or copays dental insurance for employees.
Commuting stipend SONDA offers a stipend to cover some commuting costs.
Computer provided SONDA provides a computer for your work.
Education stipend SONDA covers some educational expenses related to the position.
Fitness subsidies SONDA offers stipends for sports or fitness programs.
APPLY VIA WEB
Gross salary $2000 - 2500 Full time
Arquitecto/a de Datos Big Data
  • Interfell
Python SQL NoSQL Scala

En Interfell, impulsamos el futuro de las empresas conectándolas con el mejor talento IT de Latinoamérica. Somos una organización comprometida con el desarrollo y la fidelización de profesionales calificados, promoviendo el trabajo remoto y la inclusión en el sector tecnológico. Actualmente apoyamos un proyecto estratégico que demanda la renovación y optimización de la arquitectura de datos empresarial en un entorno híbrido, integrando tecnologías Big Data y cloud. Nuestro enfoque está en ofrecer soluciones escalables, seguras y alineadas con las metas corporativas para ayudar a las empresas a transformar sus sistemas de información y potenciar sus capacidades analíticas y de inteligencia artificial.
La persona trabajará con el equipo de analítica, producto e inteligencia artificial para garantizar la constante innovación y desafíos tecnológicos de la empresa.

Applications: getonbrd.com.

Responsabilidades principales

  • Diseñar arquitecturas escalables para el manejo eficiente de datos estructurados y no estructurados en ambientes cloud, on-premise e híbridos.
  • Asegurar la interoperabilidad entre sistemas locales y en la nube, considerando aspectos críticos como latencia, sincronización y seguridad.
  • Elaborar modelos de datos conceptuales, lógicos y físicos que reflejen y soporten los objetivos estratégicos del negocio.
  • Definir y establecer estándares rigurosos de calidad, acceso y gobernanza de datos aplicables en entornos mixtos.
  • Liderar y gestionar la migración de sistemas legados hacia arquitecturas modernas y flexibles, garantizando la continuidad operacional.
  • Diseñar estrategias para una transición progresiva hacia la nube, minimizando riesgos e impactos en la operación diaria.
  • Diagnosticar y optimizar el rendimiento de sistemas distribuidos para asegurar eficiencia y estabilidad.
  • Gestionar de forma eficiente los costos y recursos tanto en plataformas cloud como en infraestructura local.
  • Coordinar colaborativamente con áreas de datos, producto, inteligencia artificial y analítica para anticipar y solucionar necesidades tecnológicas.
  • Promover la adopción de tecnologías emergentes que impulsen el manejo estratégico de los datos e innovación corporativa.

Descripción del perfil requerido

Formación y experiencia: Contar con al menos 5 años de experiencia en tecnologías Big Data como Snowflake, Databricks, Apache Spark y bases NoSQL. Mínimo 3 años de trabajo en plataformas cloud AWS o Azure, con sólida familiaridad en entornos híbridos u on-premise.

Habilidades técnicas: Experiencia demostrable en diseño de arquitecturas mixtas (cloud + local), avanzado modelado de datos y desarrollo de procesos ETL complejos. Conocimiento en gestión de data lakes, data warehouses distribuidos y seguridad de datos, incluyendo respaldo y recuperación en ambientes heterogéneos. Competencia en programación orientada a datos usando SQL, Python o Scala.

Competencias blandas: Capacidad para comunicarse eficazmente con stakeholders técnicos y de negocio, liderar equipos en entornos dinámicos y colaborativos, poseer pensamiento analítico y resolver problemas de manera proactiva y eficiente.

Beneficios y condiciones

Oportunidad de crecimiento con un equipo multinivel

Vacaciones y feriados

Flexibilidad y autonomía

Pago USD

Trabajo remoto - Latam

APPLY VIA WEB
Gross salary $1900 - 2600 Full time
Data Scientist
  • Data Qu
  • Santiago (Hybrid)
Python Git Machine Learning AI

En DataQu, somos una empresa pionera en tecnologías avanzadas con más de una década de experiencia en análisis de datos, modelado matemático y desarrollo de software innovador. Nuestra pasión se centra en la Inteligencia Artificial y Big Data, creando sistemas personalizados que se integran con múltiples plataformas para optimizar procesos empresariales y acelerar el crecimiento estratégico de clientes en sectores como minería, salud, banca, retail, acuicultura y cementeras.

Operamos mayoritariamente en entorno remoto, con una cultura colaborativa y creativa, realizando encuentros regulares para fortalecer la cohesión y la innovación. Actualmente, estamos en expansión con proyectos innovadores en España, buscando potenciar nuestra influencia global mediante soluciones que transforman la experiencia de nuestros clientes.

Apply from getonbrd.com.

Responsabilidades principales

En esta posición, serás responsable de aplicar técnicas avanzadas de ciencia de datos para resolver problemas del mundo real a través de modelos predictivos y analíticos.

  • Desarrollar, implementar y optimizar modelos de machine learning supervisados y no supervisados para apoyar la toma de decisiones estratégicas.
  • Procesar, limpiar y transformar grandes volúmenes de datos para asegurar su calidad y utilidad en los modelos.
  • Gestionar el versionamiento de código utilizando herramientas dedicadas para mantener la trazabilidad y colaboración en los proyectos.
  • Colaborar con equipos multidisciplinarios para integrar modelos de inteligencia artificial generativa y tecnologías de modelos de lenguaje (LLM), incluyendo arquitecturas RAG (Retrieval-Augmented Generation).
  • Contribuir al diseño de soluciones que se adapten a las necesidades especificas de los clientes, facilitando la adopción de tecnologías de IA.
  • Participar en reuniones presenciales y remotas, fomentando un ambiente de trabajo productivo y colaborativo en la modalidad semi-presencial en Santiago, Chile.

Requisitos y perfil buscado

Buscamos un profesional semi-senior en Ciencia de Datos con una base sólida en machine learning clásico y un enfoque innovador para la aplicación práctica de análisis avanzados.

  • Dominio avanzado de Python para el desarrollo y despliegue de modelos analíticos, con experiencia gestionando librerías científicas y frameworks de modelado.
  • Experiencia comprobable en el procesamiento de datos, así como en métodos de modelado supervisado y no supervisado, garantizando resultados confiables y relevantes.
  • Conocimiento actualizado en herramientas de versionamiento de código como Git, asegurando prácticas colaborativas profesionales y ordenadas en los proyectos.
  • Idealmente, experiencia en tecnologías emergentes como modelos de lenguaje a gran escala (LLM), arquitecturas RAG y aplicaciones de inteligencia artificial generativa, lo que potenciará los productos que desarrollamos.
  • Habilidades interpersonales para trabajar en equipo, con comunicación efectiva y compromiso con la mejora continua.
  • Capacidad para adaptarse a un entorno semi-presencial dinámico en Santiago, donde la interacción directa apoyará la innovación y productividad del equipo.

Habilidades y conocimientos valorados

Serán altamente valoradas las siguientes competencias y experiencias que complementen el perfil principal:

  • Experiencia previa en proyectos con clientes de sectores complejos como salud, minería o banca, aportando una visión integral del negocio.
  • Familiaridad con otras herramientas y lenguajes de programación orientados a análisis de datos y visualización avanzada.
  • Conocimiento práctico en la implementación de soluciones de inteligencia artificial escalables en producción.
  • Capacidad para documentar y comunicar resultados técnicos y de negocio de manera clara y efectiva.
  • Interés en participar en la cultura colaborativa que fomenta DataQu, incluyendo la participación en actividades de equipo y mejora continua.

Beneficios y ambiente laboral

  • Ambiente laboral agradable y de compañerismo, con un equipo experimentado dispuesto a apoyarte en tus desafíos profesionales.
  • Horario establecido que permite un balance adecuado entre la vida personal y profesional.
  • La posibilidad de implementar, probar y experimentar con diversas tecnologías de la información para mantener la innovación constante.
  • Bono en fechas patrias y navidad como reconocimiento adicional.
  • Proyección y crecimiento profesional a largo plazo dentro de la organización.
  • Seguro de salud que garantiza bienestar y seguridad para ti y tu familia.

Nos encontramos en una etapa de expansión y buscamos talentos que quieran acompañarnos en la creación de soluciones transformadoras a nivel global.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Data Qu pays or copays health insurance for employees.
Computer provided Data Qu provides a computer for your work.
APPLY VIA WEB
Gross salary $2300 - 2500 Full time
Data Reporting Engineer
  • Contac Ingenieros
  • Santiago (Hybrid)
Python SQL Azure ETL

En Contac buscamos aportar y potenciar los equipos especializados de nuestros clientes, agregando valor a sus procesos a través de la experiencia de nuestros profesionales.
El equipo de trabajo está orientado a desarrollar, implementar y mantener sistemas avanzados de reportes y visualización de datos, con la finalidad de mejorar la gestión empresarial.

Exclusive to Get on Board.

Principales Desafíos

En esta posición, serás el protagonista en la transformación de datos en conocimiento relevante para la toma de decisiones estratégicas dentro de la minería.

  • Diseñar, desarrollar y optimizar reportes y herramientas de visualización que faciliten el acceso y análisis de la información, asegurando que sea clara y estratégica para los diferentes niveles de la organización.
  • Construir, mantener y mejorar las plataformas de datos que alimentan las soluciones de reportabilidad, garantizando la integridad y actualización continua de la información.
  • Integrar y gestionar procesos ETL (Extract, Transform, Load) para asegurar que la información sea confiable, oportuna y eficiente, soportando la toma de decisiones diarias.

Conocimientos Claves y Requisitos

Buscamos profesionales con un perfil técnico avanzado que combine conocimientos en ingeniería con habilidades sólidas en análisis y visualización de datos dentro del sector minero.

  • Python avanzado, con experiencia práctica utilizando librerías especializadas como Pandas, NumPy, Matplotlib, Plotly y Dash para manipulación, análisis y creación de visualizaciones dinámicas.
  • SQL avanzado y competencia en manejo y optimización de bases de datos complejas.
  • Power BI avanzado, capaz de construir dashboards impactantes que faciliten la interpretación y comunicación de datos a niveles estratégicos.
  • Experiencia en gestión de ETL y modelamiento de datos, con familiaridad en el ecosistema Azure para administrar y optimizar plataformas de datos en la nube.
  • Título profesional en Ingeniería Civil o Industrial, preferentemente con especialidad en Metalurgia, Química o Minería, aportando una visión práctica de los procesos productivos y operativos mineros.
  • Conocimiento sólido de los procesos mineros y manejo de indicadores clave del negocio para convertir datos en información relevante y accionable.
  • Mínimo 2 años de experiencia específica en reportabilidad y análisis de datos, preferentemente en el sector minero o industrias relacionadas.
  • Inglés Intermedio (B2)
  • Capacidad para trabajar en equipo, pensamiento analítico, atención al detalle, y orientación a resultados con compromiso en entregar soluciones de calidad que agregan valor.

Competencias y Habilidades Deseables

Es valorado contar con habilidades complementarias que potencien el impacto del rol, tales como:

  • Experiencia previa en industrias de minería o sectores industriales similares, aportando contexto y comprensión profunda de los requerimientos del negocio.
  • Conocimientos en otras herramientas de visualización o BI adicionales a Power BI, como Tableau o QlikView.
  • Familiaridad con metodologías ágiles para gestión de proyectos y desarrollo de soluciones analíticas.
  • Capacidad para comunicar hallazgos técnicos a audiencias no técnicas, facilitando la adopción de soluciones basadas en datos.
  • Interés por la innovación tecnológica y aprendizaje continuo en el ámbito de ciencia de datos y análisis avanzado.

Que ofrecemos

  • Una carrera en tecnología y analítica avanzada, con oportunidades de crecimiento y especialización.
  • Un grato ambiente laboral, donde la colaboración, el aprendizaje y el desarrollo profesional son prioridad.

APPLY VIA WEB
Gross salary $1800 - 2800 Full time
Business Intelligence Analyst
  • Compara
Python PostgreSQL Git SQL

Compara es una plataforma digital que permite cotizar y comparar los principales seguros y productos financieros de Latinoamérica. Estamos en búsqueda de un Business Intelligence Analyst para unirse a nuestro equipo de Product Operation. Tu misión será ayudarnos a entender y mejorar el desempeño de nuestros productos de inteligencia artificial, transformando datos en decisiones que generen impacto real.

This company only accepts applications on Get on Board.

¿Qué harás?

  • Generar reportes detallados, dashboards interactivos y métricas clave que permitan monitorear el desempeño y la efectividad de los productos de inteligencia artificial desarrollados por Compara.
  • Analizar los KPIs relevantes para identificar errores, tendencias y oportunidades de mejora que potencien el rendimiento y la experiencia del usuario.
  • Colaborar estrechamente con los equipos de producto, tecnología y otras áreas funcionales para abordar desafíos estratégicos basados en datos y asegurar una comunicación fluida entre departamentos.
  • Apoyar en la configuración, mantenimiento y optimización continua de los productos de inteligencia artificial, incluyendo la ejecución de tareas especializadas relacionadas con prompt engineering, que mejoran la interacción con modelos de lenguaje.

¿A quién buscamos?

  • Experiencia en roles de Business Intelligence.
  • Manejo de herramientas BI (idealmente Metabase).
  • Dominio de SQL (preferiblemente PostgreSQL).
  • Conocimientos prácticos de Python para análisis o automatización de datos.
  • Conocimiento básico de versionado con Git.
  • Pensamiento analítico, autonomía y habilidades colaborativas para definir métricas de producto y resolver problemas con actitud proactiva.

Será un plus si cuentas con:

  • Conocimiento en data engineering: ETL/ELT, pipelines y automatización de procesos.
  • Experiencia en prompt engineering o trabajo con modelos de lenguaje (LLMs).

¿Qué ofrecemos?

En Compara ofrecemos horarios flexibles que permiten un equilibrio ideal entre la vida personal y laboral, fomentando un ambiente que favorece el crecimiento profesional y el aprendizaje continuo. Valoramos la cultura de desarrollo individual y de equipo, brindando una atmósfera colaborativa para la innovación y la optimización constante de infraestructuras de datos y procesos tecnológicos. Si te apasiona trabajar con datos, impulsar mejoras estratégicas y adoptar nuevas herramientas tecnológicas, ¡nos encantaría que formes parte de nuestro equipo! 🚀

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Compara provides a computer for your work.
Vacation over legal Compara gives you paid vacations over the legal minimum.
APPLY VIA WEB
$$$ Full time
Data Engineer
  • NeuralWorks
  • Santiago (Hybrid)
Python Data Analysis SQL Big Data

NeuralWorks es una compañía de alto crecimiento fundada hace 3 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

Apply to this job without intermediaries on Get on Board.

Descripción del trabajo

El equipo de Data y Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.
Dentro del equipo multidisciplinario con Data Scientist, Translators, DevOps, Data Architect, tu rol será clave en construir y proveer los sistemas e infraestructura que permiten el desarrollo de estos servicios, formando los cimientos sobre los cuales se construyen los modelos que permiten generar impacto, con servicios que deben escalar, con altísima disponibilidad y tolerantes a fallas, en otras palabras, que funcionen. Además, mantendrás tu mirada en los indicadores de capacidad y performance de los sistemas.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Como Data Engineer, tu trabajo consistirá en:

  • Participar activamente durante el ciclo de vida del software, desde inception, diseño, deploy, operación y mejora.
  • Apoyar a los equipos de desarrollo en actividades de diseño y consultoría, desarrollando software, frameworks y capacity planning.
  • Desarrollar y mantener arquitecturas de datos, pipelines, templates y estándares.
  • Conectarse a través de API a otros sistemas (Python)
  • Manejar y monitorear el desempeño de infraestructura y aplicaciones.
  • Asegurar la escalabilidad y resiliencia.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia práctica de al menos 3 años en entornos de trabajo como Data Engineer, Software Engineer entre otros.
  • Experiencia con Python.
    Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida optimización de consultas.
  • Pasión en problemáticas de procesamiento de datos.
  • Experiencia con servidores cloud (GCP, AWS o Azure), especialmente el conjunto de servicios de procesamiento de datos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.
  • Habilidades de comunicación y trabajo colaborativo.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” D. Gaucher , J. Friesen and A. C. Kay, Journal of Personality and Social Psychology, 2011.

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Vestimenta informal
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
APPLY VIA WEB
$$$ Full time
Data Scientist
  • NeuralWorks
  • Santiago (Hybrid)
Python Data Analysis SQL Amazon Web Services

NeuralWorks es una compañía de alto crecimiento fundada hace 3 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

Apply exclusively at getonbrd.com.

Descripción del trabajo

El equipo de Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.

Como Data Scientist, trabajarás en conjunto con Machine Learning Engineers,Translators, Data Engineers entre otros perfiles, construyendo productos basados en datos que permitan llevar las prácticas de negocio al siguiente nivel.

El equipo de Analítica no opera como un equipo de Research separado, sino que está profundamente integrado con nuestros clientes y sus unidades de negocio, esto permite un feedback loop rápido para iterar, corregir y perfeccionar para finalmente conseguir el impacto de negocio.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, una pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Tu trabajo variará de proyecto a proyecto, pero siguiendo una estructura similar:

  • Identificar problemas de analítica que tengan un mayor impacto para la organización.
  • Familiarizarte con el problema junto a expertos, recabar información, opiniones y facts
  • Investigar las mejores prácticas de la industria.
  • Definir hipótesis de trabajo y approach técnico para resolver el problema, incluyendo el set de datos a utilizar, variables, periodo de tiempo, etc.
  • Recopilar datasets estructurados y no estructurados desde múltiples fuentes.
  • Realizar limpieza de datos y validar correctitud.
  • Aplicar modelos y algoritmos para minería de datos.
  • Analizar resultados e identificar patrones y tendencias.
  • Diseñar junto a Machine Learning Engineers soluciones que permitan capturar oportunidades.
  • Comunicar los resultados y discutirlos junto a expertos o tomadores de decisiones.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia previa en roles de Data Scientist, Data Engineer o similar.
  • Experiencia con Python.
  • Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida la optimización de consultas.
  • Entendimiento de flujo de vida completo modelos de Machine Learning y productos de datos.
  • Habilidades analíticas, de diseño y resolución de problemas.
  • Habilidades de colaboración y comunicación.
  • Buen manejo comunicacional y skills colaborativos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” D. Gaucher , J. Friesen and A. C. Kay, Journal of Personality and Social Psychology, 2011.

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Experiencia con servidores cloud (GCP, AWS o Azure), especialmente el conjunto de servicios de procesamiento de datos.
  • Experiencia usando pipelines de CI/CD y Docker.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Vestimenta informal
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
APPLY VIA WEB
Gross salary $2000 - 3000 Full time
Ingeniero/a de Datos / AI
  • Devups
Devups es una empresa dedicada al staffing tecnologico, focalizados con una vision de proveer a nuestros clientes con talento de calidad pero priorizando el bienestar de nuestros recursos. Para nosotros el cliente es importante, pero el desarrollador aun mas por eso actuamos como representantes de talentos y trabajamos para mejorar la calidad de vida de estos.
DevUps nace de la famosa frase de Barney Stinson, Suit Up.

© Get on Board. All rights reserved.

Job functions

  • Definir y diseñar pipelines de datos junto al PM asignado.
  • Colaborar en la validación, limpieza y testing de datasets.
  • Reportes diarios: lo que hiciste hoy, qué harás mañana y tus bloqueadores.
  • Asistir al menos a 2 llamadas semanales con el equipo de planificación Devups.

Qualifications and requirements

El perfil que buscamos deberá comprender la arquitectura de data lakes y warehouses, aplicando patrones de ETL/ELT probados. Deberá contar con experiencia en optimización de performance de procesamiento masivo y la habilidad para comunicar claramente desafíos técnicos de AI/ML. Experiencia trabajando en entornos ágiles y altamente iterativos es deseable.
Nivel de inglés: B2+.
Se debe cumplir con al menos (1) de los siguientes:
Python & Frameworks:

  • Pandas, NumPy, PySpark
  • Airflow o Prefect
Big Data / Databases:

  • Hadoop, Spark
  • SQL (PostgreSQL, MySQL) o NoSQL (MongoDB, Cassandra)

Desirable skills

  • Experiencia en AWS/GCP (Redshift, BigQuery, S3).
  • Conocimientos de TensorFlow, PyTorch o scikit-learn.
  • Implementación de APIs de inferencia en FASTAPI o Flask.

Conditions

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
Gross salary $1700 - 2500 Full time
Ingeniero de Datos Semi Senior
  • coderslab.io
  • Santiago (Hybrid)
Python Git SQL BigQuery
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de Ingeniero de Datos para unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

Apply to this job at getonbrd.com.

Funciones del cargo

  • Desarrollar y mantener pipelines ETL para ingesta, transformación y carga de datos en GCP.
  • Modelar datos para asegurar la calidad, integridad y optimización en BigQuery.
  • Implementar soluciones usando Cloud Functions, Airflow y Cloud Storage para automatización y orquestación de procesos.
  • Colaborar con equipos multidisciplinarios para cumplir con los objetivos del proyecto Lago de Datos 2.0.
  • Utilizar DBT para la transformación y modelado de datos (cuando aplique).
  • Gestionar versiones y colaborar en el control de código mediante GitLab, Bitbucket o GitHub.
  • Documentar procesos técnicos y mantener buenas prácticas en el manejo de datos.

Requerimientos del cargo

  • Experiencia en desarrollo de proyectos de datos (ETLs) en Google Cloud Platform (GCP).
  • Conocimiento y manejo de productos GCP: BigQuery, Cloud Functions, Airflow, Cloud Storage.
  • Experiencia ideal con DBT (Data Build Tool).
  • Dominio de lenguajes SQL y Python.
  • Experiencia con gestores de versionamiento como GitLab, Bitbucket o GitHub.
  • Experiencia en modelado de datos en GCP.

APPLY VIA WEB
Gross salary $1900 - 2500 Full time
Ingeniero de Datos Senior
  • coderslab.io
  • Santiago (Hybrid)
Python Git SQL BigQuery
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de Ingeniero de Datos para unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

This job offer is available on Get on Board.

Funciones del cargo

  • Desarrollar y mantener ingestas de datos hacia Google Cloud Platform.
  • Implementar pipelines ETL eficientes y escalables para procesamiento de datos.
  • Colaborar con equipos técnicos y de negocio para asegurar la calidad y disponibilidad de la información.
  • Gestionar y optimizar el almacenamiento y procesamiento de datos utilizando BigQuery, Cloud Functions, Airflow y Cloud Storage.
  • Utilizar DBT para transformación y modelado de datos (ideal).
  • Controlar versiones y colaborar en el desarrollo mediante herramientas como GitLab, Bitbucket o GitHub.
  • Documentar procesos y asegurar buenas prácticas en el manejo de datos.
  • Apoyar en la identificación y resolución de problemas técnicos relacionados con ingesta y procesamiento de datos.

Requerimientos del cargo

  • Conocimientos técnicos obligatorios:
    • Desarrollo de proyectos ETL en Google Cloud Platform (GCP).
    • Uso avanzado de productos GCP: BigQuery, Cloud Functions, Airflow, Cloud Storage.
    • Experiencia ideal con DBT (Data Build Tool).
    • Dominio de lenguajes SQL y Python.
    • Manejo de gestores de versionamiento: GitLab, Bitbucket o GitHub.

APPLY VIA WEB
$$$ Full time
Data Analyst
  • ARKHO
  • Santiago (Hybrid)
Python Agile Data Analysis SQL

ARKHO es una consultora experta en tecnologías de la información, que ofrece servicios expertos de TI en el marco de modernización de aplicaciones, analítica de datos, IA y migración a la nube. Nuestro trabajo facilita y acelera la adopción de la cloud en múltiples industrias.
Nos destacamos por ser Partner Advanced de Amazon Web Services con foco estratégico en la generación de soluciones usando tecnología en la nube, somos obsesionados por lograr los objetivos propuestos y tenemos especial énfasis en el grupo humano que compone ARKHO (nuestros Archers), reconociendo a nuestro equipo como un componente vital para el logro de los resultados.

¿Te motivas? ¡Te esperamos!

Find this job on getonbrd.com.

Funciones del cargo

Estamos en busca de un Data Analyst con por lo menos tres años de experiencia, para incorporarse a nuestro equipo ágil en proyectos de Data Analytics. Buscamos a alguien con experiencia en recopilar, procesar y analizar datos para ayudar a las organizaciones a tomar decisiones informadas, este rol es clave para convertir los datos en información significativa que pueda impulsar la toma de decisiones y la estrategia empresarial. Dentro de las principales actividades se encuentran:

  • Obtener datos de diversas fuentes, que pueden incluir bases de datos internas, archivos Excel, sistemas de gestión empresarial, APIs (interfaces de programación de aplicaciones), entre otros.
  • Preparar y limpiar datos para garantizar su calidad y confiabilidad. Esto implica eliminar duplicados, corregir errores, manejar valores faltantes y estandarizar formatos.
  • Explorar y analizar datos mediante técnicas estadísticas y visualización para comprender su distribución, identificar patrones, y detectar posibles outliers.
  • Crear informes y dashboards que resuman los resultados del análisis de datos de manera clara y comprensible para los interesados, como gerentes y tomadores de decisiones.
  • Identificar tendencias a lo largo del tiempo y patrones en los datos que puedan ser útiles para la toma de decisiones estratégicas.
  • Aplicar técnicas de modelado de datos para prever tendencias futuras o realizar proyecciones basadas en datos históricos.
  • Trabajar en estrecha colaboración con equipos interdisciplinarios, como científicos de datos, ingenieros de datos y profesionales de negocios, para comprender mejor los objetivos y desafíos de la organización.
  • Participar en el control y seguimiento de tareas utilizando herramientas como Jira, asegurando la correcta trazabilidad del avance de los proyectos y la priorización de actividades.
  • Mantenerse al tanto de las tendencias tecnológicas y de la industria, así como actualizar y mejorar continuamente los procesos y métodos utilizados en el análisis de datos.

Perfil

Buscamos un profesional con sólidas habilidades analíticas y conocimientos técnicos en herramientas y lenguajes de programación, capaz de comunicar de manera efectiva los resultados de sus análisis a diferentes audiencias dentro de la organización. Si eres una persona apasionada por los datos, con un enfoque en resolver problemas de negocio y habilidades técnicas destacadas, ¡queremos conocerte! En nuestra compañía valoramos a personas autosuficientes, proactivas e innovadoras, que puedan gestionar su propia carga de trabajo, tomar decisiones acertadas y cumplir con los plazos y objetivos establecidos. ¡Buscamos profesionales de excelencia e íntegros, dentro y fuera de la cancha!"

En tu carrera profesional deberías contar al menos con:

  • Experiencia mínima de 3 años en proyectos de Data Analyst y/o Business Intelligence o en roles similares.
  • Habilidad avanzada en SQL para consultas y análisis de bases de datos.
  • Conocimiento en herramientas de visualización de datos como Tableau, Power BI, AWS QuickSight, etc.
  • Experiencia en el manejo de servicios de AWS relacionados con análisis de datos (AWS Glue, Redshift, Athena, S3, cloudwatch, RDS, etc.).
  • Familiaridad con el uso de Python o R para análisis de datos.
  • Habilidades analíticas y capacidad para interpretar datos complejos y traducirlos en insights accionables.
  • Excelentes habilidades de comunicación para presentar datos de manera clara y concisa a partes interesadas no técnicas.
  • Profesional en Ingeniería de Sistemas, Ciencias de la Computación, Matemáticas, Estadística u otros.

Habilidades Opcionales

Si posees experiencia en los puntos siguientes, es un plus:

  • Experiencia trabajando en ambientes de consultoría o proyectos con múltiples clientes.
  • Nivel de inglés Intermedio - Avanzado
  • Experiencia en metodologías ágiles como Scrum

Condiciones

📆 Día administrativo semestral hasta los 12 meses
🏖️ Week off: 5 días de vacaciones extra
🎉 ¡Celebra tu cumpleaños!
📚 Path de entrenamiento
☁️ Certificaciones AWS
🏡 Flexibilidad (trabajo híbrido con posibilidad a remoto)
💍 Regalo por casamiento + 5 días hábiles libres
👶 Regalo por nacimiento de hijos
✏️ Kit escolar
🤱 Beneficio paternidad
❤️ Bonda (plataforma de descuentos y bienestar)

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Computer provided ARKHO provides a computer for your work.
Vacation over legal ARKHO gives you paid vacations over the legal minimum.
APPLY VIA WEB
$$$ Full time
Analista de Operaciones Medios de Pago
  • coderslab.io
  • Santiago (Hybrid)
Python Data Analysis SQL Power BI

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de ANALISTA DE OPERACIONES - MEDIOS DE PAGO para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

This offer is exclusive to getonbrd.com.

Funciones del cargo

  1. Desarrollo de Paneles:
    • Crear y mantener paneles interactivos en Power BI y Looker Studio para la visualización de datos.
    • Asegurar que los paneles reflejen métricas clave y sean accesibles para los usuarios finales.
  2. Explotación de Datos:
    • Realizar la extracción y transformación de datos desde diversas fuentes.
    • Implementar procesos de limpieza y validación de datos.
  3. Análisis de Datos:
    • Analizar grandes volúmenes de datos para identificar tendencias, patrones y oportunidades de mejora.
    • Generar informes analíticos que apoyen la toma de decisiones estratégicas.
  4. Extracción y Análisis Multiplataforma:
    • Integrar datos de diferentes plataformas y sistemas, asegurando una visión holística del rendimiento.
    • Colaborar con equipos de IT para optimizar la infraestructura de datos.
  5. Colaboración Interdepartamental:
    • Trabajar de manera colaborativa con otros departamentos para entender sus necesidades de datos y proporcionar soluciones efectivas.
    • Participar en reuniones de equipo para discutir resultados y proyecciones.
  6. Documentación:
    • Mantener documentación clara y concisa de procesos, análisis y hallazgos.
    • Presentar resultados de manera efectiva a diferentes niveles de la organización.

Requerimientos del cargo

Habilidades/Conocimientos Obligatorios

  • Herramientas y Tecnologías:
    • Power BI
    • GCP (Google Cloud Platform)
    • Looker Studio
    • SQL
    • Python
  • Educación:
    • Título universitario en áreas relacionadas (Ingeniería, Estadística, Ciencias de la Computación, etc.).
  • Experiencia:
    • Experiencia previa en análisis de datos o roles similares (preferentemente en el sector de medios de pago).
  • Habilidades Técnicas:
    • Dominio de SQL para la manipulación y consulta de bases de datos.
    • Conocimiento práctico de Python para análisis de datos y automatización de procesos.
    • Experiencia en el uso de herramientas de visualización (Power BI, Looker Studio).
  • Habilidades Blandas:
    • Excelentes habilidades de comunicación y presentación.
    • Capacidad para trabajar en equipo y colaborar con diferentes áreas.
    • Pensamiento analítico y atención al detalle.

APPLY VIA WEB
Gross salary $1800 - 2800 Full time
Business Intelligence Analyst
  • Compara
Python PostgreSQL Git SQL

Compara es una plataforma digital que permite cotizar y comparar los principales seguros y productos financieros de Latinoamérica. Estamos en búsqueda de un Business Intelligence Analyst para unirse a nuestro equipo de Product Operation. Tu misión será ayudarnos a entender y mejorar el desempeño de nuestros productos de inteligencia artificial, transformando datos en decisiones que generen impacto real.

Apply exclusively at getonbrd.com.

¿Qué harás?

  • Generar reportes detallados, dashboards interactivos y métricas clave que permitan monitorear el desempeño y la efectividad de los productos de inteligencia artificial desarrollados por Compara.
  • Analizar los KPIs relevantes para identificar errores, tendencias y oportunidades de mejora que potencien el rendimiento y la experiencia del usuario.
  • Colaborar estrechamente con los equipos de producto, tecnología y otras áreas funcionales para abordar desafíos estratégicos basados en datos y asegurar una comunicación fluida entre departamentos.
  • Apoyar en la configuración, mantenimiento y optimización continua de los productos de inteligencia artificial, incluyendo la ejecución de tareas especializadas relacionadas con prompt engineering, que mejoran la interacción con modelos de lenguaje.

¿A quién buscamos?

  • Experiencia en roles de Business Intelligence.
  • Manejo de herramientas BI (idealmente Metabase).
  • Dominio de SQL (preferiblemente PostgreSQL).
  • Conocimientos prácticos de Python para análisis o automatización de datos.
  • Conocimiento básico de versionado con Git.
  • Pensamiento analítico, autonomía y habilidades colaborativas para definir métricas de producto y resolver problemas con actitud proactiva.

Será un plus si cuentas con:

  • Conocimiento en data engineering: ETL/ELT, pipelines y automatización de procesos.
  • Experiencia en prompt engineering o trabajo con modelos de lenguaje (LLMs).

¿Qué ofrecemos?

En Compara ofrecemos horarios flexibles que permiten un equilibrio ideal entre la vida personal y laboral, fomentando un ambiente que favorece el crecimiento profesional y el aprendizaje continuo. Valoramos la cultura de desarrollo individual y de equipo, brindando una atmósfera colaborativa para la innovación y la optimización constante de infraestructuras de datos y procesos tecnológicos. Si te apasiona trabajar con datos, impulsar mejoras estratégicas y adoptar nuevas herramientas tecnológicas, ¡nos encantaría que formes parte de nuestro equipo! 🚀

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Compara provides a computer for your work.
Vacation over legal Compara gives you paid vacations over the legal minimum.
APPLY VIA WEB
Gross salary $1700 - 2100 Full time
Data Scientist
  • Kunzapp
  • Santiago &nbsp Ciudad de México (Hybrid)
Python Git Data Analysis SQL

En Kunzapp buscamos un Data Scientist con fuerte ambición y deseo de aprender para desarrollar e implementar modelos de machine learning, análisis de datos, y colaborar con visualizaciones de los KPIs que miden nuestros productos. Esta persona será parte de un equipo de desarrollo pequeño pero poderoso, en un entorno de startup donde la velocidad y la ejecución son clave. Buscamos a alguien que ame el análisis de datos, la experimentación, y construir cultura mientras escalamos.

Apply without intermediaries through Get on Board.

🚀 Responsabilidades

  • Desarrollar e implementar modelos de machine learning y análisis estadístico.
  • Diseñar y mantener pipelines de datos eficientes y escalables.
  • Participar activamente en el proceso de Scrum: grooming, sprint planning, dailies.
  • Colaborar con producto para traducir iniciativas de negocio en soluciones basadas en datos.
  • Promover un ambiente de trabajo transparente, donde se pueda aprender, compartir y crecer.
  • Implementar y mantener sistemas de monitoreo de modelos y métricas clave.
  • Desarrollar experimentos A/B y análisis estadísticos para validar hipótesis.
  • Comunicar hallazgos y recomendaciones basadas en datos al equipo y stakeholders.

🛠 Stack tecnológico actual:

Backend: Go (Gin+Gorm), Python

Análisis de datos: Python, Jupyter Notebooks

Data Engineering: SQL, DynamoDB, SQS, EventBridge

Otros: Git, Docker, AWS Sagemaker, AWS Bedrock, Datadog, Elasticsearch

¿ Qué necesitamos de ti ? 🕵🏻

  • Experiencia en data science y machine learning en entornos productivos.
  • Sólidos conocimientos en estadística y matemáticas.
  • Dominio de Python y sus principales librerías de data science.
  • Mentalidad de "ship fast, fix fast", con enfoque en resultados medibles.
  • Experiencia en implementación y monitoreo de modelos en producción.
  • Ambición, ganas de crecer, y mucho deseo de aprender y mejorar habilidades técnicas.
  • Capacidad para comunicar efectivamente hallazgos técnicos a audiencias no técnicas.
  • Inglés intermedio-avanzado (nuestra documentación se escribe en inglés).

✅ Beneficios

  • Aguinaldo 15 días en Diciembre
  • Bono anual de hasta 1 mes de sueldo basado en performance.
  • Crecimiento constante y acelerado, basado en el crecimiento de Kunzapp.
  • Stock options: Posibilidad a obtener stock optionsOtros beneficios

Wellness program Kunzapp offers or subsidies mental and/or physical health activities.
Equity offered This position includes equity compensation (in the form of stock options or another mechanism).
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Company retreats Team-building activities outside the premises.
Computer provided Kunzapp provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Vacation over legal Kunzapp gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Data Engineer with Snowflake Expertise
  • Moventi
Python Agile SQL Business Intelligence
At Moventi, we focus on helping organizations lead with innovation through technology. Our team consists of a multidisciplinary group of talents working together to adopt new technologies, methodologies, and collaborative work styles that enhance professional growth and project impact. The office is centrally located, equipped with parking, recreational areas for break times, and agile meeting spaces to foster teamwork across different professional profiles. Our organizational culture emphasizes transparency, strong coordination, commitment, willingness to take risks, and daily innovation with original ideas that generate positive impact.

Apply directly through getonbrd.com.

Job Responsibilities and Core Functions

We are looking for a Data Engineer skilled in Snowflake, Airflow, Python, SQL, and Tableau who will play a key role in designing, developing, and maintaining efficient data pipelines and workflows. The primary goal is to enable reliable data processing and visualization to support business intelligence efforts.
  • Design, implement, and optimize data pipelines using Airflow and Python for automated and scalable data processing.
  • Develop and maintain Snowflake data warehouses ensuring data integrity, performance, and security.
  • Create SQL queries and scripts for data preparation, transformation, and loading processes.
  • Build and maintain interactive, insightful dashboards and reports in Tableau to provide actionable insights to stakeholders.
  • Collaborate cross-functionally with data analysts, business users, and other engineering teams to understand data needs and translate them into technical solutions.
  • Troubleshoot, monitor, and optimize existing data workflows and dashboards to improve performance and reliability.

Required Skills and Experience

The ideal candidate will have proven hands-on experience working in data engineering roles, particularly with Snowflake as the data warehousing solution. Strong proficiency in Python and Airflow is essential for orchestrating data workflows. Advanced SQL skills are critical for querying and managing complex datasets. Experience in building Tableau dashboards to enable data visualization and reporting is necessary to communicate insights effectively.
Beyond technical expertise, candidates should be proactive, detail-oriented, and have strong problem-solving capabilities. Excellent communication skills and the ability to work collaboratively in a team environment are vital to succeed in this role. We value professionals who embrace transparency and are committed to innovation and continuous learning.

Desirable Skills and Traits

Experience with cloud environments and other data orchestration tools will be advantageous. Familiarity with additional BI tools or programming languages can enhance your profile. Prior experience in agile methodologies and working in multidisciplinary teams will help you excel and adapt quickly within Moventi’s culture.

Benefits and Work Environment

We are dedicated to the professional development of our team members by offering challenging projects and continuous learning opportunities. From your first day, you will have formal employment as a contractor and can enjoy a birthday free day to celebrate your special moment.
  • Opportunities for ongoing professional growth and learning
  • Formal employment contract starting day one as a contractor
  • Birthday free day to celebrate you
  • Engagement in challenging and impactful projects

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
APPLY VIA WEB
$$$ Full time
Ingeniero Analítica y Gestión Financiera
  • Agrosuper
  • Rancagua (Hybrid)
Python SQL Data Transformation Power BI

En Agrosuper, tenemos la misión de llevar alimentos de la más alta calidad a las familias de Chile y el mundo. Nos mueve el deseo de alimentar el talento y las ganas de crecer constantemente. Buscamos mejorar y fomentar un entorno donde todos disfruten lo bueno de la vida, por lo que valoramos a las personas, que son el alma de nuestra organización .

Te invitamos a participar del proceso de selección para el cargo Ingeniero Analítica y Gestión Financiera. Buscamos incorporar profesionales de formación Ingeniero Civil, para trabajar en la Gerencia de Planificación y Gestión de Administración y Finanzas, y desempeñarse en la ciudad de Rancagua.

El objetivo del cargo es integrar habilidades en data science y desarrollo de proyectos tecnológicos, proporcionando soporte estratégico y analítico a los equipos de la Gerencia de Planificación y Gestión; Además de colaborar estrechamente con las áreas de excelencia operacional, transformación digital y tecnología & datos.

Job opportunity published on getonbrd.com.

Funciones del cargo

1 .Desarrollo de Modelos Predictivos y Prescriptivos: Crear modelos que integren variables financieras y operativas en coordinación con los equipos de planificación y control de gestión para mejorar las proyecciones.
2. Asesoría Técnica en Análisis y Sensibilización de Escenarios: Proveer asesoría técnica para el análisis de escenarios, detección de patrones y optimización de proyecciones financieras.
3. Aseguramiento de la Calidad e Integridad de los Datos: Garantizar la calidad e integridad de los datos, involucrando a los equipos pertinentes para obtener resultados precisos y confiables.
4. Diseño e Implementación de Paneles y Reportes Interactivos: Diseñar e implementar paneles y reportes interactivos para monitorear y controlar KPIs financieros, operativos y estratégicos.
5 Consolidación y Transformación de Datos: Consolidar y transformar datos de diversas fuentes en análisis integrales, trabajando con los equipos involucrados para decisiones basadas en información confiable.
6 Liderazgo en Proyectos de Transformación Digital y Automatización: Liderar iniciativas de transformación digital y proyectos de automatización en procesos recurrentes como cierre mensual y proyecciones.
7. Evaluación de Viabilidad Financiera y Técnica de Proyectos: Evaluar la viabilidad financiera de proyectos de inversión y la viabilidad técnica de proyectos de transformación, proporcionando herramientas de análisis a los equipos.
8.Soporte Analítico y Promoción de Cultura Data-Driven: Colaborar con equipos de planificación financiera y gestión estratégica, asesorar en la formulación de proyectos y evaluaciones del negocio, y promover una cultura basada en datos.

Requerimientos del cargo

1.Ingeniero Civil
2.Experiencia en el uso de herramientas de visualización de datos (ej.: Power BI, Tableau).
3. Dominio de herramientas de análisis de datos (ej. Python, R o SQL).
4. Disponibilidad para trabajar en Rancagua 4x1.
5. Deseable experiencia en gestión financiera.

Condiciones

Te mostramos algunos de nuestros beneficios:
Planes de crecimiento y desarrollo.
Capacitaciones y becas de estudios.
Convenios con distintas instituciones.
Bonos asociados al desempeño.

Computer provided Agrosuper provides a computer for your work.
APPLY VIA WEB
Gross salary $1800 - 2500 Full time
Data Engineer Semisenior / Senior
  • Lisit
  • Santiago (Hybrid)
Python SQL Spark Google Cloud Platform

Lisit es una empresa dedicada a la creación, desarrollo e implementación de servicios de software enfocados en proporcionar herramientas de automatización y optimización que impulsan la eficiencia operativa de sus clientes. Trabajamos con un enfoque constante en la innovación y la pasión por superar desafíos tecnológicos. Nuestra propuesta diferencial radica en un acompañamiento consultivo integral, utilizando diversas herramientas y prácticas tecnológicas que permiten a los clientes alcanzar con éxito sus objetivos de transformación digital.

Apply to this job without intermediaries on Get on Board.

Responsabilidades y Objetivos del Puesto

Como Data Engineer en Lisit, serás responsable de diseñar, construir y mantener pipelines de datos robustos que faciliten la integración entre múltiples sistemas, asegurando un modelado de datos eficiente y alineado con los requerimientos del negocio. Te encargarás de implementar soluciones escalables utilizando herramientas de Infraestructura como Código (IaC) y gestionar el versionamiento del código para garantizar calidad y trazabilidad.

Participarás activamente en la implementación y optimización de soluciones cloud sobre plataformas como Google Cloud Platform (GCP) y Azure, utilizando productos específicos como Airflow, Cloud Run, Cloud Composer, BigQuery y Azure Functions. La elaboración y mantenimiento de procesos ETL/ELT serán clave para asegurar el flujo y la calidad de los datos.

Trabajarás colaborativamente con equipos multidisciplinarios, manteniendo una comunicación fluida y contribuyendo a la innovación continua en los proyectos, siempre con foco en la entrega de valor y el cumplimiento de los objetivos tecnológicos y de negocio.

Requisitos y Habilidades Exigidas

  • Mínimo 3 años de experiencia profesional en manejo y procesamiento de datos, enfocándose en la generación de pipelines, integración de sistemas y modelado de datos.
  • Dominio intermedio a avanzado en lenguajes de programación como Python y Spark, con capacidad para desarrollar y optimizar scripts y procesos complejos.
  • Sólidos conocimientos intermedios a avanzados en Infraestructura como Código (IaC), especialmente usando Terraform.
  • Amplia experiencia con sistemas de versionamiento de código, preferentemente GitHub y GitLab, garantizando buenas prácticas de control y colaboración.
  • Conocimiento avanzado en SQL y bases de datos relacionales y no relacionales, capaces de diseñar consultas complejas y optimizar el rendimiento.
  • Familiaridad intermedia a avanzada con plataformas cloud como Google Cloud Platform y Microsoft Azure, así como con herramientas específicas como Airflow, Cloud Run, Cloud Composer, BigQuery y Azure Functions.
  • Experiencia avanzada con herramientas ETL/ELT, destacándose el uso de Azure Data Factory, siendo este un requisito excluyente.
  • DESEABLE: Certificaciones relevantes en Data Engineering valoradas positivamente, incluyendo Microsoft Azure DP-700, AZ-203, DP-600, Google Cloud Digital Leader y Google Cloud Associate Cloud Engineer.
  • DESEABLE: Conocimientos deseables en Microsoft Power BI y Microsoft Fabric para complementar la visualización y análisis de datos.

Además, buscamos profesionales con capacidad analítica, buenas habilidades comunicativas, actitud proactiva y capacidad para trabajar en equipo, orientados a la mejora continua y la entrega eficiente y efectiva de soluciones.

Conocimientos y Certificaciones Deseables

Valoraremos positivamente candidatos que posean certificaciones oficiales en ingeniería de datos como Azure DP-700, AZ-203, DP-600, Google Cloud Digital Leader, o Google Cloud Associate Cloud Engineer que demuestren compromiso con la actualización continua. También será un plus contar con conocimientos en Microsoft Power BI y Microsoft Fabric, herramientas que aportan valor agregado para el manejo y visualización avanzada de datos, y que complementan el enfoque técnico del puesto.

Beneficios y Ambiente Laboral

Ofrecemos la oportunidad de integrarte a proyectos tecnológicos desafiantes y de largo plazo, trabajando dentro de un equipo técnico altamente colaborativo que promueve un ambiente profesional y amigable. Nuestro entorno está pensado para facilitar la comunicación constante y el compromiso del equipo, con un estilo de trabajo 100% remoto que favorece la conciliación entre la vida personal y profesional.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Computer provided Lisit provides a computer for your work.
APPLY VIA WEB
$$$ Full time
Data Engineer GCP
  • Factor IT
Python Data Analysis SQL NoSQL

En FactorIT, somos líderes en el sector de tecnología y ofrecemos soluciones innovadoras en Data y Analytics, Transformación Digital e Inteligencia Artificial. Con presencia en 8 países de Latinoamérica, nos apasiona abordar los desafíos tecnológicos de grandes empresas. Únete a nuestro equipo de ingenieros de datos que están a la vanguardia de la transformación tecnológica. Trabajamos en proyectos de gran impacto, creando soluciones personalizadas que integran tecnologías emergentes y analítica avanzada.

Apply to this job at getonbrd.com.

Responsabilidades del Ingeniero de Datos

Como Data Engineer en FactorIT, tu objetivo será diseñar, construir y mantener infraestructuras y sistemas de datos que permitan a nuestros clientes tomar decisiones informadas. Tus responsabilidades incluirán:

  • Desarrollar y mantener pipelines de datos eficientes y escalables.
  • Colaborar con equipos multidisciplinarios para analizar necesidades de datos y proporcionar soluciones efectivas.
  • Implementar y optimizar herramientas de integración de datos.
  • Monitorear la calidad y eficiencia de los sistemas de procesamiento de datos.
  • Participar en la gestión y almacenamiento de datos, asegurando la integridad y confidencialidad.

Tu papel será fundamental para impulsar la transformación digital y potenciar la analítica en nuestras soluciones.

Requisitos del Puesto

Buscamos un Data Engineer con pasión por la tecnología y habilidades tanto técnicas como interpersonales. Las características que valoramos son:

  • Título en Ingeniería Informática, Ciencias de la Computación o campos relacionados.
  • Conocimientos en lenguajes de programación como Python o SQL.
  • Experiencia con herramientas de ETL y plataformas de análisis de datos.
  • Aptitudes analíticas y capacidad para resolver problemas.
  • Habilidades de comunicación efectiva para trabajar en equipo y entender las necesidades del cliente.

Valorizamos un enfoque proactivo y la capacidad de aprender de manera continua.

Habilidades Deseables

Si bien no es obligatorio, será un plus contar con:

  • Experiencia en herramientas de Big Data como Hadoop o Spark.
  • Conocimientos en la implementación y gestión de bases de datos no relacionales (NoSQL).
  • Familiaridad con prácticas de DevOps relacionadas con el manejo de datos.
  • Certificaciones en tecnologías de datos o análisis.

Estas habilidades complementarias serán valoradas en el proceso de selección.

Beneficios de Trabajar en FactorIT

Ofrecemos un entorno de trabajo dinámico y colaborativo, donde podrás trabajar con tecnologías de punta y acceder a un plan de crecimiento profesional. Además, brindamos capacitaciones en IA y automatización. Nuestros beneficios incluyen:

  • Trabajo 100% remoto 🌍 para mantener un equilibrio entre tu vida personal y laboral.
  • Flexibilidad laboral para adaptarte a tus necesidades.
  • Un salario competitivo acorde a tu experiencia.

Únete a nosotros y sé parte de un equipo que está transformando el futuro de la tecnología en la región.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Factor IT provides a computer for your work.
APPLY VIA WEB
Gross salary $1800 - 3000 Full time
Ingeniero/a de Datos para Asistente Conversacional IA
  • Lisit
Python PostgreSQL SQL MongoDB
Lisit es una empresa dedicada a la creación, desarrollo e implementación de servicios de software que brindan herramientas de automatización y optimización para sus clientes, manteniendo un fuerte enfoque en la innovación y la pasión por resolver desafíos tecnológicos complejos. Buscamos incorporar talento para trabajar en un proyecto puntero que consiste en el desarrollo de un asistente conversacional inteligente basado en inteligencia artificial.
El proyecto se centra en la construcción de un sistema capaz de procesar lenguaje natural (NLP) utilizando datos de diversas fuentes, para lo cual se requiere una infraestructura de datos sólida, escalable y fiable que permita alimentar los modelos inteligentes de lenguaje y mejorar continuamente la interacción conversacional, aportando valor a nuestros clientes mediante soluciones eficientes y tecnológicamente avanzadas.

Apply to this job at getonbrd.com.

Descripción del rol y responsabilidades

Como Ingeniero/a de Datos en este proyecto, serás responsable de diseñar, construir y mantener pipelines ETL/ELT que permitan la ingesta y procesamiento eficiente de datos diversos y no estructurados, como chats, correos electrónicos y logs, transformándolos en formatos precisos y útiles para el entrenamiento y operación de modelos de procesamiento de lenguaje natural (NLP).
Asimismo, integrarás fuentes de datos externas a través de APIs RESTful, gestionarás bases de datos relacionales como PostgreSQL y NoSQL como MongoDB, y optimizarás el almacenamiento de grandes volúmenes de datos en soluciones cloud como S3, BigQuery o Redshift. También garantizarás la calidad, trazabilidad y gobernanza de los datos para mantener la confiabilidad del sistema.
El rol incluye implementar medidas de anonimización y protección para los datos sensibles, asegurando el cumplimiento de normativas vigentes en materia de privacidad y manejo ético de la información, y colaborarás con el equipo multidisciplinario para cumplir con los objetivos tecnológicos y de negocio del proyecto.

Requisitos y habilidades esenciales

Buscamos un profesional con experiencia sólida en Python, utilizando librerías especializadas como Pandas, PySpark o Dask para el procesamiento y transformación de datos a gran escala. Es necesario tener un dominio avanzado en SQL y experiencia práctica con bases de datos relacionales y NoSQL, especialmente PostgreSQL y MongoDB.
Se requiere conocimiento comprobable en herramientas de orquestación de flujos de trabajo de datos, como Apache Airflow, y manejo de almacenamiento en la nube en plataformas como Azure, AWS S3 o Google Cloud Storage (GCS).
Es fundamental contar con experiencia en el procesamiento de datos no estructurados aplicados a modelos de NLP y manejo adecuado de APIs RESTful para la integración de diferentes fuentes y servicios.
Además de las habilidades técnicas, valoramos competencias orientadas a la gestión minuciosa de la calidad y gobernanza de datos, capacidad analítica y pensamiento crítico para mantener estándares rigurosos que garanticen la efectividad del asistente conversacional inteligente.

Conocimientos y experiencia deseables

Se valorará experiencia previa en proyectos relacionados con asistentes virtuales o tecnologías de procesamiento de lenguaje natural (NLP), así como familiaridad con prácticas DataOps para la gestión eficiente de pipelines y control de versiones de datos.
El conocimiento de normativas internacionales de privacidad y protección de datos, como GDPR e HIPAA, junto con técnicas avanzadas de anonimización, será un plus muy importante para desempeñarse con éxito en el cargo.

Beneficios y ambiente laboral

Ofrecemos la oportunidad de participar en proyectos tecnológicos desafiantes y de largo plazo dentro de un equipo técnico colaborativo, en un ambiente laboral amigable y profesional.

El trabajo es 100% remoto, lo cual fomenta la conciliación entre la vida personal y profesional sin perder la comunicación fluida y el compromiso con el equipo.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
APPLY VIA WEB
$$$ Full time
Data Architect Semi Senior Advanced
  • Improving South America
Python Azure ETL Power BI

Leniolabs_ es ahora Improving South America!

Somos una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA principalmente.

Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.

Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development y También trabajamos en desarrollo backend.

Valoramos a las personas dinámicas en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Apply only from getonbrd.com.

Job functions

En mproving South America buscamos un Data Architect Senior para sumarse a este equipo multicultural. Diseñarás modelos y pipelines ETL/ELT en Azure, optimizarás SQL de alto rendimiento y liderarás mejores prácticas de calidad y gobierno de datos, colaborando de forma 100 % remota con equipos técnicos y de negocio. Si te apasiona transformar datos complejos en decisiones estratégicas, este desafío es para vos.

Qualifications and requirements

  • Alrededor de8 años en desarrollo/arquitectura de datos,
  • Nivel de inglés intermedio–avanzado
  • .SQL avanzado (tuning, stored procs, optimización de queries)
  • Modelado de datos & Data Warehouse (diseño lógico/físico, diagramado)
  • ETL/ELT & Orquestación: SSIS / Azure Data Factory, pipelines CI/CD (Azure DevOps, Git)
  • Python + Pandas / PySpark para profiling y data wrangling
  • Cloud Azure (Storage, Synapse, contenedores)
  • Power BI (visualización, mejores prácticas de reporting)
  • Conocimientos de data quality, data retention & compliance
  • Experiencia diseñando data flows y migraciones entre sistemas legacy/API

Conditions

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
APPLY VIA WEB
Gross salary $1700 - 1900 Full time
Administrador de Bases de Datos
  • ZerviZ
  • Santiago (In-office)
En ZerviZ, somos una empresa líder en innovación tecnológica y transformación digital desde 2017, con presencia en más de 16 países de América Latina. Nos especializamos en diseñar, implementar y optimizar proyectos digitales que mejoran la experiencia del cliente y optimizan procesos operativos, atención, servicio y gestión. Participarás en un equipo que impulsa más de 150 proyectos exitosos utilizando tecnologías de punta y metodologías ágiles, siempre buscando ir más allá de lo convencional para entregar soluciones flexibles y personalizadas a clientes en diversas industrias.

Apply directly from Get on Board.

Funciones

  • Administrar y optimizar bases de datos relacionales (SQL Server, MySQL, PostgreSQL) y no relacionales (MongoDB).
  • Desarrollar y ejecutar scripts en SQL para automatizar tareas y mejorar el rendimiento.
  • Implementar y mantener políticas de seguridad de bases de datos (encriptación, control de acceso, auditoría).
  • Gestionar planes de backup, recuperación de datos y garantizar alta disponibilidad.
  • Monitorear el rendimiento de las bases de datos y diagnosticar posibles problemas.
  • Gestionar bases de datos en entornos virtualizados y plataformas en la nube (AWS, Azure, Google Cloud).

Requisitos

  • Experiencia en Sistemas de Gestión de Bases de Datos (SGBD): Se requiere experiencia en el manejo y administración de SGBD como Microsoft SQL Server, MySQL, PostgreSQL, MongoDB, entre otros, tanto en bases de datos relacionales como no relacionales.
  • Instalación, configuración y administración: Se debe contar con la capacidad para instalar, configurar y administrar diferentes tipos de SGBD, adaptándolos a las necesidades específicas de la organización.
  • Conocimientos en arquitectura de bases de datos: Se debe tener un conocimiento sólido en la arquitectura de bases de datos, comprendiendo su diseño, escalabilidad y optimización, asegurando un desempeño eficiente y seguro de las bases de datos.

Experiencias Deseables

  • Seguridad de la información: Conocimiento en herramientas y técnicas de seguridad, encriptación de datos y gestión de riesgos.
  • Certificaciones en Cloud: Certificaciones en plataformas de computación en la nube como AWS, Azure o Google Cloud.
  • Business Intelligence (BI): Conocimientos en herramientas de BI para el análisis y visualización de datos.
  • Automatización y scripting: Familiaridad con herramientas de automatización y scripting (PowerShell, Python, etc.) para optimizar procesos y tareas administrativas.

APPLY VIA WEB
Gross salary $2000 - 2500 Full time
Data Scientist
  • ARKHO
Python SQL Machine Learning Deep Learning

ARKHO es una consultora experta en tecnologías de la información, que ofrece servicios expertos de TI en el marco de modernización de aplicaciones, analítica de datos, IA y migración a la nube. Nuestro trabajo facilita y acelera la adopción de la cloud en múltiples industrias.

Nos destacamos por ser Partner Advanced de Amazon Web Services con foco estratégico en la generación de soluciones usando tecnología en la nube, somos obsesionados por lograr los objetivos propuestos y tenemos especial énfasis en el grupo humano que compone ARKHO (nuestros Archers), reconociendo a nuestro equipo como un componente vital para el logro de los resultados.

¿Te motivas? ¡Te esperamos!

Apply through Get on Board.

Funciones

Estamos en busqueda de un Data Scientist con por lo menos dos años de experiencia, para incorporarse a nuestro equipo ágil para diversos proyectos Data Analytics. Será el encargado de velar por soluciones integrales para las problemáticas de cada uno de los clientes y proyectos en los cuales se desenvuelva junto al equipo.
Dentro de sus actividades principales se encuentran:
  • Comprender el contexto de negocio del cliente, desde la bajada comercial, indicadores claves que se busca potenciar, fuentes de datos y cómo sacar el mayor provecho de esta data para potenciar los resultados.
  • Analizar datos de alta complejidad utilizando técnicas de análisis estadístico, aprendizaje automático.
  • Acompañar y orientar al cliente respecto a diversas alternativas de solución.
  • Todos nuestros proyectos nos desafían a desplegar productos y servicios más rápidos, seguros, escalables y robustos en la nube.
Nos gusta conformar equipos colaborativos y auto-gestionados, por lo que las habilidades de comunicación y responsabilidad son muy importantes. ¡Buscamos profesionales de excelencia e íntegros dentro y fuera de la cancha!

Perfil del rol

En nuestra compañía valoramos a las personas autosuficientes, proactivas e innovadoras. Debes ser capaz de organizar tu propia carga de trabajo, tomar decisiones, cumpliendo los plazos y objetivos.
En tu carrera profesional deberías contar al menos con:
  • Experiencia mínima de 3 años en roles similares.
  • Técnicas de machine learning (Clustering, PCA, regresión logística, etc) y Deep Learning.
  • Desarrollo e implementación de modelos de IA utilizando embeddings y Large Language Models (LLMs)
  • Dominio de lenguajes de programación: Structured Query Language (SQL) y Python.
  • Experiencia con AWS cloud (SageMaker, S3, Lambda, bedrock).
  • Manejo de librerías: Pandas, Sklearn, Numpy, Matplotlib.
  • Ser graduado de Ingeniería de sistemas, Ingeniería matemática o afín.

Habilidades opcionales

  • Idioma inglés nivel intermedio

Beneficios del Archer

  • Día administrativo semestral hasta los 12 meses
  • Week off: 5 días de vacaciones extra
  • ¡Celebra tu cumpleaños!
  • Path de entrenamiento
  • Certificaciones AWS
  • Aguinaldos Fiestas Patrias y Navidad
  • Seguro complementario (sólo para Chile)
  • Flexibilidad (trabajo híbrido o remoto)
  • Regalo por casamiento + 5 días hábiles libres
  • Regalo por nacimiento de hijos
  • Kit escolar
  • Beneficio paternidad + 10 días (5 días adicionales a la Ley Chilena)
  • Bonda (Workshops de temáticas diversas, Wellness y descuentos en locales comerciales)

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
Vacation over legal ARKHO gives you paid vacations over the legal minimum.
APPLY VIA WEB
Gross salary $2000 - 2500 Full time
Data Engineer
  • TECLA
Python Excel SQL BigQuery

TECLA is a fully remote software development company with a diverse and highly skilled team of 100+ experts across Latin America. We specialize in AI, cloud, automation, and DevOps, building innovative solutions for high-growth startups and established mid-market technology companies in the U.S.

Our work culture is agile, collaborative, and fast-paced—we take our work seriously while keeping the environment fun and engaging. As a remote-first company, we emphasize strong teamwork and close collaboration, working seamlessly with our U.S. partners as one integrated unit. Whether optimizing cloud environments, developing AI-driven applications, or enhancing DevOps automation, TECLA is at the forefront of technical innovation, solving complex challenges with cutting-edge technology.

Apply directly on Get on Board.

Job Details:

We are seeking a motivated, detail-oriented, and technically curious Data Engineer to become part of our core team. This is a foundational role for someone with 2+ years of experience who wants to go beyond just writing code—someone who’s excited to take ownership, work directly with clients, and help small businesses grow using data, automation, and smart systems. You’ll play a hands-on role in building data pipelines, automation workflows, dashboards, and client deliverables. Because we are a small and nimble team, you will also participate in client meetings, contribute to workshops, and take ownership of delivering insightful, high-quality work that creates real business value.

Responsibilities:

The role will evolve as your experience grows, but initially your time will likely break down across the following 4 areas:

1. Data Engineering and Automation (60%)

  • Build and maintain ETL pipelines using tools like Google Apps Script, Coupler.io, Zapier, and other low/no-code tools.
  • Clean and transform raw data from systems like QuickBooks, HubSpot, and ActiveCampaign into structured, usable formats.
  • Maintain and improve our internal Google Sheets-based data warehouse and reporting dashboards.
  • Automate repetitive workflows and monitor data reliability.
  • Work across the Google technology stack (Sheets, Apps Script, BigQuery, etc.), with exposure to the Microsoft stack (Excel, Power BI, SharePoint, etc.), and a future roadmap involving Supabase and SQL.
  • Use Asana (or a similar project management tool) to manage scope, tasks, and requirements—and maintain clear, self-managed progress updates.

2. Client Delivery and Communication (25%)

  • Attend and sometimes lead client meetings and working sessions.
  • Present dashboards, explain workflows, and gather feedback directly from clients.
  • Communicate findings clearly and help translate business needs into data solutions.
  • Take ownership of key deliverables and contribute meaningfully to client success.

3. Documentation and Data Ops (10%)

  • Document data models, business logic, and pipeline workflows.
  • Create and maintain SOPs and data dictionaries.
  • Help build scalable internal systems and templates for reuse.

4. Internal Projects and Tooling (5%)

  • Support our internal reporting, project tracking, and automation initiatives.
  • Identify and propose improvements to our data and operational infrastructure.

Requirements:

  • 2+ years of professional or internship experience in data, engineering, or operations.
  • 1+ year of experience leveraging LLMs via integrated coding tools, Python, and SQL.
  • Proficiency in Google Sheets, Excel, and basic scripting (e.g., Apps Script or Python).
  • Strong written communication and documentation skills.
  • Excellent task and time management—you will be expected to own and organize your work independently using task tracking tools.
  • A strong sense of ownership, curiosity, and drive to solve real business problems.
  • Comfort working in a fast-paced, client-facing environment where priorities shift.

Nice to have:

  • Familiarity with APIs and REST integrations.
  • Experience with tools like Coupler.io, Zapier, Make.com, or Retool.
  • Experience with the Google Workspace or Microsoft Teams technical stack.
  • Consulting or small business exposure.
  • Interest or experience in SQL, Supabase, or dashboarding tools like Power BI.

Benefits:

  • A fully remote position with a structured schedule that supports work-life balance.
  • The opportunity to help small businesses scale through data, automation, and smart systems.
  • Two weeks of paid vacation per year.
  • 10 paid days for local holidays.

*Please note we are only looking for full-time dedicated team members who are eager to fully integrate within our team.

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
$$$ Full time
Senior Ingeniero de Datos / Sector Bancario
  • Devsu
  • Quito (Hybrid)
Java Python SQL Scala
Con más de 10 años de experiencia creando innovación para empresas, desde startups hasta las mayores compañías de Estados Unidos y Latinoamérica en diferentes industrias como entretenimiento, banca, salud, retail, educación y seguros. En Devsu, queremos crear un ambiente donde puedas prosperar tanto personal como profesionalmente
Buscamos un Ingeniero de Datos con amplia experiencia en el ciclo completo de desarrollo de soluciones de información, incluyendo análisis, diseño, desarrollo, certificación, despliegue y mantenimiento, en entornos OnPremise y tecnologías Big Data.

Es una posición híbrida en la ciudad de Quito-Ecuador, en donde serás asignado/a a uno de nuestros clientes más importantes en el sector financiero/bancario de Latinoamérica.

Trabajarás en un entorno ágil, con un equipo increíble en la implementación de productos de software de clase mundial.

This job is exclusive to getonbrd.com.

Funciones del cargo

  • Diseñar y desarrollar soluciones de datos alineadas con la visión de Arquitectura de Datos.
  • Crear y optimizar ETLs, ELTs y APIs para manejo eficiente de datos.
  • Implementar estrategias de testing para validar calidad funcional y no funcional.
  • Proponer mejoras continuas en procesos y productos de datos.
  • Resolver incidencias técnicas y documentar soluciones conforme a estándares.
  • Mentorizar y apoyar el onboarding de nuevos integrantes del equipo.

Requerimientos del cargo

  • Al menos 3 años de experiencia como ingeniero de datos.
  • Experiencia en optimizacion de SQL y Spark.
  • Experiencia con streaming de datos.
  • Bases de datos relacionales y NoSQL, diseño de Datawarehouse, Datamarts, Datalakes y Lakehouse.
  • Procesamiento distribuido con Hadoop, Spark y arquitecturas batch/streaming.
  • Desarrollo en Python, Scala o Java, aplicando principios de Clean Code.
  • Construcción de pipelines con herramientas ETL (Azure Data Factory, AWS Glue, SSIS).
  • Estrategias de DataOps/MLOps y despliegue CI/CD.
Deseable: Certificaciones en AWS, Azure, o Big Data, y experiencia en arquitecturas modernas como Data Mesh o Data Fabric.

Herramientas y Tecnologías

  • Apache Spark, Kafka, Flink, Hadoop, HDFS.
  • Servicios Cloud: AWS, Azure, GCP.
  • Lenguajes: Python, Scala, Java.

Beneficios

En Devsu, queremos crear un ambiente donde puedas prosperar tanto personal como profesionalmente. Al unirte a nuestro equipo, disfrutarás de:
  • Un contrato estable a largo plazo con oportunidades de crecimiento profesional
  • Seguro médico privado
  • Programas continuos de capacitación, mentoría y aprendizaje para mantenerte a la vanguardia de la industria
  • Acceso gratuito a recursos de capacitación en IA y herramientas de IA de última generación para elevar tu trabajo diario
  • Una política flexible de tiempo libre remunerado (PTO) además de días festivos pagados
  • Proyectos de software desafiantes de clase mundial para clientes en Estados Unidos y Latinoamérica
  • Colaboración con algunos de los ingenieros de software más talentosos de Latinoamérica y Estados Unidos, en un entorno de trabajo diverso
Únete a Devsu y descubre un lugar de trabajo que valora tu crecimiento, apoya tu bienestar y te empodera para generar un impacto global.

Wellness program Devsu offers or subsidies mental and/or physical health activities.
Internal talks Devsu offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Digital library Access to digital books or subscriptions.
Health coverage Devsu pays or copays health insurance for employees.
Computer provided Devsu provides a computer for your work.
Education stipend Devsu covers some educational expenses related to the position.
Personal coaching Devsu offers counseling or personal coaching to employees.
APPLY VIA WEB
$$$ Full time
Senior Data Engineer
  • Playbypoint
Python SQL Machine Learning Kafka
🏓 Senior Data Engineer
📍 Remote | Full-time
Join us in building the future of racquet sports.

🧠 About the Team & Project
At Playbypoint, we're on a mission to transform the racquet sports industry with powerful, intuitive software. From tennis to pickleball, our platform helps clubs thrive by elevating player engagement and simplifying operations. As part of our Data & Insights team, you’ll work alongside backend engineers, product leaders, and business stakeholders to turn raw data into actionable insights that shape our product strategy and operational decisions.
Our team plays a critical role in helping the company scale. We believe that better data leads to better decisions—and we're building the infrastructure to make that possible.

Apply to this job opportunity at getonbrd.com.

🔧 What You’ll Do

As a Senior Data Engineer, you'll design, develop, and maintain scalable data pipelines to support our real-time and batch analytics needs. You’ll take ownership of how data flows through our system, ensuring it’s clean, accessible, and reliable for use across engineering, product, and business teams.
You’ll:
  • Build and optimize data pipelines using Kafka, Airflow, and cloud-native tools.
  • Manage data lakes and warehouses using Apache Iceberg, Amazon S3, and ClickHouse or Snowflake.
  • Ensure data integrity and quality across all stages of our pipeline.
  • Collaborate closely with analysts and engineers to support key business metrics and machine learning workflows.
  • Contribute to internal tooling that improves data observability and developer experience.
Your success will be measured by the reliability, scalability, and performance of the data infrastructure you build—as well as your ability to empower others with trusted data.

✅ What We’re Looking For

We’re looking for someone who thrives in a fast-paced startup environment and is passionate about building systems that scale.
Required:
  • 5+ years of experience in Data Engineering
  • Strong experience with streaming technologies like Kafka
  • Proficiency in Python and SQL
  • Solid experience with workflow orchestration tools (e.g., Airflow)
  • Familiarity with OLAP databases such as Snowflake, Clickhouse, or Redshift
  • Experience managing data workflows in a cloud environment (preferably AWS)

Desirable skills

Nice to Have:
  • Experience with ClickHouse
  • Certifications in AWS, Snowflake, or similar platforms
  • Hands-on knowledge of DataOps or ML Ops at scale
  • Experience with LLMs &/or Agents building
  • Familiarity with data versioning and formats like Parquet, Iceberg, or Delta Lake

🌍 Why Playbypoint?

We're not just building tools—we're building a movement to connect people through the joy of sports. You’ll join a collaborative, ambitious team where your work directly impacts thousands of players and clubs across the world. Plus, we’re remote-first and flexible, so you can work from wherever you do your best thinking.
🎯 Ready to serve up your next challenge?
Apply now and help shape the future of racquet sports.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Company retreats Team-building activities outside the premises.
Computer provided Playbypoint provides a computer for your work.
Conference stipend Playbypoint covers tickets and/or some expenses for conferences related to the position.
APPLY VIA WEB
Gross salary $2500 - 3000 Full time
Data Engineer – Process Analysis (Mid Level)
  • Niuro
Python Data Science Data Visualization PI System
Niuro is a company dedicated to connecting projects with elite technological teams, collaborating with leading companies based in the United States. Our mission is to simplify the global acquisition of technology talent through innovative solutions that optimize efficiency and quality. We provide autonomous, high-performance technical teams that specialize in partnering with top-tier U.S. companies. Our focus is on enabling continuous professional growth by offering training in both technical and soft skills, as well as leadership development opportunities. We manage all administrative operations, including hiring, payroll, and training, so our teams can focus exclusively on delivering exceptional technical results. Through a collaborative environment and an emphasis on talent development, we strive to help our professionals realize their full potential.

This job offer is on Get on Board.

Key Responsibilities

As a Data Engineer specializing in process analysis, your role will focus on supporting and improving operational processes within industrial environments, with a particular emphasis on the hydrometallurgical sector. Your core responsibilities will include the collection and documentation of critical process parameters, continuous monitoring and control of variability in those process metrics, and the execution of detailed statistical and trend analyses. You will also be responsible for process balancing and inventory management, including maintaining inventories of strategic inputs and spare parts essential to operations. Additionally, you will generate comprehensive operational reports that drive informed decision-making and propose initiatives aimed at continuous process improvement. Your role involves collaboration on software development efforts that facilitate data analysis and process efficiency. Importantly, you will provide innovative suggestions based on data insights to enhance operational performance and drive forward-looking improvements across the industrial processes.

Requirements

Education: Candidates must hold a degree as a civil or applied engineer specializing in chemical, metallurgical, or mining engineering, or alternatively, a bachelor's degree in mathematics or physics.
Experience: Applicants should have at least one year of hands-on experience applying data science principles to hydrometallurgical or industrial process environments, demonstrating a solid understanding of industrial operations and data-driven analysis.
Technical Skills: Advanced programming abilities in Python and Visual Basic are essential for this role, accompanied by strong proficiency in Microsoft Office, especially Excel. Experience working with the PI System, including Asset Framework (AF) and Data Archive components, at a user level is crucial. Candidates must have a robust knowledge of data science methods and mathematical modeling techniques applicable to process improvement and analysis.
Other Requirements: Due to the nature of the role and collaboration needs, residence in Chile is mandatory.

Desirable Skills and Experience

While not explicitly stated, candidates with additional experience in advanced statistical software, data visualization tools, or knowledge of other process automation technologies would find their skills highly complementary to this role. Familiarity with other industrial data management systems or frameworks, along with a background in continuous improvement methodologies such as Six Sigma or Lean Manufacturing, would also be beneficial. Strong analytical problem-solving skills, adaptability in dynamic environments, and excellent communication abilities to translate technical data for operational teams would enhance effectiveness.

What We Offer

We provide involvement in impactful, technically rigorous industrial data projects that foster both professional growth and sectoral innovation. Our work environment is highly process-focused and technically solid, encouraging collaboration and continuous innovation. Niuro offers the flexibility of 100% remote work within Chile, allowing team members to work from the location that suits them best.
We are committed to supporting career development through ongoing training and leadership opportunities. After successfully completing a trial period, candidates receive stable full-time employment, reinforcing our long-term investment in talent. Joining Niuro also means becoming part of a global community dedicated to excellence in technology, all supported by robust administrative infrastructure to enable focus on impactful work.

Partially remote You can work from your home some days a week.
APPLY VIA WEB
$$$ Full time
Data Engineer Spark y AWS / Santiago Chile
  • Dynamic Devs
  • Santiago (Hybrid)
Python Git SQL Big Data

Somos una empresa de servicios de tecnología que busca proyectos de alto impacto haciendo de la innovación y transformación digital parte de diferentes empresas principalmente transnacionales latinoamericanas de diversos sectores económicos como retail, seguros, distribución de equipos médicos, banca y productos digitales masivos utilizados por los consumidores. en todo el continente

Somos partidarios de la excelencia técnica, DevOps, Entrega Continua e Integración Continua, conformando equipos de alto desempeño en proyectos desafiantes, orientados al crecimiento e implementación de nuevas tecnologías. Más importante aún, ofrecemos un entorno colaborativo y multicultural donde puedes aprender, disfrutar y crecer como profesional.

📢 En Dynamic Devs, estamos en la búsqueda de un Data Engineer con experiencia en procesamiento de datos a gran escala y un sólido conocimiento en PySpark, AWS EMR y Glue.

Official job site: Get on Board.

Funciones del cargo

✅ Diseñar, desarrollar y optimizar pipelines de datos utilizando PySpark, AWS EMR y Glue.
✅ Procesar grandes volúmenes de datos en entornos distribuidos y escalables.
✅ Implementar y mantener soluciones de integración y transformación de datos en la nube ☁️.
✅ Monitorear y optimizar el rendimiento de las soluciones de datos.
✅ Garantizar la seguridad y gobernanza de los datos en el ecosistema AWS.
✅ Integrar datos desde múltiples fuentes y asegurar su correcta transformación y almacenamiento.

Requerimientos del cargo

🎓 Experiencia mínima de 2 años en Databricks o AWS EMR.
🛠️ Conocimientos sólidos en SQL y modelado de datos.
⚙️Conocimientos en otras herramientas de AWS como: S3, Redshift, Athena, Glue o Lambda.
🐍 Desarrollo en Python aplicado a procesamiento de datos.
📊 Conocimientos en frameworks de Big Data y optimización de rendimiento en entornos distribuidos.
🔗 Experiencia en Git.
📍 Disponibilidad para asistir 3 días a la semana de forma presencial a la oficina del cliente ubicada en Santiago - Chile (modalidad híbrida, requisito excluyente).

Condiciones

💻 Beneficio Bring Your Own Device (A partir del 4to mes trabajando con nosotros, podrás adquirir un computador propio)
⌚ Horario flexible 🕒
🚀 Haz un impacto. Trabaja en proyectos desafiantes
📚 IT Training: acceso a más de 500 cursos actualizados cada semana 📖
🎤 Dev Talks: conferencias exclusivas con expertos del sector
🎉 Día especial: 🎂 ¡Día libre por cumpleaños!
👥 Trabaja en un equipo talentoso y multicultural usando tecnología increíble
🎙️ Escucha nuestro podcast aquí: 🔗 Escuchar Podcast
🌐 Visítanos en nuestra web: 🔗 Dynamic Devs

Internal talks Dynamic Devs offers space for internal talks or presentations during working hours.
Partially remote You can work from your home some days a week.
Computer provided Dynamic Devs provides a computer for your work.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Junior Data Analyst & Automation
  • Banco Santander Chile
  • Santiago (Hybrid)
Python Data Analysis SQL Power BI

Banco Santander Chile es una organización internacional líder en el sector financiero con presencia en más de 20 países, reconocida por su compromiso con el desarrollo profesional, el aprendizaje continuo y la movilidad interna. La Vicepresidencia de Tecnología y Operaciones del banco es un área estratégica que impulsa la innovación tecnológica, la optimización y mejora de procesos con el objetivo de contribuir al progreso de las personas y empresas. Este departamento está enfocado en liderar iniciativas tecnológicas de vanguardia que fortalecen la posición de Santander como líder en el sector financiero chileno y a nivel internacional, promoviendo un ambiente de trabajo colaborativo, desafío constante y crecimiento profesional.

Apply exclusively at getonbrd.com.

Misión del cargo

Buscamos jóvenes profesionales comprometidos y flexibles para integrarse al equipo de Tecnología y Operaciones, donde contribuirán a la optimización y mejora continua de procesos mediante el uso de tecnologías punteras.

El rol implica colaborar en proyectos estratégicos que impulsen la innovación tecnológica dentro del banco, trabajando estrechamente con diferentes áreas para apoyar la transformación digital y la eficiencia operativa.

Además, se espera que el candidato participe activamente en el aprendizaje permanente y el desarrollo de competencias técnicas y colaborativas, favoreciendo un ambiente dinámico y orientado al trabajo en equipo.

Qué te ayudará a tener éxito en el proceso

  • Para tener éxito en esta posición, buscamos egresados de carreras como Ingeniería Civil Industrial, Ingeniería Civil en Informática o afines, con no más de un año de experiencia profesional, ya que aspiramos a formar jóvenes talentos que aporten con nuevas ideas y ganas de aprender.
  • Debe contar con formación o experiencia en automatización de procesos, analítica avanzada y manejo de datos, con conocimientos intermedios en SQL, Power BI y/o Tableau. Se valoran conocimientos deseables en Python, Spark y Appian, orientados a potenciar habilidades técnicas y tecnológicas en análisis de datos.
  • El candidato debe tener un nivel intermedio de inglés (B1), mostrando capacidad para manejar información en este idioma y comunicarse de forma básica en el contexto laboral.
  • Buscamos personas con interés genuino en las herramientas tecnológicas de análisis de datos, motivadas a contribuir en un entorno desafiante y colaborativo, con habilidades blandas como adaptabilidad, actitud proactiva y capacidad de trabajo en equipo.
  • Se requiere disponibilidad para incorporarse en junio de 2025.

Conocimientos y habilidades deseables

  • Nos interesa especialmente candidatos que hayan desarrollado conocimientos en programación avanzada, analítica de datos con Python y Spark, así como familiaridad con plataformas de automatización como Appian.
  • Valoramos la capacidad para desenvolverse en entornos multidisciplinarios, con habilidades comunicativas y de gestión del tiempo, que contribuyan a un equipo colaborativo y efectivo.
  • Además, la experiencia en proyectos relacionados con la transformación digital y optimización de procesos se considera un plus importante, aunque no es requisito excluyente.

¿Qué te ofrecemos?

  • Formar parte de la principal empresa financiera de Chile y uno de los mejores lugares para trabajar en el país.
  • Aprendizaje mediante la experiencia práctica, con múltiples oportunidades de desarrollo, formación continua y movilidad interna para participar en proyectos estratégicos.
  • Acompañamiento formativo durante el proceso de adaptación y desarrollo del rol, asegurando una integración exitosa y crecimiento profesional.
  • Redes internas de colaboración que potencian el aprendizaje, la creación de vínculos profesionales y la expansión de la mirada laboral.
  • Beneficios orientados a mejorar la calidad de vida y el desarrollo profesional del colaborador.
  • Contrato indefinido que aporta estabilidad laboral y seguridad.

APPLY VIA WEB
Gross salary $3000 - 4000 Full time
Senior Data Engineer (Rag)
  • Niuro
Python MySQL PostgreSQL SQL
Niuro is a company dedicated to connecting projects with elite technology teams specializing in partnerships with leading U.S. companies. Our mission focuses on simplifying global talent acquisition through innovative and efficient solutions that emphasize maximizing quality and performance. We empower autonomous, high-performance tech teams by offering a collaborative environment enriched with continuous professional growth, training in both technical and soft skills, and leadership development. Through managing all administrative tasks, including hiring, payments, and training, Niuro allows teams to concentrate fully on delivering excellent and innovative outcomes aligned with cutting-edge technology and client needs.

Exclusive to Get on Board.

Responsibilities

  • Design, implement, and maintain scalable, reliable, and efficient data pipelines tailored to Retrieval-Augmented Generation (RAG) based applications, ensuring seamless automation of intelligent query processes.
  • Configure, manage, and optimize vector databases and advanced search engines to support high-performance embedding and retrieval functionalities.
  • Collaborate closely with Data Scientists and AI Engineers to deploy embedding models and generative AI solutions, fostering integration across teams.
  • Develop and fine-tune ETL/ELT processes to guarantee outstanding data quality, pipeline performance, and resilience within production environments.
  • Ensure system scalability, stability, and operational efficiency to support high-demand data workloads and AI-powered services.

Requirements & Professional Profile

We require candidates with a minimum of 4 to 5 years of experience as a Data Engineer, demonstrating a proven track record managing data-intensive projects and environments. Expertise in Retrieval-Augmented Generation (RAG) methodologies is essential as you will lead innovative data pipeline development.
Technical proficiency must include deep experience with at least one tool or technology from each of the following categories:
  • Vector Databases: Experience with Pinecone, Milvus, Qdrant, Weaviate, or equivalent solutions to manage embedding data effectively.
  • Databases: Proficiency in SQL databases such as PostgreSQL and MySQL, plus NoSQL databases including MongoDB and Cassandra.
  • Data Warehousing: Knowledge of warehouse platforms such as Redshift, BigQuery, or Snowflake to support analytical processing.
  • ETL/ELT Tools: Skilled in dbt, Apache NiFi, Talend, or Informatica for robust data transformation workflows.
  • Big Data Frameworks: Experience with Apache Spark and Kafka for handling large-scale data streams.
  • Search Engines: Familiarity with Elasticsearch, Solr, or OpenSearch to implement advanced search capabilities.
  • Cloud Platforms: Working knowledge of AWS, Google Cloud Platform, or Azure for scalable cloud infrastructure.
  • Containers: Proficient with Docker to containerize and deploy applications reliably.
  • Programming: Advanced skills in Python for scripting, automation, and integration.
Strong analytical aptitude and problem-solving capabilities are vital to address complex data challenges. We seek candidates who thrive in agile, cross-functional teams and possess excellent communication and collaboration skills to work effectively across different roles and disciplines.

Nice-to-have Skills

  • Experience with machine learning frameworks including TensorFlow, PyTorch, and Scikit-learn to support advanced model deployment.
  • Familiarity with natural language processing tools such as spaCy, NLTK, and Hugging Face Transformers to enhance text and language-related functionalities.
  • Knowledge of generative AI models like OpenAI, Azure GPT, and Amazon Bedrock is beneficial for working on cutting-edge AI augmentation projects.
  • Competence in container orchestration using Kubernetes to manage containerized applications at scale.

What We Offer

  • 🌍 100% Remote – Embrace full flexibility by working from anywhere around the world, enabling an optimal work-life balance.
  • 📈 Career Growth – Become part of a tech-forward, innovative, and collaborative team committed to your ongoing professional development and success.
  • 📝 Full-time employment contract with an initial 3-month trial period followed by an indefinite contract, ensuring job stability and continuous collaboration.

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
APPLY VIA WEB
$$$ Full time
Data Scientist
  • Forma - Moovmedia Group
Python SQL BigQuery Docker
¡Hola! Somos Forma y somos parte de Moov Media Group, una familia de empresas que también integran Metrix y Moov. Nuestro modelo es colaborativo, ¿qué significa esto? Que trabajamos de manera específica o integral según las necesidades de cada cliente.
Buscamos ser el mejor partner de nuestros clientes apañándolos en la transformación digital. Nos peinamos con el desarrollo tecnológico y el uso de datos, siempre con una mirada estratégica que nos lleve a tomar la mejor decisión.
Hoy queremos seguir creciendo y para eso buscamos un Data Scientist que nos acompañe a recorrer el mundo digital en una empresa con cultura flexible, ágil e innovadora. ¿Te interesa? Entonces déjanos contarte un poco más.
El proceso de selección consta de:

  • Llamado telefónico
  • Entrevista con Selección
  • Entrevista con jefatura directa.
¿Te interesa? ¡Dale! Escríbenos y conversemos.

Apply at the original job on getonbrd.com.

Funciones del cargo

Diseñar, entrenar y desplegar modelos de Machine Learning y algoritmos de predicción (scikit-learn, XGBoost, etc.)
Liderar procesos de análisis estadístico y modelado de datos con Python y SQL
Automatizar pipelines de datos e integraciones con APIs (Google Ads, Meta, ecommerce, CRM)
Desarrollar dashboards interactivos y embebidos (Power BI, Looker Studio, Tableau)
Validar y mantener la calidad de modelos en producción, utilizando ML Ops básico
Colaborar con equipos de ingeniería, automatización, media y producto

Requerimientos del cargo

Requisitos técnicos:
  • Lenguajes obligatorios: Python (Pandas, Scikit-learn, Numpy, Matplotlib), SQL.
  • Cloud: GCP o AWS (manejo de BigQuery, S3, Redshift u otros).
  • Automatización: Airflow, dbt o scripts programados.
  • Visualización: Power BI y/o Looker Studio (excluyente).
  • Modelos ML: Clasificación, regresión, clustering, análisis de series temporales.
Otros requisitos:
  • Ingeniero en Estadística, Computación, Ciencia de Datos o afín.
  • 3+ años de experiencia en proyectos de data science o advanced analytics.
  • Capacidad para explicar conceptos técnicos a equipos no técnicos.
  • Mentalidad de experimentación y prototipado rápido (MVPs, hackathons).

Opcionales

Deseable: ML Ops (Vertex AI, SageMaker, MLflow), APIs REST, web scraping, Docker
Deseable: experiencia en ecommerce, retail o marketing digital.

Conditions

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
$$$ Full time
Data Scientist & GCP Specialist
  • Forma - Moovmedia Group
Python SQL BigQuery Machine Learning

¡Hola! Somos Moov Media Group, una familia de empresas integrada por Moov, Metrix y Forma. Nuestro modelo es colaborativo, ¿qué significa esto? Que trabajamos de manera específica o integral según las necesidades de cada cliente.

Navegamos en el mundo digital usando la tecnología, la data analytics, los medios y la publicidad para encontrar soluciones de marketing multicanal que nos conviertan en los más secos de Latinoamérica.

Hoy queremos seguir creciendo y para eso buscamos un Data Scientist & GCP Specialist que nos acompañe a recorrer el mundo digital en una empresa con cultura flexible, ágil e innovadora. ¿Te interesa? Entonces déjanos contarte un poco más.

El proceso de selección consta de:

  • Llamado telefónico
  • Entrevista con Selección
  • Entrevista con jefatura directa.

¿Te interesa? ¡Dale! Escríbenos y conversemos.

Exclusive offer from getonbrd.com.

Funciones del cargo

Diseñar, entrenar y desplegar modelos de Machine Learning avanzados usando Vertex AI.
Gestionar y optimizar infraestructura cloud en GCP (BigQuery, Cloud Storage, Dataflow, Compute Engine).
Automatizar pipelines avanzados de datos con Cloud Composer (Airflow), Cloud Functions y APIs externas.
Desarrollar dashboards interactivos avanzados principalmente con Looker Studio.
Implementar y gestionar prácticas de ML Ops avanzadas (monitoreo, versionado, CI/CD) en Vertex AI.
Colaborar y asesorar técnicamente a equipos de ingeniería, media y producto.

Requerimientos del cargo

Requisitos técnicos:

  • Lenguajes obligatorios: Python (Pandas, TensorFlow/Keras, Scikit-learn, Numpy), SQL.
  • Cloud: Google Cloud Platform (Vertex AI, BigQuery, Dataflow, Cloud Storage, Compute Engine).
  • Automatización: Cloud Composer (Airflow), Cloud Functions, Dataflow.
  • Visualización: Looker Studio (excluyente), Power BI o Tableau (deseable).
  • Modelos ML: Clasificación, regresión, clustering, detección de anomalías, series temporales.
  • Ingeniero en Estadística, Computación, Ciencia de Datos o carrera afín.
  • 3+ años de experiencia especializada en proyectos utilizando Google Cloud Platform y Vertex AI.

Opcionales

Deseable: experiencia previa en ecommerce, retail o marketing digital.

Conditions

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
$$$ Full time
Data Engineer
  • 2BRAINS
Python Git Data Analysis SQL

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

This job offer is available on Get on Board.

El/la Data Engineer de 2Brains

Se encarga de participar en el diseño y desarrollo de los nuevos modelos de información de gestión y las mantenciones evolutivas de los existentes. Participar en las iniciativas de Analítica avanzada del área, apoyando las exploración de modelos de información internos y externos (Data Discovery). Obtener datos históricos desde múltiples fuentes de información interna para apoyar las iniciativas de analítica avanzada del equipo.

El/la Data Engineer de 2Brains debe

  • Construir y optimizar pipelines de datos para la ingesta, transformación y carga eficiente de información.
  • Manejar infraestructuras en la nube (AWS, GCP, Azure), asegurando escalabilidad y eficiencia en costos.
  • Automatizar y monitorear procesos mediante herramientas de DevOps como Airflow, Terraform o Kubernetes.
  • Implementar controles de calidad y gobernanza para garantizar la integridad y disponibilidad de los datos.
  • Colaborar con equipos de Data Science, Producto y Desarrollo para diseñar soluciones alineadas con las necesidades del negocio.

Qué conocimientos buscamos en/la Data Engineer

  • Excluyente Experiencia trabajando con tecnologías de BI
  • Experiencia en la construcción/operación de sistemas distribuidos de extracción, ingestión y procesamiento de grandes conjuntos de datos de gran disponibilidad.
  • Capacidad demostrable en modelado de datos, desarrollo de ETL y almacenamiento de datos.
  • Experiencia en el uso de herramientas de informes de inteligencia empresarial (Power BI)
  • Excluyente conocimiento en consumo de microservicios de APIs Rest
  • Excluyente conocimiento en Git , Bitbucket, Docker,Jenkins,Webhooks
  • Programación con Python y bases sólidas de ingeniería de software.
  • Automatización y scripting.
  • Uso de librerías de Python para manipulación y análisis de datos y Apache Spark.
  • Conocimientos en bases de datos SQL y NoSQL.
  • Conocimiento en CI/CD, Dataflow
  • Conocimiento en S3, Redshift y Glue AWS

Que competencias buscamos en/la Data Engineer

  • Empatía
  • Buena capacidad de comunicación.
  • Colaboración y trabajo en equipo.
  • Proactividad.
  • Autonomía.
  • Foco en los objetivos de proyectos.

Condiciones

Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos

Acceso a grandes clientes y proyectos desafiantes

Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales

Un entorno de trabajo flexible y dinámico

Beneficios especiales: día libre para tu cumpleaños, días de descanso a convenir.

Informal dress code No dress code is enforced.
Vacation over legal 2BRAINS gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Data Engineer
  • Niuro
Python MySQL Git Docker
At Niuro, we connect elite tech teams with top-tier U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality. We empower projects by providing autonomous, high-performance tech teams, and we offer continuous professional growth opportunities to ensure everyone involved is set for success in innovative and challenging projects.

© getonbrd.com.

Key Responsibilities

  • Ingest, process, and integrate data from multiple systems and platforms using Big Data tools.
  • Design and implement data pipelines to transfer data from source to destination systems, ensuring alignment with integration standards and existing frameworks.
  • Guarantee high data quality, availability, and compliance across applications and digital products.
  • Collaborate with product teams to identify required datasets and evaluate existing sources (e.g., update frequency, data reliability, known issues).
  • Contribute to the delivery of scalable, strategic data engineering solutions aligned with our data roadmap.

Requirements

🔹 Experience: 3+ years in data engineering or a similar role.
🔹 Tech Stack:
  • Cloud & Big Data: Proficient with AWS services including Lambda, S3, Glue.
  • Data Orchestration: Experience designing and managing workflows using Airflow.
  • Data Modeling & Transformation: Hands-on experience with dbt.
  • Data Warehousing: Solid knowledge of Snowflake.
  • Databases: Experience with MySQL or SQL Server.
  • Programming: Strong Python skills, including scripting, automation, and unit testing.
🔹 Other Skills:
  • Good understanding of data quality and governance practices.
  • Familiarity with various data sources and types in data mining and analytics.
  • Intermediate to advanced English for international team collaboration.

Nice to Have

🔸 Experience deploying dbt in production environments.
🔸 Knowledge of Data Lake and Lakehouse architectures.
🔸 Familiarity with CI/CD tools and Git-based version control (GitHub, GitLab, or Azure DevOps).
🔸 Experience with Docker for containerized data workflows.

What We Offer

  • 🌍 100% Remote – Work from anywhere in the world.
  • 🚀 Growth Opportunities – Be part of shaping a robust and modern data ecosystem.

Informal dress code No dress code is enforced.
APPLY VIA WEB
Gross salary $2000 - 2200 Full time
Data Engineer Senior GCP
  • coderslab.io
  • Santiago (Hybrid)
Python SQL Big Data BigQuery

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente nos encontramos apuntando al crecimiento de nuestros equipos de manera global con el objetivo de posicionarnos con nuestros productos en más países de Latinoamérica, es por ello que estamos en búsqueda de un Data Engineer Senior - GCP para sumarse a nuestro equipo.

Te sumarás a un equipo desafiante y ambicioso con ganas de renovar el mercado, por lo que tus propuestas serán de mucho valor para el negocio.

¡Postula para este tremendo desafío!

This job is original from Get on Board.

Job functions

  • Ejecutar procesos de ingesta y modelamiento de datos en entornos de Google Cloud Platform (GCP).
  • Participar activamente en el desarrollo y mantenimiento de pipelines de datos (ETLs).
  • Colaborar en el diseño y optimización de arquitecturas de datos eficientes.
  • Trabajar de forma colaborativa en equipos multidisciplinarios, tanto de forma remota como presencial.
  • Documentar procesos y contribuir a las buenas prácticas de desarrollo y versionamiento de código.

Qualifications and requirements

Experiencia comprobable en proyectos de datos (ETLs) sobre GCP.

Dominio de productos de GCP como:

  • BigQuery
  • Cloud Functions
  • Cloud Composer / Airflow
  • Cloud Storage

Conocimientos en DBT (deseable).

Sólida experiencia en SQL y Python.

Experiencia trabajando con sistemas de versionamiento como GitLab, Bitbucket o GitHub.

Habilidades blandas:

  • Alta capacidad de trabajo en equipo.
  • Autonomía y habilidades de autogestión.
  • Buenas capacidades analíticas y de resolución de problemas.

Conditions

Modalidad: Híbrida (mínimo 2 días presencial en Santiago, Chile)
Duración: contrato por 8 meses con extension

APPLY VIA WEB
Gross salary $2400 - 2600 Full time
Data Engineer AWS
  • BC Tecnología
  • Santiago (Hybrid)
Python Data Analysis SQL Web server
En BC Tecnología, nos especializamos en la consultoría de TI, ofreciendo un amplio rango de servicios para adaptarnos a las necesidades específicas de nuestros clientes, principalmente en finanzas, seguros, retail y gobierno. Nuestro equipo trabaja mediante metodologías ágiles, lo que nos permite diseñar e implementar soluciones tecnológicas efectivas y dirigidas al cliente. Actualmente, estamos buscando un Data Engineer con experiencia en AWS para sumarse a nuestro equipo y contribuir a proyectos innovadores en la gestión y explotación de datos.

Exclusive to Get on Board.

Responsabilidades del Cargo

  • Desarrollar y gestionar procesos de ETL, asegurando la calidad y fiabilidad de los datos.
  • Optimizar la explotación de datos a través de técnicas de Tuning.
  • Implementar soluciones utilizando herramientas de AWS, incluyendo Glue, Lambda, S3, Redshift y DynamoDB.
  • Colaborar con los equipos de desarrollo de software para asegurar la integración de datos eficiente.
  • Realizar análisis y visualización de datos para apoyar en la toma de decisiones.
  • Mantener un enfoque en la innovación y la mejora continua de los procesos y herramientas utilizadas.

Descripción del Cargo

Buscamos un Data Engineer AWS con un mínimo de 3 años de experiencia en el manejo de datos. El candidato ideal tendrá conocimientos sólidos en:
  • Explotación de datos y Tuning.
  • Diseño e implementación de procesos ETL.
  • Desarrollo de consultas efectivas en SQL.
  • Programación en Python.
  • Uso de herramientas de orquestación como Apache Airflow (deseable).
Valoramos habilidades como el trabajo en equipo, la proactividad y la capacidad para adaptarse a nuevas tecnologías. La combinación de habilidades técnicas y soft skills es esencial para unirse a nuestro equipo dinámico.

Habilidades Deseables

Además de los requisitos mencionados, sería beneficioso contar con experiencia en:
  • Integraciones y gestión de datos en múltiples fuentes.
  • Implementación de soluciones en la nube de AWS.
  • Conocimientos en herramientas de visualización de datos.
Estas habilidades ayudarán al candidato a integrarse de manera efectiva en nuestros equipos de trabajo y contribuir a proyectos futuros.

Beneficios de Trabajar con Nosotros

En BC Tecnología, valoramos a nuestro equipo y ofrecemos un entorno flexible y beneficios atractivos:
  • Contrato indefinido.
  • Modalidad híbrida, combinando trabajo remoto y en oficina.
  • Paquete de beneficios corporativos que incluye salud prepaga de primer nivel para el empleado y su familia.
  • Un día de home office a la semana, junto con desayunos y un comedor en la planta.
  • Acceso a un Sport Club y asistencia de un nutricionista.
¡Únete a nosotros y marca una diferencia en el mundo de la tecnología! 🎉

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB
$$$ Full time
Data Engineer
  • Compara
Python PostgreSQL DevOps Kafka

Compara es una plataforma digital que permite cotizar y comparar los principales seguros y productos financieros de Latinoamérica. En nuestra empresa, buscamos un Data Engineer que ayude a construir, optimizar y evolucionar nuestra infraestructura de datos. Con un énfasis en la modernización y mejora continua, esta posición es clave para asegurar que nuestros procesos de datos sean eficientes y escalables.

Find this vacancy on Get on Board.

🎯 ¿Qué harás?

  • Mantener y optimizar nuestro data warehouse en PostgreSQL y los pipelines de ingesta de datos en producción.
  • Liderar la transición hacia una arquitectura moderna basada en Databricks, dbt y un data lake en S3.
  • Desarrollar y escalar pipelines de procesamiento y transformación de datos.
  • Monitorear, depurar y documentar procesos de datos para garantizar su calidad y confiabilidad.

🔎 ¿A quién buscamos?

  • Persona con más de 3 años de experiencia en ingeniería de datos, construyendo y manteniendo pipelines en producción.
  • Dominio de Python para procesamiento de datos, incluyendo el uso de librerías como pandas, SQLAlchemy y psycopg2.
  • Experiencia trabajando con orquestadores de workflows, especialmente Airflow.
  • Conocimiento sólido de bases de datos relacionales, especialmente PostgreSQL, incluyendo modelamiento y optimización de rendimiento.
  • Experiencia práctica con almacenamiento en la nube (S3 o equivalente) y formatos como Parquet.
  • Autonomía y capacidad de tomar decisiones técnicas.

🌟 Será un plus si cuentas con

  • Experiencia con dbt y modelado de datos.
  • Conocimiento en Databricks, Delta Lake, Apache Iceberg o arquitecturas de lakehouse.
  • Experiencia con diseño e implementación de pipelines CDC (Change Data Capture) usando Debezium, Kafka o similares.
  • Conocimientos de buenas prácticas de DevOps para data (versionado de pipelines, testing, CI/CD).
  • Inglés técnico para leer documentación y colaborar en proyectos internacionales.

🚀Únete a nuestro equipo

En Compara, ofrecemos horarios flexibles y un entorno que favorece el crecimiento profesional. Valoramos la cultura de aprendizaje continuo y el desarrollo de cada miembro del equipo, por lo que si disfrutas optimizando infraestructuras de datos, impulsando mejoras estratégicas y explorando nuevas herramientas, ¡nos encantaría conocerte! 🚀

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Vacation over legal Compara gives you paid vacations over the legal minimum.
APPLY VIA WEB
Gross salary $1700 - 2000 Full time
Business Analyst Especializado en Inteligencia Artificial
  • Factor IT
Python Data Analysis Big Data Artificial Intelligence
En FactorIT, una empresa líder en tecnología presente en 8 países de Latam, estamos en búsqueda de un Business Analyst que se una a nuestro equipo especializado en Inteligencia Artificial (IA). Nuestro enfoque en soluciones innovadoras y personalizadas nos posiciona como el socio estratégico que las grandes empresas necesitan en su transformación digital.
Estamos comprometidos con abordar los retos más complejos de nuestros clientes, utilizando IA para optimizar procesos y mejorar la eficiencia. Al unirte a nosotros, participarás en proyectos significativos que generan un impacto real en el desarrollo de soluciones tecnológicas avanzadas.

Job source: getonbrd.com.

Responsabilidades:

  • Colaborar con los stakeholders para identificar necesidades y oportunidades de mejora mediante el uso de IA.
  • Traducir los requerimientos del negocio en especificaciones técnicas para equipos de desarrollo de IA.
  • Analizar y modelar datos, generando insights relevantes que faciliten la toma de decisiones.
  • Participar en la planificación, diseño e implementación de soluciones de IA en los procesos de negocio.
  • Realizar pruebas y validaciones de las soluciones implementadas asegurando su alineación con los objetivos de negocio.
  • Asegurar que las soluciones de IA sean escalables, sostenibles y alineadas con las necesidades del negocio.

Requisitos:

  • Experiencia mínima: 4 años como Business Analyst con un enfoque en proyectos de IA.
  • Conocimientos técnicos en análisis de datos, modelado predictivo y herramientas de IA.
  • Dominio de herramientas como Python, R, o plataformas como TensorFlow y PyTorch.
  • Capacidad para traducir problemas complejos de negocio en soluciones claras de IA.
  • Fuertes habilidades analíticas y de resolución de problemas.

Desirable

Valoramos la experiencia en proyectos multidisciplinarios y la capacidad de trabajar en equipos internacionales. Habilidades de comunicación efectiva y una mentalidad proactiva también son aspectos deseables.

Ofrecemos:

  • Un entorno de trabajo remoto y flexible que favorece el equilibrio entre la vida personal y laboral.
  • Proyectos innovadores en IA y Machine Learning que desafían tus habilidades.
  • Oportunidades de crecimiento profesional y desarrollo continuo en el ámbito de IA.
  • Colaboración con equipos internacionales que enriquecen la experiencia laboral.
¡Si eres un experto en ingeniería de datos con pasión por la Inteligencia Artificial, te estamos esperando! 🚀

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
Gross salary $2200 - 2600 Full time
Data Analytics Residente Uruguay
  • BC Tecnología
Python Analytics Data Analysis SQL
En BC Tecnología, somos una consultora de TI especializada en diversas áreas tecnológicas, con más de seis años de experiencia diseñando soluciones adecuadas a las necesidades de nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestro enfoque incluye consultoría y diseño de soluciones, formación de equipos, desarrollo de proyectos y servicios de soporte y administración IT.

This job is published by getonbrd.com.

Responsabilidades principales:

  • Extraer y procesar datos desde diversas fuentes mediante SQL y Python (PySpark).
  • Diseñar y optimizar modelos de datos en Power BI para reportes avanzados.
  • Implementar y mejorar flujos ETL para la integración de datos.
  • Colaborar con áreas de negocio para entender necesidades analíticas y generar soluciones BI.
  • Asegurar la calidad y disponibilidad de los datos en los reportes.

Requisitos:

  • SQL Avanzado: Creación, optimización y modelado de datos.
  • Python (PySpark): Procesamiento y transformación de datos en entornos Big Data.
  • Power BI: Nivel medio-alto en creación de reportes y dashboards interactivos.
  • Databricks: Deseable, con experiencia en plataformas de datos en la nube.
  • Experiencia mínima de 3 años en roles de BI, Data Analytics o similares.
  • Habilidades de comunicación y trabajo en equipo para traducir necesidades de negocio en soluciones BI.

Deseable:

  • Experiencia con Databricks sería un plus, mostrando la capacidad de trabajar con plataformas de datos en la nube.

Condiciones

  • Trabajo 100% remoto.
  • El cargo puede ser desempeñado desde cualquier lugar del mundo.
En BC Tecnología, fomentamos un entorno laboral flexible que impulsa el crecimiento profesional. Si te consideras una mente analítica que quiere marcar la diferencia, ¡te invitamos a ser parte de nuestro equipo y a impulsar la transformación organizacional! 🚀✨

APPLY VIA WEB
$$$ Full time
Data Booster
  • 2BRAINS
Python Data Analysis SQL Web server

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

Official source: getonbrd.com.

El/la Data Booster de 2Brains

Se encarga de participar en el diseño y desarrollo de los nuevos modelos de información de gestión y las mantenciones evolutivas de los existentes. Participar en las iniciativas de Analítica avanzada del área, apoyando las exploración de modelos de información internos y externos (Data Discovery). Obtener datos históricos desde múltiples fuentes de información interna para apoyar las iniciativas de analítica avanzada del equipo.

Qué harás como Data Booster de 2Brains

  • Identificar oportunidades y definir hipótesis basadas en datos para mejorar procesos y generar impacto en el negocio.
  • Diseñar y ejecutar experimentos que permitan validar soluciones con métricas claras y medibles.
  • Construir modelos analíticos y aplicar IA para transformar datos en insights accionables.
  • Facilitar la co-creación de productos de datos, asegurando que sean escalables y sostenibles.
  • Optimizar el desarrollo y adopción de soluciones según la madurez del squad y las necesidades del negocio.
  • Colaborar con equipos de tecnología, negocio y data science para alinear soluciones con los objetivos estratégicos.
  • Garantizar la calidad y gobernanza de los datos, promoviendo mejores prácticas en el manejo y uso de información.

Qué conocimientos buscamos en/la Data Booster

  • Métodos de análisis estadístico (regresión, pruebas de hipótesis, análisis multivariante).
  • Técnicas de modelado predictivo y prescriptivo.
  • Análisis de series temporales.
  • Algoritmos de machine learning supervisados y no supervisados.
  • Modelos de clasificación, regresión, clustering, y reducción de dimensionalidad.
  • Técnicas de deep learning y redes neuronales.
  • Limpieza, transformación y preprocesamiento de datos (ETL).
  • Manejo de grandes volúmenes de datos y optimización del procesamiento (Big Data).
  • Uso de herramientas de análisis de datos como Pandas, NumPy, Spark.
  • Diseño de experimentos (A/B testing, pruebas de causalidad).
  • Métodos de validación de modelos (cross-validation, métricas de evaluación).
  • Técnicas de evaluación de impacto y pruebas de hipótesis.
  • Creación de dashboards y reportes con herramientas como Tableau, Power BI, Looker.
  • Visualización avanzada con bibliotecas de Python como Matplotlib, Seaborn, Plotly.
  • Python/R para análisis de datos y desarrollo de modelos.
  • SQL para consultas y manipulación de bases de datos.
  • Experiencia con plataformas de nube como AWS, GCP, Azure para almacenamiento y procesamiento de datos.
  • Uso de servicios de data engineering en la nube (como Google BigQuery, Amazon Redshift, Azure Synapse).
  • Prácticas de DevOps aplicadas a proyectos de datos (automatización, integración continua).
  • MLOps para la automatización de la implementación y monitoreo de modelos.
  • Estándares y buenas prácticas en el manejo de datos (calidad, privacidad, seguridad).
  • Herramientas para la gobernanza de datos como Apache Atlas, Collibra.

Que competencias buscamos en/la Data Booster

  • Empatía
  • Buena capacidad de comunicación.
  • Colaboración y trabajo en equipo.
  • Proactividad.
  • Autonomía.
  • Foco en los objetivos de proyectos.

Te ofrecemos

  • Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos
  • Acceso a grandes clientes y proyectos desafiantes
  • Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales
  • Un entorno de trabajo flexible y dinámico
  • Beneficios especiales: día libre para tu cumpleaños, 4 semanas de vacaciones

Wellness program 2BRAINS offers or subsidies mental and/or physical health activities.
Internal talks 2BRAINS offers space for internal talks or presentations during working hours.
Education stipend 2BRAINS covers some educational expenses related to the position.
Informal dress code No dress code is enforced.
Shopping discounts 2BRAINS provides some discounts or deals in certain stores.
Vacation over legal 2BRAINS gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
Gross salary $1000 - 1300 Full time
Data Scientist Junior
  • coderslab.io
  • Santiago (Hybrid)
Python SQL Business Intelligence Big Data

CodersLab es una empresa dedicada al desarrollo de soluciones en el sector IT. Actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina. Por eso, estamos buscando un Data scientist Junior para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Official job site: Get on Board.

Job functions

  • Diseñar y desarrollar modelos de aprendizaje automático utilizando herramientas de Vertex AI (AutoML, Pipelines, Feature Store, etc.).
  • Implementar flujos de trabajo de datos en GCP, utilizando servicios como BigQuery, Dataflow, Pub/Sub y Cloud Storage.
  • Desplegar y gestionar modelos de ML en producción, asegurando rendimiento, escalabilidad y monitoreo continuo.
  • Crear y optimizar pipelines de MLOps para el desarrollo ágil de modelos y su mantenimiento.
  • Colaborar con ingenieros de datos, analistas y DevOps para integrar los modelos en sistemas productivos.
  • Analizar grandes volúmenes de datos y generar insights accionables que respondan a las necesidades del negocio.
  • Comunicar resultados técnicos y hallazgos analíticos a audiencias técnicas y no técnicas.
  • Mantenerse actualizado sobre las últimas innovaciones en GCP, Vertex AI y aprendizaje automático.

Qualifications and requirements

  • Experiencia mínima de 3 años trabajando como Data Scientist o en roles similares.
  • Conocimiento avanzado de Google Cloud Platform (GCP), incluyendo:
    • BigQuery
    • Dataflow
    • Cloud Storage
    • Pub/Sub
    • Cloud Composer
  • Experiencia en el uso de Vertex AI para el desarrollo y despliegue de modelos de aprendizaje automático.
  • Dominio de lenguajes como Python y SQL.
  • Conocimiento de frameworks de aprendizaje automático como TensorFlow, PyTorch o scikit-learn.
  • Experiencia en construcción de pipelines de datos y MLOps.
  • Familiaridad con herramientas de visualización como Looker, Tableau o Data Studio.

Conditions

Hibrido en Santigo de Chile
Renta en pesos Chilenos

APPLY VIA WEB
$$$ Full time
Data Scientist
  • 2BRAINS
Python SQL NoSQL Big Data

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

Apply exclusively at getonbrd.com.

El Data Scientist de 2Brains

Es responsable de analizar y extraer conocimiento a partir de datos mediante técnicas de Machine Learning, estadística y análisis avanzado, con el fin de optimizar la toma de decisiones y generar impacto en el negocio. Trabaja en conjunto con el equipo digital para desarrollar productos de datos, asegurando su calidad, documentación y correcta implementación. Además, mide el impacto de sus soluciones mediante estándares de experimentación, contribuyendo a la mejora continua y eficiencia operativa.

El Data Scientist de 2Brains deberá

  • Analizar grandes volúmenes de datos para identificar patrones, tendencias y oportunidades de mejora.
  • Diseñar, desarrollar e implementar modelos de Machine Learning y técnicas estadísticas para resolver problemas de negocio.
  • Desarrollar productos de datos en colaboración con el equipo digital, asegurando calidad, mantenimiento y escalabilidad.
  • Aplicar métodos de experimentación y validación (A/B testing, causal inference, etc.) para medir el impacto de las soluciones implementadas.
  • Garantizar la correcta documentación de los modelos, algoritmos y procesos desarrollados.
  • Optimizar y mejorar continuamente los modelos en producción en función de su desempeño y nuevos datos.
  • Colaborar con equipos de negocio y tecnología para alinear soluciones de datos con objetivos estratégicos.
  • Explorar nuevas herramientas y tecnologías para potenciar el uso de datos dentro de la organización.

¿Qué conocimientos buscamos en el/la Data Scientist?

  • Python/R, SQL y Spark. Para programar modelos de machine learning, realizar análisis estadístico y manipular datos, además de procesar grandes volúmenes de datos en paralelo y a gran escala.
  • Machine Learning, métricas de evaluación de modelos.
  • Pruebas A/B.
  • Deployment de modelos
  • Análisis estadístico
  • Desarrollo de productos de datos.
  • Deseables:
  • NoSQL, Bayesian Statistics, MLOps avanzado.
  • Herramientas de visualización como Streamlit.

¿Qué competencias buscamos en el/la Data Scientist?

  • Curiosidad
  • Foco en los objetivos
  • Colaboración y trabajo en equipo (ínter y multidisciplinario)
  • Proactividad
  • Autonomía

Te ofrecemos

  • Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos.
  • Un proyecto con foco en los usuarios, visión de UX e integrada al desarrollo.
  • Acceso a grandes clientes y proyectos desafiantes.
  • Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales.
  • Un entorno de trabajo flexible y dinámico.
  • Beneficios especiales: un día libre de regalo por tu cumpleaños, días de descanso (previa coordinación), convenios para cursos de especialización.

Wellness program 2BRAINS offers or subsidies mental and/or physical health activities.
Internal talks 2BRAINS offers space for internal talks or presentations during working hours.
Informal dress code No dress code is enforced.
Shopping discounts 2BRAINS provides some discounts or deals in certain stores.
Vacation over legal 2BRAINS gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Data Engineer Azure
  • Factor IT
  • Santiago (Hybrid)
Python Agile SQL NoSQL
En FactorIT, buscamos un Ingeniero de Datos con experiencia en banca y entidades financieras para liderar y ejecutar proyectos de Data & Analytics. Te unirás a un equipo innovador en el que tu trabajo impactará directamente en la transformación digital de importantes instituciones en el sector financiero.
Este rol es clave para potenciar el uso de datos dentro de la banca, asegurando que la infraestructura y los procesos estén alineados con los objetivos estratégicos del negocio. Tendrás la oportunidad de trabajar con tecnologías de vanguardia, incluyendo Azure Databricks y otros servicios en la nube, asegurando soluciones escalables y seguras que optimicen la toma de decisiones.

Apply to this job through Get on Board.

Responsabilidades:

  • Diseñar y desarrollar soluciones de ingestión, transformación y modelado de datos en Azure Databricks y otras tecnologías relacionadas.
  • Optimizar procesos de ETL/ELT, asegurando calidad, integridad y eficiencia en el procesamiento de datos.
  • Colaborar con equipos de negocio para entender sus necesidades, identificar oportunidades y proponer soluciones basadas en datos.
  • Implementar arquitecturas de datos escalables que soporten analítica avanzada, machine learning e inteligencia de negocio.
  • Garantizar la seguridad y el cumplimiento normativo en el manejo de datos, siguiendo estándares bancarios y regulatorios.
  • Desarrollar y optimizar pipelines de datos para la explotación en entornos analíticos y de reportes.
  • Documentar procesos, arquitecturas y modelos de datos, asegurando buenas prácticas de gobernanza.
  • Trabajar en conjunto con equipos de Data Science, BI y Tecnología para garantizar la disponibilidad y calidad de los datos.

Requisitos Técnicos y Habilidades:

Buscamos un profesional con un mínimo de 3 años de experiencia en ingeniería de datos, idealmente en el sector financiero. Debe poseer un conocimiento avanzado en:
  • Azure Databricks, Spark y servicios de datos en la nube como Azure Data Factory, Azure Synapse y Data Lake.
  • Modelado de datos, optimización de consultas y bases de datos en SQL y NoSQL.
  • Programación en Python y/o Scala para el desarrollo de pipelines y procesamiento de datos.
  • Arquitecturas de datos escalables y distribuidas.
  • Principios de seguridad y cumplimiento normativo en banca (ej. GDPR, PCI-DSS, BCBS 239).
  • Herramientas de orquestación y automatización de flujos de datos.
Además, necesitaremos que cuentes con habilidades blandas como excelente comunicación, pensamiento analítico, proactividad y capacidad de trabajo en equipo en entornos ágiles y dinámicos.

Habilidades Deseables:

Sería un plus contar con experiencia previa en proyectos de transformación digital en el sector bancario, así como familiaridad con herramientas de visualización de datos y reportes. La capacidad para adaptarse rápidamente a nuevas tecnologías y seguir aprendiendo continuamente es muy valorada dentro de nuestra cultura.

Beneficios:

En FactorIT, brindamos un entorno de trabajo dinámico y colaborativo donde puedes trabajar con tecnologías de punta. Ofrecemos un plan de crecimiento profesional, capacitaciones en IA y automatización, y un salario competitivo acorde a tu experiencia.
Promovemos el equilibrio entre la vida personal y laboral mediante trabajo 100% remoto 🌍 y flexibilidad laboral. Únete a nosotros y sé parte de un equipo que está transformando el futuro de la tecnología en la región.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Computer provided Factor IT provides a computer for your work.
APPLY VIA WEB
Gross salary $2000 - 2500 Full time
Analista de BI Latam
  • BC Tecnología
Python Analytics Data Analysis SQL

En BC Tecnología, somos una consultora de TI especializada en diversas áreas tecnológicas, ofreciendo un entorno de trabajo colaborativo donde se valora el compromiso y el desarrollo profesional. Trabajamos con clientes en los sectores de servicios financieros, seguros, retail y gobierno, diseñando soluciones adecuadas a sus necesidades desde hace más de seis años. Nuestro enfoque incluye consultoría y diseño de soluciones, formación de equipos, desarrollo de proyectos, y servicios de soporte y administración IT.

Applications at getonbrd.com.

Responsabilidades principales:

  • Extraer y procesar datos desde diversas fuentes mediante SQL y Python (PySpark).
  • Diseñar y optimizar modelos de datos en Power BI para reportes avanzados.
  • Implementar y mejorar flujos ETL para la integración de datos.
  • Colaborar con áreas de negocio para entender necesidades analíticas y generar soluciones BI.
  • Asegurar la calidad y disponibilidad de los datos en los reportes.

Requisitos:

  • SQL Avanzado – Creación, optimización y modelado de datos.
  • Python (PySpark) – Procesamiento y transformación de datos en entornos Big Data.
  • Power BI (Nivel medio-alto) – Creación de reportes y dashboards interactivos.
  • Databricks (Deseable) – Experiencia en plataformas de datos en la nube.
  • Experiencia mínima de 3 años en roles de BI, Data Analytics o similares.
  • Habilidades de comunicación y trabajo en equipo para traducir necesidades de negocio en soluciones BI.

Deseable:

Experiencia con Databricks sería un plus, mostrando la capacidad de trabajar con plataformas de datos en la nube.

Conditions

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
$$$ Full time
Data Engineer
  • Improving South America
SQL Business Intelligence Virtualization Amazon Web Services
Leniolabs_ que ahora es Improving South America es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España, USA y Canadá.
Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes.
Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.
Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

This job is published by getonbrd.com.

Responsabilidades del Ingeniero de Datos

  • Descubrimiento de Fuentes Legacy: Utilizar SQL avanzado y scripting (Python/PowerShell) para automatizar procesos y documentar sistemas heredados.
  • Análisis de Calidad de Datos: Ejecutar perfiles de datos, identificar problemas de calidad y generar métricas clave de calidad (KPIs).
  • Limpieza Inicial de Datos: Aplicar herramientas ETL/ELT (Informatica, Talend, dbt) y realizar limpieza de datos en base a las comunicaciones con expertos.
  • Definición de Estrategias de Archivo vs. Migración: Diseñar modelos de datos y evaluar soluciones de almacenamiento equilibrando cumplimiento y costos.
  • Mapping a la Plataforma del Proveedor: Desarrollar procesos de mapeo y transformación para garantizar la correcta transferencia de datos.
  • Análisis de Necesidades Actuales de BI/Reportes: Colaborar con usuarios para optimizar consultas SQL y estructurar datos para reportes.
  • Tareas Adicionales: Orquestación de pipelines (Airflow), CI/CD, contenedorización (Docker, Kubernetes) y automatización en la nube (AWS).

Requisitos Técnicos y Habilidades Deseadas

Buscamos un profesional con el siguiente perfil:

  • Dominio en SQL avanzado, así como experiencia en herramientas ETL/ELT como Informatica, Talend y dbt. Conocimientos en sistemas de almacenamiento en la nube (AWS S3, Redshift)
  • Habilidades en orquestación de pipelines (Airflow, Docker, Kubernetes)
  • Familiaridad con herramientas de BI como Power BI o Tableau.
  • Nivel de inglés intermedio/avanzado o avanzado.
  • A nivel de habilidades blandas, esperamos que los candidatos tengan un fuerte pensamiento crítico, atención al detalle y la capacidad de comunicar hallazgos técnicos a diferentes públicos.

Habilidades Deseables

Si bien no son imprescindibles, se valorarán conocimientos adicionales en el trabajo con big data y experiencia en entornos ágiles. La capacidad de adaptarse rápidamente a nuevas herramientas y requisitos será muy apreciada, al igual que la iniciativa para proponer mejoras a nuestros procesos actuales.

¿Qué Ofrecemos?

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Power BI Analyst Sr
  • Improving South America
Data Analysis SQL Big Data BigQuery
Leniolabs_ es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA.
Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.
Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.

Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Job source: getonbrd.com.

Funciones del cargo

En Leniolabs estamos en la búsqueda de un SR Power BI Analyst.

El candidato ideal debe contar con un mínimo de 6 años de experiencia, el equipo está buscando recursos para ayudar a satisfacer las necesidades de sus clientes internos de EE. UU. Los miembros de nuestro equipo recibirán tickets de solución de ServiceNow y ejecutarán informes/consultas centrados en los datos de uso del cliente, la validación de datos, etc.

El objetivo es crear un equipo de mejora. Este grupo quiere familiarizarse y sentirse cómodo con la mejora.

El rol implica colaborar estrechamente con arquitectos, ingenieros y propietarios de producto para diseñar soluciones técnicas que soporten altos niveles de disponibilidad y consistencia.

Buscamos perfiles con un compromiso claro con la excelencia técnica, la innovación y un interés genuino en las últimas tecnologías, capaces de trabajar en un entorno ágil y de alto rendimiento.

Requerimientos del cargo

  • Contar con mínimo 6 años de experiencia trabajando con Power BI y SQL.
  • Manejo de Google Cloud Platform (GCP) y BigQuery.
  • Experiencia en ETL (idealmente con Talend) y capacidad para trabajar con grandes volúmenes de datos (terabytes).
  • Sólidas habilidades de redacción y comunicación, además de iniciativa.
  • Nivel de inglés intermedio-avanzado (B2/C1).

Beneficios

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Internal talks Improving South America offers space for internal talks or presentations during working hours.
Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Improving South America gives you paid vacations over the legal minimum.
APPLY VIA WEB
Gross salary $2000 - 2300 Full time
Data Engineer – Proyecto de 6 Meses
  • BC Tecnología
  • Santiago (Hybrid)
Python Git SQL Scala
En BC Tecnología, somos una consultora de TI comprometida con ofrecer soluciones innovadoras y adaptadas a las necesidades de nuestros clientes. Con más de 6 años de experiencia en el sector, trabajamos con empresas en diferentes industrias, incluyendo servicios financieros, seguros, retail y gobierno. En este proyecto de Data Engineering, tendrás la oportunidad de contribuir al diseño y construcción de pipelines de datos para nuestros clientes, utilizando metodologías ágiles y colaborando con equipos altamente especializados.

Apply to this job opportunity at getonbrd.com.

Responsabilidades del Rol

  • Diseñar y construir pipelines de datos efectivos para cumplimentar las necesidades analíticas de nuestros clientes.
  • Programar usando lenguajes como Python, Scala o SQL para manipulación y transformación de datos.
  • Implementar y gestionar herramientas de orquestación de pipelines, como Airflow, Mage, NiFi o similares.
  • Colaborar en prácticas de CI/CD, incluidos conocimientos básicos en Git y versionado de código.
  • Integrar arquitecturas de datos, con un enfoque en Datalakes, Datawarehouses o Lakehouse.
  • Participar en modelado de datos utilizando técnicas dimensional, estrella y copo de nieve, si es requerido.

Requisitos y Habilidades

Buscamos candidatos que cuenten con al menos 2 años de experiencia en el área de Data Engineering. Deberán tener competencias en diseño y construcción de pipelines de datos, así como experiencia con lenguajes de programación pertinentes como Python, Scala o SQL.
Es esencial dominar herramientas de orquestación de datos, y tener un conocimiento básico sobre integraciones de CI/CD y flujos de trabajo de versionamiento de código. Adicionalmente, es deseable contar con experiencia en arquitecturas de datos y modelado, incluidos Datalakes y técnicas de modelado específicas.
La modalidad de trabajo es híbrida, lo que permitirá equilibrar la colaboración en persona con flexibilidad laboral.

Habilidades Deseables

Si bien no es un requisito, consideraremos positivamente la experiencia previa con Datalakes y Datawarehouses, así como familiaridad con técnicas de modelado como dimensional, estrella o copo de nieve. Esto contribuirá a un mejor entendimiento del contexto de las soluciones que desarrollaremos.

Beneficios y Condiciones

Ofrecemos un contrato por proyecto de 6 meses, con posibilidad de extensión. Los empleados disfrutarán de un sueldo a convenir, además de beneficios adicionales como:
  • Seguro complementario.
  • Amipass de $4,500 por día laborado.
  • Convenciones, actividades y bonos.
Estamos ubicados en Alto Las Condes, permitiendo un ambiente de trabajo funcional y moderno. ¡Nos encantaría contar contigo en nuestro equipo! 🌟

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB
Gross salary $2000 - 2300 Full time
Data Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Python Git SQL Scala
En BC Tecnología, somos una consultora de TI que cuenta con un equipo experto en diversas áreas tecnológicas. Nuestra misión es brindar soluciones personalizadas que se adapten a las necesidades de nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Actualmente, buscamos incorporar un Data Engineer para diseñar, construir y mantener pipelines de datos, utilizando tecnologías modernas.
Contamos con un enfoque ágil y orientado al cliente, lo que nos permite ofrecer servicios de consultoría, desarrollo de proyectos y administración IT de alta calidad.

Official source: getonbrd.com.

✅ Funciones

  • Diseñar y construir pipelines de datos eficientes para mover y transformar datos.
  • Garantizar que los procesos de datos sean consistentes y confiables en el tiempo.
  • Implementar flujos de trabajo de CI/CD para la integración con ambientes de desarrollo y productivos.
  • Colaborar con el equipo para mejorar la calidad y eficiencia de los procesos de datos.
  • Apoyarse en líderes técnicos para lineamientos y mejores prácticas en el desarrollo.

✅ Requerimiento:

Se requiere entre 1 a 2 años de experiencia en diseño y construcción de pipelines de datos. Consideraciones específicas incluyen:
  • Lenguajes de programación: Python, Scala o SQL.
  • Herramientas de orquestación de pipelines: Airflow, Mage, NiFi o similares.
  • CI/CD: Conocimientos básicos en Git y flujos de trabajo de versionamiento de código.

Deseables:

  • Arquitectura de datos: Familiaridad con Datalakes, Datawarehouses o Lakehouse.
  • Modelado de datos: Conocimiento en técnicas como dimensional, estrella, copo de nieve.

✅ Condiciones:

El contrato es por proyecto, estimado en 3 meses, con metodología de trabajo híbrido en Alto las Condes (2 a 3 veces por semana). Los postulantes deben tener disponibilidad de lunes a viernes. Sueldo a convenir y disfrutará de beneficios como seguro complementario, Amipass de $4,500 por día laborado, convenios, actividades y bonos. 🌟

APPLY VIA WEB
Gross salary $1500 - 1700 Full time
Analista de Datos
  • BC Tecnología
  • Buenos Aires (Hybrid)
Python Data Analysis SQL Business Intelligence
En BC Tecnología, somos una consultora especializada en servicios IT, trabajando con clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestro equipo de BI & Analytics juega un papel crucial en la optimización de procesos y toma de decisiones informadas mediante la administración y análisis de datos. Buscamos un Analista de Datos que se una a nuestro equipo, aportando experiencia y conocimiento en herramientas clave.

Job opportunity published on getonbrd.com.

Responsabilidades

Como Analista de Datos, serás el representante del equipo de BI & Analytics en Argentina. Tus responsabilidades incluirán:
  • Desarrollar y optimizar consultas SQL para la extracción y transformación de datos.
  • Implementar y gestionar pipelines de datos en Databricks.
  • Aplicar Python para el procesamiento y análisis avanzado de datos.
  • Servir como enlace entre el equipo de BI & Analytics y las áreas de negocio en el país, asegurando que las iniciativas de BI estén alineadas con las necesidades estratégicas de la empresa.
  • Asegurar la calidad y disponibilidad de los datos para la toma de decisiones.
  • Colaborar con equipos multidisciplinarios para definir y mejorar modelos analíticos.

Requisitos

  • Experiencia sólida en desarrollo BI con SQL avanzado.
  • Conocimiento y experiencia en Databricks (deseable).
  • Habilidad en Python para manipulación y análisis de datos.
  • Experiencia en entornos de análisis y procesamiento de datos en la nube (Azure, AWS, GCP es un plus).

Habilidades Deseables

Buscamos a alguien que no solo cumpla con los requisitos técnicos, sino que también posea habilidades interpersonales para colaborar efectivamente con equipos diversos y facilitar la comunicación entre departamentos. La adaptabilidad y una mentalidad centrada en soluciones son altamente valoradas en nuestra cultura de trabajo.

Beneficios

En BC Tecnología, te ofrecemos un entorno laboral dinámico y colaborativo, con un modelo de trabajo híbrido que idealiza la integración entre lo presencial y lo remoto. Además, tendrás acceso a oportunidades de capacitación continua, un ambiente que fomenta la innovación y centenares de oportunidades para crecer profesionalmente al lado de expertos. Valoramos a nuestros colaboradores y buscamos su desarrollo constante.

Health coverage BC Tecnología pays or copays health insurance for employees.
APPLY VIA WEB
$$$ Full time
Microsoft Power BI Developer
  • Improving South America
SQL SAP Big Data Azure

Leniolabs_ es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA.

Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.

Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.

Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Apply from getonbrd.com.

Funciones del cargo

En Leniolabs estamos en la búsqueda de un SSR/SR Microsoft Power BI Developer.

El candidato ideal debe contar con un mínimo de 5 años de experiencia. Además de conocimientos y experiencia en informes analíticos, es fundamental que tenga experiencia en SQL, ya que en el proyecto deberá trabajar en reportes, realizar extracción y manejo de datos en SQL.

El rol implica colaborar estrechamente con arquitectos, ingenieros y propietarios de producto para diseñar soluciones técnicas que soporten altos niveles de disponibilidad y consistencia.

Buscamos perfiles con un compromiso claro con la excelencia técnica, la innovación y un interés genuino en las últimas tecnologías, capaces de trabajar en un entorno ágil y de alto rendimiento.

Requerimientos del cargo

  • Contar con aproximadamente 5 años de experiencia como Data Engineer.
  • Manejo de Power BI y SQL (Excluyente).
  • Experiencia con Synapse y Azure Data Factory.
  • Es deseable la experiencia con Data Lake y SAP SCM
  • Habilidad para crear documentación técnica.
  • Inglés avanzado.

Beneficios

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo,

Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Improving South America gives you paid vacations over the legal minimum.
APPLY VIA WEB
Gross salary $2500 - 2800 Full time
Data Scientist
  • Niuro
Python SQL Azure Artificial Intelligence
At Niuro, we are dedicated to connecting cutting-edge projects with elite tech teams, collaborating closely with leading U.S. companies. Our mission revolves around simplifying global talent acquisition through innovative solutions that enhance efficiency and quality. As part of our team, you will engage in dynamic and challenging projects that are pivotal to our clients' success.
By providing autonomous, high-performance tech teams, we empower our professionals through continuous training in both technical and soft skills, along with leadership development. Our structure supports collaborative growth and excellence.

Official job site: Get on Board.

Responsibilities:

  • Design, develop, and evaluate machine learning and statistical models aimed at enhancing various business processes.
  • Analyze large datasets to derive insights and formulate data-driven strategies.
  • Deploy models into production utilizing tools such as TensorFlow, PyTorch, or Scikit-learn.
  • Create dashboards and reports via visualization tools like Tableau, Power BI, or Looker.
  • Collaborate with engineering teams to optimize data pipelines and model infrastructures.
  • Deliver findings and recommendations to non-technical stakeholders in a clear and concise manner.

Requirements:

  • 3-5 years of experience in data science, machine learning, and statistical analysis.
  • Proficiency in Python with solid knowledge of data science libraries including Pandas, Polars, Scikit-learn, TensorFlow, and PyTorch.
  • Experience with SQL and both relational and non-relational databases.
  • Knowledge of feature engineering, model selection, and cross-validation techniques.
  • Experience with Generative AI frameworks and libraries, such as Hugging Face Transformers and LangChain, alongside API usage and prompt engineering skills.
  • Able to visualize data with tools like Matplotlib, Seaborn, and Plotly.
  • Strong communication skills with a knack for data storytelling.
  • Intermediate to advanced English proficiency (written and spoken).

Nice-to-Haves:

  • Experience with cloud computing platforms such as AWS, GCP, or Azure.
  • Familiarity with real-time data processing using tools like Apache Kafka or Spark Streaming.
  • Working knowledge of deep learning frameworks.
  • Understanding of MLOps techniques for deploying models effectively.
  • Curiosity and enthusiasm for exploring the latest trends in Generative AI within the field of data analysis.

Salary & Benefits:

We offer a competitive salary ranging from $2,500 to $2,800 USD per month, depending on your experience. Our organization embraces a fully remote work environment, paired with flexible working hours to enhance your work-life balance.
At Niuro, you will find ample opportunities for professional development, along with access to training in advanced data analysis tools. Join us, and be part of a team that values continuous learning and growth!

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
APPLY VIA WEB
Gross salary $3000 - 3900 Full time
Senior Data Engineer
  • Apply Digital Latam
Python Agile SQL Virtualization
ABOUT APPLY DIGITAL
Apply Digital is a global digital transformation partner for change agents. Leveraging expertise that spans Business Transformation Strategy, Product Design & Development, Commerce, Platform Engineering, Data Intelligence, Change Management, and beyond, we enable our clients to modernize their organizations and deliver meaningful impact to the business and to their customers. Our 650+ team members have helped transform global companies like Kraft Heinz, NFL, Moderna, Lululemon, Games Workshop, Atlassian, and The Very Group. Visit applydigital.com to learn how we can unlock your company’s potential.
If you'd like to learn more about Apply Digital's culture click HERE.
LOCATION: Apply Digital is hybrid/remote-friendly. The preferred candidate should be based in Latin America, preferably working in hours that align to ET (Eastern Timezone) or PT (Pacific Timezone).

Apply exclusively at getonbrd.com.

Responsibilities:

  • Design, build, and optimize ETL/ELT pipelines using Python and SQL
  • Develop and maintain data warehouse schemas and analytics solutions
  • Implement data models and ensure data quality, consistency, and integrity
  • Leverage cloud data platforms (e.g., AWS Athena, Databricks, Snowflake, Azure Synapse/Fabric, Google BigQuery) for storage, processing, and querying
  • Create and maintain optimal data pipeline architecture.
  • Collaborate with analysts and stakeholders to define requirements and deliver data solutions that meet business needs
  • Communicate with stakeholders to understand data requirements and develop solutions.
  • Design, develop, implement, and maintain data architectures and pipelines.
  • Optimize query performance and ensure efficient data workflowsDocument data pipelines, architectures, and processes
  • Continuously improve and refine existing data infrastructure and solution
  • Develop and implement best practices for data management, security, and privacy.

Requirements:

  • A Bachelor's degree in Computer Science, Information Systems, or a related field.
  • At least 5 years of experience in data engineering or related fields.
  • Strong expertise in SQL, ETL, and data warehousing technologies.
  • Strong working knowledge of Python and PySpark
  • Proven experience with at least one major cloud data platform (AWS Athena, Databricks, Snowflake, Azure Synapse/Fabric, or Google BigQuery)
  • Knowledge of data migration tools and techniques.
  • Good knowledge of databases.
  • Strong background in data warehouse design, ETL/ELT processes, and data modeling, ideally with modern data warehouse and DBT
  • Familiarity with cloud engineering concepts and best practices
  • Experience working with large datasets and optimizing performance
  • Excellent problem-solving skills and attention to detail
  • Outstanding communication skills in English, both written and verbal.

Nice-to-haves:

  • Knowledge of multiple cloud platforms (AWS, Azure, GCP) and their data services
  • Familiarity with data governance and compliance requirements
  • Knowledge of CI/CD practices for data engineering
  • Familiarity with Agile development methodologies
  • Experience with containerization (Docker, Kubernetes)

Conditions

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Apply Digital Latam provides a computer for your work.
Vacation over legal Apply Digital Latam gives you paid vacations over the legal minimum.
Beverages and snacks Apply Digital Latam offers beverages and snacks for free consumption.
APPLY VIA WEB
$$$ Full time
Ingeniero/a de Estudios Actuariales Senior
  • BNP Paribas Cardif
  • Santiago (Hybrid)
C Python Data Analysis Excel
¿Quieres ser parte de los líderes en la revolución de los seguros?
BNP Paribas Cardif está presente en más de 30 países en América, Europa y Asia, contamos con 25 años de trayectoria en Chile y nuestra misión es hacer los seguros más accesibles, justos y valiosos.
✅ Por nuestro ambiente laboral único, somos una organización centrada en el bienestar de las personas y nuestro espíritu Cardif está presente en la oficina y fuera de ella.
✅ Porque el deporte y sus valores son parte de nuestra cultura: la colaboración, la empatía y el respeto guían nuestro trabajo.
✅ Por la cercanía con nuestros líderes, somos una organización que cree en el talento y damos las oportunidades para desarrollarte y aprender juntos.
✅ Por nuestro modelo de trabajo mixto, teletrabajando tres días a la semana.
✅ Estamos comprometidos con el medio ambiente.
✅ Estamos comprometidos con la diversidad, equidad e inclusión, siendo ésta parte de nuestra cultura y estrategia de la compañía.

This job is available on Get on Board.

Funciones del cargo

Hoy buscamos a un Ingeniero(a) de Estudios Actuariales que se sume al equipo de Modelos de Riesgos y Estudios, de la Gerencia Técnica - Financiera, donde tú misión será proveer a las distintas áreas de la gerencia técnica y de la compañía con parámetros técnicos, a través de estudios y herramientas, con el fin que se puedan tomar las decisiones correctas a la hora de evaluar rentabilidad de los productos.
Además de:
• Analizar grandes volúmenes de datos en SAS, Excel y Python, para estudiar el comportamiento de las coberturas de seguros a través de parámetros técnicos, con el fin de entregárselos a pricing y distintas áreas de la compañía para la toma de decisiones.
• Proveer de herramientas al área técnica de la compañía, con el fin de facilitar la toma de decisiones, a través de actualizaciones de Dashboard o creación de nuevas herramientas.
• Seguimiento, estudio y control, de los diferentes riesgos que enfrenta la compañía.
• Gestionar y analizar los datos de la compañía con el fin de abordar distintas problemáticas actuariales que permitan apoyar el proceso de transformación.
• Participar activamente en proyectos transversales tanto a la gerencia técnica como a nivel compañía, aportando desde el punto de vista técnico y financiero.
• Buscar la mejora continua de los procesos y procedimientos del área, buscando la agilidad y perfeccionamiento de las metodologías de cálculo, ya sea proponiendo nuevas herramientas o modelos o mejorando los utilizados actualmente.

Requisitos Mínimos

a. Formación

- Ingeniería Civil Industrial, Ingeniería en Estadística o afín.
b. Experiencia Requerida

- Deseable: Experiencia previa en áreas de analisis de datos, ya sea en manejo de grandes volumenes de datos, reporterías, monitoreos de KPI’s, modelación estadística o similares.
Tiempo: 0 – 2 años
c. Conocimientos y Habilidades

- Conocimiento avanzado de Excel, SAS y Python.
- Conocimiento Básico – Intermedio de Power BI.
- Nivel de inglés intermedio – avanzado.
- Conocimiento del ámbito asegurador
- Alta capacidad de síntesis y análisis
- Autonomía y autogestión
- Proactividad
- Capacidad de trabajo en equipo.
- Habilidades comunicacionales orales y escritas.
- Capacidad de generar ideas y mejoras continuas
- Orientación a resultados.
- Efectividad en presentaciones.
- Capacidad de planificación y seguimiento.

Beneficios

  • Trabajamos eficientemente: 40 horas semanales en horarios flexibles y los viernes salimos a las 14:00.
  • ¡Tenemos más vacaciones y días libres! Una semana adicional de vacaciones + 1 día libre considerando tu cumpleaños y quehaceres personales.
  • Apoyamos tu formación profesional: Acceso ilimitado a nuestra plataforma Coursera y dos días libres al año por estudios.
  • Cardif te cuida: Contarás con telemedicina gratis, seguro de vida, de salud y dental.
  • Queremos que seas tú mismo: Contamos con política de vestimenta flexible.
Y muchos otros beneficios que podrás conocer al avanzar en nuestro proceso de selección

¿Te sumas a la revolución de la industria del seguro?

Esperamos tu postulación ¡seguro y con todo!

“Todas las contrataciones están sujetas a la ley 21015. En BNP Paribas Cardif creemos en lugares de trabajos inclusivos y diversos, donde todas las personas son bienvenidas. En caso de necesitar adaptaciones para ser parte de nuestro proceso de selección, favor comunicarlo en la sección de preguntas.”

APPLY VIA WEB
Gross salary $3100 - 4500 Full time
Data Engineer
  • Haystack News
  • Lima (Hybrid)
Python Analytics Data Analysis SQL

Haystack News is the leading local & world news service on Connected TVs reaching millions of users! This is a unique opportunity to work at Haystack News, one of the fastest-growing TV startups in the world. We are already preloaded on 37% of all TVs shipped in the US!

Be part of a Silicon Valley startup and work directly with the founding team. Jumpstart your career by working with Stanford & Carnegie Mellon alumni and faculty who have already been part of other successful startups in Silicon Valley.

You should join us if you're hungry to learn how Silicon Valley startups thrive, you like to ship quickly and often, love to solve challenging problems, and like working in small teams.

See Haystack's feature at this year's Google IO:

This job is published by getonbrd.com.

Job functions

  • Analyze large data sets to get insights using statistical analysis tools and techniques
  • Collaborate with the Marketing, Editorial and Engineering teams on dataset building, querying and dashboard implementations
  • Support the data tooling improvement efforts and help increase the company data literacy
  • Work with the ML team on feature engineering and A/B testing for model building and improvement
  • Design, test and build highly scalable data management and monitoring systems
  • Build high-performance algorithms, prototypes and predictive models

Qualifications and requirements

  • Strong written and spoken English is a must!
  • Bachelor's degree in Computer Science, Statistics, Math, Economics or related field
  • 2+ years experience doing analytics in a professional setting
  • Advanced SQL skills, including performance troubleshooting
  • Experience with data warehouses (e.g. Snowflake, BigQuery, Redshift)
  • Proficient in Python including familiarity with Jupyter notebooks
  • Strong Math/Stats background with statistical analysis experience on big data sets
  • Strong communication skills, be able to communicate complex concepts effectively.

Conditions

  • Unlimited vacations :)
  • Travel to team's offsite events
  • 100% paid Uber rides to go to the office
  • Learn about multiple technologies

Accessible An infrastructure adequate for people with special mobility needs.
Relocation offered If you are moving in from another country, Haystack News helps you with your relocation.
Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Meals provided Haystack News provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Company retreats Team-building activities outside the premises.
Computer repairs Haystack News covers some computer repair expenses.
Commuting stipend Haystack News offers a stipend to cover some commuting costs.
Computer provided Haystack News provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
APPLY VIA WEB
Gross salary $2200 - 2700 Full time
Senior Business Development Consultant
  • MAS Analytics
  • Santiago (Hybrid)
Python Agile SQL Business Intelligence

En MAS Analytics nos dedicamos a desarrollar proyectos de Data Science, Gen AI, Cloud Architecture y Business Intelligence. Somos una consultora joven, tecnológica y emprendedora con gran crecimiento. Hoy en día tenemos muchos proyectos con grandes clientes de muchos rubros distintos y necesitamos ingenieras/os apasionados que estén buscando aprender y desafiarse trabajando en equipo.

Si estás buscando profundizar y trabajar aplicando tus conocimientos día a día, dentro de un equipo joven, de mucho talento, y alto rendimiento, este puesto es lo que estás buscando. El área de Business Development de MAS Analytics cumple un rol clave para el desarrollo y crecimiento de la empresa, y así lograr la misión de ser la empresa líder de consultoría en Transformación Digital.

Apply at getonbrd.com without intermediaries.

Funciones del cargo

Sobre el Rol

Buscamos un Ingeniero que se quiera integrar al equipo de consultores de Business Development tomando un rol activo en la estrategia y el diseño de las soluciones para los clientes.

Responsabilidades del Cargo

- Entender los problemas del cliente de diversas industrias y diseñar soluciones: desarrollo de propuestas funcionales y técnicas, diseño de soluciones de Analytics en ecosistemas Cloud (Azure, GCP, AWS), desarrollo de pruebas de concepto, búsqueda y levantamiento de oportunidades en clientes actuales, relación frecuente y buena comunicación con la alta dirección y los ejecutivos de diferentes empresas.
- Desarrollo de competencias cloud
- Investigación: tecnologías emergentes, nuevas funcionalidades, productos y servicios cloud

- Rol Comercial / Estratégico: Retención de clientes, diseño de planes de venta, account manager (responsabilidad de ciertas cuentas existentes), promover y mantener el nivel de calidad y confiabilidad de la empresa

Requerimientos del cargo

- Ingeniero civil industrial con 3 años de experiencia, idealemente en consultoría.

Herramientas y metodologías:

Conocimientos deseables:
- Conocimiento básico de herramientas Cloud (Azure, AWS, GCP)
- Conocimiento de herramientas de BI (PowerBI, Tableau, Data Studio)
- Experiencia con metodologías ágiles de desarrollo
- Conocimiento de lenguajes de base de datos (SQL)
- Conocimiento básico de lenguajes de programación (Python)

Competencias

- Interés Activo en Tecnologías emergentes
- Mucha proactividad, automotivación y autodisciplina
- Capacidad de aprendizaje veloz y entendimiento de ls distintas industrias
- Habilidades comunicacionales (presentación y venta)

Condiciones

- Trabajo flexible
- Ambiente laboral joven
- Sistema de beneficios por puntaje (días libre, bonos, aguinaldos)
- Ayudas monetarias y de estudio para capacitaciones y certificados
- Viernes se trabaja medio día
- MUCHO aprendizaje y desarrollo profesional

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage MAS Analytics pays or copays health insurance for employees.
Computer provided MAS Analytics provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal MAS Analytics gives you paid vacations over the legal minimum.
APPLY VIA WEB
Gross salary $2000 - 2100 Full time
Analista Assurance de Procesos Contables
  • BC Tecnología
  • Santiago (Hybrid)
Python Agile Data Analysis SQL
En *BC Tecnología*, somos especialistas en la creación de soluciones que se alinean a las necesidades de nuestros clientes. Durante más de 6 años hemos trabajado con sectores como servicios financieros, seguros, retail y gobierno, entregando consultoría y diseñando soluciones innovadoras.
En el contexto de un proyecto de 6 meses, buscamos un Analista Assurance de Procesos Contables que sea parte vital de nuestro equipo, aportando su experiencia en análisis de procesos contables y herramientas tecnológicas.

© Get on Board.

Responsabilidades del Rol:

Como Analista Assurance de Procesos Contables, tus principales responsabilidades incluirán:
  • Realizar análisis detallados de procesos contables, garantizando la precisión y cumplimiento de las normativas vigentes.
  • Desarrollar informes y visualizaciones utilizando Power BI para facilitar la comprensión de datos financieros.
  • Colaborar con el equipo en la integración de Google Cloud Platform y asegurar que la migración de datos se realice sin inconvenientes.
  • Trabajar con bases de datos usando Python o SQL, mejorando las eficiencias operativas en los procesos contables.
  • Apoyar en la implementación de herramientas SAP y ofrecer formación donde sea necesario.

Perfil del Candidato:

Buscamos a un profesional con un mínimo de 2 años de experiencia en áreas relacionadas, quien cuente con:
  • Manejo avanzado de Power BI, para la creación de dashboards eficientes.
  • Conocimiento en plataformas de Google Cloud, y su aplicación en un entorno contable.
  • Familiaridad con principios de contabilidad bancaria y cómo se aplican en la práctica.
  • Habilidades en manejo de bases de datos, específicamente con Python o SQL.
  • Experiencia previa en el uso de herramientas SAP.
Valoramos las habilidades interpersonales, el trabajo en equipo, así como la capacidad para adaptarse a metodologías ágiles. La pasión por la tecnología y la resolución de problemas será esencial en este rol.

Habilidades Deseables:

A diferencia de los requisitos, hay ciertas habilidades que serán consideradas un plus, tales como:
  • Certificaciones en análisis de datos o herramientas de visualización (Power BI, Tableau).
  • Experiencia previa en sectores de finanzas o auditoría.
  • Conocimiento de otras herramientas en la nube, como Amazon Web Services (AWS).

Lo Que Ofrecemos:

En *BC Tecnología* nos preocupamos por nuestro equipo. Algunos de los beneficios que ofrecemos son:
  • Contrato inicial por proyecto, con opción a estabilidad indefinida después del tercer mes.
  • Tarjeta Amipass, que proporciona un beneficio adicional de $4,500 por día trabajado.
  • Seguro Complementario de Salud y Seguro de Vida para garantizar tu bienestar.
  • Aguinaldos especiales durante Fiestas Patrias y Navidad.
  • Acceso a capacitaciones y certificaciones en plataformas como AWS y Azure.
  • Convenios con Gimnasio Pacific y Clínica Dental MasDent.
  • Participación en la Caja de Compensación Los Andes.
Si te apasiona la tecnología y buscas estabilidad laboral con grandes beneficios, esta es tu oportunidad! 🌟

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB
Gross salary $2000 - 2800 Full time
Ingeniero/a de Proyectos
  • Itrend Chile
  • Santiago (Hybrid)

En el Instituto para la Resiliencia ante Desastres (Itrend) estamos dedicados a la creación de bienes y servicios públicos mediante la colaboración y la innovación informadas por el conocimiento científico-tecnológico, con el objetivo de mitigar el impacto de desastres socionaturales en el país. Nuestro equipo especializado se conecta con diversos actores de la sociedad para fomentar un desarrollo sostenible y resiliente. Actualmente, buscamos un/a ingeniero/a de proyectos que se una al área de proyectos de Itrend.

Apply from getonbrd.com.

Funciones del cargo

  • Indagar y levantar información para el desarrollo adecuado de los proyectos. Esto incluye revisar la normativa vigente relacionada a la Gestión del riesgo de desastres.
  • Implementar modelos y realizar análisis, asegurando la calidad de los datos y de los resultados en consistencia con los objetivos establecidos en conjunto con las contrapartes.
  • Diseñar y/o seleccionar metodologías para la modelación y análisis de amenazas naturales y antrópicas.
  • Investigar e integrar nuevas tecnologías y enfoques en la modelación de riesgos para mejorar la precisión y utilidad de los modelos.
  • Comunicar los resultados de los análisis de riesgo a distintos públicos, incluyendo autoridades, comunidades y equipos técnicos, reconociendo supuestos y limitaciones de los modelos desarrollados.
  • Elaborar informes técnicos detallados y documentación de avances y resultados de los proyectos en los que participe.

Requerimientos del cargo

  • Título universitario en ingeniería civil o civil industrial y disciplinas afines a las funciones y desafíos del cargo.
  • Entre 2 a 5 años de experiencia laboral comprobable de preferencia en consultoras, centros de
    investigación, centros de estudios o áreas de I+D en empresas de ingeniería civil.
  • Conocimiento básico de programación científica (deseable Python).
  • Capacidad para comunicar análisis complejos de manera clara y efectiva, tanto a públicos
    técnicos como no técnicos.
  • Conocimiento intermedio del idioma inglés, oral y escrito.
  • Disponibilidad para el trabajo de forma presencial en las oficinas de Itrend, al menos cuatro días
    a la semana.

¿Qué habilidades adicionales serían beneficiosas?

  • Experiencia desarrollando proyectos relacionados a la gestión del riesgo de desastres y/o modelamiento de sistemas, o temáticas afines.
  • Conocimiento y manejo de Sistemas de Información Geográficos (SIG), además de experiencia
    en geoprocesos y manejo de información espacial (ráster y vector). Deseable manejo en QGIS o ArcGIS.
  • Experiencia en desarrollo de investigación científica o de consultorías.

Beneficios de trabajar con nosotros

Ofrecemos un ambiente de trabajo orientado a la colaboración y el crecimiento, con beneficios que incluyen:

  • Modalidad de trabajo híbrido y flexible, permitiendo un día de teletrabajo a la semana.
  • 5 Días de vacaciones adicionales a las legales y vacaciones proporcionales antes de cumplir un año de antigüedad.
  • 5 Días administrativos al año para facilitar trámites personales.
  • Día libre por cumpleaños y días adicionales de postnatal para el padre.
  • Oportunidades de desarrollo profesional y personal, enfocadas en el bienestar de nuestra comunidad.

Itrend es una organización sin fines de lucro enfocada en mejorar la resiliencia de Chile ante
desastres socionaturales. Te ofrecemos la oportunidad de que tu trabajo tenga un impacto real
en el bienestar y seguridad de tu comunidad y todo el país.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance Itrend Chile pays or copays life insurance for employees.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Computer provided Itrend Chile provides a computer for your work.
Vacation over legal Itrend Chile gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
Gross salary $1,000 Full time
Technical Marketing Writer (Part Time)
  • TECLA
Git Copywriting Content creation Usability

TECLA is a fully remote software development company with a diverse and highly skilled team of 100+ experts across Latin America. We specialize in AI, cloud, automation, and DevOps, building innovative solutions for high-growth startups and established mid-market technology companies in the U.S.

Our work culture is agile, collaborative, and fast-paced—we take our work seriously while keeping the environment fun and engaging. As a remote-first company, we emphasize strong teamwork and close collaboration, working seamlessly with our U.S. partners as one integrated unit. Whether optimizing cloud environments, developing AI-driven applications, or enhancing DevOps automation, TECLA is at the forefront of technical innovation, solving complex challenges with cutting-edge technology.

Find this vacancy on Get on Board.

Job Details:

We are seeking a Technical Marketing Writer (Part-Time) to play a critical role in shaping how our products and solutions are understood and adopted. The Technical Marketing Writer will be responsible for creating compelling, accurate, and accessible B2B communication and content that spans both documentation and marketing materials. This includes owning and improving our public-facing online documentation, and ensuring it is best-in-class. The writer will also develop technical content to support our sales and marketing efforts. This role offers the opportunity to directly impact customer experience and drive business growth by ensuring our technical information is clear, concise, and the best in the market.

Responsibilities:

  • Own and improve public-facing documentation, including developer guides, API references, and implementation walkthroughs.
  • Support sales efforts by drafting and refining technical responses for RFPs, RFIs, and partner materials.
  • Benchmark and exceed competitor documentation quality in usability and clarity.
  • Collaborate cross-functionally with engineering, product, sales, and marketing teams to ensure content accuracy and alignment.
  • Write clear, concise technical marketing content, including case studies, one-pagers, and solution briefs.
  • Develop and maintain a content strategy for all B2B technical communication.
  • Create technical marketing materials, ensuring accuracy and effectiveness.
  • Own the process of improving the online documentation, making it a valuable resource.
  • Analyze competitor documentation to identify areas for improvement and implement best practices.

Requirements:

  • 3+ years of experience in technical writing, developer marketing, or B2B content creation.
  • Experience writing for both technical and business audiences.
  • Strong understanding of API documentation tools and developer experience best practices.
  • Proven ability to support sales teams with accurate and persuasive content.
  • A portfolio that includes both documentation and marketing-oriented writing samples.

Preferred Qualifications:

  • Background in gaming, developer platforms, or SaaS.
  • Familiarity with Markdown, static site generators, and Git-based content workflows.

Work Schedule:

Must have reliable overlap from 9am–2pm Pacific Time, Monday through Thursday.

What We Offer:

  • The opportunity to work on a cutting-edge platform in the exciting gaming industry.
  • A fully remote position with a structured schedule that supports work-life balance.

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
Gross salary $1500 - 2000 Full time
CRM Specialist
  • Búho
  • Santiago (Hybrid)
Python Data Analysis Excel SQL

En Búho (www.buhochile.com) somos la primera plataforma de medicamentos smart de Chile, que optimiza la compra y despacho de tus productos de farmacia. Nuestro foco está en mejorar el bienestar de las personas a través de soluciones tecnológicas innovadoras dentro del ecosistema de la salud.

Comparamos precios en múltiples farmacias, compramos cada producto en la farmacia más conveniente, y te entregamos todo al mejor precio en un solo pedido a la puerta de tu casa. Nuestro modelo de optimización y de compra inteligente es lo que hace de Búho la plataforma líder de ahorros en el mercado farmacéutico

Fuimos seleccionadas tres veces para ser parte de Start Up Chile, participamos en EmpreLatam y MassChallenge, somos ganadores de la 2da temporada de Cita de Negocios en Canal 13 y de la 8va edición de Desafío Emprendedor del Banco de Chile.

¡Súmate al equipo que está transformando la forma de comprar medicamentos en Chile!

This offer is exclusive to getonbrd.com.

Funciones del cargo

Como CRM Specialist, serás responsable de diseñar y ejecutar estrategias que fortalezcan la relación con nuestros usuarios, mejorando su experiencia, retención y fidelización a través de automatizaciones, campañas y análisis de datos.

  • Elaborar, implementar y optimizar campañas automatizadas que impacten directamente en las principales métricas del negocio (activación, retención y valor de vida del cliente - LTV), contribuyendo al crecimiento sostenido de la plataforma.
  • Diseñar campañas automatizadas multicanal (email, SMS, push, etc.).
  • Medir, analizar y dar seguimiento a KPIs clave (engagement, tasa de apertura, conversión, churn y LTV), generando insights accionables que permitan optimizar continuamente las estrategias de CRM y maximizar los resultados del negocio.
  • Proponer mejoras en flujos de comunicación y en la utilización del CRM como herramienta estratégica.
  • Segmentar la base de usuarios y personalizar contenidos según comportamiento y etapa del journey
  • Identificar e impactar segmentos de usuarios actualmente desatendidos, pero con alto potencial de crecimiento, mediante estrategias personalizadas que impulsen su activación y fidelización.
  • Colaborar con equipos de marketing, producto y tecnología para asegurar experiencias coherentes, y medir A/B testings.

Requerimientos del cargo

En Búho valoramos a las personas por sobre todo y creamos un ambiente donde tengas autonomía, un propósito claro y que te sientas valorado por tu trabajo.

  • +2 años de experiencia (demostrable) en roles de CRM, gestión de plataformas, marketing automation y/o lifecycle marketing.
  • Ingeniero Comercial, Civil, o carrera a fin.
  • Ser un/a líder con excelentes habilidades blandas para el trabajo en equipo, comunicación efectiva y planificación grupal para maximizar resultados.
  • Conocimiento avanzado de uso de CRM y excel (funciones avanzadas, tablas dinámicas, análisis de datos).

Opcionales

Conocimiento en SQL o Python es un plus, para optimizar análisis de datos y automatización

Condiciones

En Búho valoramos a las personas por sobre todo y creamos un ambiente donde tengas autonomía, un propósito claro y que te sientas valorado por tu trabajo.

  • Ser parte de una startup innovadora que está transformando la salud en Chile, y con un propósito ligado al bienestar de todos.
  • Cultura dinámica, colaborativa y horizontal.
  • Trabajar con equipo orientado en nuestros valores, diversidad, comunicación y energía.

Beneficios que te cuidan:

  • Modelo híbrido (3x2)
  • Seguro complementario
  • 1 semana adicional de vacaciones al año
  • Día de cumpleaños libre en el mes de cumpleaños
  • Bono por vacaciones
  • Espacio personal de trabajo más instalaciones comunes

APPLY VIA WEB
$$$ Full time
Marketing Coordinator
  • Commerce Theory
UI Design Marketing Web design QA

We're ecommerce experts that help brands scale their Shopify stores. We use cutting edge tools to maximize efficiency and our small team works across Meta Ads, Klaviyo, and Shopify to help eCommerce brands grow with efficient, conversion-driven marketing. We run lean, async, and fast — using Notion, Loom, and Slack to stay in sync without meetings eating our day.

We’re at a point where client work is scaling, and executional details are starting to slow us down — content needs uploading, assets need organizing, and timelines need to be kept on track. That’s why we’re hiring a Marketing Coordinator — to be the link between strategy and execution, keeping everything moving smoothly without bottlenecks.

This is a great opportunity if you love being in the details, know your way around modern marketing tools, and want to be a key part of a team where your work directly impacts client growth.

Apply exclusively at getonbrd.com.

What You’ll Do

This is an execution-focused role with light coordination — you’ll be the person who keeps deliverables moving and ensures nothing falls through the cracks. You’ll handle day-to-day tasks across Klaviyo, Shopify, Figma, and Meta Ads Manager, and also help manage timelines and task flow as we scale execution through freelance specialists.

You’ll:

  • Upload emails and flows in Klaviyo using provided assets
  • Export and organize creative assets from Figma for ad campaigns
  • Whitelist creators and upload UGC into Meta Ads Manager
  • Format and publish blog posts in Shopify
  • Perform QA on links, UTMs, subject lines, image quality, etc.
  • Track deliverables in Notion and flag anything that’s blocked or behind
  • Communicate with the founder and any freelance specialists to keep things on track
  • Keep Google Drive organized and assets named correctly
  • Follow SOPs and suggest improvements when things feel messy or repetitive

This role is perfect if you’re detail-oriented, process-minded, and comfortable jumping between tools to make sure work gets done cleanly and on time. You won’t be strategizing, but you’ll have a big impact on how smoothly work flows across the team.

Who You Are

We are seeking someone who is comfortable navigating digital tools such as Klaviyo, Meta Ads, Shopify, and Figma, even if you haven't mastered them yet. You're highly organized, ensuring that nothing slips through the cracks. As a strong written communicator, you thrive in an asynchronous work environment. Candidates should be based in the Americas, with a preference for LATAM, and must be fluent in English. While no fixed schedule is required, responsiveness during working hours (Monday to Friday) is essential.

Desirable Skills

While it’s not necessary to be an expert in all tools mentioned, familiarity will help you transition smoothly into our processes. Candidates with prior experience in digital marketing or project coordination, as well as those who demonstrate strong problem-solving skills and the ability to work independently, are encouraged to apply.

What We Offer

We provide a flexible work environment that prioritizes asynchronous communication, ideal for work-life balance. This is a part-time, hourly role starting with 5 to 10 hours per week, compensated at $18 - $25 USD per hour, depending on experience. Join a small, efficient team that promotes collaboration without unnecessary red tape, with the potential for increased hours and responsibilities as you prove your capabilities.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
APPLY VIA WEB
Gross salary $2000 - 2500 Full time
UI Engineer
  • coderslab.io
JavaScript Ruby HTML5 CSS

At CodersLab, we are currently focused on expanding our teams globally with the goal of positioning our products in more countries across Latin America. That’s why we are looking for a UI Engineer—a motivated individual who is goal-oriented and driven to achieve results.

You will join a dynamic and ambitious team eager to transform the market, where your ideas and proposals will be highly valuable to the business.

Apply now and take on this amazing challenge!

Exclusive to Get on Board.

Job functions

POSITION OVERVIEW
This role is remote. Chairish Inc. is looking for a UI engineer to work on the team developing
our core commerce platform.
As a member of the core platform engineering team you will participate in all stages of the product
development lifecycle from business analysis, requirements development, and, of course, product
development. As a key driver of the product process, this role presents the opportunity to have a
direct and meaningful impact on the business while working to advance the innovation that drives
the home decor industry online at an ever fast pace.

Responsibilities
● Focus on the development and architecture of Chairish's web UI for both mobile and desktop
devices
● Develop and review technical designs and document them
● Participate in code reviews
● Automated unit test creation and manual testing of your code
● Work closely with product management, logistics, and production staff to manage product
scope and requirements
● Continue to be responsible for your code once it's in production

Qualifications and requirements

● At least 3 years of prior software development experience
● Bachelor's degree in Computer Science or a related field (or equivalent experience)
● You love HTML
● You have a deep understanding of CSS
● Strong Javascript skills
● Excellent verbal and written communication
● Natural problem-solver and troubleshooter
● One or more server side scripting languages (e.g. Python, Ruby, PHP, Javascript). We work
primarily in Python but it's easy enough to learn if you've got related experience.
● Comfortable working in a GNU Linux/Unix environment
● Familiarity with one or more relational databases (e.g. MySQL, Postgres, etc...) and solid
knowledge of SQL

Desirable skills

Bonus but not required
● Experience with LESSCSS
● Experience with jQuery, RequireJS, Webpack, Vue, or React
● Experience optimizing front-end performance

Conditions

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
$$$ Full time
Práctica Customer Success
  • The Optimal
  • Santiago (Hybrid)
Python Data Analysis Excel SQL

The Optimal es una empresa líder en servicios tecnológicos e innovadores orientados al apoyo en la toma de decisiones en Logística de carga y pasajeros en Chile, Colombia, Ecuador y Perú (pronto mucho más🚀).

Parte importante de nuestros proyectos apuntan a reducir costos de transporte, mejorar la visibilidad de la cadena de abastecimiento y ofrecer soluciones tecnológicas para la optimización de rutas, automatización de procesos y análisis de datos para nuestros clientes.

Apply to this job directly at getonbrd.com.

Funciones del cargo

● Comprender e internalizar el modelo de negocio, operación logística y desafíos de nuestros clientes.

● Construir KPIs y dashboards en Tableau que permitan analizar y monitorear la

operación de los clientes.

● Ser usuario experto en los productos y servicios que oferta The Optimal.

● Apoyar en el correcto funcionamiento y continuidad de los servicios que entregamos.

Requerimientos del cargo

● Que estés estudiando Ingeniería Civil Industrial, Transporte, TI o afines.

● Que sepas hacer consultas en SQL y tengas interés por analizar grandes volúmenes

de datos para identificar problemas y oportunidades.

● Manejo avanzado de herramientas ofimáticas (Power point, Excel).

● Que tengas buenas habilidades de comunicación y te sientas cómodo/a

relacionándote con personas de distintas empresas y contextos.

● Que seas atento/a a los detalles, proactivo, planificado y muy organizado.

Opcionales

● Tienes conocimientos en la industria del ruteo de vehículos y/o logística en centros

de distribución.

● Has usado software de BI como Tableau o Power BI.

● Te sientes cómodo con algún lenguaje de programación como Python.

Condiciones

Jornada Mixta: Cowork 🏢 & Home Office 🏠

Horario laboral: Lunes a viernes 08:30 a 18:30⏱️

Proyectos retadores y uso de tecnologías a la vanguardia 🤓

Asignación por concepto de movilización y colación🪙

APPLY VIA WEB
$$$ Full time
Offensive Security Engineer
  • Buk
  • Santiago (Hybrid)
Python Linux Ethical Hacking Cloud Architecture

Hace 7 años comenzamos con un equipo de menos de 10 personas y hoy ya somos más de 1200 bukers trabajando día a día para tener el Software de Gestión de Personas más completo del mercado. Esto, gracias a que hemos mantenido nuestro espíritu innovador y nuestra pasión por la tecnología y la excelencia. Además, nos encontramos presentes en Chile, Colombia, Perú, México… ¡y próximamente Brasil!

Te compartimos un video para que puedas ver cómo vivimos el día a día en Buk:
https://www.buk.cl/quienes-somos

En Buk, estamos buscando una persona para el cargo Offensive Secutiry Engineer, que sea apasionada@ por lo que hace, con growth mindset, que piense “fuera de la caja” y quiera ir más allá. Alguien que no le tema a los desafíos, que trabaje de manera ágil, superando los obstáculos y aprendiendo de los errores. Buscamos una persona que valore nuestra cultura de excelencia, donde la exigencia y el trabajo colaborativo se unen para impactar en todos los clientes.

Applications at getonbrd.com.

¿Qué te espera?

En Buk, la seguridad de nuestros clientes es nuestra principal prioridad. Por eso, buscamos un Offensive Security Engineer con una mentalidad proactiva para fortalecer nuestra gestión de vulnerabilidades y monitoreo de seguridad.
En este rol, serás responsable de realizar pruebas de penetración y análisis de seguridad ofensiva, emulando las tácticas de atacantes reales para identificar y explotar posibles debilidades en nuestros sistemas y aplicaciones. Trabajarás estrechamente con los equipos de desarrollo y operaciones para proporcionar información crítica que permita mitigar riesgos, mejorar nuestras defensas y garantizar la protección de los datos de nuestros clientes.

- Liderar la ejecución de pruebas de penetración.
- Analizar vulnerabilidades y proponer soluciones.
- Monitorear activamente el panorama de amenazas.
- Impulsar la cultura de seguridad en Buk.
- Contribuir a la mejora continua.
- Evaluar y fortalecer la seguridad del ecosistema Buk.
- Gestionar el riesgo de ciberseguridad.
- Elaborar informes y métricas.

¿Qué buscamos?

- Licenciatura en Ingeniería, Ciencias de la Computación, Seguridad de la Información o algún campo relacionado.
- 2 años de experiencia en seguridad ofensiva, incluyendo pruebas de penetración, análisis de vulnerabilidades y hacking ético.
- Experiencia en la realización de pruebas de penetración en aplicaciones web, móviles y de infraestructura.
- Familiaridad con metodologías de pruebas de penetración (ej. OWASP, PTES, NIST SP 800-115).
- Sólidos conocimientos en sistemas operativos (Windows, Linux, macOS).
- Dominio de herramientas y técnicas de hacking ético (ej. Metasploit, Burp Suite, Nmap).
- Comprensión de protocolos de red y seguridad (TCP/IP, HTTP, SSL/TLS).
- Familiaridad con lenguajes de scripting (Python, Bash, PowerShell).
- Conocimiento de tecnologías cloud (AWS) y arquitecturas cloud.

¿Qué ofrecemos?

- Cultura de Innovación: Libertad para proponer nuevas ideas y estrategias que impacten directamente en nuestra misión.
- Desarrollo profesional: Trabajarás junto a un equipo de talento excepcional que te permitirá potenciar tus habilidades y crecer profesionalmente. Además, contarás con una plan de carrera para que puedas alcanzar tu potencial y crecer dentro de Buk.
- Potenciamos tu aprendizaje: ¡Te ofrecemos más de 400 cursos a través de nuestra plataforma Bukplay para que puedas aprender y capacitarte en lo que tú quieras!
- Programa 'Buk Culture Internship' y 'Exchange': Postula y participa de intercambios culturales en los países donde operamos.
- Flexibilidad con Responsabilidad: Tendrás la flexibilidad de trabajar desde donde te sientas más cómodo, siempre con la responsabilidad de alcanzar los objetivos.
- Beneficios Revolucionarios: Desde vacaciones ilimitadas, stock options y 5 semanas de post natal parental, y un plan de beneficios con puntos personalizado

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Buk pays or copays health insurance for employees.
Computer provided Buk provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Buk gives you paid vacations over the legal minimum.
Beverages and snacks Buk offers beverages and snacks for free consumption.
APPLY VIA WEB
Gross salary $2200 - 2600 Full time
Ingeniero DevSecOps
  • 3IT
  • Santiago (Hybrid)
Python Git Linux Docker

Somos 3IT: Innovación y talento que marcan la diferencia ✨

Para nosotros, la innovación es un proceso colaborativo y el crecimiento una meta compartida, dondecada especialista aporta desde su experiencia y talento para que nuestros clientes avancen con confianza, propósito y tecnología que haga sentido.

Si estás buscando un lugar donde puedas seguir aprendiendo, trabajar en equipo y aportar con lo que sabes, esta puede ser tu próxima oportunidad.

En 3IT valoramos la diversidad, promovemos espacios de trabajo inclusivos. Por eso nos sumamos activamente al cumplimiento de la Ley 21.015, asegurando procesos accesibles, equitativos y con igualdad de oportunidades.

Originally published on getonbrd.com.

Tu desafío profesional

  • Garantizar que el desarrollo de software se realice de manera segura, eficiente y continua, integrando principios de seguridad desde las primeras etapas del ciclo de vida hasta la implementación y el mantenimiento de las aplicaciones. Esto se logra mediante la automatización de controles y pruebas, alineando las prácticas de desarrollo ágil, operaciones de TI y seguridad de la información. Además, fomenta la colaboración entre equipos para asegurar una respuesta rápida a vulnerabilidades sin comprometer la velocidad ni la calidad del software.

Lo que necesitas para postular

  • Tener 2 años como DevSecOps
  • Experiencia demostrable con AWS
  • Uso de contenedores Docker y Kubernetes
  • Infraestructura como código IaC con Terraform
  • Gestión de versiones con Git, Bitbucket, GitHub o GitLab
  • Conocimiento de observabilidad con Prometheus, Grafana o Datadog
  • Experiencia en infraestructura Linux y Windows, bases de datos y scripting en Bash, Python y/o PowerShell
  • Disponibilidad para trabajar bajo modalidad híbrida (3 veces a la semana) en nuestra oficina ubicada en Providencia.

Plus para este rol

  • Poseer certificación DevSecOps, SysOps Administrator, Developer Associate o DevOps Engineer Professional
  • Uso de herramientas de análisis de vulnerabilidades como SonarQube, OWASP ZAP, Burp Suite
  • Conocimientos de estándares y regulaciones de seguridad como ISO 27001 y NIST

Nuestra propuesta para ti

💰 Bono anual
🦷 Seguro dental
📚 Capacitaciones
📅 Días administrativos
🍽️ Tarjeta Sodexo + $80.000
👕 Código de vestimenta informal
🚀 Programas de upskilling y reskilling
🏥 Seguro complementario de salud MetLife
💊 Descuentos en farmacias y centros de salud
🐾 Descuento en seguros y tiendas de mascotas
🎄 Aguinaldo en Fiestas Patrias y Navidad
👶 Días adicionales al postnatal masculino
🎂 Medio día libre por tu cumpleaños
🏦 Caja de Compensación Los Andes
🌍 Descuento Mundo ACHS
🎁 Regalo por nacimiento
🛍️ Descuentos Buk

Wellness program 3IT offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Digital library Access to digital books or subscriptions.
Health coverage 3IT pays or copays health insurance for employees.
Dental insurance 3IT pays or copays dental insurance for employees.
Computer provided 3IT provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Beverages and snacks 3IT offers beverages and snacks for free consumption.
Parental leave over legal 3IT offers paid parental leave over the legal minimum.
APPLY VIA WEB
$$$ Full time
Cybersecurity Engineer Senior
  • 2BRAINS
  • Santiago (Hybrid)
Python Continuous Integration Azure Jenkins
2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.
Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.
En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

Send CV through getonbrd.com.

¿Qué harás como Cybersecurity Engineer de 2Brains?

  • Liderarás proyectos clave en ciberseguridad, fortaleciendo la protección de nuestra infraestructura tecnológica.
  • Serás responsable de la administración de soluciones XDR y otras herramientas de seguridad informática.
  • Configurarás, crearás y gestionarás reglas de seguridad para prevenir y mitigar amenazas.
  • Darás seguimiento a incidentes de ciberseguridad, participando activamente en la respuesta y análisis forense cuando sea necesario.
  • Implementarás y mantendrás sistemas de detección y prevención de intrusiones (IPS/IDS), así como otras tecnologías de defensa.
  • Velarás por el cumplimiento y correcta aplicación de nuestras políticas de seguridad para proteger los activos críticos del negocio.
  • Participarás en auditorías y revisiones de seguridad, alineándote con marcos como NIST, ISO 27001 y CIS Controls.
  • Colaborarás con equipos internos para comunicar riesgos, proponer mejoras y fomentar una cultura de seguridad en toda la organización.

¿Qué buscamos en ti para el rol de Cybersecurity Engineer de 2Brains?

  • Formación en Ingeniería en Informática, Telecomunicaciones, Seguridad de la Información o carreras afines.
  • Contar con certificaciones como CISSP, CISM, CEH, OSCP o ISO 27001 Lead Implementer será un gran plus.
  • Experiencia de al menos 3 años en roles relacionados con DevOps, ciberseguridad, gestión de incidentes y protección de infraestructuras críticas.
  • Conocimientos en seguridad en la nube (AWS, GCP o Azure).
  • Experiencia implementando pipelines de integración y entrega continua (CI/CD) con herramientas como Jenkins, GitHub Actions, GitLab CI/CD o Azure DevOps.
  • Manejo de herramientas como firewalls, VPNs, SIEM, IDS/IPS y soluciones de seguridad cloud.
  • Habilidad en scripting con Python, Bash o PowerShell.
  • Experiencia con lenguajes de infraestructura como código (Terraform o CloudFormation).
  • Conocimiento y aplicación de marcos de seguridad como NIST, MITRE ATT&CK, OWASP, entre otros.
  • Familiaridad con herramientas como Trivy, Falco, Sysdig, AWS Security Hub, Google SCC o similares.
  • Inglés intermedio (deseable).

¿Qué competencias buscamos para el rol de Cybersecurity Engineer?

  • Pensamiento crítico y resolución de problemas.
  • Capacidad para manejar crisis.
  • Habilidades de comunicación efectiva y colaboración con equipos multidisciplinarios.
  • Proactividad.
  • Capacidad de aprendizaje continuo.

Condiciones

  • Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos.
  • Un proyecto con foco en los usuarios, visión de UX e integrada al desarrollo.
  • Acceso a grandes clientes y proyectos desafiantes.
  • Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales.
  • Un entorno de trabajo flexible y dinámico.
  • Beneficios especiales: un día libre de regalo por tu cumpleaños, días de descanso (previa coordinación), convenios para cursos de especialización.

Outdoors The premises have outdoor spaces such as parks or terraces.
Wellness program 2BRAINS offers or subsidies mental and/or physical health activities.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks 2BRAINS offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Health coverage 2BRAINS pays or copays health insurance for employees.
Dental insurance 2BRAINS pays or copays dental insurance for employees.
Computer provided 2BRAINS provides a computer for your work.
Education stipend 2BRAINS covers some educational expenses related to the position.
Informal dress code No dress code is enforced.
Shopping discounts 2BRAINS provides some discounts or deals in certain stores.
Vacation over legal 2BRAINS gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Ingeniero en Ciberseguridad
  • 2BRAINS
Python Linux DevOps Continuous Integration
2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

El Ingeniero en Ciberseguridad será responsable de diseñar, implementar y mantener medidas de seguridad para proteger la infraestructura digital, datos y sistemas. Su objetivo es garantizar la seguridad, confidencialidad, integridad y disponibilidad de la información ante amenazas cibernéticas, alineándose con regulaciones internacionales y mejores prácticas del sector aeronáutico.

This job is exclusive to getonbrd.com.

El/la Ingeniero en Ciberseguridad de 2Brains deberá

  • Desarrollar e implementar controles de seguridad para prevenir ataques cibernéticos.
  • Monitorear continuamente las amenazas y vulnerabilidades en la infraestructura.
  • Garantizar el cumplimiento de normativas como ISO 27001, PCI-DSS, NIST.
  • Detectar, analizar y mitigar incidentes de seguridad en tiempo real.
  • Coordinar la respuesta ante ciberataques y realizar análisis forenses cuando sea necesario.
  • Implementar mejoras en los planes de Continuidad Operativa (BCP) y Recuperación ante Desastres (DRP).
  • Gestionar soluciones de firewalls, IDS/IPS, antivirus, DLP, SIEM y sistemas de autenticación multifactor (MFA).
  • Evaluar la seguridad de nuevas aplicaciones y servicios en la nube (AWS, Azure, GCP).
  • Aplicar pruebas de pentesting y análisis de vulnerabilidades en sistemas críticos.
  • Capacitar a empleados y equipos internos en buenas prácticas de ciberseguridad.
  • Investigar y aplicar nuevas tecnologías de seguridad para la mejora de procesos.
  • Implementar prácticas de Security as Code en pipelines CI/CD.
  • Configurar herramientas de escaneo de código estático (SAST) y dinámico (DAST) como SonarQube, Checkmarx, Snyk o OWASP ZAP.
  • Definir políticas de seguridad en contenedores y orquestadores como Kubernetes.
  • Desarrollar scripts y pipelines de automatización para auditorías de seguridad.
  • Integrar herramientas de seguridad en infraestructura como código (IaC) con Terraform, Ansible o CloudFormation.
  • Implementar controles de acceso en la nube utilizando políticas IAM y gestión de secretos (HashiCorp Vault, AWS Secrets Manager, Google Secret Manager).

¿Qué conocimientos buscamos en el/la Ingeniero en Ciberseguridad?

  • Ingeniero en Informática, Telecomunicaciones, Seguridad de la Información o carreras afines.
  • Certificaciones deseables: CISSP, CISM, CEH, OSCP, ISO 27001 Lead Implementer.
  • +3 años en Devops, seguridad informática, gestión de incidentes y protección de infraestructuras críticas.
  • Experiencia en seguridad en la nube (AWS, GCP, Azure).
  • Implementación de CI/CD con Jenkins, GitHub Actions, GitLab CI/CD o Azure DevOps.
  • Administración de firewalls, VPNs, SIEM, IDS/IPS y seguridad en la nube.
  • Lenguajes de scripting: Python, Bash, PowerShell.
  • Lenguajes de IaC: Terraform o CloudFormation.
  • Implementación de frameworks de seguridad (NIST, MITRE ATT&CK, OWASP).
  • Herramientas de seguridad: Trivy, Falco, Sysdig, AWS Security Hub, Google SCC o afines.
  • Español: Nativo
  • Inglés: Intermedio-Avanzado (deseable para reportes internacionales).

¿Qué competencias buscamos en el/la Ingeniero en Ciberseguridad?

  • Pensamiento analítico y resolución de problemas.
  • Capacidad para manejar crisis.
  • Habilidades de comunicación y colaboración con equipos multidisciplinarios.
  • Proactividad y actualización constante en ciberseguridad.

Te ofrecemos

  • Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos.
  • Un proyecto con foco en los usuarios, visión de UX e integrada al desarrollo.
  • Acceso a grandes clientes y proyectos desafiantes.
  • Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales.
  • Un entorno de trabajo flexible y dinámico.
  • Beneficios especiales: un día libre de regalo por tu cumpleaños, días de descanso (previa coordinación), convenios para cursos de especialización.

APPLY VIA WEB
Gross salary $3000 - 3200 Full time
Full-Stack AI &Amp; Python Bilingüe
  • Genesys Tecnologías de Inform. SpA
Genesys Tecnologías de Inform. SpA es una compañía con más de 30 años en el mercado latinoamericano, especializada en desarrollo de software y servicios tecnológicos avanzados. Con sede principal en Concepción y operaciones importantes en Santiago, trabajamos en la transformación digital de empresas a través de soluciones innovadoras como RPA, Inteligencia Artificial, QA Automation, Cloud y Staff Augmentation.
El proyecto actual está orientado al desarrollo y mantenimiento de sistemas inteligentes integrados con modelos de lenguaje (LLMs), apoyando la evolución tecnológica de nuestros clientes en Latinoamérica mediante aplicaciones de IA prácticas y efectivas.

© getonbrd.com.

Funciones del Cargo

Buscamos un ingeniero de Inteligencia Artificial con habilidades en Python, LangChain y LangGraph para formar parte de nuestro equipo especializado en construir soluciones inteligentes. Esta posición se enfoca en desarrollar y orquestar pipelines de procesamiento de lenguaje natural, diseñar agentes conversacionales complejos y sistemas inteligentes que respondan a necesidades reales.
  • Diseñar, desarrollar y mantener pipelines de procesamiento de lenguaje con LangChain y LangGraph.
  • Implementar chatbots inteligentes, asistentes autónomos, clasificadores y sistemas de búsqueda con técnicas de Recuperación Basada en Generación (RAG).
  • Orquestar flujos de decisiones con manejo de memoria contextual, persistencia de estado y control de errores usando LangGraph.
  • Integrar múltiples APIs externas, bases de datos y modelos locales para potenciar las capacidades de los sistemas.
  • Colaborar estrechamente con equipos de producto y diseño para convertir requisitos en soluciones AI efectivas y productivas.

Descripción y Requisitos del Cargo

El candidato ideal debe contar con conocimientos avanzados en Python y experiencia práctica con herramientas modernas de la pila LLM, especialmente LangChain y LangGraph, para la construcción de agentes y workflows complejos de IA. Es fundamental poseer un alto nivel de inglés, ya que es un requisito excluyente para desempeñar esta función.
  • Experiencia en desarrollo de software con Python, incluyendo desarrollo modular, manejo asincrónico, integración con APIs y procesamiento de texto (NLP).
  • Experiencia trabajando con modelos de lenguaje y tecnologías LLM.
  • Experiencia demostrable en proyectos utilizando LangChain para crear agentes, cadenas personalizadas, herramientas externas, pipelines RAG e integración con bases vectoriales.
  • Conocimiento en LangGraph para diseñar y administrar workflows de IA complejos con control de estados, branching y lógica conversacional.
  • Capacidad para implementar soluciones usando LLMs de OpenAI y otros proveedores, aplicando técnicas de prompt engineering, fine-tuning ligero y personalización de modelos Open Source.
  • Deseable experiencia en sistemas de recuperación semántica basados en embeddings para mejorar la precisión y relevancia de las respuestas.
  • Conocimientos básicos o intermedios en APIs REST y GraphQL, así como en contenedores Docker y despliegue de microservicios, son altamente valorados.
Además de las habilidades técnicas, buscamos personas con capacidad para trabajar en equipo, comunicarse efectivamente, adaptarse a tecnologías emergentes y contribuir al desarrollo de soluciones innovadoras en un entorno dinámico y colaborativo.

Habilidades y Experiencias Deseables

Se valorará positivamente la experiencia adicional en la implementación de soluciones de recuperación semántica basadas en embeddings, desarrollo y despliegue con Docker y microservicios, así como un conocimiento intermedio en APIs REST y GraphQL para mejorar la integración y escalabilidad de las aplicaciones.
También es deseable la familiaridad con técnicas avanzadas en prompt engineering, fine-tuning avanzado de modelos de lenguaje, y la capacidad para diseñar flujos conversacionales complejos que impliquen lógica de negocio y control de estado persistente.

Beneficios y Condiciones

Ofrecemos un contrato por proyecto que garantiza estabilidad y condiciones claras para nuestros colaboradores en un ambiente laboral dinámico, colaborativo y enfocado en el desarrollo profesional constante.

Formarás parte de una empresa consolidada en Latinoamérica con más de tres décadas de experiencia, que valora el talento y fomenta la innovación.

Contamos con un equipo multidisciplinario y una comunicación diaria con nuestra matriz en Santiago y otras operaciones, lo que facilita la colaboración continua y el apoyo técnico.

¡Esperamos que te unas a nuestro equipo para crecer juntos! 😊

Health coverage Genesys Tecnologías de Inform. SpA pays or copays health insurance for employees.
Computer provided Genesys Tecnologías de Inform. SpA provides a computer for your work.
Shopping discounts Genesys Tecnologías de Inform. SpA provides some discounts or deals in certain stores.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Machine Learning Engineer
  • Haystack News
  • Lima (Hybrid)
Python SQL NoSQL Big Data

Haystack News is the leader in transitioning younger audiences to a next-generation TV news product. We empower users to watch the news they care about with a personalized headline news channel. Our personalization and big data technology enable a seamless lean-back experience reaching millions of users. In 2020, we streamed billions of minutes of news to users around the globe.

We're available on a variety of TV platforms (Roku, Fire TV, Android TV, Apple TV, Chromecast, Vizio) as well as mobile, tablet, and desktop.

© getonbrd.com. All rights reserved.

Job functions

We are looking for an outstanding machine learning engineer to join Haystack and help improve the experience of millions of users that rely on Haystack to get the news every day.

Within the team you’ll find many opportunities to work on various aspects of Machine Learning and Data Engineering. The job offers the opportunity of generating a major impact on the product while working with an awesome and talented team, using the latest technologies.

You will:

  • Analyze large data sets to get insights using statistical analysis tools and techniques
  • Build, evaluate and deploy machine learning models
  • Maintain ongoing reliability, performance, and support of the data infrastructure, providing solutions based on application needs and anticipated growth.
  • Work with tools to configure, monitor and orchestrate data infrastructure and pipelines.
  • Run and monitor AB Tests
  • Build and manage APIs

Qualifications and requirements

  • Bachelor's degree in Computer Science, Statistics, Math or related field.
  • 3+ years experience writing software in a professional setting
  • Knowledge of AWS and Python
  • Strong Math/Stats background with statistical analysis experience on big data sets
  • Experience with SQL and NoSQL (e.g. MongoDb or DynamoDB)
  • Big Plus: Experience with data warehouses (e.g. Snowflake, Big Query, Redshift)
  • Exposure to ML/AI libraries such as sklearn, LightGBM and, XGBoost.
  • Travel Visa to the US (desired)

Conditions

Uber rides to come to the office!
Travel to team's offsite events
Learn about multiple technologies

Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Meals provided Haystack News provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Company retreats Team-building activities outside the premises.
Computer repairs Haystack News covers some computer repair expenses.
Commuting stipend Haystack News offers a stipend to cover some commuting costs.
Computer provided Haystack News provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Conference stipend Haystack News covers tickets and/or some expenses for conferences related to the position.
Informal dress code No dress code is enforced.
Vacation over legal Haystack News gives you paid vacations over the legal minimum.
Beverages and snacks Haystack News offers beverages and snacks for free consumption.
APPLY VIA WEB
$$$ Full time
Machine Learning Engineer
  • NeuralWorks
  • Santiago (Hybrid)
Python Data Analysis SQL Big Data

NeuralWorks es una compañía de alto crecimiento fundada hace 3 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

© Get on Board. All rights reserved.

Descripción del trabajo

El equipo de Data y Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.

Trabajarás transformando los procesos a MLOps y creando productos de datos a la medida basados en modelos analíticos, en su gran mayoría de Machine Learning, pero pudiendo usar un espectro de técnicas más amplio.

Dentro del equipo multidisciplinario con Data Scientist, Translators, DevOps, Data Architect, tu rol será extremadamente importante y clave para el desarrollo y ejecución de los productos, pues eres quien conecta la habilitación y operación de los ambientes con el mundo real. Te encargarás de aumentar la velocidad de entrega, mejorar la calidad y la seguridad del código, entender la estructura de los datos y optimizar los procesos para el equipo de desarrollo.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Como MLE, tu trabajo consistirá en:

  • Trabajar directamente con el equipo de Data Scientists para poner en producción modelos de Machine Learning utilizando y creando pipelines de ML.
  • Recolección de grandes volúmenes y variados conjuntos de datos.
  • Recolección de interacción con la realidad para su posterior reentrenamiento.
  • Construir las piezas necesarias para servir nuestros modelos y ponerlos a interactuar con el resto de la compañía en un entorno real y altamente escalable.
  • Trabajar muy cerca de los Data Scientists buscando maneras eficientes de monitorear, operar y darle explicabilidad a los modelos.
  • Promover una cultura técnica impulsando los productos de datos con las prácticas DevSecOps, SRE y MLOps.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia práctica de al menos 3 años en entornos de trabajo como Software Engineer, ML Engineer, entre otros.
  • Experiencia con Python.
  • Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida optimización de consultas.
  • Experiencia usando pipelines de CI/CD y Docker.
  • Pasión en problemáticas de procesamiento de datos.
  • Experiencia con servidores cloud (GCP, AWS o Azure, de preferencia GCP), especialmente el conjunto de servicios de procesamiento de datos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.
  • Habilidades de comunicación y trabajo colaborativo.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” Gaucher, D., Friesen, J., & Kay, A. C. (2011).

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.
  • Stack orientado a modelos econométricos (statsmodels, pyfixest), serialización.
  • Experiencia con algún motor de datos distribuido como pyspark, dask, modin.
  • Interés en temas "bleeding edge" de Inferencia Causal: (Técnicas Observacionales, Inferencia basada en diseño, Probabilidad y Estadística [Fuerte énfasis en OLS y sus distintas expansiones]).

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Vestimenta informal
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
APPLY VIA WEB
Gross salary $2600 - 3100 Full time
AI Data Scientist
  • ComunidadFeliz
Python Data Analysis Microservices Artificial Intelligence

ComunidadFeliz es una empresa SaaS para edificios y condominios.
Nos llamamos Comunidad Feliz porque creemos que podemos cambiar la realidad de las comunidades, darles herramientas para tomar las decisiones correctas, apoyo para una buena gestión y una sana comunicación entre vecinos, finalmente, crear una Comunidad Feliz.

Nuestra misión es generar prosperidad y felicidad a las comunidades del mundo a través de la tecnología y calidad de servicio.

Tenemos un equipo que valora la felicidad, empatía y soluciones reales.

This job is published by getonbrd.com.

¿Qué desafíos deberás enfrentar?

  • Diseño y desarrollo de modelos de inteligencia artificial (IA) y machine learning (ML): Identificar y crear casos de uso innovadores para aplicar IA y ML que mejoren procesos internos y aporten valor significativo al negocio.
  • Mantenimiento y optimización: Documentar y asegurar el correcto mantenimiento, actualización y mejora continua de los modelos implementados para garantizar su efectividad y eficiencia.
  • Desarrollo de reportes y dashboards: Construir dashboards interactivos y reportes automatizados que faciliten la visualización y comprensión de datos complejos para apoyar la toma de decisiones con stakeholders de diversas áreas.
  • Análisis estadístico y exploratorio: Realizar análisis detallados para identificar patrones, tendencias y oportunidades de mejora continua dentro de la unidad de negocio.
  • Comunicación técnica: Traducir resultados y hallazgos técnicos en un lenguaje claro y accesible para equipos no técnicos y la alta dirección.
  • Colaboración interfuncional: Trabajar estrechamente con las áreas de producto, desarrollo y negocio para identificar sinergias y elevar el impacto de las soluciones de IA.
  • Evaluación de impacto y costos: Medir el desempeño y eficacia de los modelos implementados, evaluando costos operativos para maximizar la rentabilidad y eficiencia.

¿Qué necesitas para postular?

Buscamos un profesional con experiencia sólida en IA y ML, capaz de diseñar, implementar y mantener modelos de inteligencia artificial que generen impacto directo en procesos y el negocio. Debe contar con un enfoque analítico y orientado a la mejora continua, así como habilidades para comunicar resultados técnicos a públicos diversos.
El candidato ideal demostrará experiencia en automatización de procesos utilizando IA y ML, manejo avanzado de herramientas de análisis de datos, y una visión estratégica para identificar nuevas oportunidades de aplicación tecnológica. Además, es fundamental que posea alta capacidad de colaboración y empatía, alineado con los valores organizacionales centrados en la felicidad y el bienestar.
Se valoran competencias en estadística, programación en Python o R, manejo de frameworks ML como TensorFlow o PyTorch, y habilidades para crear dashboards con herramientas como Power BI o Tableau.

Suman Puntos Felices


  • Experiencia en integración de agentes de inteligencia artificial conversacionales o chatbots.
  • Conocimientos en arquitecturas de microservicios y APIs para facilitar la integración de modelos inteligentes con sistemas existentes.
  • Familiaridad con metodologías ágiles para el desarrollo colaborativo de proyectos.
  • Capacidad para gestionar proyectos multidisciplinarios y múltiples stakeholders.

Beneficios

Trabajo Remoto 🏠: Tenemos una cultura remota que prioriza los valores y herramientas remotas.

Excelente Cultura 🎉: Mensualmente fomentamos la cultura mediante 2 eventos digitales a nivel empresa y 1 evento a nivel de equipo.

Día Libre el Día de tu Cumpleaños 🎂.

¡Miércoles de Vida! 🏃‍♂️: Te damos 1 hora para que puedas tomar al inicio o al final de tu jornada para que puedas hacer tu deporte favorito.

Viernes Corto 🕔: ¡Los días viernes se sale a las 17:00 hrs!

15 Días de Vacaciones al Año 🌴.

Desarrollo de Carrera 📈: Planes de carrera y cursos formativos.

Días de Salud 💊: Te pagaremos el 100% de los 3 primeros días de una licencia médica que no cubre tu previsión (en cualquier país) cada año.

Provisión de Días de Salud para +3 Días 🏥.

Permisos por Matrimonio, Nacimientos, Lactancia, Adopción 👰🤱.

Bono de Festividades 🎁: Entregamos bono en diciembre.

Digital library Access to digital books or subscriptions.
Health coverage ComunidadFeliz pays or copays health insurance for employees.
Company retreats Team-building activities outside the premises.
Computer provided ComunidadFeliz provides a computer for your work.
Education stipend ComunidadFeliz covers some educational expenses related to the position.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
Gross salary $1800 - 2600 Full time
Senior Computer Vision Engineer Embedded AI
  • Flappie Technologies AG
Python Machine Learning Computer vision PyTorch
Flappie Technologies AG is a pioneering company dedicated to advancing the field of pet care through innovative AI-powered devices. Their flagship product is an AI-enabled catflap that uses embedded computer vision to distinguish between pet cats and potential prey in real time.
🐾 Join the pride at Flappie and build cat-tech purr-fection! 😻
We’re on a mission to give every whiskered adventurer the freedom to roam and keep local wildlife safe. Our AI-powered catflap packs computer-vision magic into a tiny embedded device, spotting feline VIPs and sneaky prey in real time. If you dream in tensors, speak PyTorch fluently, and believe “YOLO” stands for “You Only Lick Once”, come help us push the paws-sibilities of pet care to the next level. 🚀✨

Apply without intermediaries from Get on Board.

Key Responsibilities

  • Lead the development and innovation of state-of-the-art computer vision algorithms for advanced pet care applications, specifically targeting prey detection and smart animal identification.
  • Drive the entire machine learning lifecycle including data pipeline creation, data collection strategy design, model training, deployment, and ongoing monitoring to ensure continuous improvement in real-world settings.
  • Optimize deep learning computer vision models to operate efficiently on resource-constrained embedded devices, focusing on balancing accuracy with computational complexity and energy consumption.
  • Prototype new AI-driven features for future pet care experiences and ensure seamless integration of robust solutions into the existing catflap embedded product.
  • Collaborate with AI research institutes and external partners to foster joint research initiatives and forward-looking advancements in computer vision technologies.
  • Develop and maintain well-documented, high-quality, and maintainable source code following embedded systems coding standards to support the scalability of the engineering team.
  • Work closely with data engineering and software engineering teams to integrate computer vision components within the larger product ecosystem.
  • Represent Flappie’s AI expertise in technical discussions with partners, clients, and at industry conferences, while contributing to the company’s intellectual property portfolio through innovative AI technology.

Required Skills and Experience

  • Master's degree or PhD in Computer Science, Electrical Engineering, or related technical discipline with a strong focus on Computer Vision and Machine Learning methodologies.
  • Expert proficiency in Python programming, including experience optimizing code for embedded systems with constrained resources.
  • Deep theoretical and practical understanding of computer vision fundamentals such as image processing, feature extraction, object detection, vision transformers, and tracking algorithms.
  • Extensive hands-on experience with deep learning frameworks like PyTorch or TensorFlow, with a proven track record of implementing and deploying state-of-the-art neural network architectures.
  • Demonstrated expertise in optimizing machine learning models for deployment on edge devices, including application of model compression techniques and efficient inference algorithms.
  • Strong background in developing and managing scalable data pipelines, with familiarity in big data technologies for processing large-scale image and video datasets.
  • Experience working with embedded Linux platforms and deploying machine learning models on embedded edge devices.
  • Sound software engineering practices including version control systems (e.g., Git), continuous integration workflows, and test-driven development approaches.
  • Proven leadership skills in managing technical projects end-to-end: planning, resource allocation, scheduling, and delivering production-ready solutions.
  • Exceptional analytical and problem-solving abilities, with a passion for innovation and crafting novel solutions for advanced computer vision challenges.
  • Excellent communication skills enabling clear explanation of complex technical topics to both technical teams and non-technical stakeholders alike.

Desirable Skills and Experience

Experience with embedded system software development beyond machine learning, including real-time operating systems and hardware-software co-design, would be beneficial. Knowledge of other programming languages such as C/C++ for embedded applications is an asset. A background in collaborative research projects or contributions to academic publications related to AI and computer vision enhances suitability. Familiarity with cloud-based AI services or tools for model deployment and monitoring could complement this role, as would experience in patent filing and intellectual property management.

Benefits

Flappie Technologies AG offers an exciting opportunity to work remotely from anywhere while contributing to a rapidly growing company at the intersection of AI, embedded systems, and animal welfare. We foster a collaborative, innovative environment where cutting-edge research meets practical product development. Join a passionate team committed to pushing the boundaries of technology to improve the lives of pets and their ecosystems globally.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
Vacation over legal Flappie Technologies AG gives you paid vacations over the legal minimum.
APPLY VIA WEB
$$$ Full time
Practicante Ing Informática para Desarrollo e IA Generativa
  • BICE VIDA
  • Santiago (In-office)

En BICE VIDA somos líderes en el rubro de las aseguradoras y queremos satisfacer las necesidades de seguridad, prosperidad y protección de nuestros clientes. Estamos apostando por la transformación digital, buscando nuevas formas de realizar el negocio, para mantenernos vigente y responder a los constantes cambios que el entorno nos exige.

¡Únete a un equipo apasionado y altamente motivado por brindar soluciones innovadoras a sus clientes!

“Esta oferta se enmarca en la ley 21.015 que incentiva la inclusión laboral de personas en situación de discapacidad. Aquellos interesados, contarán con el apoyo de la Compañía para realizar un proceso inclusivo y en igualdad de condiciones. BICE Vida se compromete a resguardar la información que postulantes en situación de discapacidad proporcionen de manera voluntaria”.

Apply through Get on Board.

¿Qué buscamos?

En BICE Vida nos encontramos en búsqueda de un Alumno en Práctica de las carreras de Ingeniería Informática, Industrial o carrera afín, para apoyar en la Sugerencia de Sistemas Financieros de la Gerencia de Sistemas en la implemementación de agente Copílot Studio basado en IA generativa para ser habilitado a Mesa de Ayuda y Servicio al Cliente.

En este rol deberás:

  • Implementar agente Copílot Studio basado en IA generativa.
  • Realizar laboreas de programación y finetuninng en plataforma Copilot studio.
  • Ir documentando el proceso

¿Qué necesitamos?

  • Formación académica: Ingeniería Informática, Industrial o carrera afín.
  • Ser alumno regular o egresado en búsqueda de su práctica profesional, como requisito para su título.
  • Conocimientos de IA generativa ,MY APPS, BBDD, Python.

¿Cómo es trabajar en BICE Vida?

  • Trabajamos en horario de oficina de lunes a jueves hasta las 18:00 hrs y los viernes hasta las 16.00 hrs ⌚.
  • Estamos ubicados en Av. Providencia, a pasos del metro Pedro de Valdivia.
  • Tendrás la posibilidad de contar con almuerzo gratuito 🍲 en las dependencias de la compañía cuando asistas presencial. Además, contamos con menú vegetariano y viernes de barra no fit 😜.
  • La práctica considera un bono mensual 💸.

APPLY VIA WEB
$$$ Full time
Senior AI Engineer
  • Moventi
Python Machine Learning Infrastructure as Code AWS Lambda
Moventi is a technology company dedicated to helping organizations lead innovation through advanced technological solutions. We foster a multidisciplinary environment where continuous learning, experimentation, and teamwork are central. Our projects focus on leveraging cutting-edge AI technologies and scalable cloud infrastructure to build impactful, reliable products that push the boundaries of what's possible in AI and ML-driven solutions.
Within the AI Engineering department, the team works on full lifecycle AI product development, from prototyping and proof-of-concepts to the deployment of scalable production systems. We collaborate closely across Product, Research, and Engineering groups to integrate AI capabilities into our core products, driving innovation in fast-paced, demanding contexts.

© getonbrd.com. All rights reserved.

Key Responsibilities

As a Senior AI Engineer at Moventi, you will:
  • Design, build, and deploy AI-driven systems using state-of-the-art tools and frameworks such as OpenAI's APIs, Amazon Bedrock, Langchain, and LangGraph.
  • Develop and optimize vector search algorithms and embedding models using libraries and databases including pgvector, FAISS, and Pinecone.
  • Prototype, fine-tune, and productionize large language model (LLM) solutions and Retrieval-Augmented Generation (RAG) applications while implementing safety and reliability guardrails.
  • Create and maintain robust evaluation pipelines to continuously monitor model performance, detect drift, and ensure alignment with business goals.
  • Implement scalable AI infrastructure on AWS with Python, utilizing Pulumi or CDK for infrastructure as code, and automate workflows via GitHub Actions.
  • Integrate tracing and experiment tracking tools such as Weights & Biases and Langsmith to gather detailed telemetry and performance data.
  • Collaborate effectively with interdisciplinary teams in Product, Research, and Engineering to align AI projects with broader company objectives.
  • Communicate complex technical concepts clearly to both technical and non-technical stakeholders, including executive leadership.
  • Take end-to-end ownership of AI projects, driving solutions from initial prototypes through to fully scalable, production-grade deployments.
  • Contribute to architectural decisions, tooling selection, and strategic technical directions for AI initiatives at Moventi.

Qualifications

We are seeking candidates with a minimum of 5 years of professional experience in software, machine learning, or AI engineering roles. The ideal candidate will have strong proficiency in Python programming, especially in developing backend services and APIs related to AI and ML applications.
Expertise in AWS cloud services such as Lambda, S3, Amazon Bedrock, and ECS is essential, alongside a deep understanding of cloud-native architectures that support scalable and reliable AI systems.
Proven hands-on experience with vector databases and embedding techniques—using pgvector, FAISS, Pinecone, or similar technologies—is required to effectively design and optimize search and retrieval capabilities.
Practical knowledge in building applications powered by OpenAI models and Amazon Bedrock foundation models, leveraging frameworks like Langchain and LangGraph, is critical. The candidate should demonstrate autonomy and accountability by independently taking projects through the full lifecycle, from concept to production.
Excellent communication skills are paramount, as this role involves explaining technical details to a broad range of audiences, including those without a technical background.

Preferred Skills and Experience

Experience in private markets, fintech, or financial services sectors, providing domain knowledge that can drive contextualized AI solutions.
Prior involvement in integrating AI/ML technologies into production systems at scale, highlighting familiarity with operational challenges and best practices.
Exposure to Retrieval-Augmented Generation (RAG) pipelines and prompt engineering to support advanced AI capabilities.
Experience shaping AI-driven platform architectures and making strategic technical decisions.
Comfort working in small, agile teams (2–5 engineers), demonstrating flexibility, strong collaboration, and ownership in a dynamic environment.

Benefits

At Moventi, we offer a stimulating and innovative work environment located in the heart of San Isidro, Lima. Our office provides convenient parking and recreational zones to promote well-being during breaks. Our hybrid work model allows flexible scheduling, enabling you to balance time between our fully equipped office and remote work tailored to both team and personal preferences.
We emphasize professional growth by engaging you in challenging and diverse projects that foster continuous learning and skill enhancement. Our organizational culture values transparency, collaboration, commitment, risk-taking, and innovation. We ensure formal employment contracts with full legal benefits from day one, providing job security and comprehensive protections.

Informal dress code No dress code is enforced.
APPLY VIA WEB
$$$ Full time
Machine Learning Engineer IA Senior
  • Bci
  • Santiago (Temporarily remote)
Machine Learning LLMs APIs Agile Methodologies

La principal misión del cargo será desarrollar e implementar mediante metodologías ágiles de desarrollo de software de nuevos productos y servicios innovadores para la corporación BCI, con el propósito de hacerlos disponibles para nuestros clientes y colaboradores, contribuyendo a la generación de nuevos negocios, a la continuidad operacional del negocio, a la satisfacción del cliente y al cumplimiento de visión innovadora corporativa, asegurando la calidad, escalabilidad y time to market de las soluciones.

Exclusive offer from getonbrd.com.

En este rol tendrás la oportunidad de:

Diseñar soluciones tecnológicas end-to-end para proyectos que utilizan tecnologías de Gen AI. Reconocer y sistematizar los aprendizajes obtenidos en la implementación de los casos de uso en una metodología de trabajo end to end, que incluya desde la selección y tratamiento de las fuentes de datos no estructurados, su indexación, la construcción de las interacciones con los modelos, la evaluación de los resultados, las herramientas necesarias para su supervisión, entre otros. Evaluar el desempeño de los modelos de Gen AI en los casos de uso en construcción y en producción, definiendo métricas y estableciendo alternativas para lograr mejores resultados. Entender los modelos de costo asociados a los distintos proveedores de servicios de IA Generativa, permitiendo escalar los casos de uso con un costo eficiente y previsible. Dirigir el desarrollo de integraciones complejas y optimizadas con diversas APIs de LLMs, implementar estrategias avanzadas de fine-tuning, y utilizar frameworks como LangGraph para diseñar arquitecturas de agentes complejos y flujos de trabajo multi-agente altamente eficientes y mantenibles. Diseñar y desarrollar procesos y modelos de datos con la finalidad de proveer de data estructurada y no estructurada a las soluciones desarrolladas. Mantenerse a la vanguardia del ecosistema de Gen AI, liderando la evaluación y selección de modelos LLMs comerciales y Open Source, hyperscalers y proveedores de soluciones, con un enfoque estratégico en las alianzas del banco como Microsoft, Salesforce y Google, para identificar oportunidades de innovación y ventaja competitiva.

Requerimientos del cargo

Lidera el diseño, desarrollo y deployments de sistemas de machine learning, guiando e implementando casos de uso que generen impacto y estableciendo una metodología de trabajo que permita escalar la capacidad en forma gradual a las unidades de negocio y áreas habilitadoras del banco.

Para tener éxito en esta posición necesitas:

Ingeniería Civil (Computación, Industrial, Matemática, etc), Economía, o carreras afines (Magister en Data Science, Inteligencia Artificial, Tecnología, etc. para carreras no afines). Entre 4 a 6 años de experiencia en analytics, data science, machine learning y/o productos de datos. Desde 2 años de experiencia en desarrollo de soluciones de GenAI, incluyendo agentes, bots, o similares utilizando LLMs. Nivel avanzado en alguna de las siguientes herramientas como SPSS, Knime, Matlab, Machine Learning Studio, MLFlow, Kubeflow, Databricks, R, TensorFlow. Experiencia comprendiendo, utilizando y aplicando tecnologías de IA en contextos empresariales. Nivel avanzado en Python. Nivel avanzado en programación de datos con lenguajes como SQL, Spark, Scala, Hbase, MongoDB. Experiencia en Machine Learning, incluyendo elección de algoritmos, mejora de modelos (fine-tune), conversión de outputs, y visualización de insights.

Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Bci pays or copays health insurance for employees.
Computer provided Bci provides a computer for your work.
Fitness subsidies Bci offers stipends for sports or fitness programs.
APPLY VIA WEB
$$$ Full time
Senior Machine Learning Engineer
  • ZeroFox
  • Santiago (Hybrid)
Python Agile Artificial Intelligence Machine Learning

Opportunity Overview

At ZeroFox, we are passionate about bringing world-class protection to the digital-first world. Together, we have built a system capable of collecting and analyzing data from all over the internet, creating a paradigm-shifting cybersecurity product that helps secure and protect our customers and improves the global threat landscape.

We are a team of software engineers, cybersecurity experts, and data scientists who continue to develop unparalleled solutions for the cyber security industry by providing the best Digital Risk Protection SaaS in the global market. Our company, services, and user base are growing faster than ever and we’d like you to help us innovate. We believe the greatest solutions in the Digital Risk Protection space come from composing teams with varied backgrounds and experiences that can use their complementary skill sets to come up with the best market-defining solutions.

This posting is original from the Get on Board platform.

Role and responsibilities

  • Collaborate with industry experts across security, machine learning, digital risk protection, and cyber threat intelligence to develop cutting-edge machine learning solutions for the ZeroFox platform.
  • Help define machine learning roadmaps and projects for your team, with a pragmatic balance of higher risk and lower risk efforts.
  • Design, develop, and deploy advanced machine learning models and systems for natural language processing and computer vision applications, to enhance the lives of our customers while making the internet a safer place.
  • Evaluate and improve the accuracy, efficiency, and scalability of existing ML models.
  • Design and conduct statistically rigorous experiments (hypothesis testing, replication, etc.)
  • Conduct research and stay up-to-date with the latest advancements in NLP and computer vision techniques to integrate them into our solutions.
  • Collaborate with product managers, data analysts, software engineers and non-technical stakeholders to integrate ML models into the ZeroFox platform.
  • Analyze and preprocess large, diverse datasets, ensuring the quality and integrity of the data used for model training and evaluation.
  • Maintain clear and well-documented code to ensure long-term sustainability and smooth collaboration with other team members.
  • Provide technical guidance and mentorship to junior engineers, and ensure your team’s growth and success.

Required Qualifications and Skills

  • Motivated, communicative, teamwork-oriented leader who is comfortable working in agile environments and is able to learn and adapt quickly
  • Bachelor’s degree in computer science, math, physics, or a related field, OR equivalent education or experience
  • Machine learning experience, typically a minimum of 5 years
  • Team and/or project leadership experience, typically a minimum of 2 years
  • Proficiency in PyTorch, TensorFlow, or similar machine learning frameworks
  • Proficiency in Python
  • Strong applied knowledge of statistics and scientific methods
  • Solid understanding of data structures and algorithms
  • Strong software engineering design and implementation skills involving multiple technology layers (databases, API’s, caching layers, etc.)
  • Good communication, collaboration, and presentation skills in English
  • Ability to work effectively in a fast-paced, agile environment.

Desirable skills

  • Strong knowledge of NLP techniques, including but not limited to tokenization, parsing, sentiment analysis, topic modeling, and named entity recognition.
  • Strong knowledge of computer vision techniques such as object detection, segmentation, image classification, and OCR.

Benefits

  • Opportunities to learn and contribute your knowledge to our Digital Risk Protection platform
  • Competitive compensation
  • Competitive PTO
  • Complementary health insurance
  • Daily catered lunches for in-office work
  • Respectful and nourishing work environment, where every opinion is heard and everyone is encouraged to be an active part of the organizational culture.
  • Regular team bonding activities like cooking and cocktails classes, bingos, stand up comedy, magic shows, virtual happy hour, lunch and learns, etc.
  • Additional Parental Leave
  • Excellent communication: between teams, people, organizations and leaders

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance ZeroFox pays or copays life insurance for employees.
Meals provided ZeroFox provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage ZeroFox pays or copays health insurance for employees.
Dental insurance ZeroFox pays or copays dental insurance for employees.
Computer provided ZeroFox provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal ZeroFox gives you paid vacations over the legal minimum.
Beverages and snacks ZeroFox offers beverages and snacks for free consumption.
Parental leave over legal ZeroFox offers paid parental leave over the legal minimum.
APPLY VIA WEB
Gross salary $1800 - 3000 Full time
Ingeniero/a de NLP – Asistente Conversacional con IA
  • Lisit
Lisit es una empresa especializada en la creación, desarrollo e implementación de servicios de software innovadores, orientados a proveer herramientas de automatización y optimización para sus clientes. Con un fuerte enfoque en la innovación y la pasión por superar desafíos tecnológicos, Lisit acompaña a sus clientes mediante consultoría y la integración de variadas prácticas y herramientas tecnológicas, asegurando la ejecución exitosa de procesos de transformación digital a través de estrategias integrales.

Actualmente, el equipo de Lisit desarrolla un proyecto enfocado en la creación de un asistente conversacional basado en inteligencia artificial, empleando tecnologías avanzadas de procesamiento de lenguaje natural (NLP). Este proyecto busca potenciar la interacción entre usuarios y sistemas mediante la comprensión y generación de lenguaje natural, integrando modelos de última generación y soluciones tecnológicas robustas para mejorar la experiencia del usuario final.

© Get on Board.

Responsabilidades principales

En este rol como Ingeniero/a de NLP, serás responsable de diseñar e implementar modelos avanzados de procesamiento de lenguaje natural que permitan comprender y generar lenguaje natural con alta precisión. Deberás integrar modelos preentrenados como GPT o BERT, y trabajar con servicios de inteligencia artificial de plataformas como OpenAI o Hugging Face.
Además, desarrollarás flujos conversacionales inteligentes que manejan contexto e identifican intenciones de forma efectiva, integrando el asistente con APIs, diversas plataformas de mensajería (Slack, WhatsApp, Teams, entre otras) y bases de datos para asegurar una experiencia de usuario fluida y completa.
Serás responsable de la evaluación continua de los modelos mediante métricas estándares como precisión y F1, colaborando estrechamente con equipos de desarrollo, experiencia de usuario (UX) y áreas de negocio para asegurar que las soluciones implementadas estén alineadas con los objetivos estratégicos y necesidades del cliente.

Descripción del puesto y requisitos

Buscamos un/a profesional con experiencia sólida en Python y en el manejo de librerías especializadas en NLP, tales como spaCy, NLTK y Transformers. Además, es necesario contar con conocimientos prácticos en frameworks para asistentes conversacionales como Rasa o Dialogflow, así como experiencia en diseño y manejo del contexto en sistemas conversacionales.
El candidato ideal debe poseer conocimientos técnicos en la integración de APIs RESTful y en la implementación de asistentes a través de múltiples plataformas de mensajería populares, incluyendo Slack, WhatsApp y Microsoft Teams. Valoramos también la familiaridad con herramientas de contenedorización como Docker y prácticas de integración y despliegue continuo (CI/CD), así como experiencia con servicios en la nube tales como AWS, Azure o Google Cloud Platform.
Adicionalmente, se valoran las competencias en proyectos relacionados con grandes modelos de lenguaje (LLMs) como GPT o Claude, la capacidad para diseñar flujos conversacionales empáticos y funcionales, y el conocimiento en técnicas de prompt engineering para optimizar la interacción con modelos de IA generativa.

Conocimientos y habilidades deseables

Se considerará un plus la experiencia previa en proyectos que involucren grandes modelos de lenguaje (LLMs) como GPT o Claude, así como la habilidad para diseñar flujos de conversación que sean tanto funcionales como empáticos, mejorando la experiencia del usuario final.
El conocimiento en el área de prompt engineering para mejorar el rendimiento de modelos generativos, así como el dominio de herramientas para la automatización de despliegues en entornos de producción (Docker, CI/CD) y manejo de infraestructuras en la nube (AWS, Azure, GCP) también serán muy valorados.

Beneficios y entorno laboral

Ofrecemos la oportunidad de trabajar en proyectos desafiantes y de largo plazo dentro de un equipo técnico colaborativo y con un ambiente laboral excelente y amigable. Promovemos la estabilidad laboral, ofreciendo múltiples oportunidades de desarrollo profesional y crecimiento dentro de la compañía.
El trabajo es 100% remoto, idealmente dirigido a candidatos residentes en Chile, lo cual facilita la conciliación entre la vida personal y profesional sin perder el compromiso ni la comunicación estrecha con el equipo.

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
$$$ Full time
Mlops Engineer
  • Niuro
Python Linux DevOps Docker
At Niuro, we are dedicated to connecting projects with elite tech teams, working collaboratively with leading companies in the U.S. Our AI team is expanding, and we are seeking a proactive MLOps Engineer to help us build and maintain robust machine learning pipelines. You will play a critical role in ensuring that our models are production-ready and scalable within dynamic environments, contributing to the successful execution of innovative projects.

Find this job and more on Get on Board.

Responsibilities

  • Pipeline Management & Automation: Build and maintain ML pipelines using Databricks and MLflow. Automate data workflows and ensure reproducibility of experiments.
  • Model Deployment & Monitoring: Deploy models to production and monitor their performance over time. Implement best practices for CI/CD in machine learning using Bitbucket.
  • Infrastructure & Environment Management: Manage and monitor batch jobs on Linux environments. Collaborate with data scientists to ensure smooth transitions from notebooks to production-grade code.
  • Collaboration & Documentation: Work closely with international teams to align on MLOps strategies and solutions. Document workflows and setups to ensure maintainability and transparency.

Requirements

  • Experience: 3+ years working in MLOps, DevOps, or related roles with machine learning pipelines.
  • Technologies: Hands-on experience with Databricks, MLflow, Python, Bitbucket, Batch processing, and Linux.
  • English: Intermediate-advanced written and spoken English (required) to work with international teams.
  • Mindset: Strong problem-solving skills and a passion for automation, performance, and scalability.

Preferred Qualifications

  • Experience working in remote, agile teams with international clients.
  • Familiarity with cloud services (AWS, Azure, or GCP).
  • Knowledge of Docker, Kubernetes, or Terraform is a plus.

What We Offer

  • 🌎 100% Remote – Work from anywhere!
  • 📈 Professional Growth – Join an innovative and collaborative AI-driven environment.

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
$$$ Full time
Data Engineer Inteligencia Artificial
  • Factor IT
Java Python SQL Web server
FactorIT es un líder en tecnología con presencia en 8 países y se dedica a ofrecer soluciones innovadoras en Data y Analytics, Transformación Digital e Inteligencia Artificial. Estamos buscando un profesional talentoso para unirse a nuestro equipo en el desarrollo de infraestructuras de datos específicas para proyectos de IA, lo que representa una gran oportunidad para participar en iniciativas desafiantes y significativas que tendrán un impacto en múltiples industrias.

Apply only from getonbrd.com.

Responsabilidades:

En esta función, el candidato será responsable de:
  • Desarrollar y optimizar pipelines de datos para modelos de IA.
  • Colaborar con arquitectos de datos y científicos de datos para construir soluciones escalables y eficientes.
  • Gestionar la integración y almacenamiento de grandes volúmenes de datos utilizando diversas herramientas y plataformas de IA.
  • Mejorar la calidad de los datos garantizando su adecuada preparación para el entrenamiento de modelos de Machine Learning.
  • Implementar procesos automatizados para la recolección y el procesamiento de datos.

Requisitos:

Buscamos a alguien que cumpla con las siguientes calificaciones:
  • Experiencia mínima de 4 años en ingeniería de datos con un énfasis en Inteligencia Artificial.
  • Conocimientos técnicos en herramientas de procesamiento de datos como Apache Spark, Kafka, Hadoop, entre otros.
  • Experiencia trabajando con grandes volúmenes de datos y tecnologías de almacenamiento en la nube.
  • Dominio de lenguajes de programación como Python, SQL y otros orientados a la manipulación de datos.
  • Conocimiento práctico en la implementación de Machine Learning y Deep Learning.

Deseable:

Experiencia en entornos de trabajo ágil y capacidad para gestionar múltiples proyectos simultáneamente. La pasión por la innovación y el deseo de aprendizaje continuo son altamente valorados.

Ofrecemos:

En FactorIT, promovemos un entorno dinámico y de innovación tecnológica. Ofrecemos:
  • Capacitación continua en tecnologías emergentes, especialmente en IA.
  • Flexibilidad y opción de trabajo remoto, permitiendo un mejor balance entre la vida personal y laboral.
  • Oportunidades de crecimiento profesional en un ambiente inclusivo que valora la creatividad y el trabajo en equipo.
¡Si eres un experto en ingeniería de datos con pasión por la Inteligencia Artificial, te estamos esperando! 🚀

Fully remote You can work from anywhere in the world.
Computer provided Factor IT provides a computer for your work.
APPLY VIA WEB
Gross salary $3000 - 5000 Full time
R & D Engineer (Pytorch)
  • Softserve
Python Big Data R English

WE ARE

SoftServe is a leading advisory and IT development services company that assists clients in constructing cutting-edge and innovative solutions while delivering exceptional value. Together with you, we establish and achieve goals to foster mutual growth, learning from successes and mistakes.

Our R&D team applies deep learning and computer vision expertise to cross-disciplinary research from human-computer interaction and bioinformatics to computational finance. We run multiple technology and academic partnerships and expose our research at global events and conferences.

Apply exclusively at getonbrd.com.

Job functions

  • Develop innovative agentic AI solutions across diverse applications throughout the SDLC
  • Proactively propose and implement emerging technologies, studying and adapting to market needs and industry trends
  • Define and execute the technological vision in new research areas by prototyping and developing advanced technological demos
  • Coordinate and deliver presentations at external events, including conferences, meetups, and specialized gatherings
  • Advise external and internal clients on technologies, solutions, and trends to foster innovation and strategic decision-making
  • Align research fields with business needs, ensuring technological advancements address key industry demands
  • Apply proven innovation consulting methodologies to design cutting-edge technological solutions for customer challenges
  • Support business development efforts through marketing, presentations, and presales activities to drive growth and engagement

Qualifications and requirements

  • Experienced with over 6 years in Python and PyTorch
  • Proficient in building and optimizing AI models
  • Knowledgeable in Large Language Models (LLMs) and Vision-Language Models (VLMs), with hands-on experience in their applications
  • Skilled and hands-on with LLMs and prompting techniques, including Chain-of-Thought and Tree-of-Thought reasoning, to enhance model performance
  • Accustomed to the software development lifecycle (SDLC) and programming best practices, ensuring efficient and scalable solutions
  • Proficient in developing applications with web interfaces or user-interactive components, with a solid grasp of architecture and functionality
  • Skilled in Python backend frameworks like FastAPI, with experience in building efficient and scalable APIs
  • Familiar with tools like LangChain, LangGraph, and various agentic frameworks for AI development
  • Comfortable working with modern software development company operations, including workflows, collaboration, and deployment strategies
  • A strong professional, capable of working independently, making decisions, and collaborating in a team-oriented environment
  • A critical thinker and problem-solver, skilled in analyzing complex AI challenges and devising effective solutions
  • Capable of daily communication in English at an upper-intermediate level (written and spoken)

Together we will

  • Empower you to scale your expertise with others by joining the R&D team
  • Excel business of our clients from startups and ISVs to Enterprise and Fortune 500 companies
  • Care for your wellness with a health insurance package
  • Be a part of something bigger than a single project in the professional community
  • Access local-grown, yet global IT minds and exclusive networking opportunities with expert groups and professional events

APPLY VIA WEB
$$$ Full time
Senior Computer Vision Engineer
  • Niuro
C C++ Python Big Data

At Niuro, we connect elite tech teams with innovative projects in collaboration with leading U.S. companies. Our mission emphasizes simplifying global talent acquisition through efficient and high-quality solutions. We empower our teams by providing opportunities for continuous professional growth, ensuring success in technologically challenging projects. As such, we handle all administrative aspects including hiring and payments, allowing our professionals to focus on achieving outstanding results in their respective fields.

Apply at getonbrd.com without intermediaries.

Responsibilities

  • Model Development & Optimization: Enhance accuracy and speed of YOLO (or similar models) through advanced CNN architectures and optimization techniques.
  • Dataset Management & Augmentation: Expand and refine datasets, utilizing data augmentation techniques to enhance model robustness.
  • Model Training & Evaluation: Train and validate models against key metrics (precision, recall, mAP) to ensure reliable performance in real-world scenarios.
  • Deployment on Embedded Hardware: Optimize and deploy models on Jetson Orin Nano (or similar) using TensorRT for high-speed inference.
  • Real-World Validation: Test models in sterilization and surgical environments, iterating and refining based on real-world performance feedback.

Requirements

  • Computer Vision Expertise: 5+ years in deep learning and computer vision.
  • Model Development: Strong experience with YOLO, Faster R-CNN, EfficientDet, or similar architectures.
  • Deep Learning Frameworks: Proficiency in PyTorch or TensorFlow for model training and optimization.
  • Data Handling: Experience managing large datasets and applying data augmentation techniques.
  • Performance Optimization: Knowledge of model quantization, pruning, and employing TensorRT for real-time inference.
  • Embedded AI: Proven experience deploying models on NVIDIA Jetson devices.
  • Evaluation & Metrics: Strong familiarity with key performance metrics including mAP, IoU, recall, and precision.
  • Software Development Skills: Proficiency in Python, with experience in C++ being a plus.
  • Problem-Solving & Debugging: Ability to fine-tune models based on real-world feedback.
  • OpenCV Expertise: Demonstrable experience with OpenCV for advanced image processing and real-time computer vision applications.

Nice to Have

  • Experience with ONNX, OpenVINO, or similar model optimization tools.
  • Familiarity with ROS (Robot Operating System) for robotics applications.
  • Experience in medical imaging or AI applications within healthcare.
  • Knowledge of sensor fusion technologies such as LiDAR and depth cameras.

What We Offer

🌎 100% Remote – Work from anywhere in the world!
📈 Cutting-Edge AI Projects – Engage in real-world AI applications specifically oriented towards the medical field.
💰 Competitive Salary & Performance Reviews – Compensation is tailored according to experience.
🛠 High-Impact Work – Contribute to AI solutions that promote safety and enhance efficiency in surgical environments.
🎓 Learning & Development – Gain access to extensive training, conferences, and mentorship opportunities.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
APPLY VIA WEB
$$$ Full time
Especialista en Agentes Verticales AI
  • Forma - Moovmedia Group
Python Data Analysis Artificial Intelligence Machine Learning

¡Hola! Somos Moov Media Group, una familia de empresas integrada por Moov, Metrix y Forma. Nuestro modelo es colaborativo, ¿qué significa esto? Que trabajamos de manera específica o integral según las necesidades de cada cliente.

Navegamos en el mundo digital usando la tecnología, la data analytics, los medios y la publicidad para encontrar soluciones de marketing multicanal que nos conviertan en los más secos de Latinoamérica.

Hoy queremos seguir creciendo y para eso buscamos un Especialista en Agentes Verticales AI que nos acompañe a recorrer el mundo digital en una empresa con cultura flexible, ágil e innovadora. ¿Te tinca saber más? Entonces quédate para contarte.

El proceso de selección consta de:

  • Llamado telefónico
  • Entrevista con Selección
  • Entrevista con jefatura directa.

¿Te interesa? ¡Dale! Escríbenos y conversemos.

This job is available on Get on Board.

Funciones del cargo

  • Diseñar, desarrollar y entrenar agentes de IA especializados en distintos sectores (e-commerce, turismo, salud, marketing, entre otros).
  • Configurar sistemas de IA conversacional utilizando tecnologías avanzadas (por ejemplo, GPT, LLMs, Dialogflow, Rasa) para resolver casos de negocio específicos.
  • Monitorear, evaluar y optimizar el rendimiento de los agentes de IA para garantizar interacciones fluidas y resultados precisos.
  • Colaborar con equipos de desarrollo para integrar los agentes en distintas plataformas y canales (sitios web, apps, redes sociales, chatbots).
  • Trabajar con clientes internos y externos para entender sus necesidades y personalizar las soluciones de IA verticales.
  • Identificar oportunidades de mejora y nuevas aplicaciones de IA en industrias emergentes.
  • Utilizar datos y retroalimentación para ajustar los modelos de IA y mejorar continuamente la experiencia de usuario.

Requerimientos del cargo

  • Ingeniería en Computación, Ciencia de Datos, Inteligencia Artificial o carreras afines.
  • 3-5 años de experiencia en el desarrollo de agentes conversacionales basados en IA o aplicaciones relacionadas.
  • Experiencia trabajando con plataformas de procesamiento de lenguaje natural (PLN), tales como OpenAI, Dialogflow, IBM Watson o similares.
  • Experiencia en la construcción y entrenamiento de modelos de lenguaje (por ejemplo, GPT, BERT).
  • Conocimientos en Python, TensorFlow, PyTorch u otros frameworks de machine learning.
  • Integración de APIs y servicios de terceros.
  • Experiencia en análisis de datos para ajustar el rendimiento de los modelos.

Condiciones

  • Tarde libre para el día de cumpleaños de tu hijo.
  • Día libre para realizar tu mudanza.
  • 5 días libres con goce de sueldo al cumplir 1 año laboral.
  • Convenio con caja de compensación Los Andes.
  • Convenio con DODO, plataforma que aporta al bienestar/salud mental.

Fully remote You can work from anywhere in the world.
Computer provided Moov Media Group provides a computer for your work.
Informal dress code No dress code is enforced.
APPLY VIA WEB
Gross salary $2500 - 3000 Full time
Administrador de Bases de Datos (DBA) Oracle
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL Oracle Linux
BC Tecnología es una consultora de TI con personal experto en diferentes áreas de tecnología. Nos dedicamos a administrar portafolio, desarrollar proyectos, realizar outsourcing y selección de profesionales para crear equipos de trabajos ágiles en áreas como Infraestructura Tecnología, Desarrollo de Software y Unidades de Negocio.
En BC Tecnología, diseñamos soluciones acorde a las necesidades de nuestros clientes, especialmente en los sectores de servicios financieros, seguros, retail y gobierno, durante más de 6 años.

Responsabilidades:

  • Mantener la alta disponibilidad y rendimiento de las bases de datos Oracle.
  • Configurar y gestionar entornos de alta disponibilidad utilizando Oracle RAC y Data Guard.
  • Realizar migraciones de bases de datos a Oracle Cloud y otros entornos Cloud (OCI, Azure).
  • Automatizar tareas rutinarias mediante scripts.
  • Ejecutar monitoreo, tuning y optimización de bases de datos.
  • Diseñar e implementar planes de recuperación ante desastres y políticas de backup/restore.
  • Colaborar con equipos de desarrollo y operaciones para garantizar una integración eficiente.
  • Mantenerse actualizado con las nuevas funcionalidades y parches de Oracle, garantizando la seguridad.

Requisitos y Habilidades:

  • Experiencia mínima de 3 años en administración de bases de datos Oracle en entornos críticos y de alto volumen de transacciones.
  • Dominio avanzado de Oracle 19c o superior, Oracle RAC, Data Guard, ASM y Oracle Multitenant.
  • Conocimiento en Oracle Cloud Infrastructure (OCI) y otras nubes públicas (Azure, AWS deseable).
  • Competencia en scripting para automatización de tareas DBA (Bash, Python).
  • Conocimientos en monitoreo y optimización de bases de datos.
  • Familiaridad con sistemas operativos basados en Linux/Unix.
  • Experiencia en seguridad y encriptación de datos en bases de datos.
  • Conocimientos en PL/SQL y optimización de sentencias SQL (tuning).
  • Experiencia con Golden Gate.
  • Conocimientos en políticas de backup y recuperación (RMAN, Data Pump).

Trabajo Hibrido, requiere disponibilidad para turnos 24x7 de una semana al mes (o cada dos meses) según la carga de trabajo.

APPLY VIA WEB