We didn't find any results.

Try with another group of words.

If you think this is a problem, please contact us.

$$$ Full time
Project Lead / Scrum Master (Remote – LATAM)
  • Confidential
  • Remoto 🌎
Full Time Salesforce

Role Overview

We are seeking an experienced Salesforce Project Lead / Scrum Master to join a U.S.-based technology consulting firm delivering complex Salesforce implementations for enterprise and high-growth clients.


This role is not entry-level. It requires hands-on experience leading Salesforce projects end-to-end, working directly with clients, technical teams, and stakeholders. You will serve as the operational and delivery bridge between business needs and technical execution, ensuring projects are delivered on time, within scope, and with high client satisfaction.


If you already know Salesforce and have real project management experience, this is an opportunity to step into a high-impact, fully remote role supporting U.S. clients.


Key Responsibilities

Salesforce Project Leadership

  • Lead Salesforce implementation projects from discovery through deployment and post-launch support.
  • Facilitate client discovery sessions with technical and functional stakeholders to define business needs and solution scope.
  • Translate client requirements into detailed functional requirements, user stories, and delivery plans.
  • Partner closely with Functional and Technical Leads to ensure accurate execution of Salesforce solutions.

Agile & Scrum Delivery

  • Plan and manage Agile and Scrum ceremonies including sprint planning, backlog grooming, daily standups, demos, and retrospectives.
  • Track sprint progress, velocity, burn-downs, and delivery milestones.
  • Ensure teams have the required Salesforce environments, sandboxes, licenses, and access to begin work.

Project Governance & Risk Management

  • Own project schedules, timelines, budgets, and change management.
  • Identify project risks early and implement mitigation strategies to prevent delivery or budget impact.
  • Prepare and deliver regular project status reports, burn reports, forecasts, and executive updates.
  • Escalate risks and blockers clearly and proactively to internal leadership and client stakeholders.

Client & Stakeholder Management

  • Act as the primary day-to-day point of contact for clients throughout the project lifecycle.
  • Build trusted client relationships by setting expectations, communicating clearly, and delivering consistently.
  • Support clients during and after implementation to ensure adoption and long-term success.

Required Skills & Experience (Non-Negotiable)

  • 2–5+ years of experience as a Project Manager or Project Lead, managing medium to large-scale projects.
  • Hands-on experience leading Salesforce implementations (this is required).
  • Strong knowledge of Salesforce environments, workflows, and implementation lifecycle.
  • Experience working with Agile and Waterfall project management methodologies.
  • Scrum Master certification or equivalent practical experience.
  • Proven ability to translate business needs into technical and functional requirements.
  • Strong stakeholder management and client-facing communication skills.
  • Excellent documentation, reporting, and presentation skills.
  • Advanced organizational, planning, and time management abilities.
  • Proficiency with Microsoft tools including Word, Excel, Outlook, Project, and SharePoint.
  • Ability to work independently in a fully remote environment aligned with U.S. time zones (CST/EST).

Nice to Have

  • Salesforce certifications.
  • Experience working in consulting or professional services environments.
  • Exposure to enterprise or multi-stakeholder Salesforce projects.

Why Join This Role?

  • Work with a highly collaborative, people-focused U.S. consulting team.
  • 100% remote role with long-term growth potential.
  • Opportunity to deepen expertise in Salesforce delivery, Agile leadership, and enterprise project management.
  • Thrive in an environment that values clarity, accountability, ownership, and operational excellence.


If you are an experienced Salesforce Project Manager / Scrum Master who already knows Salesforce and has successfully led implementation projects, we want to hear from you.


Apply now to be considered for this fully remote opportunity supporting U.S.-based clients.

Compensation details will be shared during the first interview.

VIEW JOB APPLY VIA WEB
Gross salary $3300 - 3600 Full time
Software Engineer Senior – Python & AI Integration
  • Maxxa
  • Santiago (Hybrid)
Python PostgreSQL Flask Microservices

Maxxa es una Fintech de Chile en etapa scaleup, afianzando nuestro posicionamiento regional en México.
Nuestra misión es eliminar la mortalidad de las pymes de Latam, construyendo tecnología que les habilite para acceder a financiamiento y ordenar sus finanzas y operación.

Cuidamos a nuestro activo más valioso: el equipo (Top 3 Building Happiness by Buk 2025) demostrando que el alto rendimiento convive con la confianza. Aquí aportas visión de ingeniería para potenciar una plataforma de impacto regional, que innova constantemente integrando IA y Data en sus procesos clave.

Somos sponsor de Platanus Hack 25 por una convicción: el talento real está donde se construyen cosas.
Vivimos en la intersección donde la agilidad del negocio encuentra la madurez técnica. Para sostener el crecimiento, las soluciones rápidas no bastan. Estamos en etapa de consolidación, priorizando discusiones de fondo: cada implementación debe fortalecer nuestra capacidad de escalar y ser saludable a largo plazo.

Find this job and more on Get on Board.

Funciones y responsabilidades

  • Impulsar la evolución del motor de scoring de financiamiento hacia una arquitectura escalable y de alto rendimiento, asegurando transparencia de reglas y algoritmos, y habilitando su configuración dinámica por parte de tomadores de decisión.
  • Colaborar con equipo de Data Analytics para optimizar y mantener pipelines de despliegue de modelos predictivos, garantizando infraestructura para integrar nuevos modelos de forma autónoma y escalable.
  • Investigar e integrar herramientas de IA en el ciclo de vida de desarrollo para optimizar tiempos, mejorar la calidad del código y potenciar las capacidades técnicas del equipo.
  • Apoyar y mejorar el workflow de apertura de créditos, incorporando controles y validaciones a lo largo del ciclo de vida de la operación, asegurando consistencia y trazabilidad desde la evaluación hasta el cierre.
  • Co-difundir la hoja de ruta tecnológica a mediano y largo plazo, asegurando arquitectura que soporte escalabilidad y expansión del negocio.
  • Liderar prácticas de ingeniería como Clean Architecture, pruebas automatizadas y revisiones de código, actuando como mentor técnico para perfiles menos experimentados.
  • Vigilar la tecnología con foco en IA y automatización y proponer pruebas de concepto que se traduzcan en mejoras de rendimiento y productividad.
  • Colaborar estrechamente con Producto, Data, Riesgo, Operaciones y Finanzas para traducir necesidades operativas complejas en soluciones tecnológicas eficientes.

Descripción y requisitos

Requisitos Técnicos y Académicos

  • Formación Académica:
    Ingeniero Civil en Computación, Ingeniería Civil Informática, Ingeniería Civil Industrial con minor en Tecnologías de la Información o Magíster en Ciencias de la Computación.
  • Experiencia Profesional:
    Mínimo 4 años de experiencia en desarrollo de software backend, con una capacidad demostrada para modelar e implementar lógica de negocio compleja y reglas de decisión.

Conocimientos Técnicos:

  • Lenguajes y Frameworks: Dominio experto de Python (Excluyente). Es deseable contar con experiencia en Flask y Pydantic.
  • Arquitectura y Diseño: Diseño sólido de APIs REST, Microservicios y aplicación de Clean Architecture. Deseable manejo de patrones de diseño.
  • Base de Datos: Manejo de SQLAlchemy y PostgreSQL. Fuerte capacidad para la elaboración de consultas complejas y optimización de performance.
  • Integración de IA/ML: Entendimiento funcional de librerías como scikit-learn, pandas o PyTorch. El foco es la lectura, carga e inferencia de modelos para su integración en el software (no el entrenamiento ni desarrollo de modelos).
  • Calidad de Software: Experiencia implementando pruebas unitarias (pytest o unittest) y de integración.
  • Fundamentos: Sólidos conocimientos en diseño y análisis de algoritmos.

Competencias Conductuales y Habilidades Blandas

  • Mindset de Aprendizaje Continuo: Curiosidad intelectual proactiva. Capacidad para investigar, aprender y adoptar rápidamente nuevas tecnologías (como herramientas de IA) y mantenerse actualizado en tendencias de la industria.
  • Liderazgo Técnico y Mentoría: Habilidad para guiar y elevar el nivel técnico del equipo mediante el ejemplo, la revisión de código y la transferencia de conocimientos, fomentando la colaboración sin necesidad de una jerarquía formal.
  • Comunicación y Puente Técnico: Capacidad para articular ideas complejas de forma clara, facilitando el entendimiento entre áreas técnicas y de negocio.
  • Adaptabilidad y Autonomía: Disposición para trabajar en entornos dinámicos, ajustando prioridades y proponiendo soluciones ante cambios en el negocio.

Habilidades y experiencia deseables

  • Integración con Burós de Crédito (ej: Equifax, Sinacofi) o fuentes de datos externas.
  • Participación en proyectos del sector Fintech o banca.
  • Colaboración en la implementación técnica de modelos de IA/Machine Learning.

Beneficios

Te unirás a una fintech donde tu esfuerzo y energía se ven recompensados.
Nos eligieron top 3 del ranking de The Building Happiness de Buk. ¡Tu bienestar es parte de nuestro desafío!

Beneficios:

  • Flexibilidad laboral: Trabajo mayormente remoto con 1 día presencial en nuestra oficina en Las Condes. Ofrecemos total flexibilidad para cambiar tu día o acordar semanas 100% remotas.
  • Tiempo de bienestar —¡con metas cumplidas, sales 30 min antes todos los días!— Días administrativos, tarde libre por cumpleaños y día de mudanza.
  • Asignación de almuerzo.
  • Un muy potente Seguro Complementario de salud, dental y vida (al pasar a indefinido).
  • Aguinaldos, Bonos de matrimonio, nacimiento, escolaridad, entre otros.
  • Capacitaciones continuas en UBITS para que nunca dejes de crecer.
  • En oficina corporativa, muchos beneficios: Snack Saludable todos los días, salita de descanso con cafetería ilimitada, actividades para compartir, ¡entre muchos más!

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Maxxa pays or copays health insurance for employees.
Computer provided Maxxa provides a computer for your work.
Informal dress code No dress code is enforced.
Beverages and snacks Maxxa offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
$$$ Full time
AI Architect Senior
  • Improving South America
JavaScript Java Python Virtualization

Improving South America es una empresa líder en servicios de TI que busca transformar positivamente la percepción del profesional de TI mediante consultoría de tecnología, desarrollo de software y formación ágil. Somos una organización con una cultura que fomenta el trabajo en equipo, la excelencia y la diversión, inspirando a nuestro equipo a establecer relaciones duraderas mientras ofrecemos soluciones tecnológicas de vanguardia. Nuestra misión está alineada con el movimiento de Capitalismo Consciente, promoviendo un entorno de trabajo excepcional que impulsa el crecimiento personal y profesional dentro de una atmósfera abierta, optimista y colaborativa.

Applications at getonbrd.com.

Funciones del cargo

Estamos en la búsqueda de un AI Architect SR con manejo de inglés para sumarse a un proyecto de la manos con un cliente enfocado en proporcionar a las empresas herramientas y experiencia necesarias para alcanzar el éxito, cumpliendo con:

  • Diseñar y ejecutar soluciones de IA/ML de punta a punta en plataformas cloud (GCP, AWS), incluyendo ingestión de datos, desarrollo de modelos, despliegue y monitoreo.
  • Liderar y guiar equipos de ingeniería multifuncionales, fomentando un entorno colaborativo y de alto rendimiento.
  • Colaborar con stakeholders para recopilar requisitos, definir el alcance del proyecto y alinear las soluciones técnicas con los objetivos del negocio.
  • Supervisar la modernización y migración de sistemas legacy hacia arquitecturas nativas en la nube, aprovechando tecnologías serverless y basadas en contenedores.
  • Diseñar y gestionar pipelines de CI/CD para flujos de trabajo de ML, asegurando despliegues automatizados, robustos y seguros.
  • Evaluar y seleccionar los frameworks, herramientas y tecnologías de IA/ML más adecuados (por ejemplo, TensorFlow, Scikit-learn, Vertex AI, Generative AI).
  • Desarrollar y aplicar buenas prácticas para la gestión de datos, entrenamiento, validación y gobernanza de modelos.
  • Impulsar la innovación explorando e integrando tecnologías y metodologías emergentes en IA/ML.
  • Garantizar el cumplimiento de estándares de privacidad y seguridad de datos, especialmente en industrias reguladas (por ejemplo, salud, finanzas).

Requerimientos del cargo

  • Nivel de Inglés oral y escrito B2/C1 (intermedio /avanzado) Excluyente.
  • Más de 7 años de experiencia en ingeniería de software, con al menos 4 años en arquitectura de soluciones de IA/ML en la nube.
  • Experiencia comprobada liderando equipos de ingeniería y gestionando proyectos complejos.
  • Amplia experiencia en plataformas cloud (GCP, AWS), incluyendo trabajo práctico con servicios como Vertex AI, Lambda, Cloud Functions, BigQuery, DynamoDB, entre otros.
  • Dominio de lenguajes de programación como Python, Java, JavaScript/TypeScript.
  • Sólido conocimiento de frameworks y herramientas de ML: Generative AI, Document AI.
  • Experiencia con contenedores y orquestación (Docker, Kubernetes, Terraform, Helm).
  • Sólida comprensión de procesos y herramientas de CI/CD (GitLab, AWS CodePipeline, Cloud Build).
  • Excelentes habilidades de comunicación, gestión de stakeholders y planificación de proyectos.

Conditions

  • 100% Remoto.
  • Vacaciones y PTOs.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Internal talks Improving South America offers space for internal talks or presentations during working hours.
Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Improving South America gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
VIEW JOB APPLY VIA WEB
Gross salary $3000 - 3500 Full time
Senior Machine Learning Engineer – Computer Vision
  • Niuro
Python 3D Git DevOps
Niuro connects projects with elite tech teams, delivering autonomous, high-performance engineering groups to top U.S. companies. In this engagement, you will lead the design, implementation, and operation of end-to-end ML solutions for image and video analytics within a mining-industry context. The project emphasizes scalable ML pipelines, robust model quality, and strong MLOps practices to ensure reliable production deployment. You will collaborate closely with cross-functional teams to produce impactful ML products and maintain production-grade delivery standards.

© Get on Board. All rights reserved.

Key Responsibilities

  • Design and implement robust Computer Vision architectures for training and inference, building end-to-end data pipelines for image and video data.
  • Develop production-grade Python code with testing, logging, documentation, and engineering best practices.
  • Own and advance MLOps practices: CI/CD pipelines, dataset and model versioning, environment management, and monitoring for models and data in production.
  • Optimize models for latency, throughput, and hardware efficiency (GPU/CPU) while maintaining high accuracy through systematic experimentation.
  • Deploy and operate models in production—exposed APIs, batch processing, streaming, or edge deployments.
  • Collaborate with product, data, and business stakeholders to translate requirements into scalable ML solutions and drive continuous improvement.

Requirements

✅ Bachelor’s degree in Engineering, Computer Science, Mathematics, or related field.
✅ 5+ years of experience in Machine Learning / Deep Learning with a strong focus on Computer Vision (object detection, segmentation, tracking, pose estimation, 3D/stereo vision, or video understanding).
✅ Expert Python developer with hands-on experience in at least one DL framework (PyTorch, TensorFlow/Keras, JAX, etc.).
✅ Practical experience with CV libraries such as OpenCV, scikit-image, or similar tools.
✅ Proficient in Docker, Git, and CI/CD or MLOps platforms (e.g., Azure DevOps, GitLab CI, GitHub Actions, MLflow, Kubeflow).
✅ Proven track record deploying and operating ML models in production environments.
✅ Fluent in Spanish (required).

Nice-to-Have

🔸 Experience applying ML in industrial, mining, or edge environments.
🔸 Familiarity with cloud platforms (AWS, Azure, GCP).
🔸 Strong background in model monitoring, data quality, or ML observability.

Benefits

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
Gross salary $5000 - 6000 Full time
VP of Artificial Intelligence
  • Niuro
Python Virtualization Amazon Web Services Artificial Intelligence
Niuro connects ambitious projects with elite tech teams and collaborates with leading U.S. companies. As our VP of AI, you will shape and execute the company’s AI strategy across multiple high-impact projects, overseeing the end-to-end lifecycle from ideation and research to production deployment and continuous optimization. You will partner with the CEO and cross-functional leaders to ensure AI initiatives align with business priorities, drive measurable value, and scale across diverse domains (data engineering, MLOps, cloud infrastructure, and productization). You will also lead the development of scalable, production-grade AI systems, foster a culture of technical excellence, and advocate for responsible AI practices within a globally distributed, remote-first organization.

Originally published on getonbrd.com.

Key Responsibilities

  • AI Strategy & Vision: Define and execute the organization's AI roadmap in close collaboration with the CEO, ensuring alignment with business priorities and market trends.
  • Technical Leadership: Lead by example—review architectures, guide model deployment strategies, and make high-impact decisions on data pipelines, LLM integration, and cloud scalability.
  • Architecture & Infrastructure: Oversee design and modernization of systems using AWS, Terraform, Kubernetes, FastAPI, Windows Server/IIS, and monitoring stacks (CloudWatch, Grafana).
  • Innovation & Productization: Drive the full lifecycle of AI initiatives—from research and prototyping to production deployment and ongoing optimization.
  • Cross-functional Collaboration: Partner with engineering, product, and data teams to ensure AI-driven initiatives deliver measurable value.
  • Executive Communication: Translate complex technical topics into actionable insights for leadership, investors, and clients.

Requirements

• 10+ years of experience in software engineering, AI/ML, or data architecture, with 5+ years leading technical or cross-functional teams. • Deep expertise in AI/ML engineering—proven ability to design, train, and deploy large-scale models (LLMs or ML pipelines) in production environments. • Expert-level skills in Python, cloud computing (AWS), and distributed systems. • Strong background in systems design, architecture modernization, and data engineering. • Hands-on experience implementing AI solutions end-to-end: data ingestion, model deployment, API integration, and monitoring. • Executive-level communication skills and ability to influence both technical and non-technical stakeholders. • Fluent in English (Spanish or Portuguese is a plus).

Nice to Have

• Experience in fintech, govtech, or enterprise SaaS environments. • Familiarity with AWS AI services, MLOps, and container orchestration (Kubernetes, ECS). • Exposure to LLM-based automation and agentic or retrieval-augmented systems (RAG). • Background in data governance, compliance, or model security.

Benefits

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
Gross salary $3500 - 4500 Full time
ML Engineer
  • Wird
Python Virtualization Amazon Web Services Continuous Deployment

Wird es una empresa en crecimiento que se especializa en mejorar la comunicación entre las empresas y sus clientes mediante soluciones basadas en Inteligencia Artificial. Su misión es transformar los procesos de ventas para aumentar la cantidad de cierres, reducir las tasas de fuga y mejorar la satisfacción del cliente. Además, se enfocan en rentabilizar las conversaciones, incrementando la eficiencia y la felicidad de los equipos de trabajo. La empresa está orientada a crear valor social en cada interacción y utiliza tecnologías de punta en IA, promoviendo un ambiente laboral agradable y colaborativo donde las contribuciones individuales son visibles y valoradas.

Job source: getonbrd.com.

Funciones del cargo

Como ML Engineer, tu propósito será diseñar, desarrollar y optimizar modelos de aprendizaje automático escalables, asegurando su precisión y eficiencia en producción. Implementarás y mantendrás pipelines de datos y métricas de monitoreo para garantizar un desempeño confiable.

Tus responsabilidades incluirán:

  • Diseñar, implementar y mantener pipelines de entrenamiento y fine-tuning para LLMs, incluyendo gestión de datasets, versionado y evaluación de modelos.
  • Optimizar la inferencia y el despliegue de modelos (batching, quantization, pruning, distillation) para lograr baja latencia y alto rendimiento en entornos productivos.
  • Desarrollar y mantener infraestructura MLOps especializada para LLMs, incluyendo automatización de retraining, monitoreo y control de calidad.
  • Integrar modelos de lenguaje de código abierto y APIs externas (OpenAI, Anthropic, Mistral, Llama, Hugging Face, etc.) dentro de los productos internos.
  • Implementar y escalar sistemas de Retrieval-Augmented Generation (RAG), manejo de embeddings y almacenamiento vectorial.
  • Crear herramientas para evaluar la calidad y comportamiento de los modelos (hallucinations, factuality, response consistency).
  • Colaborar con equipos de NLP y backend para integrar modelos de lenguaje en sistemas de producción de manera segura y eficiente.
  • Investigar, prototipar y aplicar los últimos avances en optimización de LLMs y modelos fundacionales, manteniendo a Wird a la vanguardia tecnológica.

Requerimientos del cargo

Buscamos un profesional con experiencia sólida en el ciclo de vida completo de los modelos de Machine Learning: desde el diseño hasta la implementación y monitoreo en entornos reales.

Se valorará especialmente:

  • Experiencia comprobable en entrenamiento, fine-tuning y despliegue de LLMs
  • Dominio de Python y frameworks como PyTorch, Transformers (Hugging Face) u otros
  • Conocimiento práctico en MLOps para LLMs: orquestación de pipelines (Airflow, Prefect, Kubeflow), versionado de datos/modelos (DVC, MLflow) y CI/CD.
  • Experiencia con infraestructura en la nube (AWS, GCP o Azure) y contenedores
  • Conocimientos en vector databases y servicios RAG, aplicados a la recuperación semántica y contextualización de respuestas.
  • Habilidad para analizar métricas de rendimiento y costo computacional, y para ajustar modelos según requerimientos de negocio.
  • Experiencia con optimización de inferencia (GPU/TPU utilization, quantization, mixed precision, caching).

Opcionales

Valoramos especialmente perfiles con una mentalidad analítica avanzada y entusiasmo por resolver problemas técnicos complejos.

  • Experiencia con LLM en plataformas como AI Foundry o Bedrock.
  • Capacidad para trabajar de forma colaborativa y efectiva en equipos multidisciplinarios, tanto técnicos como no técnicos.
  • Pasión por el aprendizaje continuo, la proactividad y la habilidad para tomar decisiones autónomas en contextos cambiantes.

Condiciones

  • Dias extra se vacaciones
  • Seguro de salud
  • Día libre de cumpleaños
  • Capacitaciones

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $3500 - 4500 Full time
NLP Engineer
  • Wird
Python Virtualization Amazon Web Services Docker
Wird es una empresa en crecimiento que se especializa en mejorar la comunicación entre las empresas y sus clientes mediante soluciones basadas en Inteligencia Artificial. Su misión es transformar los procesos de ventas para aumentar la cantidad de cierres, reducir las tasas de fuga y mejorar la satisfacción del cliente. Además, se enfocan en rentabilizar las conversaciones, incrementando la eficiencia y la felicidad de los equipos de trabajo. La empresa está orientada a crear valor social en cada interacción y utiliza tecnologías de punta en IA, promoviendo un ambiente laboral agradable y colaborativo donde las contribuciones individuales son visibles y valoradas.

Apply exclusively at getonbrd.com.

Funciones del cargo

Como NLP Engineer, tu misión principal será diseñar, desarrollar e implementar soluciones de procesamiento del lenguaje natural (NLP) que resuelvan problemas específicos del negocio, mejorando la eficiencia de los sistemas basados en texto.
Tus responsabilidades incluirán:
  • Diseñar y desarrollar pipelines de NLP end-to-end: limpieza, tokenización, vectorización, modelado y despliegue.
  • Implementar y adaptar modelos preentrenados (BERT, RoBERTa, GPT, Llama, Mistral), aplicando fine-tuning, prompt engineering y evaluación de desempeño.
  • Experimentar con técnicas de optimización (quantization, pruning, distillation) para mejorar eficiencia y latencia.
  • Desarrollar e integrar APIs y servicios que conecten los modelos NLP con los sistemas internos o productos de la empresa.
  • Analizar métricas de rendimiento (accuracy, F1, perplexity, latency) y realizar iteraciones basadas en evidencia.
  • Investigar y aplicar el estado del arte en aprendizaje profundo, embeddings semánticos, RAG (Retrieval-Augmented Generation) y agentes conversacionales.
  • Colaborar con equipos de Revenue y Produc

Requerimientos del cargo

Buscamos un profesional con experiencia comprobable en el diseño, desarrollo y optimización de soluciones de NLP.
  • Experiencia comprobable en procesamiento de lenguaje natural y desarrollo de modelos basados en Deep Learning.
  • Dominio de Python y bibliotecas como Hugging Face Transformers, PyTorch o TensorFlow.
  • Conocimientos en entrenamiento, fine-tuning y evaluación de modelos de lenguaje.
  • Experiencia con preprocesamiento de texto, embeddings, clasificación de texto, análisis de sentimientos o chatbots.
  • Familiaridad con MLOps, despliegue de modelos en entornos productivos (Docker, FastAPI, AWS/GCP/Azure).
  • Buen entendimiento de algoritmos de optimización, métricas de desempeño y manejo de datos desbalanceados.

Opcionales

Valoramos especialmente perfiles con una mentalidad analítica avanzada y entusiasmo por resolver problemas técnicos complejos.
  • Experiencia con LLM en plataformas como AI Foundry o Bedrock.
  • Capacidad para trabajar de forma colaborativa y efectiva en equipos multidisciplinarios, tanto técnicos como no técnicos.
  • Pasión por el aprendizaje continuo, la proactividad y la habilidad para tomar decisiones autónomas en contextos cambiantes.

Condiciones

  • Dias extra se vacaciones
  • Seguro de salud
  • Día libre de cumpleaños
  • Capacitaciones

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
$$$ Full time
Senior Gen AI Engineer
  • Niuro
Python Flask Back-end FastAPI
Niuro partners with elite U.S. companies to deliver autonomous, high-performance tech teams. This role sits within our Gen AI / AI systems squad, focused on building scalable AI-powered solutions for complex business problems. You will contribute to a global, remote-friendly delivery model, collaborating with cross-functional teams to design, prototype, and deploy LLM-driven applications. The project scope includes creating PoCs, iterating quickly based on feedback, and ensuring robust integration with multiple model providers and data sources. Niuro offers ongoing professional growth, leadership development, and a strong administrative backbone to enable engineers to focus on impact.

Exclusive offer from getonbrd.com.

What you'll do

  • Lead the design and implementation of Generative AI solutions and LLM-driven applications, with emphasis on reliability, scalability, and usability.
  • Develop and maintain backend services (Python-based) using FastAPI/Flask, integrate with model APIs (OpenAI, Anthropic, etc.), and build supporting tooling (memory, prompting strategies, tools, and evaluations).
  • Build and orchestrate multi-framework AI stacks (e.g., LangChain, LangGraph, Pydantic AI, CrewAI, AutoGen, LlamaIndex, Haystack) and ensure effective observability and monitoring (LLM observability, performance metrics).
  • Implement RAG pipelines, prompt engineering patterns, and multi-agent systems to solve complex tasks with high autonomy.
  • Create simple UIs for internal testing and demonstration (Streamlit, Gradio) and collaborate with frontend teams (React/Next.js) when needed.
  • Drive PoC deliveries within ~2 weeks, then iterate rapidly based on feedback and business value realization.
  • Collaborate across LATAM time zones with Spanish fluency, maintaining high autonomy, speed, and results orientation.

Required skills and experience

  • 1+ year of hands-on experience with large language models and Generative AI frameworks.
  • Practical experience with at least two frameworks from the following: LangChain, LangGraph, Pydantic AI, CrewAI, AutoGen, LlamaIndex, Haystack, or similar.
  • Proficiency in Python with backend experience using FastAPI, Flask, or equivalent.
  • Experience implementing LLM-powered applications (prompting, tools, memory, evaluations) and knowledge of memory management strategies for AI systems.
  • Knowledge of multi-agent systems and retrieval-augmented generation (RAG) pipelines.
  • Experience integrating with model APIs (OpenAI, Anthropic, etc.).
  • Ability to work on backend tasks and contribute to simple UIs (Streamlit or Gradio).
  • Fluent Spanish with ability to collaborate within Chile/LATAM time zones.
  • High level of autonomy, speed, and a results-driven mindset.

Nice to have

  • Experience with Azure or other cloud deployment platforms.
  • Familiarity with React or Next.js for frontend integration.
  • Experience with LLM observability tools (LangSmith, Weights & Biases, Arize/Phoenix, OpenTelemetry).
  • Exposure to CI/CD pipelines and deployment infrastructure.

What we offer

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
Gross salary $4500 - 7500 Full time
Head of Artificial Intelligence
  • Niuro
Python Virtualization Amazon Web Services Artificial Intelligence
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality. The Head of AI will join Niuro’s remote-first environment to define and drive the AI strategy across the organization, partnering with the CEO to align technology with business goals. You will lead the design and deployment of scalable, secure AI platforms, modernizing legacy systems while delivering transformative AI capabilities for our clients. This role sits at the intersection of strategic leadership and hands-on technical execution, guiding cross-functional teams and ensuring that AI initiatives translate into measurable business outcomes. You will also help nurture a global, high-performance workforce through mentorship, training, and strong governance around AI programs.

Exclusive offer from getonbrd.com.

Key Responsibilities

  • Vision & Strategy: Partner with the CEO to define and execute Niuro's AI roadmap, ensuring alignment with business objectives and market opportunities. Translate strategy into actionable programs with clear milestones and metrics.
  • Architecture Leadership: Serve as the chief AI architect, designing scalable, secure AI-driven systems. Lead the transition from legacy platforms to modern infrastructure while ensuring reliability and compliance.
  • Innovation & Delivery: Drive rapid development of new AI-powered features and services, balancing speed with maintainability and long-term support.
  • Technology Oversight: Guide the use of cloud-based technologies (AWS, Terraform, Kubernetes, Python, Windows Server/IIS, FastAPI). Implement monitoring (CloudWatch, Grafana) and data pipelines (AWS Glue/Lambda) to ensure scalability and observability.
  • People & Stakeholders: Communicate complex technical concepts clearly to executives, clients, and internal teams. Mentor senior engineers and foster a culture of scientific rigor and responsible AI.

Required Skills & Experience

8+ years in software engineering, data science, or AI with at least 3+ years in leadership. Proven track record deploying AI/ML solutions at scale in production environments. Strong systems design background and experience with cloud platforms (AWS preferred). Advanced Python programming skills; experience with modern AI frameworks and LLMs. Demonstrated success modernizing legacy platforms and delivering scalable, maintainable AI solutions. Exceptional executive-level communication abilities and a talent for translating technical concepts into business value. Fluent in English; Spanish or Portuguese is a plus.

Desirable Skills & Experience

Experience in regulated industries (fintech, govtech) and products with active users and customer support operations. Familiarity with AWS AI services, container orchestration (Kubernetes/ECS), and MLOps. Exposure to LLM-based automation and data engineering workflows. A proactive, entrepreneurial mindset with a bias for action and strong collaboration skills.

Benefits & Perks

We offer the chance to participate in impactful, technically rigorous industrial data projects that drive innovation and professional growth. Niuro supports a 100% remote work model, enabling global flexibility. We invest in career development through ongoing training and leadership opportunities, ensuring continuous growth. Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment. Joining Niuro means being part of a global community with strong administrative support that enables you to focus on impactful work.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $2500 - 3500 Full time
Senior ML Engineer (Software Development Background)
  • Niuro
JavaScript Python Front-end Virtualization
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality. Niuro empowers projects by providing autonomous, high-performance tech teams, specialized in partnering with top-tier U.S. companies. We offer continuous professional growth opportunities, training in technical and soft skills, and leadership development to ensure success in innovative and challenging projects. Additionally, we handle all administrative tasks, including hiring, payments, and training, allowing our teams to focus on delivering exceptional results. Our priority is to foster a collaborative environment where talent can grow and reach its full potential.

Applications: getonbrd.com.

Role overview

We’re looking for a versatile engineer who can move across data, backend, and machine learning projects. The role combines strong software engineering foundations with applied ML expertise, ensuring scalable, reliable, and production-ready solutions.

What you’ll do

  • Contribute to end-to-end ML projects, bridging data engineering, backend development, and model deployment.
  • Design, implement, test, and maintain scalable data pipelines and production-ready ML systems.
  • Collaborate with cross-functional teams to translate business requirements into robust technical solutions.
  • Apply best practices in software engineering (testing, CI/CD, version control) and operate within AWS-powered environments.
  • Work with data platforms such as Snowflake and Databricks; handle data ingestion, cleaning, and processing.
  • Experiment with time-series modeling, generative models, or recommendation systems as applicable to projects.
  • Leverage JavaScript knowledge as a plus when interfacing with front-end or data visualization components.

Desired background

Proven experience in Python and AWS, strong software engineering mindset, solid understanding of data engineering pipelines, and hands-on ML experience in at least one of time series, generative modeling, or recommendation systems. Familiarity with Snowflake and Databricks is a plus. Strong communication skills and ability to work in an international, remote-first environment.

What we offer

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

VIEW JOB APPLY VIA WEB
Gross salary $2000 - 3000 Full time
AI Engineer
  • Niuro
Python Virtualization Amazon Web Services Docker
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality. Niuro empowers projects by providing autonomous, high-performance tech teams specialized in partnering with top-tier U.S. companies. We focus on innovative and challenging projects that foster continuous professional growth and technological excellence.

Apply to this job without intermediaries on Get on Board.

About the Role:

We’re looking for an AI Engineer to help us develop intelligent agent systems that automate the processing of structured and semi-structured documents. Your work will improve user experience and internal workflows, focusing on automation, accuracy, and scalability.

Requirements:

  • Fluent English (written and spoken)
  • Strong programming skills in Python
  • Experience working with large language models (LLMs) such as OpenAI API or similar
  • Ability to design and build APIs using FastAPI
  • Familiarity with AWS or other cloud platforms

Nice-to-have:

  • Experience with Docker, Gunicorn, and Amazon ECS
  • Knowledge of Amazon Bedrock, Amazon Textract, BAML, and Pydantic AI
  • Familiarity with Aestiva HTML/OS and Streamlit for prototyping
  • Experience with frontend testing using Playwright and backend testing using pytest
  • Experience with monitoring tools like CloudWatch, Prometheus, and Grafana

Benefits:

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
Gross salary $2500 - 3500 Full time
AI Engineer Especialista en Llms y Transformers
  • Devups
Python Git Virtualization Amazon Web Services
En Devups, somos una empresa especializada en servicios de staff augmentation que permite a las compañías incorporar rápidamente desarrolladores y especialistas tecnológicos sin la complejidad asociada al reclutamiento tradicional. Nuestro enfoque se basa en proporcionar talento altamente calificado de forma flexible y escalable para potenciar el crecimiento y éxito de nuestros clientes. Actualmente, estamos trabajando con clientes en el desarrollo e integración de soluciones basadas en inteligencia artificial avanzada, particularmente en el área de modelos de lenguaje grandes (LLMs) y arquitecturas Transformer. Estos proyectos buscan innovar en el procesamiento y generación de lenguaje natural, optimizar pipelines de recuperación aumentada de generación (RAG) y desplegar sistemas inteligentes que impacten directamente en productos y servicios de última generación.

Send CV through getonbrd.com.

Responsabilidades principales

  • Diseñar, desarrollar y mantener pipelines eficientes para modelos de lenguaje, especialmente para tareas de fine-tuning y adaptación usando frameworks como Hugging Face.
  • Implementar y optimizar técnicas de RAG (Retrieval-Augmented Generation) para mejorar la integración de datos externos y contexto en los modelos.
  • Gestionar bases de datos vectoriales y embeddings con herramientas como FAISS o Pinecone para facilitar búsquedas semánticas efectivas.
  • Desarrollar APIs robustas para exponer modelos y servicios mediante frameworks Python como FastAPI o Flask.
  • Configurar y desplegar aplicaciones en entornos cloud escalables, utilizando principalmente AWS o Google Cloud Platform.
  • Colaborar en la integración continua y control de versiones mediante Git y Docker para garantizar la reproducibilidad y portabilidad del software.
  • Participar en la evaluación de modelos, experimentando con entrenamientos distribuidos y herramientas avanzadas como DeepSpeed o BitsAndBytes para mejorar la eficiencia y precisión.
  • Trabajar en equipo coordinadamente, aportando feedback, documentando buenas prácticas y manteniendo altos estándares de calidad en el desarrollo.

Perfil y requisitos técnicos

Buscamos ingenieros en inteligencia artificial con experiencia demostrable en el trabajo con modelos de lenguaje grandes (LLMs) y arquitecturas Transformer, que tengan pasión por la innovación y la implementación de soluciones escalables y bajo producción. El candidato ideal deberá contar con:
  • Experiencia práctica utilizando librerías y frameworks de última generación como Hugging Face, realizando fine-tuning con técnicas avanzadas como LoRA, QLoRA o PEFT.
  • Dominio de conceptos y herramientas para Retrieval-Augmented Generation (RAG), junto con manejo de embeddings y bases de datos vectoriales (FAISS, Pinecone).
  • Competencia avanzada en Python y desarrollo de APIs con FastAPI o Flask.
  • Experiencia en contenedorización con Docker, control de versiones con Git y despliegue en AWS o Google Cloud Platform.
  • Conocimientos en evaluación y benchmarking de modelos de IA, así como en entrenamiento distribuido y optimización usando herramientas como DeepSpeed o BitsAndBytes, que se valorarán altamente.
  • Nivel de inglés intermedio-alto (B2 o superior) para comunicarse de manera efectiva en equipos técnicos internacionales.
  • Capacidad de trabajo autónomo y remoto, proactividad en resolución de problemas y actitud colaborativa para trabajar en equipos distribuidos.
Valoramos especialmente la experiencia en modelado y evaluación rigurosa, así como el interés en seguir aprendiendo y aplicando tecnologías emergentes en el campo de la inteligencia artificial.

Habilidades y conocimientos adicionales valorados


  • Experiencia previa en entrenamiento y ajuste fino de modelos a gran escala en entornos de producción.
  • Conocimientos de optimización de modelos para eficiencia de inferencia y consumo de recursos.
  • Manejo de infraestructura en la nube orientada a machine learning, incluidos pipelines de MLOps.
  • Familiaridad con frameworks complementarios como LangChain para creación de cadenas conversacionales y RAG.
  • Capacidades básicas en otras áreas de la IA, como visión computacional o aprendizaje reforzado.
  • Habilidades comunicativas y capacidad para documentar procesos técnicos de forma clara y precisa.

Qué ofrecemos

Formarás parte de Devups, un entorno de trabajo flexible que impulsa la innovación, el crecimiento profesional y el aprendizaje continuo. Como empresa de staff augmentation, ofrecemos modalidad 100% remota en toda Latinoamérica, facilitando un equilibrio óptimo entre vida laboral y personal.
Promovemos el desarrollo profesional mediante capacitaciones y certificaciones en tecnologías punteras, asegurando que nuestro talento se mantenga a la vanguardia.
Además, nuestro modelo flexible te permite integrarte rápidamente a proyectos desafiantes con gran impacto, participando en la construcción de soluciones avanzadas en inteligencia artificial.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Vacation over legal Devups gives you paid vacations over the legal minimum.
VIEW JOB APPLY VIA WEB
$$$ Full time
WFH Entry Level Travel Consultant
  • Beths Beautiful Destinations
  • Remoto 🌎
Full Time Herramientas modernas de planificación y booking de viajes (provistas)

📌 Rol: WFH Entry Level Travel Consultant

🌎 Ubicación: 100% remoto

💼 Tipo de Contrato: Flexible (Part-Time o Full-Time)

🎓 Formación: No especificado (Entry Level)


📋 Descripción General

Beths Beautiful Destinations busca un/a Entry Level Travel Consultant para un rol remoto y flexible. Ideal para personas apasionadas por los viajes que disfrutan ayudar a otros a planificar experiencias memorables. No se requiere experiencia previa en la industria; la empresa brinda training completo y herramientas modernas.


📋 Responsabilidades Principales

• Asistir a clientes en la planificación y reserva de vacaciones.

• Construir relaciones positivas y de largo plazo con clientes.

• Recomendar destinos, hoteles y experiencias.

• Crear itinerarios usando herramientas de viaje modernas.


🎯 Requisitos

• Gusto por el trato con personas y la tecnología.

• Pasión por los viajes.

• No se requiere experiencia previa en turismo.


🏖️ Beneficios

• Ingresos potenciales hasta $67K+.

• Descuentos en viajes.

• Seguro de responsabilidad para agentes de viajes.

• Website dedicada gratuita.

• Training integral y trabajo desde casa.

• Horarios flexibles (elegís tu schedule).

• FAM (familiarization) incluido con la mayoría de certificaciones.

VIEW JOB APPLY VIA WEB
$$$ Full time
AI Researcher – Multilingual Data
  • featherless.ai
  • Remoto 🌎
Full Time Python PyTorch JAX benchmarks multilingües (XTREME FLORES

📌 Rol: AI Researcher – Multilingual Data

🌎 Ubicación: 100% remoto (Worldwide)

💼 Tipo de Contrato: Full-Time

🎓 Formación: No especificado


📋 Descripción General

Buscan un/a AI Researcher enfocado/a en datos multilingües para investigar, escalar y llevar a producción modelos de lenguaje en múltiples idiomas, incluyendo low-resource languages. El rol combina research de frontera, prototipos y aplicación real en sistemas productivos, con fuerte énfasis en publicación académica y ejecución en entorno startup.


📋 Responsabilidades Principales

• Diseñar y ejecutar research sobre datasets multilingües (recolección, filtrado, deduplicación y métricas de calidad).

• Desarrollar estrategias para low-resource y long-tail languages.

• Investigar cross-lingual transfer, alignment y robustez en LLMs.

• Construir y mantener benchmarks de evaluación multilingüe.

• Colaborar con ingeniería en training pipelines y decisiones de arquitectura.

• Publicar research en conferencias top y traducir hallazgos a mejoras en producción.


🎯 Requisitos

• Background sólido en NLP/ML con foco en modelos multilingües o cross-lingual.

• Publicaciones en conferencias/journals reconocidos (ACL, EMNLP, NeurIPS, ICML, ICLR, etc.).

• Experiencia con datasets de texto a gran escala en múltiples idiomas.

• Conocimiento en tokenization, data quality, bias y transfer learning.

• Capacidad de prototipar en Python con frameworks modernos.

• Autonomía y ritmo de ejecución tipo startup.


🏖️ Beneficios

• Ownership real sobre la dirección del research.

• Balance entre papers y producción.

• Acceso a datasets grandes e infraestructura moderna.

• Compensación competitiva + equity significativa en etapa temprana.

VIEW JOB APPLY VIA WEB
$$$ Project
English Specialist (US Only) - Freelance AI Trainer Project
  • Invisible
  • Remoto 🌎
Project Computadora segura y conexión a internet confiable

📌 Rol: English Specialist – AI Trainer (General Specialist)

🌎 Ubicación: 100% remoto (US Only)

💼 Tipo de Contrato: Freelance / Contract

🎓 Formación: No especificado (early-career y recién graduados preferidos)


📋 Descripción General

Proyecto freelance para entrenar modelos avanzados de IA. El rol consiste en interactuar con sistemas de IA, evaluar respuestas por claridad y precisión, detectar errores y brindar feedback estructurado para mejorar el rendimiento del modelo. No se requiere experiencia previa en IA; sí curiosidad, pensamiento crítico y buena comunicación.


📋 Responsabilidades Principales

• Probar y evaluar outputs de IA en distintos temas.

• Revisar calidad, claridad y exactitud de respuestas.

• Documentar errores, inconsistencias o gaps.

• Colaborar en la mejora de prompts, tareas y métodos de evaluación.

• Comunicar feedback de forma clara y estructurada.


🎯 Requisitos

• Inglés avanzado (oral y escrito).

• Perfil detallista, crítico y con buena comunicación.

• Interés por IA y aprendizaje continuo.

• Experiencia en research, escritura, tutoría o problem-solving (plus).

• Residencia en EE. UU.


🏖️ Beneficios

• Pago: desde $19 USD/hora (según experiencia y ubicación).

• Trabajo remoto.

• Proyecto ideal para perfiles junior / entry level.

• Impacto directo en el desarrollo de IA.

VIEW JOB APPLY VIA WEB
$$$ Project
Virtual Assistant (Contractor)
  • Credit Suite
  • Remoto 🌎
Project C-Suite

📌 Rol: Virtual Assistant (Contractor) / Virtual Sales Assistant

🌎 Ubicación: 100% remoto

💼 Tipo de Contrato: Full Time (Independent Contractor / Freelancer)

🧑‍💻 Seniority: Entry Level


📋 Descripción General

Credit Suite busca un/a Virtual Sales Assistant proactivo/a para apoyar al equipo de ventas en outreach a leads, follow-ups y gestión de relaciones. Es un rol customer-facing y sales-facing, con contacto frecuente con ejecutivos, C-Suite y dueños de negocio, por lo que se requiere comunicación de nivel ejecutivo y inglés casi perfecto.


📋 Responsabilidades Principales

• Contactar nuevos leads con script provisto y agendar citas para Account Executives.

• Realizar check-ins quincenales con partners para detectar necesidades, brindar soporte o escalar al Account Executive.

• Dar seguimiento a clientes con citas agendadas (recordatorios y confirmación de asistencia).

• Apoyar proyectos especiales y tareas ad-hoc.

• Asistir con tareas adicionales para el éxito del equipo de ventas.


🎯 Requisitos

• Independent Contractor / Freelancer (aceptan fuera de EE. UU.).

• Experiencia previa en sales support, lead gen o customer service (preferida, no obligatoria).

• Inglés casi perfecto (nativo o fluido) con acento neutral.

• Comodidad hablando con Executives, C-Suite y Business Owners.

• Organización, multitasking y priorización.

• Perfil self-motivated, orientado a objetivos y con ganas de aprender en entorno dinámico.


🕒 Horario

• Full time, turno de 8 horas.

• Horario posible entre 9 AM y 7 PM ET (lunes a viernes, horario laboral regular).


🏖️ Beneficios / Lo que ofrecen

• Contrato full-time de largo plazo.

• Trabajo directo con liderazgo y tomadores de decisión.

• Sistemas y scripts claros para trabajar.

• Oportunidad de crecimiento en equipo performance-driven.

VIEW JOB APPLY VIA WEB
$$$ Project
Contributing Writer
  • Valnet Concept
  • Remoto 🌎
Project writing

📌 Rol: Contributing Writer (Freelance)

🌎 Ubicación: 100% Remoto

💼 Tipo de Contrato: Contracted (freelance)

🧩 Nivel: Entry Level

🏢 Empresa: CarBuzz


📋 Descripción General

CarBuzz busca escritores/as freelance para crear contenido original y atractivo sobre temas automotrices (breaking news, análisis de industria y car culture), publicando de forma regular y trabajando con editores para mantener calidad y engagement.


📋 Responsabilidades Principales

• Redactar artículos informativos y alineados a la audiencia de CarBuzz.

• Mantenerse al día con tendencias, noticias y lanzamientos de vehículos.

• Cumplir deadlines ajustados y entregar a tiempo.

• Colaborar con editores e incorporar feedback.


🎯 Requisitos

• Experiencia comprobable escribiendo (ideal: automotriz o tech).

• Excelente capacidad de investigación y contenido original bien fundamentado.

• Conocimiento sólido de autos, historia automotriz y tendencias del sector.

• Inglés muy bueno para explicar ideas complejas de forma clara y concisa.

• Autonomía para gestionar carga de trabajo y tiempos.


📎 Para incluir en la postulación (opcional)

• Portfolio, testimonios de clientes y experiencia relacionada con la industria.

VIEW JOB APPLY VIA WEB
$$$ Full time
Senior Revenue Operations Manager
  • AUTOMATTIC
  • Remoto 🌎
Full Time Salesforce Gong ChiliPiper dashboards de BI integraciones RevOps

📌 Rol: Senior Revenue Operations Manager

🌎 Ubicación: 100% remoto (global)

💼 Tipo de Contrato: Full time

💰 Salario: USD $140,000 – $200,000 (pago en moneda local)


📋 Descripción General

WooCommerce busca un/a Senior Revenue Operations Manager para construir y escalar la función de Revenue Operations desde cero. Este rol senior, como contributor individual, tendrá alto nivel de ownership e influencia, trabajando en estrecha colaboración con los equipos de Sales y Customer Success para crear sistemas, procesos y bases de datos que habiliten crecimiento predecible y toma de decisiones clara.


📋 Responsabilidades Principales

• Diseñar y escalar la base operativa de Revenue Operations (procesos, sistemas y data).

• Gestionar herramientas e integraciones como Salesforce, Gong y ChiliPiper.

• Construir dashboards, reportes y modelos de forecasting.

• Operativizar procesos de Sales y Customer Success (renewals, churn, expansión, health scoring).

• Definir modelos de territorios, cuotas, compensaciones y capacity planning.

• Analizar métricas clave como NRR, CAC, LTV, ASP y pipeline health.

• Dar soporte estratégico a pricing, packaging y performance de revenue.


🎯 Requisitos

• 6–8+ años de experiencia en Revenue Operations.

• Experiencia construyendo RevOps desde cero o en grandes resets operativos.

• Fuerte perfil analítico y data-driven.

• Dominio avanzado de Salesforce y herramientas RevOps.

• Experiencia práctica trabajando con datos (SQL y/o Python).

• Capacidad para comunicar insights estratégicos a liderazgo ejecutivo.

• Uso concreto de AI aplicado al trabajo operativo y analítico.


🏖️ Beneficios

• Trabajo 100% remoto con política de vacaciones abiertas.

• Salario competitivo global, ajustado por impacto y contribución.

• Beneficios según país.

• Entorno open-source, diverso y global dentro de Automattic.

VIEW JOB APPLY VIA WEB
$$$ Full time
Data Analyst
  • Xapo Bank
  • Remoto 🌎
Full Time SQL BigQuery (plus) Python Looker GCP

📌 Rol: Data Analyst

🌎 Ubicación: 100% Remoto (Worldwide)

💼 Tipo de Contrato: Full Time

🎓 Formación: No especificada


📋 Descripción General

Xapo Bank busca un/a Data Analyst para habilitar analytics orientado a mejores decisiones financieras, creando data products para Finance y Treasury y apoyando a otras áreas. El rol combina análisis profundo, requests ad-hoc y reporting financiero/regulatorio recurrente, en un entorno de prioridades cambiantes, asegurando precisión y “single source of truth”.


📋 Responsabilidades Principales

• Analizar data transaccional y performance financiera para generar insights que impulsen crecimiento.

• Comunicar hallazgos con visualizaciones, storytelling y recomendaciones accionables.

• Construir y mantener data pipelines end-to-end.

• Diseñar y mantener dashboards en Looker (no Looker Studio) para self-service analytics.

• Traducir preguntas de negocio a requerimientos técnicos de datos y acompañar a stakeholders en el uso de data.

• Mejorar eficiencia en Finance/Treasury con análisis y recomendaciones estratégicas.

• Asegurar data accuracy y mantener una única fuente de verdad en reporting.

• Automatizar y mejorar procesos con analytics y predictive modelling; proponer mejoras continuas.


🎯 Requisitos

• 3+ años en un rol dedicado de data analytics.

• SQL avanzado (BigQuery es una ventaja fuerte).

• Data modelling sólido.

• Python para data analytics.

• Inglés excelente (oral y escrito) + habilidades de comunicación/presentación a audiencias no técnicas.

• Organización para manejar múltiples proyectos y alta atención al detalle.

• Espacio de trabajo dedicado + internet confiable.

• Plus: Looker developer, experiencia en finanzas/fintech/crypto, GCP (BigQuery, Cloud Functions, Vertex AI).


🏖️ Beneficios

• Trabajo 100% remoto “work from anywhere”.

• Flexibilidad de horario y PTO flexible.

• Presupuesto anual para aprendizaje y desarrollo.

VIEW JOB APPLY VIA WEB
$$$ Full time
Senior AI Developer
  • Improving South America
JavaScript Python Analytics Front-end

Improving South America es una empresa líder en servicios de TI que busca transformar positivamente la percepción del profesional de TI mediante consultoría de tecnología, desarrollo de software y formación ágil. Somos una organización con una cultura que fomenta el trabajo en equipo, la excelencia y la diversión, inspirando a nuestro equipo a establecer relaciones duraderas mientras ofrecemos soluciones tecnológicas de vanguardia. Nuestra misión está alineada con el movimiento de Capitalismo Consciente, promoviendo un entorno de trabajo excepcional que impulsa el crecimiento personal y profesional dentro de una atmósfera abierta, optimista y colaborativa.

Find this vacancy on Get on Board.

Responsabilidades del puesto

En Improving South America buscamos un/a Senior AI Developer para diseñar y construir funcionalidades avanzadas impulsadas por LLMs que transformen datos de ingeniería en insights accionables para líderes técnicos. Este rol combina AI/LLM engineering, análisis de datos, desarrollo frontend y principios de AI responsable, con alto nivel de ownership e impacto directo en el producto.

🛠️ Responsabilidades del rol

  • Diseñar y desarrollar features AI/LLM usando OpenAI, Google Gemini y LangChain.
  • Crear pipelines RAG y optimizar interacciones con LLMs (latencia, costos, precisión).
  • Transformar datos de ingeniería y analítica para que los modelos generen insights (riesgos, anomalías, forecasting).
  • Desarrollar componentes UI en Vue.js que integren outputs de IA en dashboards y visualizaciones.
  • Implementar controles de AI responsable: explicabilidad, sesgos, privacidad y gobernanza.
  • Colaborar con Producto, Data y Engineering, y brindar mentoría en IA y LLM workflows.

Requerimientos indispensables

  • 10+ años de experiencia en ingeniería de software.
  • 2+ años de experiencia desarrollando aplicaciones con IA / LLMs.
  • Inglés intermedio/avanzado (** Indispensable **)
  • Experiencia profunda en Python (procesamiento de datos, integración de modelos, transformación analítica).
  • Experiencia hands-on con Vue.js (Vue 2 y/o Vue 3).
  • Conocimiento sólido de OpenAI GPT, Google Gemini u otras plataformas de IA generativa.
  • Experiencia práctica con LangChain (LCEL, agentes, tools, retrievers, RAG).
  • Entendimiento profundo de cómo funcionan los LLMs internamente:
    • Tokens, embeddings, context windows
    • Prompts de sistema
    • Fine-tuning y evaluación de modelos
  • Experiencia creando features de IA sobre datasets reales, complejos y desordenados (analytics u operational data).
  • Conocimiento de AI risk, ética, sesgos y gobernanza.
  • Fuerte capacidad analítica para interpretar datos de ingeniería y convertirlos en insights accionables.
  • Alto nivel de ownership y autonomía.
  • Capacidad para comunicar conceptos complejos de IA a audiencias técnicas y no técnicas.
  • Mentalidad de producto y foco en impacto real.
  • Interés por construir IA responsable y confiable.

Requerimientos deseables

  • Experiencia con herramientas del SDLC.
  • Uso de retrieval basado en embeddings.
  • Conocimientos en evaluación de modelos de ML / LLMs.
  • Experiencia en visualización de datos.
  • Background en engineering analytics.
  • Experiencia construyendo servicios de IA escalables en producción.

Beneficios que ofrecemos

  • Contrato a largo plazo.
  • 100% Remoto.
  • Vacaciones y PTOs
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo
  • mucho mas..

Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
$$$ Full time
AI Software Automation Engineer
  • Signant Health
JavaScript Python Git REST API
Are you ready for the Most Impactful Work of Your Life?
Signant Health is a global evidence generation company. We’re helping our customers digitally enable their clinical trial programs, meeting patients where they are, driving change through technology and innovations, and reimagining the path to proof.
Where do you fit in?
Signant Health is seeking an AI Pathway Engineer to manage, optimize, and expand our SHAI (AI Helpdesk Assistant) platform powered by Bland AI. SHAI operates across voice, chat, and email channels, handling thousands of clinical trial support inquiries monthly through integrations with Genesys contact center, ServiceNow ITSM, and production platforms like ID Portal. This role combines conversational AI design, API integration expertise, and automation engineering to ensure SHAI delivers accurate, efficient customer support while continuously improving through data-driven optimization.

Find this job and more on Get on Board.

Job functions

  • Design, build and maintain SHAI conversational pathways in the Bland AI platform across voice, chat and email.
  • Implement multi‑language logic and localization quality for 15+ languages.
  • Continuously optimize conversation flows using analytics, A/B testing and user feedback.
  • Implement complex conditional logic (multi‑step authentication, account unlocks, ticket creation).
  • Define escalation and transfer triggers that hand off to Genesys queues for human agents.
  • Curate, structure and maintain the SHAI knowledge base content.
  • Version, test and validate pathway releases in sandbox before production deployment.
  • Troubleshoot pathway failures, logic errors and unexpected branches; perform root‑cause analysis.
  • Maintain and extend API integrations with ServiceNow (validation, study lookups, ticketing).
  • Build/optimize API connections with ID Portal (account unlocks, password resets, invitation resends).
  • Configure SHAI↔Genesys integrations for call transfers, queue routing and metadata handoff.
  • Monitor API reliability (latency, rate limits, error rates) and manage auth (OAuth, API keys, webhooks).
  • Document integrations (endpoints, payloads, retry/timeout strategies and error handling).
  • Build automated QA using n8n/Make and scripts; implement synthetic testing across languages and scenarios.
  • Develop transcript analytics and quality scoring using LLM pipelines; publish dashboards and reports for stakeholders.
  • Research, prototype and deliver enhancements leveraging new Bland AI/LLM capabilities and internal platform needs.

Qualifications and requirements

  • Strong REST API skills: JSON, OAuth, webhooks; proficient with Postman/cURL and debugging.
  • Conversational AI design expertise: intents, entities, dialog policy, escalation design.
  • Workflow automation with n8n/Make/Zapier; building reliable, monitored jobs.
  • Scripting in Python or JavaScript for automation, ETL and QA.
  • Advanced Excel/spreadsheet analysis (pivots, formulas, charts) for operational reporting.
  • Dashboard/BI experience (e.g., Grafana/Tableau/Power BI) to visualize KPIs.
  • Git version control and structured documentation practices.
  • Data analysis of conversation logs to detect patterns, gaps and improvements.
  • Rigorous problem‑solving, attention to detail and bias for action.
  • Clear written and verbal communication; customer empathy and cross‑functional collaboration.

Desirable skills

  • Hands‑on with Bland AI (or Voiceflow/Dialogflow) for pathway design and deployment.
  • Experience using CURSOR or AI‑assisted IDEs (GitHub Copilot, Replit).
  • Working knowledge of Claude or similar LLMs for transcript scoring and analysis.
  • HTML/CSS/JavaScript for lightweight internal tools and dashboards.
  • Deeper BI tool proficiency (Power BI, Looker) and data modeling.
  • NLP concepts (sentiment, NER, semantic similarity, RAG, function calling).
  • Healthcare/clinical trial or other regulated industry experience.
  • Localization/translation workflows and quality evaluation for multilingual CX.
  • ServiceNow and Genesys API experience and contact‑center concepts.
  • Experience designing synthetic.

VIEW JOB APPLY VIA WEB
Gross salary $4200 - 5300 Full time
Líder Técnico de IA / MLOps
  • Norun SpA
C C++ Python Linux

Norun SpA es una empresa nacional líder en estudios de transporte y tránsito, enfocada en mejorar la movilidad con tecnología de punta. Nuestra área de I+D está desarrollando una plataforma para gestión de tráfico mediante visión computacional aplicada a video. El proyecto busca entrenar modelos de IA con pipelines de ML Ops, desplegarlos en edges, y desarrollar una plataforma web que entregue los resultados agregados a usuarios finales. El/la Líder Técnico de IA y ML Ops desarrolla y además es el referente técnico del equipo de desarrollo/data science, con responsabilidad sobre arquitectura, rendimiento y escalabilidad.

Apply directly at getonbrd.com.

Funciones principales

  • Liderazgo Técnico: Trabajar junto al Data Scientist para alinear experimentación con producción. Guiar a desarrolladores junior en la creación de una plataforma web para usuarios finales compatible con la infraestructura de IA. Garantizar código de alta calidad y buenas prácticas de ingeniería.
  • Arquitectura: Diseñar la arquitectura de sistema de punta a punta desde ingestión de datos hasta despliegue en hardware edge. Seleccionar el stack tecnológico óptimo (edge, librerías de optimización, plataformas cloud).
  • Productización y Optimización de Modelos: Tomar modelos entrenados por el Data Scientist y aplicar técnicas de optimización (cuantización, pruning, destilación). Realizar profiling y benchmarks para asegurar FPS y latencia requeridos en edge. Desarrollar la inferencia de alto rendimiento en Python y/o C++ para dispositivos edge.
  • Infraestructura y Automatización MLOps: Diseñar y construir pipelines CI/CD para entrenamiento, validación y despliegue. Implementar control de versiones de datos (DVC) y de modelos (MLflow). Configurar infraestructura en Cloud/local con Docker y Kubernetes para un entorno de producción escalable.

Descripción detallada

Buscamos un/a Líder Técnico/a de IA con fuerte experiencia en desarrollo de software y entrega de soluciones de IA en producción. El/la candidato/a ideal debe combinar habilidades técnicas profundas (ingeniería de software, optimización de modelos para inferencia en edge, pipelines de MLOps) con capacidad de liderazgo y visión de arquitectura de software. Será responsable de la gestión técnica del proyecto, desde la concepción de la arquitectura hasta la entrega de productos de software que cumplan con los KPIs establecidos.

Requisitos de entorno técnico incluyen Python y/o C++, herramientas de MLOps (ej. MLflow), contenedores Docker, y experiencia con servicios de IA/ML en AWS o GCP. Se valorará experiencia en edge computing, perfiles de hardware (CPU/GPU/VPU) y conocimientos en Linux. La persona deberá liderar técnicamente el equipo, promover buenas prácticas de desarrollo y garantizar la calidad del producto, además de actuar como traductor entre ciencia de datos y desarrollo de aplicaciones.

Deseable

  • Habilidades de liderazgo técnico, capacidad de mentoría, visión de arquitectura de software y propiedad de la infraestructura. Se espera proactividad, autonomía, y facilidad para adaptarse a cambios.
  • Experiencia comprobable de despliegue de modelos de IA para procesamiento de video en infraestructura edge.
  • Experiencia comprobable en ML Ops.
  • Idiomas: inglés técnico para lectura de documentación.

Beneficios y condiciones

  • Se prefiere presencialidad pero existe opción híbrida/remota para candidatos excepcionales.
  • Este cargo cuenta con opción part time, más enfocada en el liderazgo técnico.
  • Ofrecemos un entorno de crecimiento y respeto, con enfoque en desarrollo profesional dentro de una empresa líder en análisis de transporte y movilidad. Únete a un equipo que está transformando la movilidad en Chile y la región con tecnología de vanguardia.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Norun SpA provides a computer for your work.
Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
$$$ Full time
Senior AWS Cloud Engineer
  • Merapar
  • Santiago (Hybrid)
Python Virtualization Amazon Web Services Cloud Computing
Merapar is a European Software/Technology consultancy company that specializes in cloud (AWS and GCP) , video platforms and utilities that now also has an office in Chile serves the Americas market. We work in small agile teams and help global video power houses such as BBC, NBC Universal, Liberty Global, Discovery to get innovations to the market. The senior cloud engineer will work with a team based in the UK that works on video platforms and monitoring solutions for utility companies

Find this job on getonbrd.com.

Job functions

  • Design and implement using IaC AWS based infrastructure solutions.
  • Create and maintain CI/CD pipelines.
  • Support existing cloud infrastructure.
  • Work inside Agile teams working collaboratively with other developers

Qualifications and requirements

  • Good level in English. The interviews will be in English
  • Over 8 years' experience with at least 3 years of AWS and Infrastructure as Code experience.
  • Extensive programming knowledge in Python or having experience in other languages and willing to learn Python
  • Extensive experience in cloud technologies with recent hands-on AWS knowledge.
  • Proven record of high-quality delivery and related documentation.
  • Able to take feature and functional requirements and convert them into technical solutions.
  • Resident in Chile and living in Santiago

Desirable skills

  • Extensive experience with Terraform

Conditions

  • Very experienced colleagues you can work with and learn from
  • 40 hour work week
  • 20 vacation days (and yes you can take them in the first year as well)
  • more unpaid vacation days if your manager approves
  • Macbook Pro to do your work on
  • Work from home.
  • We meet once per week to work and have lunch together
  • Paid sick days
  • A company that is willing to invest in your development

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Merapar pays or copays health insurance for employees.
Computer provided Merapar provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Merapar gives you paid vacations over the legal minimum.
VIEW JOB APPLY VIA WEB
Gross salary $2000 - 2200 Full time
Semi Senior Data Engineer (Enfocado en Calidad de Datos)
  • 23people
Python SQL Business Intelligence Big Data
Equifax Chile es la filial local de Equifax Inc., compañía global de datos, analítica y tecnología presente en 24 países. Desde 1979 operamos en Chile, entregando soluciones en riesgo crediticio, análisis de datos, identidad y ciberseguridad a más de 14.000 empresas.Nuestro Centro de Desarrollo en Santiago (SDC) lidera la transformación digital de Equifax a nivel global, concentrando cerca del 60% de sus desarrollos tecnológicos. Promovemos una cultura de colaboración, innovación y excelencia técnica, donde el talento local crea soluciones de impacto mundial.

Apply through Get on Board.

Funciones del cargo

¿Qué harás en tu día a día?
Responsabilidades Clave:
  • QA de Migración a la Nube: Participar en la ejecución de pruebas para la migración de datos desde bases de datos on-premise (MySQL/Oracle) hacia BigQuery/GCP.
  • Validación Multinivel: Ejecutar y desarrollar casos de prueba que validen tres niveles críticos:
    1. Integridad del dato crudo (Source vs. Target).
    2. Correcta aplicación de la lógica de transformación ELT.
    3. Cumplimiento de las reglas de negocio definidas en la nueva arquitectura.
  • QA de Procesos Analíticos: Colaborar en la validación de resultados de procesos posteriores a la carga, como el cálculo de scores y segmentaciones, asegurando la coherencia de los datos con los resultados esperados de negocio.
  • Automatización de Pruebas: Evolucionar desde validaciones manuales hacia la automatización. Desarrollar scripts en Python para automatizar comparaciones de datos y aprender a crear/mantener DAGs en Apache Airflow para pipelines de validación de calidad de datos.
  • Monitoreo y Reportería: Utilizar Looker Studio para crear y mantener dashboards de control de calidad de datos que permitan visualizar discrepancias, métricas de salud del dato y el progreso de la migración para los stakeholders.

Requerimientos del cargo

Skills

  • Cloud: Airflow, Cloud Composer, Glue, Lambda u otros.
  • Lenguajes de Programación (al menos manejar uno nivel usuario intermedio):
    • Python
    • SQL/BigQuery
  • Experiencia en análisis y analitica.
  • Looker Studio / PowerBI / Tableau / otros.
  • Conocimiento sobre el manejo de datos: **Importante**
    • Conocimiento sobre los conceptos de ambientes de datos.
    • Conocimiento sobre los conceptos de calidad de datos.
    • Conocimiento de modelado de procesos y flujos de datos
Contrato indefinido desde el inicio con 23people - Tiempo del proyecto 6 meses con posible extensión
Modalidad: Home Office con residencia en Chile.
Experiencia: Desde 2 años en adelante
Horario: Lunes a viernes de 9:00 a 18:00 hrs

Deseables

  • Conocimientos en las tecnologías: Spark - DataProc / DataFlow
  • Experiencia en procesos de manejo de datos:
    • Procesamiento en lotes
    • Procesamientos distribuidos.

Beneficios

Algunos de nuestros beneficios
  • Seguro complementario: Seguro de salud, vida y dental
  • Curso de inglés: En nuestro programa de formación en idioma inglés, ofrecemos dos modalidades para adaptarnos a tus necesidades y objetivos.
  • Reembolso de certificaciones internacionales: Apoyamos el crecimiento profesional, por lo que te reembolsamos el costo de un examen de certificación internacional que quieras realizar.
  • Bono de vacaciones: Por cada semana que te tomes de vacaciones te otorgamos una compensación.
  • Aguinaldos en fiestas patrias y Navidad: Queremos que en fechas tan especiales la pases bien junto a tu familia, por lo que te entregamos un bono en septiembre y diciembre
  • Día libre de cumpleaños: Puedes optar por tomar tu día libre, el día previo a tu cumpleaños, el mismo día de tu cumpleaños o el día posterior.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance Equifax pays or copays life insurance for employees.
Health coverage Equifax pays or copays health insurance for employees.
Dental insurance Equifax pays or copays dental insurance for employees.
Computer provided Equifax provides a computer for your work.
Vacation on birthday Your birthday counts as an extra day of vacation.
VIEW JOB APPLY VIA WEB
$$$ Full time
Senior QA Engineer
  • Improving South America
JavaScript Ruby Ruby on Rails Python

Improving South America es una empresa líder en servicios de TI que busca transformar positivamente la percepción del profesional de TI mediante consultoría de tecnología, desarrollo de software y formación ágil. Somos una organización con una cultura que fomenta el trabajo en equipo, la excelencia y la diversión, inspirando a nuestro equipo a establecer relaciones duraderas mientras ofrecemos soluciones tecnológicas de vanguardia. Nuestra misión está alineada con el movimiento de Capitalismo Consciente, promoviendo un entorno de trabajo excepcional que impulsa el crecimiento personal y profesional dentro de una atmósfera abierta, optimista y colaborativa.

Exclusive offer from getonbrd.com.

Job functions

En Improving South America estamos buscando un/a QA Engineer Senior para sumarse a nuestro equipo y ser una pieza clave en la calidad, estabilidad y confiabilidad de nuestros productos. La persona que se incorpore tendrá un rol activo en la definición de procesos de calidad, automatización de pruebas y acompañamiento de los equipos de desarrollo.

Qualifications and requirements

  • Al menos 3 años de experiencia práctica en automatización de pruebas, tanto API como UI.
  • Experiencia sólida en frameworks de testing automatizado con Selenium.
  • Capacidad para escribir código de pruebas automatizadas.
  • Amplia experiencia en detección, análisis y resolución de bugs.
  • Conocimiento profundo de buenas prácticas de QA.
  • Experiencia con una o más de las siguientes tecnologías:
    • AWS, Kubernetes, GraphQL
    • Python, Ruby, Rails
    • React, JavaScript
    • Jenkins, Jira, GitHub
    • SQL
  • Nivel de ingles: B2+

Conditions

  • Contrato a largo plazo.
  • 100% Remoto.
  • Vacaciones y PTOs
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo
  • mucho mas..

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Improving South America offers space for internal talks or presentations during working hours.
Digital library Access to digital books or subscriptions.
Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
VIEW JOB APPLY VIA WEB
$$$ Full time
SRE
  • OpenLoop
  • Lima (Hybrid)
Python Linux Go DevOps
About OpenLoop

OpenLoop was co-founded by CEO, Dr. Jon Lensing, and COO, Christian Williams, with the vision to bring healing anywhere. Our telehealth support solutions are thoughtfully designed to streamline and simplify go-to-market care delivery for companies offering meaningful virtual support to patients across an expansive array of specialties, in all 50 states.

Applications at getonbrd.com.

Funciones del cargo

Cross-Functional Collaboration

  • Partner with engineering teams to improve system reliability and deployment practices
  • Engage with Openloop teams on SRE guidelines and best practices about automation and infrastructure
  • Work with security teams to implement secure, compliant infrastructure

Operational Excellence

  • Ensure 24/7 system availability and rapid incident response
  • Implement and maintain disaster recovery and business continuity plans
  • Skilled at performance tuning — identifying bottlenecks at infra, app, and database layers.

Security

  • Understanding of cloud security principles (least privilege, network segmentation, encryption at rest/in transit).
  • Familiarity with compliance frameworks (SOC 2, ISO 27001, GDPR, HIPAA) and how SRE supports them.

Cultural

  • Advocate for blameless culture and continuous improvement.
  • Collaborate closely with product and engineering to make reliability a shared responsibility.

Requerimientos del cargo

  • 2 - 3 years of experience in infrastructure, DevOps, or Site Reliability Engineering
  • Good background in AWS, particularly with serverless architectures
  • Understanding of observability and incident management
  • Strong knowledge in at least one programming language (Typescript, Python, Go, etc.). Previous experience as a Developer is a plus
  • Knowledge of Linux/Unix systems and networking
  • Experience with Infrastructure as Code (AWS CDK, Cloudformation)
  • Experience managing monitoring and observability tools (Prometheus, Grafana, ELK, etc.)
  • Knowledge of CI/CD pipelines and deployment automation (Github Actions, GitLab CI, etc)
  • Understanding of database systems and performance optimization
  • Leadership & Communication
  • English (C1) fluency
  • Excellent verbal and written communication skills
  • Ability to translate technical concepts to non-technical audiences
  • Good problem-solving and decision-making capabilities
  • Experience with agile methodologies

Condiciones

  • Contract under a Peruvian company ID("Planilla"). You will receive all the legal benefits in Peruvian soles (CTS, "Gratificaciones", etc).
  • Monday - Friday workdays, full time (9 am - 6 pm).
  • Unlimited Vacation Days - Yes! We want you to be able to relax and come back as happy and productive as ever.
  • EPS healthcare covered 100% with RIMAC --Because you, too, deserve access to great healthcare.
  • Oncology insurance covered 100% with RIMAC
  • AFP retirement plan—to help you save for the future.
  • We’ll assign a computer in the office so you can have the best tools to do your job.
  • You will have all the benefits of the Coworking space located in Lima - Miraflores (Free beverage, internal talks, bicycle parking, best view of the city)

Life insurance OpenLoop pays or copays life insurance for employees.
Partially remote You can work from your home some days a week.
Health coverage OpenLoop pays or copays health insurance for employees.
Dental insurance OpenLoop pays or copays dental insurance for employees.
Computer provided OpenLoop provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal OpenLoop gives you paid vacations over the legal minimum.
VIEW JOB APPLY VIA WEB
$$$ Full time
QA Engineer Senior
  • BC Tecnología
  • Santiago (Hybrid)
JavaScript Java Python Analytics
En BC Tecnología operamos como una consultora de TI con foco en servicios IT, desarrollo de proyectos y outsourcing. Nos especializamos en diseñar equipos ágiles para Infraestructura, Desarrollo de Software y Unidades de Negocio, trabajando con clientes de servicios financieros, seguros, retail y gobierno. Participarás en proyectos innovadores para clientes de alto nivel, apoyando la entrega de soluciones de calidad desde la definición de requisitos hasta la validación y mejora continua de procesos. Nuestro objetivo es integrar soluciones que respondan a las necesidades del cliente, con énfasis en metodologías ágiles, crecimiento profesional y desarrollo de productos, manteniendo un enfoque claro en la experiencia del usuario y la eficiencia operativa.

Apply to this job directly at getonbrd.com.

Funciones principales

Participar en la definición de requisitos, flujos de trabajo y procesos de control de calidad. Colaborar activamente en ceremonias ágiles (Scrum, Kanban). Diseñar, documentar y ejecutar planes y casos de prueba. Ejecutar pruebas funcionales y no funcionales (usabilidad, compatibilidad, rendimiento, seguridad). Realizar testing frontend, backend, APIs y mobile. Reportar, gestionar y dar seguimiento a bugs, defectos e incidencias. Analizar logs, servicios y data de prueba para identificar causas raíz. Evaluar el impacto de cambios en el producto. Monitorear métricas de calidad y estabilidad (Grafana, Kibana u otras). Participar en la ejecución y análisis de procesos de CI/CD. Ejecutar y analizar procesos automatizados de prueba. Detectar oportunidades de mejora en el proceso de desarrollo. Apoyar la gestión de calidad de uno o más equipos de desarrollo.

Requisitos y perfil

Más de 3 años de experiencia en roles de QA / Quality Assurance. Experiencia sólida en QA manual avanzado. Experiencia en pruebas de aplicaciones web, mobile y web services. Experiencia en pruebas de API (Postman, SoapUI). Conocimiento del ciclo de vida del desarrollo de software (SDLC). Experiencia trabajando con metodologías ágiles. Manejo de herramientas de gestión de pruebas e incidencias (Jira, TestLink, Zephyr u otras). Capacidad de documentación técnica clara (casos de prueba, resultados, defectos). Habilidad analítica, atención al detalle y orientación a la mejora continua.
Conocimientos técnicos valorados: lenguajes orientados a objetos (Python, Java o JavaScript). Buenas prácticas de desarrollo (encapsulamiento, escalabilidad). Automatización de pruebas (web, servicios, mobile o scripting). Revisión de código (peer review). Herramientas de debugging (IDE, navegador). Patrones arquitectónicos (MVC, arquitectura en capas, event-driven). CI/CD (Pipelines, Jenkins, Bitrise). Infraestructura y cloud (Docker, AWS, Azure). Control de versiones (GitHub, GitLab, Bitbucket).
“Para avanzar en el proceso, es necesario cumplir con los requisitos técnicos y de experiencia señalados.”

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.

VIEW JOB APPLY VIA WEB
$$$ Full time
QA Engineer (Web) – Part Time
  • Niuro
Python Agile QA Scrum
Niuro connects projects with elite tech teams, empowering collaborative work with leading U.S. companies. As a QA Engineer, you will contribute to impactful industrial data projects that emphasize technical excellence and continuous innovation. You will join a globally distributed team focused on delivering high-quality web applications and robust testing practices. This role supports our mission to simplify global talent acquisition by providing autonomous, high-performance teams and strong administrative support so you can focus on delivering exceptional results.

Originally published on getonbrd.com.

Role goals and responsibilities

  • Review, test, and validate features delivered by developers in each sprint to ensure quality from requirements to release.
  • Perform functional, regression, exploratory, and edge-case testing across web applications.
  • Identify risks early and provide clear, actionable feedback to the development team.
  • Design, implement, and maintain Playwright automation scripts for UI and API tests.
  • Create and maintain comprehensive technical documentation, including end-to-end system flows.
  • Independently validate features from requirements through production readiness, ensuring reliability and performance.
  • Collaborate with cross-functional teams in an Agile/Scrum environment to improve product quality and testing processes.
  • Contribute to test strategy, test case design, and CI/CD integration for automated testing within pipelines.

Required skills and experience

We are seeking a QA Engineer with a minimum of 4+ years of web-focused QA experience. You should have strong manual testing capabilities and hands-on automation experience using Playwright (UI and API testing) or equivalent tools. A solid understanding of RESTful APIs, HTTP methods, and status codes is essential. Proficiency in scripting with TypeScript and/or Python is required. You will be comfortable testing complex systems and workflows, and have experience working in Agile/Scrum environments. Excellent analytical, problem-solving, documentation, and communication skills are necessary, along with the ability to communicate effectively in English with international teams.

Nice-to-have attributes

Familiarity with additional test automation frameworks and tools, experience with performance testing, and exposure to containerized environments (Docker/Kubernetes) are advantageous. Prior experience in data-heavy or industrial data projects, and a track record of driving quality improvements in cross-functional teams will be highly valued. Strong collaborative mindset and ability to adapt to evolving project requirements in a remote global setting are desirable.

What we offer

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
$$$ Full time
DevOps/SRE (Oci Azure GCP)
  • BC Tecnología
  • Santiago (Hybrid)
Linux DevOps Continuous Deployment Azure
BC Tecnología es una consultora de TI que administra portafolio, desarrolla proyectos y ofrece outsourcing y selección de profesionales. Buscamos un DevOps/SRE para diseñar, implementar y operar una plataforma en la nube Oracle Cloud (OCI), asegurando disponibilidad, seguridad y escalabilidad. Participarás en proyectos con clientes de alto nivel en sectores como servicios financieros, seguros, retail y gobierno, aplicando prácticas SRE, automatización y observabilidad para entregar soluciones robustas y seguras.

Job opportunity on getonbrd.com.

Responsabilidades y tareas

  • Operar infraestructura en OCI (redes, balanceadores, WAF, bases de datos y almacenamiento).
  • Administrar Kubernetes/OKE, contenedores, Helm y GitOps (Argo CD).
  • Automatizar despliegues y procesos con Terraform, CI/CD (GitLab/Jenkins/GitHub Actions) y scripting (Bash/Python).
  • Implementar observabilidad con Prometheus, Grafana y ELK/OCI Logging; aplicar prácticas SRE.
  • Gestión de seguridad: IAM, Policies, Vault/KMS, escaneo de imágenes y cumplimiento de estándares.
  • Colaborar con equipos de desarrollo y operaciones para garantizar alta disponibilidad y rendimiento.
  • Documentar arquitectura, cambios y procedimientos operativos; participar en revisiones de diseño.

Requisitos y perfil buscado

Formación en Informática o áreas afines. Mínimo 3 años de experiencia en DevOps, SRE o Gestión de plataformas. Experiencia operativa en OCI y Kubernetes en entorno productivo. Sólidos conocimientos de Linux, redes, infraestructura como código (IaC), CI/CD y monitoreo de sistemas.

Competencias deseables

Certificaciones OCI o K8s (CKA/CKAD/CKS) y experiencia en entornos regulados.
Conocimiento de seguridad en la nube, gestión de identidades y claves, y experiencia con herramientas de seguridad como escaneo de imágenes y cumplimiento de normas.

Beneficios y entorno

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
$$$ Full time
AWS Cloud Engineer IA & Automation
  • WiTi
  • Santiago (Hybrid)
Python Analytics Virtualization Amazon Web Services

WiTi es una empresa chilena de tecnología enfocada en software de integración de sistemas y soluciones móviles, con presencia en Chile, Uruguay y Colombia. Buscamos fortalecer nuestro equipo con un AWS Cloud Engineer especializado en configuración de servicios cloud, automatización y herramientas de IA dentro del ecosistema AWS. El foco del rol es la orquestación de servicios, configuración de agentes inteligentes, bases de conocimiento y flujos automatizados para clientes enterprise. El candidato se integrará en proyectos de transformación digital, impulsando soluciones escalables de IA sin desarrollo extensivo de código y trabajando en estrecha colaboración con equipos de desarrollo y negocio para traducir requerimientos en arquitecturas cloud orientadas a IA y automatización.

Apply at the original job on getonbrd.com.

Funciones

Configurar y administrar servicios de IA dentro de la consola AWS (Bedrock, agentes, bases de conocimiento) para soluciones empresariales. Diseñar e implementar flujos automatizados y spaces para procesamiento inteligente de información. Orquestar servicios cloud para habilitar soluciones de IA aplicada sin necesidad de desarrollo extenso de código. Configurar y optimizar herramientas de analytics y visualización (QuickSight). Participar en la definición de arquitecturas cloud orientadas a IA y automatización. Colaborar con equipos de desarrollo y negocio para traducir requerimientos en soluciones cloud escalables. Mantener buenas prácticas de seguridad, gobernanza y cumplimiento. Identificar oportunidades de optimización de coste y rendimiento. Documentar procedimientos, guías y patrones de migración. Apoyar en la formación y transferencia de conocimiento a equipos internos.

Descripción

Buscamos un profesional con experiencia en el ecosistema AWS, enfocado en configuración de servicios de IA, agentes inteligentes y automatización de flujos. El foco principal es la orquestación y configuración de servicios dentro de la consola AWS, no desarrollo de código intensivo. Se valorará experiencia con AWS Bedrock, bases de conocimiento vectoriales, configuración de agentes y QuickSight. Se espera capacidad analítica, orientación a la resolución de problemas y habilidad para trabajar en equipos multidisciplinarios. Conocimiento de Python es un plus, pero no excluyente. Debes estar cómodo trabajando en entornos dinámicos y en colaboración con clientes y equipos internos para entregar soluciones robustas y escalables.

Requisitos Deseables

Experiencia con AWS Bedrock y servicios de IA de Amazon; familiaridad con RAG y bases de conocimiento; experiencia en configuración de pipelines de datos sin código; conocimientos de Python como complemento. Se valorará certificaciones relevantes de AWS y experiencia en entornos multiculturales y regionales. Capacidad de comunicar conceptos técnicos a audiencias no técnicas y de trabajar con stakeholders para alinear soluciones con objetivos de negocio.

Beneficios

En WiTi ofrecemos un entorno de trabajo híbrido (presencial los lunes en oficina, resto remoto). Promovemos una cultura de aprendizaje continuo y colaboración. Beneficios clave:

  • Plan de carrera personalizado para desarrollo profesional.
  • Certificaciones, para seguir creciendo en tu carrera.
  • Cursos de idiomas, apoyando el desarrollo personal y profesional.

Si eres apasionado por la tecnología y quieres formar parte de nuestro equipo, queremos conocerte.

Digital library Access to digital books or subscriptions.
Computer provided WiTi provides a computer for your work.
Personal coaching WiTi offers counseling or personal coaching to employees.
VIEW JOB APPLY VIA WEB
Gross salary $5000 - 6000 Full time
AWS Engineer Bogotá
  • Servicio Latam
  • Bogotá (In-office)
Python Linux Virtualization Amazon Web Services

Ingeniero de Sistemas / DevOps con sólida experiencia en administración de servidores Linux en entornos de producción, desarrollo y pruebas. Especialista en la gestión y optimización de servidores de aplicaciones como Apache Tomcat y Oracle WebLogic, así como en la implementación y operación de infraestructura en AWS (EC2, S3, IAM, RDS). Cuenta con experiencia en automatización de infraestructura mediante Terraform (IaC), monitoreo de sistemas y aplicaciones, gestión de seguridad, parches y actualizaciones. Orientado a la estabilidad operativa, mejora continua y documentación de buenas prácticas.

Apply exclusively at getonbrd.com.

Job functions

Responsabilidades:
Administrar servidores Linux en entornos de producción, desarrollo y pruebas.
Gestionar y optimizar servidores de aplicaciones como Apache Tomcat y Oracle WebLogic.
Implementar y mantener soluciones en AWS, incluyendo EC2, S3, IAM, RDS, entre otros.
Automatizar despliegues y configuraciones mediante Terraform y otras herramientas de Infraestructura como Código (IaC).
Experiencia con MongoDB.
Monitorear el rendimiento de sistemas y aplicaciones, aplicando medidas preventivas y correctivas.
Gestionar parches, actualizaciones y políticas de seguridad en sistemas operativos y middleware.
Documentar procedimientos, configuraciones y buenas prácticas.

Qualifications and requirements

Habilidades:
Experiencia sólida en administración de sistemas Linux (RedHat, CentOS, Ubuntu).
Conocimiento avanzado en servidores de aplicaciones: Tomcat y WebLogic.
Experiencia práctica en AWS (certificación deseable).
Dominio de Terraform para infraestructura como código.
Familiaridad con herramientas de monitoreo (Zabbix, Prometheus, Grafana).
Conocimientos en scripting (Bash, Python).

Conditions

Compensation
Contratación Prestación de Servicios
Salario Abierto

VIEW JOB APPLY VIA WEB
Gross salary $3500 - 4000 Full time
Generative AI Engineer
  • Genesys Tecnologías de Inform. SpA
  • Santiago (Hybrid)
Python Virtualization Amazon Web Services Azure
Somos una empresa con 35 años en el mercado, con una fábrica de desarrollo de software y servicios de outsourcing. Nuestra matriz está en Concepción y operamos desde Santiago. Buscamos incorporar a un/una Generative AI Engineer para unirse a nuestro equipo de innovación y desarrollo de soluciones avanzadas de Inteligencia Artificial. El proyecto implica diseñar, desarrollar y desplegar soluciones de IA generativa, con foco en modelos de lenguaje de gran tamaño (LLMs), IA multimodal y pipelines escalables que se integren en entornos productivos. Colaborarás con equipos multidisciplinarios para identificar casos de uso, aplicar técnicas de ML y asegurar el cumplimiento de estándares éticos y de privacidad. Este rol te permitirá trabajar en proyectos desafiantes dentro de un entorno dinámico y orientado a la transformación digital de nuestros clientes en Latinoamérica.

Applications at getonbrd.com.

Funciones

Desarrollar, ajustar (fine-tuning) y optimizar modelos de IA generativa (LLMs, modelos de difusión, etc.) para distintos casos de uso. Implementar pipelines de IA escalables e integrar los modelos en entornos productivos. Colaborar con equipos multidisciplinarios para identificar casos de uso y entregar soluciones basadas en IA. Investigar tendencias emergentes en IA generativa y aplicar técnicas innovadoras para mejorar el rendimiento de los modelos. Asegurar el cumplimiento de principios éticos de IA y estándares de privacidad de datos. Participar en la definición de roadmaps tecnológicoss y participar en revisiones de código y pruebas de rendimiento.

Descripción

Requisitos y Habilidades: Título profesional o magíster en Computación, Inteligencia Artificial o carrera afín. 5 a 8 años de experiencia en desarrollo AI/ML, con al menos 2 años trabajando en IA generativa. Dominio de Python, TensorFlow y/o PyTorch. Experiencia con bases de datos vectoriales: Azure AI Search, OpenSearch, PgVector, ChromaDB, entre otras. Conocimiento de frameworks de IA agéntica como LangGraph, CrewAI, Autogen u otros. Manejo avanzado de herramientas de desarrollo asistido por IA como Cursor, Claude Code o GitHub Copilot. Fuerte comprensión de LLMs, transformers y modelos de difusión. Experiencia en plataformas cloud (AWS, Azure o GCP) y herramientas de MLOps. Buenas habilidades de comunicación y resolución de problemas. Deseable: experiencia en prompt engineering y RLHF. Conocimientos en IA multimodal (texto, imagen, audio).

Deseables

Experiencia en prompt engineering y RLHF (Reinforcement Learning from Human Feedback). Conocimientos en IA multimodal (texto, imagen, audio). Experiencia trabajando en entornos de desarrollo colaborativo y metodologías ágiles. Capacidad para aprender rápidamente y adaptarse a cambios en un entorno tecnológico en constante evolución.

Beneficios

Ofrecemos contratación por proyecto con condiciones claras en un ambiente laboral dinámico y orientado al desarrollo profesional. Formarás parte de una empresa consolidada en Latinoamérica con más de tres décadas de experiencia, que valora el talento y fomenta la innovación. Contamos con equipo multidisciplinario y comunicación diaria con nuestra matriz en Santiago y otras operaciones, lo que facilita la colaboración y el soporte técnico. Si te sumas a nuestro equipo, tendrás la oportunidad de crecer y contribuir al desarrollo de soluciones innovadoras en IA para nuestros clientes.

VIEW JOB APPLY VIA WEB
$$$ Full time
AI Engineer Jr
  • Improving South America
Python Artificial Intelligence Machine Learning Deep Learning
Improving South America es una empresa líder en servicios de TI que busca transformar positivamente la percepción del profesional de TI mediante consultoría de tecnología, desarrollo de software y formación ágil. Somos una organización con una cultura que fomenta el trabajo en equipo, la excelencia y la diversión, inspirando a nuestro equipo a establecer relaciones duraderas mientras ofrecemos soluciones tecnológicas de vanguardia. Nuestra misión está alineada con el movimiento de Capitalismo Consciente, promoviendo un entorno de trabajo excepcional que impulsa el crecimiento personal y profesional dentro de una atmósfera abierta, optimista y colaborativa.

Official job site: Get on Board.

Funciones del cargo

En Improving South America, estamos en búsqueda de un Ingeniero de IA Junior que esté entusiasmado por unirse a nuestro equipo. Este rol es ideal para alguien que desea contribuir con sus conocimientos en inteligencia artificial y colaborar en proyectos innovadores que marcan la diferencia en diversas industrias.
Desarrollar y entrenar modelos de Machine Learning, asegurando su correcta implementación, validación y ajuste según los objetivos del negocio.
Aplicar técnicas de Procesamiento del Lenguaje Natural (NLP) para resolver problemas complejos, integrando LLMs, RAGs, embeddings y arquitecturas de agentes inteligentes.
Implementar buenas prácticas de observabilidad y monitoreo en modelos desplegados, incluyendo tracking de métricas clave, alertas y registros.
Realizar pruebas, mediciones de performance y mejoras continuas de accuracy en los modelos existentes.
Colaborar con equipos multidisciplinarios (científicos de datos, ingenieros, producto) para alinear soluciones técnicas con necesidades estratégicas.
Utilizar herramientas y librerías en Python como TensorFlow, PyTorch, Scikit-learn, entre otras, para el desarrollo de soluciones de inteligencia artificial.

Requerimientos del cargo

  • Nivel de inglés: Intermedio/avanzado (B2/C1).
  • Experiencia en Machine Learning, incluyendo desarrollo y entrenamiento de modelos.
  • Experiencia en AI Forecasting (excluyente), específicamente con:
    • Modelos de series temporales tradicionales (ARIMA, Prophet).
    • Redes neuronales recurrentes (RNN, LSTM).
    • Transformers aplicados a predicción.
    • Modelos multivariables para forecasting sobre grandes volúmenes de datos.
  • Experiencia en NLP (Procesamiento del Lenguaje Natural):
    • LLMs (Large Language Models).
    • RAGs (Retrieval-Augmented Generation).
    • Embeddings.
    • Arquitecturas de agentes inteligentes.
    • Buenas prácticas de observabilidad y monitoreo.
    • Medición de métricas, testing y mejora de accuracy.
    • Sólido manejo de Python y librerías como TensorFlow, PyTorch, Scikit-learn, entre otras.
    • Experiencia trabajando con grandes volúmenes de datos y construcción de pipelines de ML.

Conditions

  • 100% Remoto.
  • Vacaciones y PTOs.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Improving South America gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
VIEW JOB APPLY VIA WEB
Gross salary $5000 - 6000 Full time
AWS Engineer México
  • Servicio Latam
  • Ciudad de México (In-office)
Python Linux Virtualization Amazon Web Services

Ingeniero de Sistemas / DevOps con sólida experiencia en administración de servidores Linux en entornos de producción, desarrollo y pruebas. Especialista en la gestión y optimización de servidores de aplicaciones como Apache Tomcat y Oracle WebLogic, así como en la implementación y operación de infraestructura en AWS (EC2, S3, IAM, RDS). Cuenta con experiencia en automatización de infraestructura mediante Terraform (IaC), monitoreo de sistemas y aplicaciones, gestión de seguridad, parches y actualizaciones. Orientado a la estabilidad operativa, mejora continua y documentación de buenas prácticas.

© getonbrd.com.

Job functions

Responsabilidades:
Administrar servidores Linux en entornos de producción, desarrollo y pruebas.
Gestionar y optimizar servidores de aplicaciones como Apache Tomcat y Oracle WebLogic.
Implementar y mantener soluciones en AWS, incluyendo EC2, S3, IAM, RDS, entre otros.
Automatizar despliegues y configuraciones mediante Terraform y otras herramientas de Infraestructura como Código (IaC).
Experiencia con MongoDB.
Monitorear el rendimiento de sistemas y aplicaciones, aplicando medidas preventivas y correctivas.
Gestionar parches, actualizaciones y políticas de seguridad en sistemas operativos y middleware.
Documentar procedimientos, configuraciones y buenas prácticas.

Qualifications and requirements

Habilidades:
Experiencia sólida en administración de sistemas Linux (RedHat, CentOS, Ubuntu).
Conocimiento avanzado en servidores de aplicaciones: Tomcat y WebLogic.
Experiencia práctica en AWS (certificación deseable).
Dominio de Terraform para infraestructura como código.
Familiaridad con herramientas de monitoreo (Zabbix, Prometheus, Grafana).
Conocimientos en scripting (Bash, Python)

Conditions

Condiciones
Contrato prestacion de servicios
Salario abierto

VIEW JOB APPLY VIA WEB
Gross salary $5000 - 6000 Full time
AWS Engineer Costa Rica
  • Servicio Latam
  • San José (In-office)
Python Linux Virtualization Amazon Web Services

Ingeniero de Sistemas / DevOps con sólida experiencia en administración de servidores Linux en entornos de producción, desarrollo y pruebas. Especialista en la gestión y optimización de servidores de aplicaciones como Apache Tomcat y Oracle WebLogic, así como en la implementación y operación de infraestructura en AWS (EC2, S3, IAM, RDS). Cuenta con experiencia en automatización de infraestructura mediante Terraform (IaC), monitoreo de sistemas y aplicaciones, gestión de seguridad, parches y actualizaciones. Orientado a la estabilidad operativa, mejora continua y documentación de buenas prácticas.

© getonbrd.com.

Job functions

Responsabilidades:
Administrar servidores Linux en entornos de producción, desarrollo y pruebas.
Gestionar y optimizar servidores de aplicaciones como Apache Tomcat y Oracle WebLogic.
Implementar y mantener soluciones en AWS, incluyendo EC2, S3, IAM, RDS, entre otros.
Automatizar despliegues y configuraciones mediante Terraform y otras herramientas de Infraestructura como Código (IaC).
Experiencia con MongoDB.
Monitorear el rendimiento de sistemas y aplicaciones, aplicando medidas preventivas y correctivas.
Gestionar parches, actualizaciones y políticas de seguridad en sistemas operativos y middleware.
Documentar procedimientos, configuraciones y buenas prácticas.

Qualifications and requirements

Habilidades:
Experiencia sólida en administración de sistemas Linux (RedHat, CentOS, Ubuntu).
Conocimiento avanzado en servidores de aplicaciones: Tomcat y WebLogic.
Experiencia práctica en AWS (certificación deseable).
Dominio de Terraform para infraestructura como código.
Familiaridad con herramientas de monitoreo (Zabbix, Prometheus, Grafana).
Conocimientos en scripting (Bash, Python).

Conditions

Condiciones
Contrato prestación de servicios
Salario abierto

VIEW JOB APPLY VIA WEB
$$$ Full time
Ingeniero/a de Plataforma
  • 2BRAINS
Python Linux Continuous Integration Continuous Deployment
2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.
Contamos con un nutrido equipo de más de 480 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.
En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

Apply directly through getonbrd.com.

El/La Ingeniero/a de Plataforma de 2Brains debe

El rol del Ingeniero de plataforma se encargara de diseñar y mantener infraestructuras seguras y escalables que impulsan la velocidad y eficiencia de los equipos de desarrollo. Se apoya en prácticas de Infraestructura como Código (Terraform, Ansible) para automatizar el aprovisionamiento y asegurar entornos consistentes y reproducibles.
Además, incorpora observabilidad y monitoreo para optimizar desempeño y costos, y gestiona la plataforma como un producto, con foco en el Developer Experience (DevEx). También lidera iniciativas de AI-Enhanced Operations, habilitando detección temprana de anomalías, auto-remediación y escalamiento predictivo.

¿Qué desafíos tendrá el/la Ingeniero/a de Plataforma?

  • Evolución de CI/CD: Diseñar, mantener y mejorar pipelines de integración y despliegue continuo, asegurando releases rápidos, seguros y confiables.
  • Colaboración y consultoría interna: Trabajar estrechamente con los equipos de desarrollo, entendiendo sus flujos de trabajo y transformando sus necesidades en soluciones de infraestructura efectivas.
  • Soporte operativo y resolución de bloqueos: Atender incidencias y brindar apoyo técnico en el día a día del ciclo de desarrollo, garantizando que los equipos puedan entregar valor sin fricciones.
  • Definición de estándares y documentación: Crear y mantener lineamientos claros que mejoren la calidad del proceso de despliegue y fomenten la autonomía de los desarrolladores.
  • Automatización: Detectar tareas repetitivas o complejas dentro del ciclo de vida del software y desarrollar scripts o herramientas que simplifiquen y automaticen estos procesos.

¿Qué conocimientos buscamos en el/la Ingeniero/a de Plataforma?

  • Experiencia en CI/CD: Manejo sólido de herramientas como GitLab CI (ideal), Jenkins o GitHub Actions.
  • Experiencia en Cloud Computing: Preferentemente en Google Cloud Platform (GCP).
  • Kubernetes (nivel usuario): Capacidad para desplegar aplicaciones, gestionar manifiestos y realizar troubleshooting de servicios (no se requiere experiencia avanzada en administración del clúster).
  • Programación y scripting: Conocimientos prácticos en Python o Bash para automatización y desarrollo de herramientas internas.
  • Infraestructura como Código: Experiencia con Terraform será considerada una ventaja.
  • Deseable: Conocimientos en autoescalado con KEDA, Service Mesh (Istio) o Cloud Functions en GCP.
  • Orientación al servicio y empatía: Habilidad para comunicarse de forma efectiva con equipos de desarrollo, comprender sus desafíos y priorizar soluciones que mejoren su experiencia diaria.

¿Qué competencias buscamos en el/la Ingeniero/a de Plataforma?

  • Colaboración
  • Orientación a resultados
  • Aprendizaje continuo
  • Pensamiento sistémico
  • Apertura al cambio
  • Comunicación
  • Mentoría
  • Pensamiento estratégico
  • Dar y recibir feedback
  • Influencia y persuasión

Te ofrecemos

  • Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos
  • Acceso a grandes clientes y proyectos desafiantes
  • Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales
  • Un entorno de trabajo flexible y dinámico.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
$$$ Full time
DevOps con AWS, Terraform y Github Actions
  • WiTi
DevOps Virtualization Amazon Web Services Continuous Deployment
WiTi es una empresa de software y soluciones tecnológicas dedicada a la integración de sistemas, software a medida y desarrollos innovadores para dispositivos móviles. Nuestro objetivo es resolver problemas complejos mediante soluciones innovadoras y actuar como un partner estratégico para ayudar a nuestros clientes a tomar decisiones tecnológicas.
Este puesto forma parte de nuestro equipo de DevOps, trabajando en un entorno 100% remoto y multicultural, enfocado en la gestión de infraestructuras en la nube y en la automatización de procesos para mejorar la eficiencia operativa.

Apply through Get on Board.

Funciones del cargo

Buscamos un DevOps con experiencia en la gestión y optimización de infraestructura en la nube, especialmente en AWS. Será responsable de la implementación y gestión de IaC utilizando Terraform, así como de la automatización de flujos de trabajo con GitHub Actions. Sus funciones incluyen:
  • Administrar y mantener la infraestructura en AWS, asegurando disponibilidad, escalabilidad y seguridad.
  • Diseñar, implementar y mantener pipelines de CI/CD para liberar software de forma eficiente y segura.
  • Automatizar procesos para mejorar la eficiencia operativa y reducir tiempos de entrega.
  • Monitorear rendimiento, capacidad y costos; proponer mejoras basadas en métricas.
  • Colaborar estrechamente con equipos de desarrollo y operaciones para resolver incidencias y mejorar prácticas.
  • Aplicar buenas prácticas de seguridad y cumplimiento normativo en la infraestructura y procesos.
Buscamos proactividad, capacidad de comunicarse con diferentes equipos y orientación a resultados.

Descripción

Requerimos al menos 3 años de experiencia trabajando con Terraform para provisión y administración de infraestructuras en AWS. Se valorará experiencia en diseñar y mantener pipelines CI/CD con GitHub Actions y en prácticas de automatización y monitorización modernas. Debe demostrar capacidad para diseñar soluciones escalables, seguras y eficientes, y trabajar de forma colaborativa en equipos multidisciplinares. Se esperan habilidades de resolución de problemas, comunicación clara y enfoque en la mejora continua. Conocimientos en seguridad de la nube, cumplimiento normativo y gestión de costos son deseables.

Desirable

Certificaciones relevantes en AWS (por ejemplo, AWS Solutions Architect, DevOps Engineer) y/o Terraform Certified. Experiencia adicional con herramientas de orquestación, plataformas de observabilidad y scripting (Python, Bash). Capacidad para gestionar incidentes críticos y experiencia en entornos ágiles. Habilidades de mentoría y capacidad para compartir conocimientos dentro de un equipo remoto.

Beneficios

En WiTi, ofrecemos un entorno de trabajo 100% remoto, lo que permite una gran flexibilidad y autonomía. Además, promovemos un ambiente colaborativo donde la cultura del aprendizaje es parte fundamental. Entre nuestros beneficios están:
  • Plan de carrera personalizado para el desarrollo profesional.
  • Certificaciones, para continuar creciendo en tu carrera.
  • Cursos de idiomas, apoyando el desarrollo personal y profesional.
En WiTi, nuestro centro son las personas y la agilidad. Creemos en equipos 100% remotos y multiculturales, compartimos conocimientos entre todas las áreas y promovemos un ambiente de aprendizaje continuo. Horario flexible, posibilidad de formación y acompañamiento en tu desarrollo profesional. Si eres apasionado por la tecnología y quieres formar parte de nuestro equipo, ¡nos encantaría conocerte!

Fully remote You can work from anywhere in the world.
Digital library Access to digital books or subscriptions.
Computer provided WiTi provides a computer for your work.
Personal coaching WiTi offers counseling or personal coaching to employees.
VIEW JOB APPLY VIA WEB
$$$ Full time
Cloud Support Engineer
  • Improving South America
Python MySQL Linux Virtualization

Improving South America es una empresa líder en servicios de TI que busca transformar positivamente la percepción del profesional de TI mediante consultoría de tecnología, desarrollo de software y formación ágil. Somos una organización con una cultura que fomenta el trabajo en equipo, la excelencia y la diversión, inspirando a nuestro equipo a establecer relaciones duraderas mientras ofrecemos soluciones tecnológicas de vanguardia. Nuestra misión está alineada con el movimiento de Capitalismo Consciente, promoviendo un entorno de trabajo excepcional que impulsa el crecimiento personal y profesional dentro de una atmósfera abierta, optimista y colaborativa.

Apply from getonbrd.com.

Funciones del cargo

Estamos buscando contratar a un Ingeniero de Soporte Cloud que sea experto en resolución de problemas, aprenda rápido, sea entusiasta, altamente motivado y capaz de brindar una excelente experiencia de soporte mientras ayuda a que los clientes empresariales tengan éxito con sus nubes basadas en open-source. En esta posición, el ingeniero interactuará con los ingenieros SysAdmin/DevOps del cliente y los asistirá en la resolución de problemas que surjan en su entorno OpenStack/Kubernetes, manteniendo un alto nivel de cumplimiento de SLA. Este rol implica aprendizaje continuo y perfeccionamiento de habilidades en OpenStack y Kubernetes.

Como Ingeniero de Soporte Cloud, serás responsable del soporte técnico y la consultoría para la creciente base de clientes reportando al Global Cloud Support Manager, cumpliendo con las siguientes responsabilidades:

  • Monitoreo de la cola de tickets (5%)
  • Resolución independiente de problemas de clientes (50%)
  • Explicar y revisar problemas a través de Zoom (5–7%)
  • Mantenimiento de la base de conocimiento/documentación (10%)
  • Capacitación (uno a uno, estudio personal, capacitaciones/handovers) (10%)
  • Reuniones (5–7%)
  • Proyectos (reportes, automatización, customer success, desarrollo de procesos) (10%)

Requerimientos del cargo

  • Conocimiento práctico de los componentes de OpenStack, su arquitectura y su flujo de datos (indispensable).
  • Conocimiento de tecnologías satélite de OpenStack (MySQL, OVS, RabbitMQ, namespaces de red, hipervisores, etc.).
  • Comprensión de clústeres Kubernetes y experiencia práctica resolviendo problemas en clústeres Kubernetes en producción.
  • Más de 3 años de experiencia manejando escalaciones de clientes mediante respuestas por portal, videollamadas (Webex, Zoom, etc.) o teléfono para resolver casos o escalaciones según sea necesario.
  • Excelentes habilidades de comunicación oral y escrita.
  • Experiencia en administración Linux y conocimiento de subsistemas de almacenamiento y redes.
  • Buen entendimiento de tecnologías de virtualización como KVM, libvirt, Xen.
  • Conocimientos básicos de redes: TCP/UDP, DNS, DHCP, ICMP y direccionamiento IP.
  • Competencia en programación y scripting en Python, Bash, awk o sed.
  • Contar con un nivel de inglés intermedio-avanzado o avanzado (indispensable para realizar reuniones y llamadas en inglés).

Opcionales

  • SDN (OVS/OVN), flujo de control de OpenStack, herramientas de gestión de configuración, Golang, AWS, EKS, CKA, Terraform, PCA

Condiciones

  • Contrato a largo plazo.
  • 100% Remoto.
  • Vacaciones y PTOs
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo
  • mucho mas..

VIEW JOB APPLY VIA WEB
Gross salary $2400 - 3200 Full time
Cloud Engineer AWS + Python
  • CoyanServices
Python Agile SQL Virtualization

CoyanServices ofrece una oportunidad 100% remota para profesionales en LATAM en modalidad freelance/tiempo completo orientada a migración y desarrollo de soluciones de automatización inteligente con IA. El proyecto principal se enfoca en la migración de procesos RPA hacia soluciones nativas en la nube (AWS/Azure), con énfasis en IA y automatización cognitiva. Buscamos desarrollar agentes digitales, microservicios y APIs dentro del ecosistema AWS/Azure, integrando modelos de lenguaje (LLMs) y CI/CD para garantizar escalabilidad, rendimiento y cumplimiento en entornos ágiles. El rol colabora estrechamente con clientes y equipos de desarrollo para entregar soluciones robustas y operativas de alto impacto.

Apply exclusively at getonbrd.com.

Objetivos del rol

  • Apoyar la migración de procesos RPA hacia soluciones nativas en la nube (AWS/Azure) con enfoque en inteligencia artificial.
  • Desarrollar agentes digitales y microservicios que integren automatización, APIs y modelos de lenguaje (LLMs).
  • Implementar soluciones de IA conversacional y marcos de automatización cognitiva que optimicen procesos operativos.
  • Asegurar buenas prácticas de desarrollo, escalabilidad y cumplimiento dentro de metodologías ágiles.

Responsabilidades

  • Migrar procesos de Automation Anywhere hacia soluciones en AWS y Azure.
  • Desarrollar agentes digitales y automatizaciones con enfoque en Machine Cognitive Processing (MCP).
  • Crear microservicios y APIs dentro del ecosistema AWS (API Gateway, AppSync).
  • Diseñar e implementar prompts efectivos para integrar soluciones con LLMs (AWS Bedrock, Azure OpenAI).
  • Desplegar e integrar aplicaciones en AWS/Azure, garantizando su estabilidad y rendimiento.
  • Participar en el análisis de requerimientos del cliente y definición técnica de soluciones.
  • Aplicar buenas prácticas de desarrollo, versionamiento y metodologías ágiles (Scrum/Kanban).

Requisitos Técnicos

  • Lenguajes: Python (requerido)
  • Nube: AWS (requerido)
  • Experiencia en bases de datos SQL (requerido).
  • Experiencia en Automation Anywhere (deseable).
  • Conocimientos en AWS Connect, Lambda, Azure Cognitive Services (deseable).
  • Familiaridad con AWS Bedrock o Azure OpenAI para soluciones de IA conversacional (deseable).
  • Experiencia en NoSQL (deseable).
  • Conocimiento en procesos operativos y automatización.
  • Experiencia con CI/CD (CloudFormation) y despliegues en entornos cloud.
  • Metodologías ágiles (Scrum/Kanban).

Deseables

Perfil Profesional:

  • Experiencia: 3–5 años en desarrollo de software.

Habilidades blandas:

  • Autonomía y proactividad.
  • Capacidad analítica para la resolución de problemas.
  • Comunicación efectiva con clientes y equipos técnicos.
  • Adaptabilidad a nuevas tecnologías y entornos cambiantes.
  • Orientación al trabajo colaborativo y resultados.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $1800 - 3000 Full time
QA Automation (Cypress) Hibrido (Sector Oriente Chile)
  • Vita solutions SPA
  • Santiago (Hybrid)
JavaScript Java Python Git

Vita Wallet es una de las principales empresas de latinoamérica en el segmento de pagos cross border y crypto. Nuestra misión es permitir que empresas y personas puedan enviar y recibir pagos entre países de forma rápida, económica y segura.

Desde nuestra fundación en 2019, nos hemos enfocado en crear valor para nuestros clientes y consolidarnos regionalmente en LatAm. Desde entonces, miles de empresas y decenas de miles de personas han usado nuestros servicios. En este momento, nos encontramos en fase de escalamiento, no solo comercial, sino también a nivel tecnológico.

Job opportunity published on getonbrd.com.

Job functions

Se busca QA con al menos 3 años de experiencia, con el objetivo de garantizar la calidad del software mediante la ejecución de pruebas manuales y automatizadas utilizando Cypress, participando activamente en el ciclo de desarrollo para detectar y prevenir errores desde etapas tempranas.

️ Responsabilidades

● Diseñar, documentar y ejecutar pruebas manuales en aplicaciones web.

● Crear y mantener casos de prueba y reportes de resultados.

● Reportar errores de manera clara y estructurada.

● Automatizar pruebas E2E (end-to-end) usando Cypress.

● Automatizar pruebas mobile usando Appium.

● Automatizar pruebas API.

● Mantener y actualizar suites de pruebas automatizadas.

● Trabajar junto al equipo de desarrollo, product owners y QA en ciclos ágiles

● Participar en revisiones de historias de usuario y criterios de aceptación.

Qualifications and requirements

● Experiencia en pruebas manuales en aplicaciones web y móviles.

● Conocimientos sólidos en automatización con Cypress.

● Experiencia en pruebas móviles con Appium(Java/Python).

● Conocimientos en pruebas de servicios/API

● Conocimientos en lenguaje JavaScript.

● Conocimiento en herramientas de control de versiones (Git).

Habilidades blandas

● Atención al detalle y pensamiento analítico.

● Capacidad de trabajar en equipo y comunicar hallazgos de forma efectiva.

● Proactividad para proponer mejoras en procesos de testing.

● Adaptabilidad a cambios y aprendizaje continuo.

Desirable skills

Experiencia en el sector financiero

Conditions

Día de cumpleaños libre.
Oportunidades de capacitación

Computer provided Vita solutions SPA provides a computer for your work.
Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
$$$ Full time
QA Senior (Automatización + AWS)
  • BC Tecnología
  • Santiago (Hybrid)
JavaScript Python Agile QA

En BC Tecnología somos una consultora de TI con experiencia en administrar portafolios, desarrollar proyectos, realizar outsourcing y selección de profesionales para clientes de servicios financieros, seguros, retail y gobierno. Buscamos integrar a un QA Senior especializado en automatización de pruebas y validación de plataformas en AWS, para trabajar en proyectos de alto impacto con clientes de primer nivel. El rol forma parte de un equipo ágil y dinámico, orientado a la entrega de soluciones confiables y escalables en entornos de Cloud y tecnología avanzada.

Applications: getonbrd.com.

Funciones

  • Definir e implementar estrategias de automatización de pruebas para aplicaciones web y APIs, utilizando herramientas como Playwright, Cypress, Puppeteer, Selenium o Pytest según el stack.
  • Diseñar, mantener y ejecutar planes de pruebas automatizadas, incluyendo pruebas de API, integración y regresión, con pipelines de CI/CD (Jenkins, GitHub Actions o GitLab).
  • Trabajar con AWS (ECS, Lambda, API Gateway, SQS, etc.) para validar despliegues, entornos y configuraciones, asegurando rendimiento y estabilidad.
  • Configurar y ejecutar pruebas de rendimiento (JMeter, k6, Gatling) y validar métricas con herramientas de monitoreo (CloudWatch, New Relic u otros).
  • Gestionar entornos contenedores Docker, ejecutando pruebas en entornos aislados y paralelos para acelerar la entrega.
  • Realizar pruebas de validación de interfaces, datos y flujos de negocio, asegurando la calidad de extremo a extremo.
  • Gestionar defectos y seguimientos en Jira, TestRail, Zephyr u otras herramientas de gestión de pruebas, proporcionando reportes claros y métricas de calidad.
  • Trabajar de forma colaborativa con equipos de desarrollo, seguridad y operaciones para promover prácticas de calidad y automatización.

Descripción

Buscamos un QA Senior con al menos 3 años de experiencia en automatización y validación de plataformas en AWS. El candidato ideal debe estar orientado a la entrega de soluciones de alta fiabilidad, con capacidad para diseñar e implementar estrategias de pruebas automatizadas y de rendimiento en entornos Cloud.
Requisitos clave incluyen experiencia en automatización con JavaScript/TypeScript (Playwright, Cypress, Puppeteer) o Python (Selenium, Pytest, Behave), pruebas de API (Postman/Newman) y BDD (Gherkin/Cucumber). Se valorará experiencia en CI/CD, contenedores Docker y monitoreo de aplicaciones en AWS, así como conocimiento de herramientas de gestión de pruebas (Jira, TestRail, Zephyr u similares). Se espera capacidad de trabajar en equipo, pensamiento analítico, atención al detalle y habilidades de comunicación para reportar hallazgos de forma clara.
Deseables conocimientos en fintech, medios de pago o retail, y experiencia previa en entornos ágiles, multiculturales y con clientes de alto perfil.

Requisitos deseables

Experiencia en entornos de servicios financieros, fintech o retail, con exposición a proyectos de integración de sistemas y plataformas de pago. Conocimiento adicional en seguridad de aplicaciones, pruebas de accesibilidad y cumplimientonormativo relacionado con regulaciones del sector. Habilidad para priorizar tareas, gestionar múltiples historias de usuario y trabajar de forma proactiva en un ambiente colaborativo. Certificaciones relacionadas con AWS, pruebas de software o metodologías ágiles serán valoradas positivamente.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
VIEW JOB APPLY VIA WEB
Gross salary $2000 - 2300 Full time
DevOps Semi Senior
  • Genesys Tecnologías de Inform. SpA
  • Santiago (Hybrid)
Git DevOps Virtualization Amazon Web Services
Genesys Tecnologías de Inform. SpA es una empresa de desarrollo de software y servicios TI con más de 30 años de experiencia en el mercado latinoamericano. Nuestro objetivo es acompañar a las empresas en su Transformación Digital, brindando soluciones en desarrollo de software, monitoreo y mantenimiento de plataformas, IA, QA y servicios de outsourcing. Buscamos incorporar un Ingeniero DevOps Semi Senior para fortalecer nuestro equipo técnico en un entorno híbrido entre Concepción y Santiago, enfocado en garantizar la disponibilidad y rendimiento de nuestra plataforma web, APIs y servicios asociados, a través de prácticas de monitoreo, automatización y mejora continua.

This job is original from Get on Board.

Principales funciones

  • Implementar, configurar y mantener herramientas de monitoreo y alertas para todos los componentes de la plataforma web.
  • Monitorear el rendimiento de la infraestructura en la nube (AWS), APIs, servicios backend y aplicaciones frontend para garantizar alta disponibilidad y rendimiento.
  • Detectar, diagnosticar y resolver incidentes de disponibilidad o rendimiento de forma oportuna.
  • Colaborar con equipos de desarrollo, infraestructura y soporte para optimizar entornos de despliegue y operación.
  • Automatizar tareas de monitoreo, despliegue y gestión de incidentes cuando sea posible, promoviendo prácticas CI/CD.

Requisitos y perfil deseado

Buscamos un Ingeniero DevOps Semi Senior con al menos 2-3 años de experiencia en roles DevOps. Se valora sólida experiencia en servicios Cloud AWS y en monitoreo de plataformas web (Grafana, Prometheus, Datadog, New Relic u otras herramientas similares). Debe poseer conocimientos en CI/CD, Docker y control de versiones (Git). Capacidad para trabajar de forma colaborativa con equipos multidisciplinarios y para resolver problemas con pensamiento crítico y enfoque en la calidad.
Competencias clave: compromiso con la excelencia operativa, proactividad, buenas habilidades de comunicación, capacidad de trabajar en entornos dinámicos, orientación a la resolución de problemas y capacidad para gestionar múltiples prioridades. Se valorará experiencia en automatización de pipelines y experiencia en entornos híbridos o multi-nube.

Perfil deseable

Conocimientos adicionales en orquestación (Kubernetes), scripting (Python, Bash) y experiencia trabajando en proyectos de fábrica de software o outsourcing. Familiaridad con herramientas de gestión de incidentes, gestión de cambios y buenas prácticas de seguridad en la nube. Disponibilidad para operar en un entorno con matriz y coordinación entre sedes en Concepción y Santiago.

Beneficios

Ofrecemos contrato por proyecto con estabilidad y condiciones claras en un entorno laboral dinámico y colaborativo, enfocado en desarrollo profesional. Formarás parte de una empresa consolidada en Latinoamérica, con más de tres décadas de experiencia y un equipo multidisciplinario. Contamos con comunicación diaria con nuestra matriz y otras operaciones, lo que facilita la colaboración y el apoyo técnico. En Genesys, valoramos el talento y la innovación, y te acompañamos en tu crecimiento profesional. 😊

VIEW JOB APPLY VIA WEB
$$$ Full time
DevOps Engineer – Proyecto (Híbrido)
  • BC Tecnología
  • Santiago (Hybrid)
Linux DevOps Continuous Deployment Kubernetes
BC Tecnología es una consultora de TI que acompaña a clientes de servicios financieros, seguros, retail y gobierno en proyectos de infraestructura, desarrollo de software y outsourcing de personal. En este rol te incorporarás a un proyecto estratégico dentro de nuestra práctica de DevOps, trabajando con equipos multidisciplinarios para entregar soluciones escalables y seguras en entornos cloud. Nuestro foco es la excelencia técnica, la agilidad y la satisfacción del cliente, con un marco de trabajo colaborativo y oportunidades de crecimiento profesional.
Como parte del equipo, tendrás la oportunidad de contribuir a la automatización de infraestructuras, la gestión de entornos cloud y la madurez de pipelines de CI/CD, apoyando a clientes en su transformación digital y en la operación de entornos críticos.

This posting is original from the Get on Board platform.

Funciones y responsabilidades

  • Gestionar infraestructura en la nube (AWS, GCP u OCI) y redes virtuales, asegurando disponibilidad, escalabilidad y seguridad.
  • Diseñar, implementar y mantener pipelines de CI/CD con enfoque en automatización y reproducibilidad.
  • Configurar y administrar contenedores (Kubernetes) y entornos Linux, optimizando rendimiento y costos.
  • Trabajar con Terraform para aprovisionamiento de infraestructura multi-ambiente y gestión de estado.
  • Monitorear, registrar y automatizar respuestas a incidentes, garantizando alta disponibilidad y recuperación ante desastres.
  • Participar en revisiones de arquitectura y colaborar con equipos de desarrollo para entregar soluciones eficientes.
  • Apoyar en prácticas de seguridad, cumplimiento y gestión de cambios dentro de proyectos de clientes.

Requisitos y perfil deseado

Buscamos un profesional con al menos 3 años de experiencia comprobable en DevOps, capaz de gestionar infraestructuras en la nube y de liderar iniciativas de automatización. Debe demostrar dominio técnico en Terraform, Kubernetes y GitLab, así como experiencia sólida en automatización, CI/CD y despliegue de infraestructuras. Se valorarán conocimientos en contenedores, Linux y buenas prácticas de seguridad y monitoreo. Buscamos alguien proactivo, orientado a la entrega de valor, con habilidad para comunicarse de manera clara con equipos técnicos y de negocio. Se valorarán certificaciones relevantes y experiencia en entornos regulados o financieros.

Habilidades deseables

Experiencia en entornos multi-nube, herramientas de observabilidad (Prometheus, Grafana, ELK), experiencia en scripting (Bash, Python) y gestión de costos en la nube. Capacidad para trabajar de forma autónoma, con mentalidad de mejora continua, y habilidades de colaboración para trabajar en equipos ágiles y multiculturales.

Beneficios y cultura

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
VIEW JOB APPLY VIA WEB
$$$ Full time
QA Automatizador – Latam (, Proyecto)
  • BC Tecnología
JavaScript Java Python Git
En BC Tecnología somos una consultora de TI con experiencia en administrar portafolios, desarrollar proyectos y brindar outsourcing y selección de profesionales para clientes de servicios financieros, seguros, retail y gobierno. Buscamos un QA Automatizador para LATAM, orientado a liderar iniciativas de automatización, promover cultura Shift Left y participar en pipelines CI/CD para garantizar QA continua en ecosistemas modernos. Colaborarás con equipos multidisciplinarios para entregar soluciones de software de alta calidad y mejorar procesos de pruebas a lo largo del ciclo de desarrollo.

Apply directly through getonbrd.com.

QA Automatizador – LATAM (Remoto, Proyecto)

  • Diseñar e implementar frameworks de automatización robustos para pruebas funcionales, de regresión, smoke y end-to-end (E2E).
  • Automatizar pruebas sobre microservicios, APIs y UI, asegurando cobertura adecuada y mantenimiento de las suites en pipelines CI/CD.
  • Gestionar ambientes con Docker y Kubernetes para entornos de pruebas consistentes y escalables.
  • Coaching al equipo de QA, revisión de pull requests y promoción de prácticas de calidad desde etapas tempranas (Shift Left).
  • Colaborar con equipos de desarrollo y DevOps para optimizar pipelines de integración y entrega continua (CI/CD) y mejorar la calidad del producto.

Requisitos y habilidades

Buscamos un profesional con al menos 3 años de experiencia en automatización de pruebas y un historial comprobable en entornos modernos. Debe dominar herramientas como Playwright, Cypress, Selenium, Postman y frameworks como Robot Framework o similares. Experiencia con REST APIs, pruebas en contenedores (Docker) y orquestación (Kubernetes) es imprescindible. Conocimientos en Java, JavaScript, TypeScript, Python o Bash para scripting y mantenimiento de pruebas. Familiaridad con herramientas de CI/CD (GitHub Actions, Jenkins, GitLab CI, Bitbucket) y gestión de código en repositorios (Git). Capacidad para comunicarse efectivamente en español e inglés técnico, y habilidades para trabajar en entornos dinámicos y orientados a resultados. Se valorarán experiencia en AWS o tecnologías cloud y capacidad de liderazgo técnico dentro de equipos de QA.

Requisitos deseables

Conocimientos en herramientas de testing de rendimiento y seguridad, experiencia en automatización en entornos multi-nube, certificaciones en calidad de software y familiaridad con metodologías ágiles. Capacidad para adaptar frameworks a nuevas tecnologías y promover una cultura de calidad y mejora continua. Se valorará experiencia en equipos que trabajan en sectores regulados y con alta exigencia de cumplimiento.

Beneficios y cultura

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Fully remote You can work from anywhere in the world.
Computer provided BC Tecnología provides a computer for your work.
VIEW JOB APPLY VIA WEB
$$$ Full time
DevOps Engineer / Cloud Engineer (Latam)
  • BC Tecnología
Python Linux DevOps Virtualization
BC Tecnología, una consultora de TI con experiencia en servicios, outsourcing y selección de profesionales, busca ampliar su equipo con un DevOps Engineer / Cloud Engineer para un proyecto inicial de 6 meses con posibilidad de extensión. El rol contribuirá a la estabilidad y rendimiento de plataformas en producción, trabajando en colaboración con Desarrollo y Seguridad, en un entorno de clientes de alto nivel y diversos sectores (finanzas, seguros, retail y gobierno).

Job opportunity published on getonbrd.com.

Funciones

  • Garantizar la disponibilidad, estabilidad y rendimiento de sistemas productivos.
  • Gestionar infraestructura como código y automatizar despliegues.
  • Administrar contenedores y clusters Kubernetes.
  • Implementar monitoreo y alertas (Prometheus, CloudWatch, Grafana).
  • Organizar respuestas a incidentes y participar en post-mortems para mejora continua.
  • Trabajar estrechamente con Desarrollo y Seguridad para optimizar la arquitectura.
  • Documentar runbooks y procedimientos operativos para soporte y escalamiento.

Requisitos y perfil

Ingeniería en Informática, Sistemas o similar. Mínimo 3 años en roles DevOps, Cloud u Operations. Sólido dominio de Linux/UNIX, redes y conceptos de seguridad. Experiencia en arquitecturas de alta disponibilidad y gestión de incidentes. Se valora experiencia con entornos en la nube (AWS, Azure, GCP) y herramientas IaC (Terraform, CloudFormation, Ansible). Conocimientos en contenedores (Docker) y orquestación (Kubernetes). Habilidades de scripting (Bash, Python; PowerShell deseable). Capacidad para trabajar de forma proactiva, con buena comunicación y enfoque colaborativo.

Deseables

Certificaciones relevantes en nube (AWS/Azure/GCP) y DevOps; experiencia en entornos regulados; experiencia en monitoreo avanzado (ELK, Datadog) y gestión de costos en la nube. Orientación a soluciones y capacidades de análisis para resolver incidentes de manera eficiente; habilidades de documentación y entrega de runbooks claros.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
$$$ Full time
DevOps / SRE – Plataforma Cloud (Oci)
  • BC Tecnología
  • Santiago (Hybrid)
Linux DevOps Continuous Deployment Kubernetes
BC Tecnología es una consultora de TI con experiencia en diseñar soluciones y formar equipos para servicios financieros, seguros, retail y gobierno. Buscamos un DevOps/SRE para diseñar, implementar y operar una plataforma Cloud en Oracle Cloud (OCI), asegurando disponibilidad, seguridad y escalabilidad. El candidato trabajará en un entorno híbrido, con foco en infraestructura OCI, orquestación con Kubernetes/OKE, automatización con Terraform e IaC, pipelines de CI/CD y observabilidad. Participará en proyectos innovadores, con equipos multidisciplinarios, para entregar soluciones robustas y escalables.

Apply to this job at getonbrd.com.

Funciones

  • Operación de infraestructura en OCI (redes, balanceadores de carga, WAF, bases de datos y almacenamiento).
  • Administración de Kubernetes/OKE, contenedores, Helm y GitOps (Argo CD).
  • Automatización de infraestructura y despliegues con Terraform, CI/CD (GitLab/Jenkins/GitHub Actions) y scripting (Bash/Python).
  • Gestión de observabilidad (Prometheus, Grafana, ELK/OCI Logging) y prácticas SRE para disponibilidad y rendimiento.
  • Gestión de seguridad: IAM, políticas, Vault/KMS, escaneo de imágenes y cumplimiento de estándares.
  • Colaboración con equipos de Infraestructura, Seguridad y Desarrollo para entrega continuada.
  • Documentación técnica y transferencia de conocimiento a equipos internos.

Descripción

Buscamos un profesional con al menos 3 años de experiencia en DevOps/SRE/Plataforma, con experiencia práctica en OCI y Kubernetes productivo. Debe dominar Linux, networking, IaC, CI/CD y monitoreo. Se valorarán certificaciones OCI o Kubernetes (CKA/CKAD/CKS) y experiencia en entornos regulados. El rol implica diseñar y operar una plataforma Cloud confiable, segura y escalable, enfocada en la entrega de servicios de alto rendimiento para clientes de servicios IT y finanzas.

Deseables

Certificaciones OCI o Kubernetes (CKA/CKAD/CKS). Experiencia en entornos regulados y auditorías de seguridad. Conocimiento adicional en seguridad de contenedores, gestión de secretos y cumplimiento normativo. Capacidad de trabajo en equipo, proactividad y orientación a resultados.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
VIEW JOB APPLY VIA WEB
Gross salary $2400 - 2900 Full time
DevOps Engineer / Platform Engineer
  • Coderslab.io
Python DevOps Virtualization Docker

Coderslab.io es una firma de tecnología que ayuda a las empresas a transformar y hacer crecer sus negocios mediante soluciones innovadoras. Formamos parte de una organización en rápida expansión, con más de 3,000 empleados globalmente y presencia en América Latina y Estados Unidos. Trabajarás en equipos diversos compuestos por los mejores talentos tecnológicos, participando en proyectos desafiantes que impulsarán tu carrera. Tendrás la oportunidad de aprender de profesionales experimentados y de trabajar con tecnologías de vanguardia en un entorno dinámico y orientado a resultados.

Official job site: Get on Board.

Funciones

  • Implementar infraestructura reproducible y versionada en OCI utilizando Terraform.
  • Automatizar despliegues mediante GitOps (ArgoCD) y pipelines CI/CD en GitLab.
  • Diseñar y operar arquitecturas basadas en contenedores con Kubernetes y Helm.
  • Gestionar la seguridad de la plataforma con HashiCorp Vault e políticas de OCI IAM.
  • Realizar hardening, tuning y troubleshooting de sistemas Oracle Linux.
  • Integrar servicios mediante Kong API Gateway y políticas personalizadas.
  • Garantizar el cumplimiento de estándares como PCI-DSS y prácticas de ciberseguridad.
  • Desarrollar scripts de automatización en Bash y Python (integración con APIs REST).
  • Colaborar con equipos de seguridad, desarrollo y operaciones para entregar soluciones robustas y escalables.

Requisitos

  • Más de 5 años de experiencia en roles de DevOps/Platform Engineering.
  • Experiencia demostrable en Oracle Cloud Infrastructure (OCI).
  • Dominio avanzado de Oracle Linux y administración de contenedores (Docker, Kubernetes).
  • Conocimiento sólido en seguridad de infraestructura y gestión de secretos.
  • Experiencia en entornos regulados o bancarios (deseable).
  • Capacidad para trabajar en entornos con alta disponibilidad y resiliencia.

Fortalezas Valoradas

Experiencia en implementación de infraestructura como código, automatización de despliegues mediante GitOps, y gestión de secretos en entornos sensibles. Conocimiento en PCI-DSS y prácticas de ciberseguridad, así como habilidades de scripting y resolución de incidentes en entornos críticos.

Beneficios

Modalidad de contratación: Plazo fijo
Duración del proyecto: 7 meses

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
$$$ Full time
Senior Site Reliability Engineer
  • OpenLoop
  • Lima (Hybrid)
Python Linux Go DevOps
About OpenLoop

OpenLoop was co-founded by CEO, Dr. Jon Lensing, and COO, Christian Williams, with the vision to bring healing anywhere. Our telehealth support solutions are thoughtfully designed to streamline and simplify go-to-market care delivery for companies offering meaningful virtual support to patients across an expansive array of specialties, in all 50 states.

Apply from getonbrd.com.

About the Role

  • Cross-Functional Collaboration
    • Partner with engineering teams to improve system reliability and deployment practices
    • Engage with teams on SRE guidelines and best practices about automation and infrastructure
    • Work with security teams to implement secure, compliant infrastructure
  • Operational Excellence
    • Ensure 24/7 system availability and rapid incident response
    • Implement and maintain disaster recovery and business continuity plans
    • Lead efforts to increase automation, observability and monitoring
    • Skilled at performance tuning — identifying bottlenecks at infra, app, and network layers.
  • Security
    • Understanding of cloud security principles (least privilege, network segmentation, encryption at rest/in transit).
    • Familiarity with compliance frameworks (SOC 2, ISO 27001, GDPR, HIPAA) and how SRE supports them.
  • Cultural
    • Advocate for blameless culture and continuous improvement.
    • Collaborate closely with product and engineering to make reliability a shared responsibility.

Requirements

  • 4-5 years of experience in infrastructure, DevOps, or Site Reliability Engineering
  • Proven track record implementing large-scale, distributed systems
  • Strong background in AWS, particularly with serverless architecture and container orchestration
  • Solid understanding of observability, incident management, and system resilience best practices.
  • Strong proficiency in at least one programming language (Typescript, Python, Go, etc.).
  • Knowlegde of Linux/Unix systems and networking
  • Experience with Infrastructure as Code (AWS CDK, Cloudformation)
  • Proficiency with monitoring and observability tools (Prometheus, Grafana, ELK, etc.)
  • Knowledge of CI/CD pipelines and deployment automation (Github Actions, Jenkins, etc)
  • Understanding of database systems and performance optimization
  • English (C1/C2) fluency
  • Ability to translate technical concepts to non-technical audiences
  • Experience with agile methodologies and project management

Nice to have

Previous experience as a Fullstack Developer is a plus

Our Benefits

  • Formal employment (“Planilla”) under a Peruvian entity — all legal benefits in soles (CTS, Gratificaciones, etc.).
  • Full-time schedule: Monday–Friday, 9am–6pm.
  • Unlimited vacation days 🏖️ — yes, we mean it!
  • EPS healthcare (Rimac) covered 100%.
  • Oncology insurance (Rimac) covered 100%.
  • AFP retirement plan.
  • Coworking access in Miraflores, Lima — with free beverages, talks, bicycle parking, and amazing city views.
  • Company laptop and tools provided.

Life insurance OpenLoop pays or copays life insurance for employees.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage OpenLoop pays or copays health insurance for employees.
Retirement plan OpenLoop pays or matches payment for plans such as 401(k) and others.
Free car parking You can park your car for free at the premises.
Computer provided OpenLoop provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal OpenLoop gives you paid vacations over the legal minimum.
Beverages and snacks OpenLoop offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
Gross salary $3500 - 4500 Full time
Senior AWS Engineer (Night Shift)
  • Niuro
Python Linux DevOps Continuous Integration
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality. Niuro empowers projects by providing autonomous, high-performance tech teams, specialized in partnering with top-tier U.S. companies. We offer continuous professional growth opportunities, training in technical and soft skills, and leadership development to ensure success in innovative and challenging projects. Additionally, we handle all administrative tasks, including hiring, payments, and training, allowing our teams to focus on delivering exceptional results. Our priority is to foster a collaborative environment where talent can grow and reach its full potential.

Apply to this job through Get on Board.

Key Responsibilities

  • Design, deploy, and maintain AWS infrastructure aligned with best practices for scalability, availability, and security.
  • Configure and manage Auto Scaling groups, EC2 instances, RDS databases, and CloudFront distributions.
  • Automate infrastructure provisioning and updates using Terraform.
  • Monitor and optimize system performance through metrics, alerts, and dashboards.
  • Manage FSx file systems, ensuring efficient performance and integration with Windows environments.
  • Collaborate with cross-functional teams to troubleshoot, optimize, and deliver stable infrastructure solutions.
  • Maintain detailed documentation of configurations, processes, and policies.

Requirements & Experience

Minimum 12+ years of proven experience in systems or cloud engineering roles, with 10+ years focused on AWS at scale. Strong expertise in Auto Scaling, Terraform, EC2, FSx, CloudFront, RDS, and monitoring/alerts. AWS Certification (Architect or equivalent) is required. Proficiency in Windows environments (not Linux) and fluent English with professional communication skills to coordinate across international teams.
Nice to Have: experience with Azure or GCP, CI/CD tools (GitLab, Jenkins, Azure DevOps), Kubernetes/EKS or Windows containers, scripting with Python or PowerShell, and exposure to cloud security, governance, and compliance frameworks.

Nice to Have

Additional exposure to Azure or GCP cloud platforms, familiarity with CI/CD pipelines (GitLab, Jenkins, Azure DevOps), Kubernetes/EKS or Windows containers, scripting in Python or PowerShell, and knowledge of cloud security, governance, and compliance frameworks are highly desirable.

Benefits

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
$$$ Full time
Ingeniero Senior en Automatización de Pruebas
  • CoyanServices
JavaScript Java Python Agile
CoyanServices busca un Ingeniero Senior en Automatización de Pruebas para trabajar 100% remoto en modalidad freelance. El proyecto se enmarca dentro de una iniciativa regional de QA Automation que abarca la automatización de pruebas para UI, backend y APIs, con un foco en garantizar la calidad y la trazabilidad de soluciones digitales a lo largo de pipelines CI/CD. El equipo es distribuido regionalmente y colabora con áreas de negocio en varios países de Latinoamérica. El profesional será referente técnico en QA Automation, promoviendo prácticas DevOps, integración de pruebas en despliegues y mejora continua, con interacción constante entre IT y negocio. El rol implicará liderar, diseñar y mantener estrategias de automatización, definir criterios de aceptación de pruebas y asegurar que el producto cumpla con los requerimientos funcionales y las reglas de negocio definidas.

This posting is original from the Get on Board platform.

Objetivos del rol:

  • Diseñar, implementar y mantener automatización de pruebas end-to-end (UI, backend y APIs) dentro de pipelines CI/CD.
  • Asegurar la calidad, trazabilidad y cobertura de las soluciones digitales de la compañía.
  • Ser referente técnico en QA Automation, promoviendo la adopción de prácticas DevOps y cultura de mejora continua.
  • Colaborar con equipos distribuidos regionalmente para garantizar la calidad en todas las etapas del desarrollo.

Perfil y habilidades requeridas:

Requisitos técnicos:
  • Experiencia ≥5 años en QA Automation con enfoque en UI, backend y APIs.
  • Lenguajes y frameworks: Python, Node.js, TypeScript, Java; Jest, Pytest, unittest, JUnit/TestNG.
  • UI Testing: Cypress, Playwright, React Testing Library, Jest, Jasmine o Karma (al menos dos).
  • API Testing: Postman/Newman, Karate DSL, REST Assured.
  • Gestión de pruebas de rendimiento (deseable): Artillery, JMeter o k6.
  • Infraestructura y CI/CD: GitHub Actions, Docker, LocalStack (opcional), Terraform, CloudFormation, SAM.
  • Cloud: AWS (obligatorio).
  • Gestión y calidad: Jira, Confluence, Xray/Zephyr, SonarQube.
  • Métodos: Agile/Scrum y DevOps.
Habilidades blandas:
  • Capacidad de análisis y pensamiento crítico.
  • Liderazgo técnico y mentoring.
  • Comunicación efectiva con equipos multidisciplinarios y distribuidos.
  • Autonomía, organización y atención al detalle.
  • Compromiso con la mejora continua y la calidad.

Habilidades blandas:

Habilidades blandas:
  • Capacidad de análisis
  • Liderazgo técnico y mentoría.
  • Comunicación efectiva con equipos multidisciplinarios y distribuidos.
  • Autonomía, organización y atención al detalle.
  • Orientación a la mejora continua y cultura de calidad.

Beneficios y cultura

Objetivos del rol:
Beneficios y cultura de CoyanServices (basado en el formato proporcionado y adaptado al contexto remoto):
  • Modalidad freelance 100% remoto, con flexibilidad horaria y posibilidad de colaborar con equipos de distintos países.
  • Participación en proyectos regionales con enfoque en QA Automation de alto impacto.
  • Acceso a herramientas de prueba modernas, pipelines CI/CD y entornos reproducibles con Docker y LocalStack.
  • Ambiente de trabajo colaborativo, con énfasis en mejora continua, DevOps y buenas prácticas de calidad.
  • Oportunidad de crecimiento técnico y mentoría para otros ingenieros del equipo.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $1800 - 2500 Full time
DevOps Senior Freelance
  • CoyanServices
JavaScript Python Redis Node.js

Coyan Services es una empresa latinoamericana especializada en soluciones de staffing tecnológico y consultoría de talento IT. Operamos en diferentes países de LATAM conectando profesionales altamente calificados con proyectos de innovación en empresas multinacionales.
Nuestra visión es ser un puente entre el mejor talento de la región y las organizaciones que están transformando el futuro con tecnología, impulsando equipos diversos, remotos y con cultura de colaboración.

Una empresa tecnológica privada busca incorporar un/a DevOps para trabajar en un proyecto estratégico con uno de sus clientes en la región. La posición es 100% remota, en modalidad freelancer, y está abierta a profesionales de cualquier país de Latinoamérica.

Apply only from getonbrd.com.

Objetivos y Responsabilidades

Objetivos del rol:

  • Diseñar, implementar y mantener pipelines de integración y entrega continua (CI/CD).
  • Integrar prácticas DevOps en el ciclo de vida del desarrollo de software en conjunto con los equipos de desarrollo.
  • Automatizar procesos de infraestructura y despliegue de aplicaciones.
  • Garantizar la disponibilidad, seguridad y rendimiento de los sistemas en la nube.

Responsabilidades:

  • Diseñar, implementar y mantener pipelines CI/CD.
  • Colaborar con equipos de desarrollo en la adopción de prácticas DevOps.
  • Automatizar infraestructura y despliegues con IaC.
  • Administrar y mantener la infraestructura en AWS y servidores.
  • Monitorear y mejorar disponibilidad, rendimiento y seguridad.

Requisitos Técnicos

  • Experiencia sólida (3+ años) administrando servicios en AWS (Lambda, RDS, EventBridge, SNS, SQS, SES, IAM, S3, EC2, ECS, Secret Manager, GuardDuty, Security Hub, CloudTrail, Cloudfront, CloudWatch, API Gateway, WAF, OpenSearch, DynamoDB, Redis, Route53, Step Functions).
  • Experiencia en infraestructura como código (Terraform y CloudFormation – excluyentes).
  • Experiencia en despliegue de aplicaciones móviles offline.
  • Uso de GitHub (gestión de código fuente) y GitHub Actions (automatización de despliegues).
  • Experiencia en análisis de código estático con SonarCloud.
  • Desarrollo en Python y Node.js con enfoque operacional.
  • Conocimientos en SQL, bases de datos transaccionales, NoSQL y bases embebidas.

Habilidades blandas

  • Trabajo en equipo y colaboración.
  • Autogestión y proactividad.
  • Comunicación efectiva.

Conditions

  • Freelancer

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $2500 - 3000 Full time
SRE Semi Senior
  • TCIT
  • Santiago (Hybrid)
Python Linux Go DevOps

En TCIT, lideramos proyectos de Ingeniería y Automatización para avanzar en la fiabilidad y escalabilidad de nuestras plataformas en la nube. Buscamos profesionales SRE con interés en colaborar estrechamente con equipos de desarrollo y de operaciones para construir y fortalecer pipelines de CI/CD, infraestructuras declarativas con IaC (principalmente Terraform) y soluciones de observabilidad. Formarás parte de iniciativas que abarcan desde la implementación de prácticas de resistencia hasta la mejora continua de runbooks y procesos de incidentes, con foco en la mejora de la SRE Gobierno y la entrega de servicios robustos para clientes internos y externos. Si te apasiona la confiabilidad, la automatización y el trabajo en equipo, eres la persona indicada para unirte a TCIT y acompañar nuestra misión de transformar digitalmente a través de soluciones innovadoras.

Official source: getonbrd.com.

Funciones y responsabilidades principales

  • Ingeniería Práctica: Desarrollar y mantener pipelines de CI/CD, desplegar infraestructura con Terraform y escribir scripts (Python/Go/Bash) para automatizar tareas operativas.
  • Configuración de observabilidad: Implementar dashboards, alertas y logs en Datadog para nuevos y existentes servicios basándose en SLOs definidos.
  • Operación y Soporte: Participar en guardias on-call, resolver incidentes y apoyar a los equipos de desarrollo aplicando prácticas de fiabilidad.
  • Ejecutar y mejorar runbooks, participar en análisis post-mortem y proponer acciones de mejora para aumentar la resiliencia del sistema.
  • Colaboración y transferencia de conocimiento: Actuar como par técnico para SREs en formación, documentar procedimientos y participar en PRRs para validar implementaciones.
  • Trabajar de forma colaborativa en equipo, compartiendo buenas prácticas y asegurando que las soluciones queden bien documentadas y fáciles de mantener.

Descripción y requisitos técnicos

Buscamos SREs intermedios con experiencia sólida en entornos en la nube y un fuerte enfoque en fiabilidad y automatización. Requisitos clave:

  • Plataformas Cloud: experiencia práctica en Google Cloud Platform (GKE, IAM, GCE, Cloud SQL); experiencia deseable en AWS.
  • IaC y Automatización: Terraform como herramienta principal; experiencia con Ansible o similar es un plus.
  • Programación y scripting: Python o Go para automatización; Bash para scripting en Linux.
  • Contenedores y orquestación: Kubernetes (deployments, services, ingress, configmaps, secrets) y Docker.
  • CI/CD y DevOps: experiencia en pipelines con GitLab CI, Jenkins o Bitbucket Pipelines.
  • Observabilidad y monitoreo: Datadog (preferido), Prometheus/Grafana u otros; comprensión de logs, métricas y trazas.
  • Habilidades blandas: excelente trabajo en equipo, comunicación clara, proactividad y autonomía en tareas definidas.

Además, valoramos la capacidad de colaborar en documentos técnicos, participar en PRRs y apoyar a SREs en formación a través de prácticas de liderazgo situacional.

Requisitos deseables y cualidades

Se valorará experiencia adicional en desarrollo de software, experiencia en migraciones a la nube, conocimiento de herramientas de automatización avanzada y una mentalidad de mejora continua. Se espera que los candidatos demuestren adaptabilidad, habilidades para resolver problemas complejos y capacidad para priorizar en entornos dinámicos y de alta presión.

Beneficios y cultura

En TCIT, garantizamos un ambiente laboral enriquecedor con:

  • Oficinas accesibles, a solo pasos del metro, para facilitar tu día a día. 🚇
  • Flexibilidad horaria que se adapta a tu estilo de vida, permitiéndote encontrar el equilibrio perfecto. 🕒
  • Aumento en los días de vacaciones para que puedas recargar energías. 🌴
  • Acceso a beneficios exclusivos y oportunidades con Caja de Compensación Los Andes y ACHS. 🎁
  • Oportunidades para certificaciones gratuitas, siendo Google Partners. 🎓
  • Equipamiento y soporte técnico adecuados, asegurando que tengas todo lo necesario para desempeñar tu trabajo. 🔧
  • Un ambiente de trabajo con áreas de descanso y una estación de cafetería para tus momentos de relax. ☕
  • Reuniones y celebraciones informales para fomentar un buen clima laboral. 🎉

Si te sumas a TCIT, formarás parte de una comunidad apasionada por la revolución digital y proyectos con impacto social.

VIEW JOB APPLY VIA WEB
Gross salary $2700 - 3500 Full time
DevOps
  • Coderslab.io
JavaScript Python Redis Node.js
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un DEVOPSpara unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

Apply at the original job on getonbrd.com.

Funciones del cargo

• Diseñar, implementar y mantener pipelines de integración y entrega continuas
(CI/CD).
• Colaborar con equipos de desarrollo para integrar prácticas DevOps en el ciclo de
vida del desarrollo de software.
• Automatizar procesos de infraestructura y despliegue de aplicaciones.
• Administrar y mantener la infraestructura en la nube y servidores.
• Monitorear y mejorar la disponibilidad, rendimiento y seguridad de los sistemas.

Requerimientos del cargo

• Dominio en administración de servicios en la plataforma AWS, incluyendo
Lambda, RDS, EventBridge, SNS, SQS, SES, IAM, IAM Role, S3, EC2, ECS, Secret
Manager, GuardDuty, Security Hub, CloudTrail, Cloudfront, CloudWatch, API
Gateway, WAF, OpenSearch, DynamoDB, Redis, Route53, Step Functions.
• Experiencia en construcción de infraestructura como código (IaC) con Terraform y
Cloudformation (herramientas excluyentes).
• Experiencia en despliegue de aplicaciones móviles offline.
• Experiencia con GitHub como gestor de código fuente y GitHub Actions como
herramienta de despliegue.
• Experiencia en análisis de código estático con SonarCloud.
• Experiencia en desarrollo de código con Python y Node.js con objetivo
operacional.
• Conocimiento en lenguaje SQL y gestión de bases de datos transaccionales.
• Habilidades de trabajo en equipo, autogestión, proactividad y comunicación
efectiva.
• Conocimientos en bases de datos NoSQL y bases de datos embebidas

VIEW JOB APPLY VIA WEB
Gross salary $3900 - 4600 Full time
Lead Data Scientist (Growth Engine) Chile
  • Checkr
  • Santiago (Hybrid)
Data Science Growth B2B SaaS

Checkr está construyendo un centro de innovación en Santiago para impulsar nuestro motor de Crecimiento (Growth Engine) con impacto global. Este proyecto combina Ciencia de Datos, Ingeniería y Growth de Producto para optimizar adquisición, activación y retención de usuarios. Liderarás la hoja de ruta experimental y trabajarás estrechamente con equipos en Estados Unidos para cerrar la brecha entre matemática avanzada, GenAI y métricas de negocio. Serás el motor técnico que diseñe experimentos rigurosos, determine métricas clave y escale soluciones de IA para acelerar la conversión y reducir churn. Tu trabajo conectará análisis, modelos predictivos y pipelines operacionales que permiten decisiones basadas en datos y resultados de negocio tangibles.

Apply to this job opportunity at getonbrd.com.

Funciones y responsabilidades

  • Propiedad del Motor de Crecimiento: definir métricas clave, construir y optimizar el pipeline de experimentación (A/B testing) de alta velocidad para incrementar la conversión y disminuir la deserción.
  • GenAI a Escala de Producción: diseñar, entrenar y desplegar modelos basados en LLMs y herramientas GenAI; automatizar insights, prototipos de modelos predictivos y flujos de trabajo que hagan el trabajo pesado por ti.
  • Liderar con Datos: colaborar con líderes de Ingeniería, Marketing y Diseño para implementar funcionalidades impulsadas por ML (p. ej., puntuación de leads, onboarding dinámico).
  • Despliegue a Producción: llevar modelos desde el laboratorio a entornos de producción, monitorizando performance y estableciendo mantenibilidad y gobernanza de datos.
  • Definir la hoja de ruta basada en datos: traducir requerimientos de negocio a iniciativas de datos con impacto medible en crecimiento y retención.

Descripción y perfil buscado

Buscamos un(a) Lead Data Scientist con experiencia probada en entornos de alto crecimiento B2B SaaS o tecnología acelerada. Debes combinar dominio técnico con capacidad para influir a nivel de VP y colaborar estrechamente con equipos globales. Se valorará experiencia en crecimiento de productos, experimentación rigurosa y uso de GenAI para acelerar descubrimiento y implementación de soluciones de negocio. Requerimos habilidades analíticas profundas, intuición de producto y capacidad para comunicar conceptos complejos de forma clara a stakeholders técnicos y no técnicos.

Requisitos

  • Dominio avanzado del inglés es obligatorio. Debatirás ideas con stakeholders de nivel VP en EE. UU.
  • Disponibilidad para trabajar híbrido en Santiago, 3x2.
  • Licenciatura en Ciencias de la Computación, Ingeniería, Ciencia de Datos, o experiencia equivalente altamente preferida.
  • Más de 8 años de experiencia en Ciencia de Datos o ML, idealmente en entornos de alto crecimiento B2B SaaS o tecnología de ritmo acelerado.
  • Un dominio sólido de Python, SQL y las prácticas modernas de MLOps y CI/CD de datos.
  • Base sólida en matemáticas y/o modelado estadístico — crítica para diseñar experimentos robustos y construir modelos ML efectivos.
  • Experiencia práctica (o pasión profunda) en el aprovechamiento de herramientas de GenAI para acelerar la exploración de datos, crear prototipos más rápido y automatizar flujos de trabajo repetitivos.
  • Te mueves rápido; prefieres lanzar y aprender; amas la velocidad, la manipulación creativa de datos (creative data wrangling) y desafiar suposiciones.

Beneficios y cultura

  • Contrato indefinido.
  • Salario competitivo en CLP.
  • Seguro de salud, vida y dental para ti y tu familia.
  • Bono anual de $3,000 USD para aprendizaje y desarrollo.
  • RSU.
  • 5 días adicionales de vacaciones.

Equity offered This position includes equity compensation (in the form of stock options or another mechanism).
Life insurance Checkr pays or copays life insurance for employees.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Checkr pays or copays health insurance for employees.
Dental insurance Checkr pays or copays dental insurance for employees.
Free car parking You can park your car for free at the premises.
Computer provided Checkr provides a computer for your work.
Education stipend Checkr covers some educational expenses related to the position.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Vacation over legal Checkr gives you paid vacations over the legal minimum.
Beverages and snacks Checkr offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
Gross salary $3000 - 4000 Full time
Data Scientist/aI MLOps para Montar Area de AI
  • Modelab
  • Santiago (Hybrid)
Python Data Analysis SQL Artificial Intelligence

El/la candidato/a será de los primeros integrantes de la nueva área de Inteligencia Artificial – que se desarrollará con Modelab – de una las empresas chilenas con más reconocimiento internacional, con miles de empleados en Chile y en el extranjero. El/la candidato/a trabajará con expertos de matemática de datos, ingenieros de procesos industriales, y del área de negocios de la empresa, resolviendo problemas de real relevancia industrial y alto valor agregado, y en interacción con equipos internacionales. En la entrevista te explicamos los detalles.

Exclusive to Get on Board.

Funciones principales

  • Diseñar, desarrollar y validar modelos analíticos para optimizar procesos industriales y operativos.
  • Realizar analítica descriptiva, diagnóstica y predictiva para apoyar la toma de decisiones en manufactura y mantenimiento.
  • Implementar soluciones de machine learning y estadísticas con validación experimental y seguimiento de KPIs.
  • Colaborar con ingeniería, operaciones y negocios para definir requerimientos y traducirlos en soluciones técnicas efectivas.
  • Dirigir iniciativas de automatización y mejora continua, promoviendo buenas prácticas de modelado y gobernanza de datos.
  • Mentorizar a colegas y fomentar un ambiente de aprendizaje y mejora constante.
  • Comunicar hallazgos y resultados de forma clara a stakeholders y equipos multidisciplinarios.

Si tu perfil es más "AI / MLOps" También estamos interesados en tu CV!

Requisitos - perfil deseado

Buscamos profesionales con experiencia demostrable en ciencia de datos aplicada a procesos industriales. Debe poseer sólidos fundamentos en estadística, machine learning y análisis de datos, así como experiencia en entornos de manufactura o procesos de ingeniería. Se valorarán conocimientos en mantenimiento predictivo, optimización de procesos y experiencia con herramientas de análisis y visualización de datos. Se esperan habilidades para trabajar en equipos multifuncionales, capacidad de explicar resultados complejos de forma clara y orientación a resultados de negocio. Requisitos mínimos: experiencia comprobable como Data Scientist Senior o Experto, manejo de Python , SQL y herramientas de análisis de datos; conocimiento de metodologías de experimentación y validación; capacidad para trabajar en entornos dinámicos y cambiantes; inglés técnico.

Requisitos – bonus

Experiencia en proyectos industriales, conocimiento de plataformas de datos industriales, mantenimiento predictivo y optimización de procesos. Deseable experiencia en liderar equipos y mentorizar a otros data scientists. Habilidades de comunicación y presentaciones efectivas, pensamiento analítico, curiosidad por la mejora continua y orientación a resultados de negocio.

Si vienes al mundo de la ciencia de datos desde la ingeniería civil eléctrica, mecánica, química, matemática, o industrial, podrías ser el candidato ideal.

Beneficios

Proyectos "Greenfield", donde puedes dejar tu marca.
Viernes trabajo hasta 16:45
Trabajo Híbrido, 2 días remoto, 3 en oficina (Santiago, sector El Golf).
Clases particulares de inglés (si es que las necesitas)

VIEW JOB APPLY VIA WEB
$$$ Full time
Ingeniero/a de Datos
  • Assetplan
  • Santiago (Hybrid)
Python Agile Excel SQL

Assetplan es una compañía líder en renta residencial con presencia en Chile y Perú, gestionando más de 40,000 propiedades y operando más de 90 edificios multifamily. El equipo de datos tiene un rol clave para optimizar y dirigir procesos internos mediante soluciones de análisis y visualización de datos, apoyando la toma de decisiones estratégicas en la empresa. Este rol se enfoca en diseñar, desarrollar y optimizar procesos ETL, creando valor mediante datos fiables y gobernados.

En este contexto, el/la profesional se integrará a un equipo multidisciplinario para transformar necesidades de negocio en soluciones de datos escalables que impulsen la eficiencia operativa y la calidad de la información. El objetivo es promover la gobernanza de datos, lograr dashboards útiles y facilitar decisiones informadas en toda la organización.

Apply directly through getonbrd.com.

  • Diseñar, desarrollar y optimizar procesos ETL (Extract, Transform, Load) utilizando Python (Pandas, Numpy) y SQL para ingestar y transformar datos de diversas fuentes.
  • Desarrollar y mantener dashboards y paneles en Power BI, integrando visualizaciones estratégicas que acompañen los procesos ETL y proporcionen insights relevantes para áreas de negocio.
  • Trabajar de forma colaborativa con distintas áreas para interpretar necesidades y traducirlas en soluciones de datos que faciliten la toma de decisiones estratégicas.
  • Promover la calidad, escalabilidad y gobernanza de datos durante el diseño, desarrollo y mantenimiento de pipelines, asegurando soluciones robustas y accesibles.
  • Comunicar de manera efectiva con equipos de negocio y tecnología, alineando las soluciones con objetivos corporativos y generando impacto medible en la organización.

Requisitos y perfil

Buscamos profesionales con 1 a 3 años de experiencia en áreas de datos, en roles de ingeniería o análisis que impliquen manipulación y transformación de datos. Se valorará manejo de SQL a nivel medio, Python (intermedio/avanzado) con experiencia en Pandas y Numpy, y Power BI para desarrollo y mantenimiento de dashboards. Se requiere nivel avanzado de Excel para análisis y procesamiento de información. Experiencia en entornos ágiles y metodologías de desarrollo colaborativo facilita la integración entre equipos técnicos y de negocio. Se valoran conocimientos en otras herramientas de visualización y procesamiento de datos, así como experiencia en gobernanza y calidad de datos para fortalecer el ecosistema de información de Assetplan.
Competencias: capacidad de análisis, atención al detalle, buena comunicación, proactividad y orientación a resultados. Capacidad para trabajar en un entorno dinámico y colaborar con diferentes áreas de la organización para traducir requerimientos en soluciones concretas.

Conocimientos y habilidades deseables

Se valoran conocimientos en metodologías ágiles para gestión de proyectos, habilidades de comunicación efectiva con equipos multidisciplinarios y experiencia en herramientas adicionales de visualización y procesamiento de datos. Experiencia en buenas prácticas de gobernanza y calidad de datos será un plus para robustecer el ecosistema de información de Assetplan.

Beneficios

En Assetplan valoramos y reconocemos el esfuerzo y dedicación de nuestros colaboradores, ofreciendo un ambiente laboral positivo basado en el respeto mutuo y la colaboración. Entre nuestros beneficios contamos con:
  • Días extras de vacaciones por años de antigüedad
  • Modalidad de trabajo híbrido y flexibilidad para trámites personales
  • Monto mensual en app de snacks en la oficina
  • Medio día libre en tu cumpleaños
  • Copago en seguro complementario de salud
  • Reajuste anual de renta basado en IPC
  • Bono anual por resultados de empresa
  • Eventos empresa y happy hours
  • Acceso a plataforma de cursos de formación
  • Convenios con gimnasios, descuentos y más

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Assetplan pays or copays health insurance for employees.
Computer provided Assetplan provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Assetplan gives you paid vacations over the legal minimum.
Beverages and snacks Assetplan offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
Gross salary $3200 - 3500 Full time
Ingeniero/a de Datos Inglés Avanzado
  • Genesys Tecnologías de Inform. SpA
  • Santiago (Hybrid)
Python Agile SQL NoSQL
Genesys Tecnologías de Inform. SpA, una empresa con más de 30 años en el mercado latinoamericano, busca un/a Ingeniero/a de Datos con inglés avanzado para planificar, ejecutar y reportar proyectos de datos de diverso alcance. El rol implica trabajar de forma autónoma con información compleja, proponiendo soluciones sólidas a problemas de negocio. La posición forma parte de nuestro equipo de ingeniería de datos, colaborando con clientes de alto perfil y con una visión de transformación digital que integra tecnologías de nube, analítica y automatización.

Apply through Get on Board.

Funciones y Responsabilidades

  • Diseñar, construir y mantener pipelines de datos utilizando SQL, NoSQL (MySQL, PostgreSQL, MongoDB, Redshift, SQL Server) y herramientas de orquestación.
  • Desarrollar procesos de ETL/ELT y soluciones de Data Warehouse para ingesta y transformación de datos a escala empresarial.
  • Desarrollar y mantener código en Python para procesamiento y automatización de datos.
  • Orquestar flujos de datos con herramientas como Apache Airflow y DBT.
  • Gestión de ingesta en tiempo real, incluyendo etiquetado web y plataformas de datos en tiempo real (p. ej., Snowplow, Google Tag Manager).
  • Definir y mantener pipelines CI/CD con herramientas como Bitbucket y Jenkins.
  • Aplicar metodologías ágiles: gestión de backlog, seguimiento de proyectos e informes (idealmente con Jira).
  • Trabajar en entornos cloud (AWS) y big data, con experiencia en PySpark u otras tecnologías para ingeniería y despliegue de datos.
  • Conocimiento de herramientas complementarias (deseables): Digdag, Embulk, Presto.
  • Capacidad para comprender el negocio y aportar en analítica de marketing/Martech y/o Adtech como valor agregado.
  • Aplicación de modelos de machine learning en plataformas de datos de clientes (deseable).
  • Conocimientos de publicidad programática como plus.
  • Gestión de bloques de datos y calidad de datos, asegurando trazabilidad y gobernanza.
  • Colaboración con equipos multidisciplinarios y apoyo a stakeholders internos y externos.

Requisitos y Perfil

Buscamos un/a Ingeniero/a de Datos con experiencia sólida en desarrollo e implementación de soluciones de datos complejas. Debe demostrar capacidad para planificar, ejecutar y comunicar avances de proyectos de datos en entornos dinámicos, con especial atención a la calidad de datos, escalabilidad y rendimiento. Se valorará experiencia en proyectos de Martech/Adtech y en entornos de nube. Se requiere habilidad para trabajar de forma autónoma, resolver problemas y colaborar de manera efectiva con equipos multifuncionales.
Habilidades técnicas esenciales: dominio de SQL y NoSQL, experiencia con Data Warehouse y ETL/ELT, Python para procesamiento, herramientas de orquestación (Airflow, DBT), ingestas en tiempo real, CI/CD (Bitbucket, Jenkins), metodologías ágiles (Jira), y experiencia en AWS o plataformas similares. Se valora conocimiento en herramientas como Snowplow, Google Tag Manager, Digdag, Embulk y Presto, así como experiencia en marketing analytics y/o ML en datos de clientes.
Habilidades blandas: mentalidad de ingeniero/a, capacidad de resolución de problemas, buen colaborador/a en equipo, orientación al aprendizaje continuo y crecimiento profesional, comunicación clara y capacidad para gestionar prioridades en entornos con información parcial.

Competencias Deseables

  • Experiencia en publicidad programática y plataformas de publicidad digital.
  • Conocimientos avanzados en ML aplicado a datos de clientes y casos de uso de marketing automation.
  • Experiencia con Digdag, Embulk o Presto; familiaridad con pipelines complejos y orquestación multicampo.
  • Conocimiento de gobernanza de datos y buenas prácticas de seguridad y cumplimiento.

Beneficios y Condiciones

Ofrecemos contrato por proyecto con posibilidad de continuidad, en una empresa consolidada en Latinoamérica con más de tres décadas de experiencia. Forma parte de un equipo multidisciplinario, con comunicación directa con la matriz y operaciones en Santiago y otras ciudades, fomentando desarrollo profesional y crecimiento. Modalidad de trabajo híbrida con proyección a 100% presencial, horario habitual de lunes a jueves, con viernes reducido, y posibilidad de ajuste según proyecto. Ubicaciones en Concepción y Santiago, con oportunidades de desarrollo y aprendizaje continuo. 😊

VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer SSR
  • TCIT
  • Santiago (Hybrid)
Python SQL Virtualization Big Data
En TCIT, somos líderes en desarrollo de software en modalidad cloud con más de 9 años de experiencia. Trabajamos en proyectos que transforman digitalmente a organizaciones, desde sistemas de gestión agrícola y de remates en línea, hasta soluciones para tribunales y monitoreo de certificaciones para minería. Participamos en iniciativas internacionales, colaborando con partners tecnológicos en Canadá y otros mercados. Nuestro equipo impulsa soluciones de calidad y sostenibles, con foco en impacto social. Buscamos ampliar nuestro equipo con talentos que quieran crecer y dejar huella en proyectos de alto impacto en la nube.

© getonbrd.com. All rights reserved.

Funciones principales

  • Diseñar, construir y mantener pipelines de datos robustos y escalables utilizando Python y tecnologías de datos en la nube.
  • Desarrollar procesos ETL/ELT, modelado de datos y soluciones de almacenamiento (data lake/warehouse) en plataformas cloud.
  • Colaborar con equipos de datos, BI y producto para entender requerimientos, traducirlos en soluciones técnicas y garantizar la calidad de los datos.
  • Implementar soluciones de monitoring, logging y alerting; asegurar la confiabilidad, rendimiento y seguridad de los datos.
  • Automatizar despliegues y mantener pipelines mediante CI/CD; aplicar prácticas de versionado y pruebas de datos.
  • Participar en la mejora continua de procesos y en la migración hacia arquitecturas basadas en la nube.

Requisitos y perfil

Buscamos un Data Engineer con fuerte dominio en Python y experiencia demostrable trabajando con soluciones en la nube. El/la candidato/a ideal deberá combinar habilidades técnicas con capacidad de comunicación y trabajo en equipo para entregar soluciones de datos de alto rendimiento.
Requisitos técnicos:
  • Experiencia sólida desarrollando pipelines de datos con Python (pandas, pyarrow, etc.).
  • Conocimiento en al menos una plataforma cloud (AWS, GCP o Azure) y servicios relacionados con datos (ETL/ELT, Dataflow, Glue, BigQuery, Redshift, Data Lakes, etc.).
  • Experiencia con orquestación de procesos (Airflow, Prefect o similares).
  • Conocimientos de SQL avanzado y modelado de datos; experiencia con almacenes de datos y data lakes.
  • Conocimientos de contenedores (Docker), CI/CD y herramientas de observabilidad (Prometheus, Grafana, etc.).
  • Buenas prácticas de seguridad y gobernanza de datos, y capacidad para documentar soluciones.
Habilidades blandas:
  • Comunicación clara y capacidad de trabajar en equipos multifuncionales.
  • Proactividad, orientación a resultados y capacidad de priorizar en entornos dinámicos.
  • Ingenio para solucionar problemas y aprendizaje continuo de nuevas tecnologías.

Deseables

Experiencia con herramientas de gestión de datos en la nube (BigQuery, Snowflake, Redshift, Dataflow, Dataproc).
Conocimientos de seguridad y cumplimiento en entornos de datos, experiencia en proyectos con impacto social o regulaciones sectoriales.
Habilidad para escribir documentación técnica en español e inglés y demostrar capacidad de mentoría a otros compañeros.

Conditions

Computer provided TCIT provides a computer for your work.
Beverages and snacks TCIT offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Python Git SQL Virtualization
BC Tecnología es una consulta de TI especializada en la gestión de portafolios, desarrollo de proyectos y outsourcing de personal para áreas de Infraestructura, Desarrollo de Software y Unidades de Negocio. Enfocada en clientes de servicios financieros, seguros, retail y gobierno, la empresa promueve soluciones a través de metodologías ágiles y un marco de cambio organizacional centrado en el desarrollo de productos. El Data Engineer se integrará a proyectos desafiantes que buscan optimizar flujos de datos, gobernanza y escalabilidad, apoyando a clientes con alto estándar de calidad y buscando mejoras continuas en procesos y pipelines.

Find this job on getonbrd.com.

Funciones principales

  • Diseñar y construir pipelines eficientes para mover y transformar datos, asegurando rendimiento y escalabilidad.
  • Garantizar consistencia y confiabilidad mediante pruebas unitarias y validaciones de calidad de datos.
  • Implementar flujos CI/CD para ambientes de desarrollo y producción, promoviendo buenas prácticas de DevOps.
  • Diseñar pipelines avanzados aplicando patrones de resiliencia, idempotencia y event-driven.
  • Contribuir al gobierno de datos mediante metadata, catálogos y linaje.
  • Colaborar con líderes técnicos y arquitectos para definir estándares, guías y mejoras de procesos.
  • Alinear soluciones técnicas con requerimientos de negocio y metas de entrega.
  • Apoyarse en líderes técnicos para lineamientos y mejores prácticas del equipo.

Requisitos y experiencia

Buscamos un Data Engineer con al menos 2 años de experiencia en el diseño y construcción de pipelines de datos. Debe poseer dominio avanzado de Python, Spark y SQL, y experiencia trabajando en el ecosistema AWS (Glue, S3, Redshift, Lambda, MWAA, entre otros). Es deseable experiencia con lakehouses (Delta Lake, Iceberg, Hudi) y conocimientos en CI/CD (Git) y control de versiones. Se valorará experiencia previa en entornos de retail y en proyectos de calidad y gobierno de datos, así como experiencia en desarrollo de integraciones desde/hacia APIs y uso de IaC (Terraform).
Se requieren habilidades de comunicación efectiva, trabajo en equipo y proactividad. Se valorará capacidad de aprendizaje, colaboración entre equipos y enfoque en resultados en un entorno dinámico y con clientes de alto nivel.

Requisitos deseables

Experiencia previa en retail o sectores regulados. Conocimiento en calidad y gobierno de datos. Experiencia en desarrollo de integraciones desde/hacia APIs. Conocimientos en herramientas de orquestación y monitoreo de pipelines. Familiaridad con buenas prácticas de seguridad de datos y cumplimiento normativo. Capacidad para comunicar conceptos técnicos a audiencias no técnicas y para fomentar una cultura de mejora continua.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
Gross salary $1500 - 1700 Full time
Administrador de Bases de Datos
  • Zerviz Technologies
  • Santiago (In-office)
MySQL PostgreSQL NoSQL MongoDB
En ZerviZ, somos una empresa líder en innovación tecnológica y transformación digital desde 2017, con presencia en más de 16 países de América Latina. Nos especializamos en diseñar, implementar y optimizar proyectos digitales que mejoran la experiencia del cliente y optimizan procesos operativos, atención, servicio y gestión. Participarás en un equipo que impulsa más de 150 proyectos exitosos utilizando tecnologías de punta y metodologías ágiles, siempre buscando ir más allá de lo convencional para entregar soluciones flexibles y personalizadas a clientes en diversas industrias.

This posting is original from the Get on Board platform.

Funciones

  • Administrar y optimizar bases de datos relacionales (SQL Server, MySQL, PostgreSQL) y no relacionales (MongoDB).
  • Desarrollar y ejecutar scripts en SQL para automatizar tareas y mejorar el rendimiento.
  • Implementar y mantener políticas de seguridad de bases de datos (encriptación, control de acceso, auditoría).
  • Gestionar planes de backup, recuperación de datos y garantizar alta disponibilidad.
  • Monitorear el rendimiento de las bases de datos y diagnosticar posibles problemas.
  • Gestionar bases de datos en entornos virtualizados y plataformas en la nube (AWS, Azure, Google Cloud).

Requisitos

  • Experiencia en Sistemas de Gestión de Bases de Datos (SGBD): Se requiere experiencia en el manejo y administración de SGBD como Microsoft SQL Server, MySQL, PostgreSQL, MongoDB, entre otros, tanto en bases de datos relacionales como no relacionales.
  • Instalación, configuración y administración: Se debe contar con la capacidad para instalar, configurar y administrar diferentes tipos de SGBD, adaptándolos a las necesidades específicas de la organización.
  • Conocimientos en arquitectura de bases de datos: Se debe tener un conocimiento sólido en la arquitectura de bases de datos, comprendiendo su diseño, escalabilidad y optimización, asegurando un desempeño eficiente y seguro de las bases de datos.

Experiencias Deseables

  • Seguridad de la información: Conocimiento en herramientas y técnicas de seguridad, encriptación de datos y gestión de riesgos.
  • Certificaciones en Cloud: Certificaciones en plataformas de computación en la nube como AWS, Azure o Google Cloud.
  • Business Intelligence (BI): Conocimientos en herramientas de BI para el análisis y visualización de datos.
  • Automatización y scripting: Familiaridad con herramientas de automatización y scripting (PowerShell, Python, etc.) para optimizar procesos y tareas administrativas.

VIEW JOB APPLY VIA WEB
Gross salary $4500 - 4800 Full time
Data Engineer
  • Coderslab.io
Python Agile SQL Scrum

Coderslab.io es una empresa dedicada a transformar y hacer crecer negocios mediante soluciones tecnológicas innovadoras. Formarás parte de una organización en expansión con más de 3,000 colaboradores a nivel global, con oficinas en Latinoamérica y Estados Unidos. Te unirás a equipos diversos que reúnen a parte de los mejores talentos tecnológicos para participar en proyectos desafiantes y de alto impacto. Trabajarás junto a profesionales experimentados y tendrás la oportunidad de aprender y desarrollarte con tecnologías de vanguardia.
Role Purpose

We are looking for a Data Engineer to design, develop, and support robust, secure, and scalable data storage and processing solutions. This role focuses on data quality, performance, and integration, working closely with technical and business teams to enable data-driven decision making.

Originally published on getonbrd.com.

Funciones del cargo

Key Responsibilities

  • Design, develop, test, and implement databases and data storage solutions aligned with business needs.
  • Collaborate with users and internal teams to gather requirements and translate them into effective technical solutions.
  • Act as a bridge between IT and business units.
  • Evaluate and integrate new data sources, ensuring compliance with data quality standards and ease of integration.
  • Extract, transform, and combine data from multiple sources to enhance the data warehouse.
  • Develop and maintain ETL/ELT processes using specialized tools and programming languages.
  • Write, optimize, and maintain SQL queries, stored procedures, and functions.
  • Design data models, defining structure, attributes, and data element naming standards.
  • Monitor and optimize database performance, scalability, and security.
  • Assess existing database designs to identify performance improvements, required upgrades, and integration needs.
  • Implement data management standards and best practices to ensure data consistency and governance.
  • Provide technical support during design, testing, and production deployment.
  • Maintain clear and accurate technical documentation.
  • Work independently on projects of moderate technical complexity with general supervision.
  • Participate in Agile teams, contributing to sprint planning and delivery.
  • Provide on-call support outside business hours and on weekends on a rotating basis.

Requerimientos del cargo

Required Qualifications

  • Bachelor’s degree in Computer Science, Information Systems, Database Systems, Engineering, or a related field, or equivalent experience.
  • 4–5 years of professional experience in a similar role.
  • Strong experience with:
    • SQL
    • Snowflake
    • ETL / ELT processes
    • Cloud-based data warehousing platforms
  • Experience with ETL tools (e.g., Informatica) and programming languages such as Python.
  • Solid understanding of data warehouse design and administration.
  • Experience working with Agile methodologies (Scrum).
  • Strong analytical, conceptual thinking, and problem-solving skills.
  • Ability to plan, prioritize, and execute tasks effectively.
  • Strong communication skills, able to explain technical concepts to non-technical stakeholders.
  • Excellent written and verbal communication skills.
  • Strong interpersonal, listening, and teamwork skills.
  • Self-motivated, proactive, and results-driven.
  • Strong service orientation and professional conduc

Opcionales

Preferred Qualifications

  • Certifications in Snowflake, SQL Server, or T-SQL.

Condiciones

Remote | Contractor | High English proficiency

VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Java Python Agile SQL
BC Tecnología es una consultora de TI que gestiona portafolio, desarrolla proyectos y ofrece servicios de outsourcing y selección de profesionales. Nuestro enfoque es crear equipos ágiles para Infraestructura, Desarrollo de Software y Unidades de Negocio, trabajando con clientes de servicios financieros, seguros, retail y gobierno. Participarás en proyectos innovadores para clientes de alto nivel, con un equipo multidisciplinario y una cultura de aprendizaje y crecimiento profesional. Formarás parte de una organización que prioriza la calidad, la seguridad y la gobernanza de datos mientras impulsa soluciones de alto impacto para la toma de decisiones estratégicas.

© Get on Board. All rights reserved.

Funciones

  • Diseñar, construir y mantener pipelines de datos (ETL / Data Pipelines) robustos, escalables y eficientes para procesar grandes volúmenes de información de múltiples fuentes.
  • Gestionar la ingesta, procesamiento, transformación y almacenamiento de datos estructurados y no estructurados.
  • Implementar soluciones de ingeniería de datos en entornos cloud, con preferencia por AWS (Glue, Redshift, S3, etc.).
  • Traducir necesidades de negocio en requerimientos técnicos viables y sostenibles.
  • Colaborar con equipos multidisciplinarios (negocio, analítica, TI) para entregar soluciones de valor.
  • Aplicar buenas prácticas de desarrollo, seguridad, calidad y gob (governance) de datos; versionado de código, pruebas y documentación.
  • Participar en comunidades de datos, promover mejoras continuas y mantener la documentación actualizada.

Requisitos y habilidades

Estamos buscando un Data Engineer con al menos 3 años de experiencia en roles de Ingeniería de Datos y experiencia comprobable en ETLs y arquitecturas de datos en la nube. El candidato ideal debe haber trabajado en entornos ágiles y tener experiencia en proyectos de Retail o sectores afines (deseable).
Conocimientos técnicos requeridos:
  • Cloud Computing: AWS (Glue, Redshift, S3, entre otros).
  • Orquestación de pipelines: Apache Airflow.
  • Lenguajes de programación: Python (preferente) o Java.
  • Almacenamiento de datos: SQL, NoSQL, Data Warehouses.
  • Buenas prácticas: control de versiones, pruebas y documentación.
Competencias blandas: orientación al cliente, capacidad de trabajar en equipos multidisciplinarios, proactividad, pensamiento analítico y habilidades de comunicación para traducir requerimientos técnicos a negocio.

Deseables

Experiencia en Retail y en proyectos con gobernanza y cumplimiento de datos, experiencia con herramientas de visualización y analítica, conocimiento de seguridad de datos y cumplimiento normativo, y experiencia en migraciones o modernización de data stacks.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
Gross salary $1800 - 2200 Full time
Data Analyst
  • TCIT
Python Agile Data Analysis SQL
En TCIT aceleramos la transformación digital de organizaciones a través de soluciones innovadoras y sostenibles en la nube. Nuestro equipo de Data analiza grandes volúmenes de datos para entregar insights accionables que impulsan decisiones estratégicas en clientes de diversos sectores. Buscamos a un Data Analyst con visión analítica y pasión por la mejora continua para unirse a proyectos que integran soluciones de negocio, herramientas de BI y pipelines de datos en entornos ágiles. El candidato trabajará en estrecha colaboración con equipos de producto, ingeniería y negocio, asegurando que los tableros y modelos de datos generen valor real y resultados medibles para nuestros clientes y socios tecnológicos.

This posting is original from the Get on Board platform.

Responsabilidades clave

  • Definir y ejecutar análisis exploratorios para identificar impulsores de negocio y áreas de mejora a partir de datasets complejos.
  • Diseñar, construir y mantener dashboards e informes interactivos en Looker Studio para stakeholders de negocio y operaciones.
  • Desarrollar y mantener modelos en Looker ML (LookML) para estructurar datos y facilitar consultas eficientes.
  • Colaborar con equipos de ingeniería para diseñar pipelines de datos confiables, asegurar calidad de datos y gobernanza.
  • Trabajar con SQL avanzado para extraer, transformar y cargar datos desde diversas fuentes y data warehouses.
  • Participar en reuniones de requisitos, traduciendo necesidades de negocio en métricas y visualizaciones comprensibles.
  • Aplicar principios de análisis de datos para apoyar decisiones estratégicas, medir impacto de iniciativas y controlar KPIs.
  • Automatizar procesos de reporte y desarrollar documentación clara de dashboards, métricas y definiciones de datos.
  • Contribuir a un entorno ágil (scrum) con entregas iterativas y revisión continua de resultados.

Requisitos y perfil

Buscamos un Data Analyst con 3 a 5 años de experiencia comprobable en análisis de datos, con fuerte capacidad para convertir datos en insights accionables. Debe dominar Looker Studio para visualización avanzada y Looker ML para modelado y acceso a datos a través de Looker. Se valorará experiencia en entornos de nube y en gestión de datos desde fuentes heterogéneas. Requisitos mínimos: SQL avanzado, experiencia práctica con Looker Studio y LookerML/Looker ML, análisis estadístico y habilidades de comunicación para presentar hallazgos a stakeholders. Deseable conocimiento de Python o R para manipulación de datos y automatización, así como experiencia con ETL, data warehousing (BigQuery, Snowflake u otros), y metodologías ágiles. Buscamos perfiles proactivos, orientados a resultados, con pensamiento crítico y excelentes habilidades de storytelling para negocios.

Requisitos deseables

Experiencia adicional con herramientas de BI y visualización, familiaridad con soluciones en la nube (p. ej., BigQuery, Snowflake, AWS Redshift), conocimientos de Git para control de versiones, y capacidad de trabajar en inglés técnico. Valoramos experiencia en sectores regulados o con altos requerimientos de gobernanza de datos, así como habilidades de comunicación para colaborar con equipos multifuncionales y coaches de datos.

Conditions

Computer provided TCIT provides a computer for your work.
Informal dress code No dress code is enforced.
Beverages and snacks TCIT offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
$$$ Full time
Docente de Minería de Datos
  • Duoc UC
  • Puerto Montt (In-office)
Python Data Analysis Business Intelligence Artificial Intelligence

Duoc UC Sede Puerto Montt, perteneciente a la Escuela de Informática y Telecomunicaciones, busca incorporar docentes para la asignatura de Minería de Datos. El objetivo es liderar el proceso de enseñanza y aprendizaje siguiendo el modelo educativo institucional, alineado a sus valores y marco disciplinar. El rol requiere aprovechar la formación y experiencia profesional para impactar positivamente en el aprendizaje de los estudiantes, contribuyendo al desarrollo de técnicas de análisis de datos y a la generación de insights relevantes a partir de grandes conjuntos de datos.

El/la docente trabajará en un entorno colaborativo, con equipos multidisciplinarios, y participará en procesos de desarrollo docente y actualización tecnológica para fortalecer las competencias de los estudiantes en Minería de Datos, Business Intelligence y análisis para toma de decisiones.

Apply through Get on Board.

Funciones

  • Planificar, impartir y evaluar cursos y módulos relacionados con Minería de Datos, análisis de datos y herramientas de data science.
  • Diseñar actividades prácticas, proyectos y casos de negocio que conecten la teoría con la solución de problemas reales.
  • Guiar a los estudiantes en la explotación de grandes volúmenes de datos y en la generación de observaciones e insights accionables.
  • Participar en iniciativas de desarrollo docente, actualización tecnológica y mejora continua de la asignatura.
  • Dirigir, supervisar y evaluar trabajos de curso, proyectos finales y prácticas profesionales, promoviendo buenas prácticas de análisis de datos y ética.
  • Asesorar y orientar a estudiantes en su progreso académico y en el desarrollo de habilidades técnicas y blandas relevantes para la industria.

Descripción

Se requiere un/a Ingeniero/a en Informática, Ejecución Informática o afín, con al menos 2 años de experiencia en análisis y diseño de software, manejo de modelos de datos y experiencia en técnicas de Minería de Datos e Inteligencia de Negocios. Debe haber trabajado con grandes volúmenes de datos y ser capaz de documentar observaciones e indiciar insights relevantes. Disponibilidad para jornada diurna y vespertina.

Conocimientos deseables incluyen manejo de Python para análisis de datos, experiencia en machine learning y minería de datos. Se valorará formación complementaria (diplomados o cursos) en estas áreas. Disposición para revisar previamente materiales institucionales y videos requeridos como parte del proceso de incorporación.

Requisitos deseables

  • Formación: Se requiere un Ingeniero en Informática, Ejecución Informática o afín.
  • Experiencia: 2 años de experiencia en: Análisis y diseño de software, empleando modelos de datos. Experiencia con técnicas de Minería de Datos. Experiencia en áreas de Inteligencia de Negocio. Que haya explotado grandes volúmenes de datos, siendo capaz de escribir observaciones y generar insight.
  • Disponibilidad:Lunes: 19:01 a 21:10 Miércoles: 16:41 a 18:50/ Jueves: 11:31 a 13:40, 16:41 a 18:50 &20:31 a 22:30 Viernes: 11:31 a 13:40.
  • Otros requisitos: Es deseable que cuente con diplomados o cursos de análisis de datos con Python, machine learning o minería de datos.

Beneficios

La institución ofrece un entorno educativo con trayectoria, enfoque en valores institucionales y desarrollo profesional. Jornada diurna en la sede San Carlos de Apoquindo, posibilidad de integrarse a equipos multicisciplinarios, y apoyo para desarrollo docente y actualización tecnológica. Otras condiciones y beneficios serán detallados en la etapa de contratación y contrato, conforme a las políticas de Duoc UC.

VIEW JOB APPLY VIA WEB
$$$ Full time
Docente de Minería de Datos
  • Duoc UC
  • Santiago (In-office)
Python Data Analysis SQL Artificial Intelligence
Duoc UC es una institución de educación superior técnico profesional autónoma y católica, con más de 50 años de historia y la máxima acreditación institucional. Nos enfocamos en formar técnicos y profesionales a través de 9 escuelas y más de 70 carreras vigentes, presentes en 18 sedes regionales. Nuestro equipo docente colabora en entornos multicisciplinarios y con enfoque en valores institucionales, buscando aportar al desarrollo económico de Chile mediante una educación de calidad y actualizada.

© getonbrd.com.

Funciones y responsabilidades

  • Liderar el proceso de enseñanza/aprendizaje en la asignatura de Minería de Datos, alineada al modelo educativo y al marco valórico institucional.
  • Desarrollar unidades didácticas, planificaciones y recursos pedagógicos que favorezcan el aprendizaje activo (ABP) y proyectos aplicados.
  • Evaluar y retroalimentar a los estudiantes, contextualizando contenidos al mundo laboral y simulando entornos empresariales.
  • Trabajar en colaboración con equipos multidisciplinarios, integrando herramientas de análisis de datos, inteligencia de negocio y desarrollo de software.
  • Integrar tecnologías y prácticas actuales de minería de datos, analítica y visualización para generar insights relevantes.
  • Contribuir a la mejora continua de la calidad de la enseñanza y del desempeño estudiantil.

Requisitos y perfil buscado

Requisitos del perfil:

  • Formación: Ingeniero en Informática, Ejecución Informática o afín.
  • Experiencia: 2 años de experiencia en Análisis y diseño de software, empleando modelos de datos, aplicación de técnicas de Minería de Datos, experiencia en áreas de Inteligencia de Negocio, que haya explotado grandes volúmenes de datos, siendo capaz de escribir observaciones y generar insight.
  • Disponibilidad:Martes: 16:01 a 17:20/ Miércoles: 16:01 a 18:50/ Jueves: 19:01 a 21:10/ Viernes: 20:31 a 22:30.
  • Otros requisitos: Es deseable que cuente con diplomados o cursos de análisis de datos con Python, machine learning o minería de datos.

Debe poseer competencias profesionales tales como:

  • Conocimiento en estadística para minería de datos.
  • Conocimientos en lenguaje de programación Python, librerías: numpy, pandas, sckit learn.
  • Habilidad y experiencia en análisis y diseño, empleando modelos de datos.
  • Experiencia con técnicas de Minería de Datos basado en metodología CRISP-DM.
  • Experiencia en áreas de Inteligencia de Negocio.
  • Conocimiento en estadística descriptiva e inferencial para minería de datos.

Competencias deseables

Conocimiento avanzado de Python y sus ecosistemas para ciencia de datos; experiencia adicional en SQL, bases de datos y visualización (por ejemplo, Power BI o Tableau). Certificaciones o cursos en ML/IA y minería de datos, así como experiencia de enseñanza en entornos universitarios o técnicos.

Beneficios y condiciones

La institución ofrece un entorno educativo con trayectoria, enfoque en valores institucionales y desarrollo profesional. Jornada diurna en la sede San Carlos de Apoquindo, posibilidad de integrarse a equipos multicisciplinarios, y apoyo para desarrollo docente y actualización tecnológica. Otras condiciones y beneficios serán detallados en la etapa de contratación y contrato, conforme a las políticas de Duoc UC.

VIEW JOB APPLY VIA WEB
Gross salary $2000 - 3400 Full time
Senior Data Engineer
  • Forest
  • Santiago (Hybrid)
Python PostgreSQL Git SQL

What is Forest?

We are Forest, London’s most sustainable shared eBike operator. We bridge the gap between affordability and sustainability, using our advertising revenue to offer all customers free cycling minutes daily.

We have just raised a Series A funding round to double our fleet size in London, continuing to invest in our digital marketing proprietary tech, and starting our international expansion plans.

If you want to join a quick-moving and fast-growing company, making a difference in the micro-mobility industry, come join us.

Please note: our company is based in the UK and has Chilean Founders.

*This job is based in Chile (candidate must be based here), and reports to the team in Chile and the UK. Spanish and English fluency is mandatory.

Apply exclusively at getonbrd.com.

About the Role

We are looking for a SeniorData Engineer with strong experience in database migrations, specifically moving large-scale datasets and pipelines from Postgres to Snowflake. You will design, build, and optimize migration workflows using Mage as our orchestration platform, while leveraging both AWS and GCP infrastructure.

This role is ideal for someone who knows how to work with complex schemas, high-volume data, and performance tuning, and who can drive a seamless migration with minimal downtime.

Migration & Pipeline Development

  • Lead the end-to-end migration of datasets, ETL jobs, and schemas from Postgres to Snowflake.
  • Design, build, and maintain data ingestion and transformation pipelines using Mage.
  • Ensure data quality, consistency, and performance across the migrated ecosystem.

Architecture & Optimization

  • Optimize query performance and warehouse usage in Snowflake (clustering, micro-partitioning, caching, etc.).
  • Work with cloud infrastructure on AWS and GCP, integrating pipelines with storage (S3/GCS), compute, IAM, networking, and secret management.
  • Create scalable, cost-efficient data models and workflows.

Tableau Integration & Support

  • Support the migration of Tableau data sources from Postgres connections to Snowflake connections.
  • Work with the Data team to validate Tableau dashboards after migration.
  • Optimize Snowflake models and queries used by Tableau to ensure performance and cost efficiency.
  • Help redesign or refactor extracts, live connections, and published data sources to align with best practices.

Collaboration & Delivery

  • Partner with Data, Product, and Engineering to understand data needs and ensure smooth transition.
  • Document migration steps, architecture decisions, and pipeline designs.
  • Troubleshoot and resolve issues related to performance, data inconsistencies, and pipeline failures.

Requirements

Technical Skills

  • 5+ years of experience in Data Engineering or similar roles.
  • Strong expertise with Postgres (schema design, query tuning, replication strategies).
  • Hands-on experience with Snowflake (Snowpipe, Tasks, Streams, Warehouses).
  • Solid experience orchestrating pipelines using Mage (or Airflow/Prefect with willingness to learn Mage).
  • Strong SQL skills and Python.
  • Experience working with AWS and GCP
  • Familiarity with CI/CD pipelines and Git-based workflows.

Optionals

  • Experience migrating large datasets or re platforming data stacks.
  • Experience implementing security and governance frameworks.
  • Strong communication and documentation habits.
  • Ability to work independently and drive projects from start to finish.
  • Problem-solver with a focus on reliability and scalability.
  • Comfortable working in a fast-paced, cloud-native, multi-cloud environment.

What we offer

  • Opportunity to design and influence the core data architecture.
  • Flexibility, learning resources, and ownership over high-impact projects.
  • Play a key role in the transformation of sustainable urban mobility in our cities.
  • Competitive compensation plan with plenty of development opportunities.
  • Scale with a rapidly growing organization, working with a team of fun, experienced and motivated individuals, with highly growth opportunities.
  • Private Health Insurance plan.
  • 20 days holiday plus your birthday.
  • Work for an international company that has a link between Chile and the UK.
  • Bilingual mode of communication at work.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance Forest pays or copays life insurance for employees.
Meals provided Forest provides free lunch and/or other kinds of meals.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Forest pays or copays health insurance for employees.
Dental insurance Forest pays or copays dental insurance for employees.
Computer provided Forest provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Forest gives you paid vacations over the legal minimum.
Beverages and snacks Forest offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineering Lead
  • Global Mobility Apex, S.A.
Python Analytics SQL Erlang
Sobre la empresa
Global Mobility Apex, S.A. es una corporación multinacional de bebidas y alimentos, fundada en 1885, con operaciones en más de 14 países y más de 15,000 colaboradores. Contamos con el portafolio de bebidas más grande de la región y alianzas estratégicas con PepsiCo y AB InBev. Nos organizamos en 4 unidades de negocio: apex (transformación), cbc (distribución), beliv (innovación en bebidas) y bia (alimentos). Buscamos talentos que se sumen a nuestra estrategia de expansión y crecimiento, compartiendo nuestros anhelos y aportando su visión para lograr grandes resultados.
Buscamos el "Data Engineering Lead" que lidere la plataforma de datos corporativa en un entorno multi-cloud, con foco en Azure y soporte en Google Cloud Platform (GCP). Este rol define, lidera y escala la estrategia de ingeniería de datos para la región, garantizando una plataforma robusta, gobernada y escalable para analítica avanzada, BI y productos digitales en múltiples países.

Apply exclusively at getonbrd.com.

Objetivo del rol

Buscamos incorporar un Data Engineering Lead que lidere la plataforma de datos corporativa en un entorno multi-cloud, con foco principal en Azure y soportecomplementario en Google Cloud Platform (GCP).

Será responsable de definir, liderar y escalar la estrategia de ingeniería de datos para la región, garantizando una plataforma robusta, gobernada y escalable, capaz de soportar analítica avanzada, BI y productos digitales en múltiples países. Este rol combina liderazgo técnico, arquitectura de datos multi-cloud, gobierno, y gestión de equipos, actuando como habilitador clave de la estrategia data-driven de la organización.

Responsabilidades clave

1. Arquitectura de Datos Multi-Cloud (Azure 60% / GCP 40%)

  • Definir y evolucionar una arquitectura Lakehouse corporativa (Bronze / Silver / Gold) en entornos Azure y GCP.
  • Liderar el diseño e implementación de soluciones escalables utilizando principalmente Azure, incluyendo:
    • Azure Data Lake Storage Gen2 (Data Lake)
    • Azure Databricks (Spark / Lakehouse)
    • Azure Data Factory (ingesta y orquestación)
    • Azure Synapse / Azure SQL / Delta Lake (cuando aplique)
  • Integrar y operar soluciones complementarias en GCP, tales como:o Cloud Storage
    • BigQuery
    • Dataflow / Apache Beam
    • Dataproc (Spark administrado)
    • Vertex AI
  • Definir estándares de naming, particionamiento, versionado, performance y seguridad comunes entre nubes.

2. Gobierno, Calidad y Seguridad de Datos

  • Garantizar datos confiables, trazables y gobernados en toda la plataforma.
  • Diseñar e implementar prácticas de:
    • Data Quality (DQ)
    • Data Lineage
    • Data Catalog / Business Glossary
  • Implementar controles de seguridad y gobierno mediante:
    • Azure Purview / Microsoft Fabric governance (cuando aplique)
    • Unity Catalog (Databricks)
    • GCP Dataplex / Data Catalog
  • Asegurar cumplimiento de políticas de acceso, privacidad y auditoría.

3. Orquestación, Automatización y CI/CD

  • Liderar la orquestación de pipelines ETL/ELT usando:
    • Azure Data Factory
    • Azure Databricks Jobs
    • Cloud Composer (Airflow)
  • Garantizar pipelines:
    • Idempotentes
    • Reproducibles
    • Versionados
  • Implementar CI/CD para infraestructura y data pipelines usando:
    • Terraform / IaC
    • GitHub Actions / Azure DevOps
  • Supervisar despliegues seguros en ambientes dev / qa / prod.

4. Liderazgo de Equipos y Stakeholders

  • Liderar y mentorizar equipos de Data Engineers en distintos países.
  • Definir estándares de ingeniería y promover buenas prácticas de desarrollo (Python, SQL, Spark).
  • Actuar como punto de enlace entre:
    • Negocioo Analytics & Data Science
    • BI
    • Cloud & Security
    • Proveedores tecnológicos
  • Traducir necesidades de negocio en soluciones técnicas escalables y sostenibles.

5. Optimización de Costos y Performance

  • Optimizar costos y performance en:
    • Azure Databricks y ADLS
    • BigQuery y Dataflow
  • Diseñar estrategias de:
    • Particionado y clustering
    • Gestión de workloads
    • Control de consumo y costos
  • Promover mejora continua de la arquitectura y tooling.

Requisitos

Formación

  • Licenciatura o Maestría en Ingeniería, Sistemas, Computación, Data Science o carreras afines.

Experiencia

  • +7 años de experiencia en Ingeniería de Datos.
  • Experiencia liderando plataformas de datos en Azure (imprescindible).
  • Experiencia comprobada en GCP (deseablem y plus).
  • Dominio de arquitecturas Lakehouse / Medallion (Bronze / Silver / Gold).
  • Experiencia sólida en:
    • SQL avanzado
    • Python
    • Spark / Databricks
  • Experiencia liderando equipos técnicos.

Deseable

  • Experiencia en CPG / Retail / Consumo Masivo.
  • Conocimiento de Data Governance y Data Mesh (conceptual).
  • Experiencia en entornos multi-país y multi-negocio.

Retos del puesto

  • Escalar una plataforma de datos multi-cloud a nivel regional.
  • Estandarizar arquitectura y prácticas entre Azure y GCP.
  • Garantizar calidad, seguridad y gobierno en entornos complejos.
  • Balancear velocidad, performance y costos.
  • Habilitar datos confiables para analítica avanzada y productos digitales.

Health coverage Global Mobility Apex, S.A. pays or copays health insurance for employees.
Computer provided Global Mobility Apex, S.A. provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Global Mobility Apex, S.A. gives you paid vacations over the legal minimum.
VIEW JOB APPLY VIA WEB
$$$ Full time
Business Intelligence Specialist
  • Lemontech
  • Santiago (Hybrid)
SQL Business Intelligence Big Data BigQuery

En LemonTech, somos una empresa SaaS líder en Latinoamérica en el área Legaltech, comprometidos con modernizar procesos legales a través de tecnología innovadora. Nos especializamos en desarrollar softwares eficaces para el sector jurídico, simplificando y digitalizando lo que anteriormente era burocrático.
Nuestro equipo está compuesto por talentos internacionales, cada uno aportando sus habilidades únicas para crear un ambiente colaborativo y creativo.

Job opportunity published on getonbrd.com.

Funciones del cargo

Si te motiva trabajar con datos que sí se usan, construir métricas que no se discuten en cada reunión y ser quien pone orden cuando aparecen “tres números distintos para el mismo KPI”, este rol es para ti.

Buscamos a alguien que se adueñe de la capa analítica y de visualización, y que convierta datos operativos en decisiones claras para el negocio.

  • Diseñar, desarrollar y optimizar modelos analíticos en dbt sobre BigQuery, enfocados en consumo BI y reporting ejecutivo.
  • Asegurar que la lógica de negocio esté bien implementada, versionada y documentada.
  • Trabajar junto a Analytics Engineering en la definición de métricas core y modelos compartidos.
  • Velar por calidad de datos, naming conventions, trazabilidad y performance (incluyendo control de costos).
  • Analizar datos provenientes de sistemas operacionales como NetSuite (ERP) y HubSpot (CRM).
  • Detectar patrones, tendencias y anomalías relevantes para el negocio.
  • Diseñar y mantener dashboards avanzados en Power BI, pensados para tomar decisiones, no solo para mirar.
  • Definir, validar y documentar KPIs estratégicos (ARR, churn, NPS, Customer Health Score, entre otros).
  • Actuar como referente técnico y funcional en Power BI y DAX avanzado.
  • Traducir necesidades de negocio en requerimientos analíticos claros.
  • Presentar insights y conclusiones a líderes de distintas áreas.
  • Promover buenas prácticas de análisis, visualización y uso de datos dentro del equipo.

Nota importante: la ingesta y pipelines base ya existen. Este rol se enfoca en transformar, modelar y dar sentido a la data, no en moverla.

Requerimientos del cargo

  • SQL avanzado, idealmente en BigQuery u otro data warehouse analítico.
  • Experiencia sólida en dbt para modelado y transformación de datos.
  • Manejo avanzado de Power BI, incluyendo DAX.
  • Experiencia trabajando en entornos Google Cloud Platform (BigQuery).
  • Capacidad para entender el negocio y traducirlo en métricas claras.
  • Buen criterio analítico, orden y obsesión sana por la consistencia de los datos.
  • Habilidad para comunicar insights a perfiles no técnicos sin perder rigor.

Opcionales

  • Experiencia usando Python para análisis exploratorio o complementario.
  • Conocimiento funcional de métricas SaaS.
  • Experiencia previa con NetSuite y/o HubSpot.
  • Haber trabajado consumiendo o visualizando resultados de modelos predictivos (churn, scoring, segmentación).
  • Familiaridad con conceptos básicos de machine learning aplicado a negocio.

Condiciones

🌍 Work From Anywhere (WFA): Flexibilidad para trabajar desde cualquier lugar.
🌅 Semana extra de vacaciones: Una semana adicional a los días legales por país.
🏡 Horarios flexibles: Trabaja desde casa o nuestra oficina.
🍏 Espacios de descanso: Lounge con snacks y frutas para desconectar.
🚀 Cultura de equipo: Trabajamos juntos para alcanzar objetivos y disfrutar el proceso.
💼 Co-financiamiento de estudios: Apoyo para tu desarrollo profesional.
🏥 Seguro complementario (solo en Chile): Para tu bienestar y tranquilidad.
🍼 Postnatal parental de 1 mes: Para disfrutar con tu bebé.

Postúlate ahora y acompáñanos a transformar el futuro del LegalTech! 🌟

Te compartimos nuestro aviso de Privacidad de Postulantes.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance Lemontech pays or copays life insurance for employees.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Lemontech pays or copays health insurance for employees.
Dental insurance Lemontech pays or copays dental insurance for employees.
Free car parking You can park your car for free at the premises.
Computer provided Lemontech provides a computer for your work.
Education stipend Lemontech covers some educational expenses related to the position.
Informal dress code No dress code is enforced.
Vacation over legal Lemontech gives you paid vacations over the legal minimum.
Beverages and snacks Lemontech offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Parental leave over legal Lemontech offers paid parental leave over the legal minimum.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Analyst
  • Vemo México
  • Ciudad de México (In-office)
Python Analytics Data Analysis Excel

En VEMO México, nos movemos en el ámbito de la electromovilidad para acelerar la adopción de soluciones de movilidad limpia en México y América Latina. Nuestro equipo trabaja en software y plataformas tecnológicas de alto impacto dentro de un ecosistema que integra datos, energía limpia, infraestructura de carga y servicios digitales. Buscamos talento joven para formar parte de un área de ingeniería que aprende y crece a través de proyectos reales, con foco en impacto social y ambiental. Este rol te permitirá participar en la construcción de componentes de software, colaborar con perfiles más senior y entender el ciclo completo de desarrollo dentro de una empresa cleantech en expansión, con metodología ágil y un ambiente de aprendizaje continuo.

Applications are only received at getonbrd.com.

Funciones del cargo

El VCN Data Analyst será responsable de centralizar, analizar y traducir los datos comerciales, operativos y de portafolio de la red de recarga VCN en inteligencia accionable que impulse la toma de decisiones estratégicas, la eficiencia operativa y la escalabilidad de capacidades internas. Este rol trabaja de forma transversal con líderes de área y en estrecha colaboración con los equipos de Business Intelligence, Business Development y VCN Operations para diseñar dashboards, reportes y herramientas que fortalezcan el seguimiento de indicadores clave de la red.

Responsabilidades principales

  • Recolectar y organizar datos provenientes de CRM, sistemas de monitoreo de cargadores, O&M y operaciones comerciales
  • Validar la calidad, consistencia y completitud de la información
  • Estandarizar reportes internos y bases de datos para la toma de decisiones
  • Monitorear y analizar KPIs críticos por hub, región y tipo de producto
  • Detectar outliers, desviaciones o problemas estructurales en la red
  • Evaluar performance de hubs y del portafolio de activos, generando recomendaciones para mejorar rentabilidad y eficiencia
  • Co-diseñar dashboards junto con el equipo de BI para monitorear performance en tiempo real
  • Automatizar reportes y crear herramientas que faciliten la gestión de operaciones
  • Preparar reportes ejecutivos y presentaciones para el senior management
  • Desarrollar narrativas de datos que traduzcan métricas complejas en insights estratégicos
  • Proponer iniciativas basadas en datos (zonas de oportunidad, pricing, eficiencia operativa, riesgos)
  • Acompañar a líderes de área en la implementación de soluciones
  • Identificar patrones de alto impacto y contribuir al diseño de herramientas internas de performance tracking

Requerimientos del cargo

  • Licenciatura en Ingeniería, Actuaría, Economía, Matemáticas Aplicadas, Sistemas Computacionales o afines
  • 3+ años en análisis de datos, business analytics o roles similares, idealmente en industrias de tecnología, movilidad, energía o infraestructura
  • Experiencia en forecasting, modelos de predicción y optimización de operaciones
  • Historial comprobable en diseño de dashboards y automatización de reportes
  • Experiencia trabajando con stakeholders de alto nivel y generando recomendaciones estratégicas

Habilidades técnicas (Hard Skills)

  • Dominio avanzado de Excel y PowerPoint
  • Manejo de herramientas de visualización: Power BI, Tableau
  • Conocimientos en SQL, Python o R para análisis y modelado de datos

Habilidades interpersonales (Soft Skills)

  • Capacidad analítica y pensamiento estratégico
  • Estructura y atención al detalle
  • Autonomía y ownership mentality
  • Comunicación efectiva y data storytelling
  • Adaptabilidad y colaboración transversal

Opcionales

  • Maestría o posgrado en Data Science, Business Analytics o Business Intelligence
  • Conocimientos en modelos de pricing y customer segmentation
  • Experiencia previa en empresas de alto crecimiento o scale-ups

Condiciones

A convenir según perfil y experiencia. En VEMO promovemos igualdad de oportunidades y un ambiente inclusivo. Ofrecemos la posibilidad de growth dentro de una empresa de electromovilidad en expansión, con enfoque en impacto social y ambiental. Disponibilidad de horarios flexibles y oportunidades de desarrollo profesional en tecnología y negocio.

Health coverage Vemo México pays or copays health insurance for employees.
Computer provided Vemo México provides a computer for your work.
Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Analyst
  • BC Tecnología
  • Santiago (Hybrid)
Python Analytics Data Analysis Excel

BC Tecnología es una consultora de TI que diseña soluciones para clientes en sectores como finanzas, seguros, retail y gobierno. En este rol, te integrarás a un equipo de Risk Operations enfocado en generar y mantener un ecosistema de procesos de monitoreo y alertas para detectar conductas fraudulentas o riesgosas de Sellers activos en el Marketplace. Trabajarás en proyectos estratégicos de alto impacto, con coordinación de requerimientos a nivel local e internacional, buscando mitigar riesgos operacionales y reputacionales mediante soluciones basadas en datos y automatización de procesos.

Colaborarás con áreas de negocio para traducir necesidades en soluciones analíticas; levantarás, documentarás y mantendrás procesos automáticos; y contribuirás a la mejora continua de procesos operacionales a través de insights basados en datos y reportes periódicos. Tendrás la oportunidad de participar en un entorno colaborativo, con cultura de aprendizaje y enfoque en crecimiento profesional.

Apply to this job through Get on Board.

Funciones y responsabilidades clave

  • Generar y mantener un ecosistema de procesos de monitoreo y alertas para detección de incumplimientos y comportamientos riesgosos.
  • Analizar grandes volúmenes de datos para diseñar flujos automáticos de alertas, reportes y monitoreos orientados a la detección de riesgos.
  • Elaborar reportes periódicos y análisis ad-hoc que permitan identificar, priorizar y accionar casos de riesgo.
  • Generar insights y recomendaciones accionables para la mejora continua de procesos operacionales.
  • Levantar, documentar y mantener los procesos automáticos implementados.
  • Gestionar proyectos de analítica de principio a fin, coordinando requerimientos con stakeholders locales e internacionales.
  • Comprender cómo interactúan las distintas áreas del negocio dentro del ecosistema digital y traducir necesidades en soluciones basadas en datos.
  • Utilizar estructuras de almacenamiento y herramientas de explotación de datos para apoyar la toma de decisiones.

Descripción y requisitos del rol

Buscamos un/una Analista de Datos con 2 a 4 años de experiencia en roles similares (Analítica, BI, Operaciones, Marketing o afín). Se valorará experiencia en Ecommerce. Requerimos dominio avanzado de SQL y nivel intermedio–avanzado de inglés. Se espera manejo avanzado de al menos una herramienta de visualización/análisis de datos (Excel, Tableau, Power BI o Data Studio). Experiencia en al menos un lenguaje de programación para análisis de datos (preferible Python; R u otro también válido). Conocimientos en plataformas Cloud, idealmente Google Cloud Platform. Conocimientos en Prompt Engineering serán valorados. Se ofrece modalidad de trabajo híbrida y contrato a plazo fijo con proyección a indefinido según desempeño. Participarás en proyectos estratégicos y en un entorno orientado a la toma de decisiones basada en datos.

Requisitos deseables

Experiencia adicional en herramientas de analítica avanzada, experiencia en entornos fintech o marketplaces, capacidad de trabajar en entornos ágiles, habilidades de comunicación para colaborar con stakeholders diversos y experiencia en modelado de datos y gobernanza de datos.

Beneficios y entorno

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.

La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.

Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
$$$ Full time
Database Lead Architect – Clinical Trial Systems (Azure/aWS)
  • Signant Health
Python Linux Virtualization Amazon Web Services

Want to do the Best Work of Your Life?

Signant Health is a global evidence generation company. We’re helping our customers digitally enable their clinical trial programs, meeting patients where they are, driving change through technology and innovations and reimagining the path to proof.

Where do you fit in?
We are seeking a highly experienced Lead Cloud OperationsDatabase Architect to design, implement, and govern our enterprise data architecture that supports regulated clinical research systems. This role is responsible for all database-related aspects across Microsoft Azure and AWS cloud environments, ensuring performance, security, and compliance with GxP, FDA 21 CFR Part 11, and ICH-GCP regulations. The ideal candidate combines deep technical expertise in MS SQL, Azure SQL, AWS RDS, and Cloud SQL platforms in high volume production environment with strong leadership in data governance, architecture design, and lifecycle management.

Official job site: Get on Board.

Job functions

  • Architecture & Design:
    Develop and maintain enterprise-scale data architectures supporting clinical trial systems, ensuring high availability, scalability, and security across Azure and AWS environments.
  • Database Administration & Operations:
    Oversee all aspects of database setup, configuration, backup/recovery, replication, and performance optimization for MS SQL, Azure SQL, Cloud SQL, and RDS instances.
  • Regulatory Compliance:
    Establish and enforce database procedures aligned with clinical and regulatory frameworks (e.g., GxP, 21 CFR Part 11). Partner with QA/Compliance to support audits and validation activities.
  • Security & Data Integrity:
    Implement robust access controls, encryption, monitoring, and logging mechanisms to safeguard sensitive clinical and patient data.
  • Automation & DevOps Integration:
    Automate database provisioning, patching, and schema deployments via CI/CD pipelines and Infrastructure as Code (IaC) tools (e.g., Terraform, OpenTofu, ARM templates, AWS CloudFormation).
  • Cross-Functional Leadership:
    Collaborate closely with Engineering, Project Management and Compliance teams to align data strategies across the enterprise.
  • Monitoring & Optimization:
    Design and implement proactive alerting, capacity planning, and performance tuning to maintain system reliability and speed.
  • Documentation & Standards:
    Maintain detailed architecture diagrams, SOPs, and technical documentation to support validation and internal audits.

Qualifications and requirements

  • Bachelor’s degree in Computer Science, Information Systems, or related field (Master’s preferred).
  • 10+ years in database architecture/administration, including 5+ years in cloud environments (Azure/AWS).
  • Expertise with MS SQL Server, Azure SQL Database and AWS RDS including strong proficiency in SQL queries and stored procedures
  • Proven experience supporting regulated (GxP/FDA) environments.
  • Strong understanding of data security, governance, and compliance in life sciences or healthcare settings.
  • Proficiency with IaC tools, monitoring platforms (CloudWatch, Azure Monitor), and automation scripting (PowerShell, Python, or Bash).
  • Strong communication skills and experience engaging with cross-functional technical and clinical teams.

Desirable skills

  • Experience integrating with clinical data systems (CDMS, EDC, LIMS).
  • Familiarity with Snowflakedatalake architectures and ETL/ELT pipelines.
  • Certifications in Azure Database Administrator, AWS Database Specialty, or equivalent cloud credentials.

Conditions

Computer provided Signant Health provides a computer for your work.
Informal dress code No dress code is enforced.
VIEW JOB APPLY VIA WEB
Gross salary $2000 - 2300 Full time
Ingeniero Gobierno de Datos
  • Genesys Tecnologías de Inform. SpA
  • Santiago (Hybrid)
Data Science Cloud Data governance
Genesys Tecnologías de Información SpA es una empresa regional con más de 30 años de experiencia en desarrollo de software y servicios TI. Nos especializamos en soluciones de privacidad, gestión de datos personales y gobernanza de datos dentro de entornos corporativos regulados. El/la candidato/a se integrará a un equipo enfocado en diseñar, implementar y operar soluciones de privacidad corporativas, asegurando su correcta integración con el ecosistema tecnológico, cumpliendo requerimientos regulatorios y de negocio, y colaborando con proveedores y áreas técnicas para garantizar la protección y gestión adecuada de datos personales.

This job offer is available on Get on Board.

Funciones principales

  • Gestión de datos personales y plataformas de privacidad, asegurando cumplimiento regulatorio y operación estable.
  • Configuración y administración de CAMP y matrices de riesgo (regulado y no regulado).
  • Implementación de búsqueda y detección de datos personales (InfoTypes) y mapeo de flujos de datos.
  • Integración de flujos para atención de derechos ARSOP (Acceso, Rectificación, Supresión, Portabilidad).
  • Gestión de puntos de captura de consentimiento (opt-in / opt-out) y modelado de datos técnicos.
  • Uso de SQL, Python y Google Cloud Platform (GCP); colaborar con equipos de datos y seguridad.
  • Conocimientos fundacionales en Gobierno de Datos y buenas prácticas de privacidad.

Requisitos y perfil

Buscamos un/a profesional proactivo/a y orientado/a a resultados, con experiencia en entornos corporativos y regulados. Se requiere capacidad para diseñar, configurar y operar soluciones de privacidad, así como para coordinar con proveedores y equipos internos. El/la candidato/a ideal posee experiencia en gestión de datos personales, herramientas de privacidad y gobernanza, y manejo técnico de bases de datos y plataformas en la nube. Se valorarán conocimientos en CDP Consent, gestión de incidentes en plataformas de privacidad y exposición previa a Warners. Se ofrece un contrato por proyecto con posibilidad de indefinido según desempeño, modalidad híbrida y horarios estandarizados.

Requisitos deseables

Experiencia con integración de plataformas de gestión de consentimientos (CDP Consent), manejo de incidentes en plataformas de privacidad y coordinación técnica con proveedores. Conocimiento inicial o exposición previa a Warners y experiencia en entornos corporativos regulados. Se valora autonomía, habilidades de comunicación, y capacidad para trabajar en equipos multidisciplinarios en un entorno dinámico.

Beneficios

Ofrecemos un contrato por proyecto con estabilidad y condiciones claras en un entorno laboral dinámico, colaborativo y enfocado en el desarrollo profesional constante. Formarás parte de una empresa consolidada en Latinoamérica con más de tres décadas de experiencia, que valora el talento y fomenta la innovación. Contamos con un equipo multidisciplinario y comunicación diaria con nuestra matriz en Santiago y otras operaciones, lo que facilita la colaboración y el apoyo técnico. Jornada híbrida (horario de lunes a jueves 09:00-18:00 y viernes 09:00-16:00), con posibilidad de extensión según necesidades del negocio. Esperamos que te unas a nuestro equipo para crecer juntos! 😊

VIEW JOB APPLY VIA WEB
Gross salary $1900 - 2700 Full time
Data Scientist
  • TCIT
Python Git Data Analysis Machine Learning
En TCIT, somos líderes en desarrollo de software en modalidad cloud con más de 9 años de trayectoria. Buscamos un Data Scientist para formar parte de nuestro equipo y acompañar la digitalización de clientes en diversos rubros. El/la candidato/a trabajará en proyectos que requieren modelado, automatización y análisis de datos para impulsar decisiones de negocio y eficiencia operativa. Colaborará con equipos multidisciplinarios, incluyendo ingeniería de software, producto y operaciones, y tendrá la oportunidad de influir en soluciones escalables y reutilizables que impacten a múltiples áreas de la empresa y de clientes internacionales, incluyendo proyectos en Canadá con nuestros partners tecnológicos. Nos moveremos en un entorno ágil, con foco en resultados y aprendizaje continuo.

Apply without intermediaries from Get on Board.

Funciones principales

  • Desarrollar modelos analíticos y de machine learning para resolver problemas de negocio complejos y traducir resultados en recomendaciones accionables.
  • Trabajar con datos estructurados y no estructurados, realizando limpieza, exploración y transformación de datos para soportar pipelines de análisis y producción.
  • Diseñar y mantener soluciones de automatización y orquestación de flujos de trabajo que integren sistemas empresariales (ERP, CRM, plataformas financieras) cuando sea relevante.
  • Colaborar con equipos de TI y producto para definir requerimientos, métricas y KPIs, asegurando reproducibilidad y escalabilidad.
  • Comunicar hallazgos técnicos a audiencias técnicas y no técnicas, preparando visualizaciones y presentaciones claras para stakeholders.
  • Contribuir a buenas prácticas de ingeniería de software: uso de control de versiones (Git), revisiones de código, pruebas y documentación.
  • Mantenerse al día con avances en IA y automatización, proponiendo mejoras y nuevas iniciativas alineadas a objetivos de negocio.
  • Trabajar con una mentalidad 0 a 1, con capacidad para iterar rápidamente en un entorno dinámico y ambiguo.

Perfil y competencias

Buscamos un/a Data Scientist con educación en Data Science, Estadística, Ciencias de la Computación, Matemáticas o campo relacionado. Debe demostrar dominio de Python para análisis de datos, automatización y prototipado, así como excelentes habilidades de resolución de problemas y análisis. La capacidad para comunicar resultados de forma clara a audiencias técnicas y no técnicas es imprescindible. Se valorará experiencia o interés en IA agentica, sistemas multiagente o automatización de flujos en contextos empresariales, así como experiencia con integraciones de sistemas empresariales (ERP, CRM, plataformas financieras). Se espera familiaridad con buenas prácticas de ingeniería de software (Git, pruebas, revisiones) y conciencia de privacidad y cumplimiento en datos sensibles. Buscamos una persona orientada al equipo, adaptable, curiosa y con interés genuino en generar impacto de negocio a través de soluciones escalables y reutilizables.

Competencias deseables

Experiencia en entornos cloud y plataformas de datos, conocimiento de herramientas de orquestación y pipelines (Airflow, Dagster, etc.), y experiencia práctica en entornos empresariales grandes. Valoramos habilidad para trabajar en equipos multi-disciplinarios, capacidad de aprender rápidamente en ambientes dinámicos y mente orientada a resultados. Se considera un plus conocimiento en seguridad de datos, cumplimiento normativo y conceptos de privacidad.

Conditions

Computer provided TCIT provides a computer for your work.
Informal dress code No dress code is enforced.
Beverages and snacks TCIT offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
$$$ Full time
Ingeniero Senior de Data & Risk Ops
  • BC Tecnología
  • Santiago (Hybrid)
Python Data Analysis Excel Marketing

En BC Tecnología, el rol se enfoca en diseñar y operar un ecosistema de alertas y monitoreo para detectar y mitigar de forma proactiva riesgos y fraudes en el Marketplace. Trabaja con datos multi-fuente para generar reportes, dashboards e insights accionables, apoyando la toma de decisiones del equipo de Risk Ops.
Incluye gestión end-to-end de proyectos, colaboración con equipos locales e internacionales, comunicación con stakeholders y documentación de procesos automatizados, con foco en analítica, automatización y gobernanza de datos para la mejora continua.

Apply directly on Get on Board.

Principales funciones

  • Analizar datos y diseñar flujos automáticos que guíen la toma de decisiones entre áreas dentro de la empresa.
  • Gestionar proyectos de datos de principio a fin: levantamiento de requerimientos, desarrollo, validación y entrega de resultados.
  • Elaborar reportes y alertas que permitan monitorear casos de incumplimiento en el Marketplace y mitigar comportamientos de riesgo.
  • Generar insights y recomendaciones basadas en análisis ad-hoc para mejoras en procesos y herramientas.
  • Trabajar con distintas áreas para entender su interacción en el ecosistema digital y convertir insights en acciones de valor.
  • Conocer estructuras de almacenamiento de datos y herramientas disponibles para explotar la información y soportar la toma de decisiones.

Perfil y experiencia

Perfil profesional requerido:
  • Título de Ingeniería Civil Industrial, Ingeniería en Computación o Informática, o carrera afín.
  • 2-4 años de experiencia en roles similares (análisis en Operaciones, BI, Marketing, etc.).
  • Usuario avanzado en SQL (excluyente).
  • Inglés intermedio–avanzado (excluyente).
  • Usuario avanzado en al menos una herramienta de análisis/visualización: Excel, Tableau, Power BI, Data Studio (excluyente).
  • Experiencia en al menos un lenguaje para análisis de datos: Python (preferentemente), R, Julia, etc. (excluyente).
  • Conocimientos de plataformas Cloud, preferentemente Google Cloud Platform (no excluyente).
  • Conocimientos avanzados de Prompt Engineering (no excluyente).

Deseables

Se valorará experiencia en Ecommerce, capacidad para trabajar en entornos dinámicos de alto volumen de datos y habilidades de comunicación para interactuar con múltiples stakeholders a nivel internacional.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
Gross salary $2500 - 3500 Full time
Ingeniero de Datos
  • Coderslab.io
Python SQL Web server English
Coderslab.io es una empresa dedicada a transformar y hacer crecer negocios mediante soluciones tecnológicas innovadoras. Formarás parte de una organización en expansión con más de 3,000 colaboradores a nivel global, con oficinas en Latinoamérica y Estados Unidos. Te unirás a equipos diversos que reúnen a parte de los mejores talentos tecnológicos para participar en proyectos desafiantes y de alto impacto. Trabajarás junto a profesionales experimentados y tendrás la oportunidad de aprender y desarrollarte con tecnologías de vanguardia.
En esta ocasion estamos buscando incorporar un/a Ingeniero/a de Datos con experiencia en diseño, desarrollo y mantenimiento de pipelines de datos, capaz de trabajar con herramientas modernas del ecosistema analítico y de integración. El rol tendrá foco en la construcción de flujos de datos robustos, escalables y mantenibles, apoyando procesos de analítica, reporting y migraciones de datos

Apply without intermediaries through Get on Board.

Funciones del cargo

  • Desarrollar y mantener pipelines de datos utilizando Python, dbt y Airflow.
  • Implementar procesos de transformación y modelado de datos analíticos.
  • Orquestar flujos de datos asegurando confiabilidad y trazabilidad.
  • Colaborar en iniciativas de migración e integración de datos.
  • Asegurar calidad, consistencia y disponibilidad de la información.
  • Documentar procesos y buenas prácticas técnicas.

Requerimientos del cargo

  • Python para desarrollo de pipelines y lógica de transformación.
  • dbt para modelado, transformación y versionamiento de datos analíticos.
  • Apache Airflow para orquestación y scheduling de procesos de datos.
  • SQL avanzado para consultas, transformaciones y validaciones.
  • Inglés nivel B2 (capacidad para comunicación técnica).

Opcionales

  • Experiencia en migraciones de datos entre sistemas.
  • Experiencia en integraciones de datos desde múltiples fuentes.
  • Buen entendimiento de arquitecturas de datos modernas (ELT / Analytics Engineering).
  • Experiencia en entornos productivos y manejo responsable de cambios.

VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer
  • NeuralWorks
  • Santiago (Hybrid)
C Python SQL Virtualization

NeuralWorks es una compañía de alto crecimiento fundada hace aproximadamente 4 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

Apply to this job at getonbrd.com.

Descripción del trabajo

El equipo de Data y Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.
Dentro del equipo multidisciplinario con Data Scientist, Translators, DevOps, Data Architect, tu rol será clave en construir y proveer los sistemas e infraestructura que permiten el desarrollo de estos servicios, formando los cimientos sobre los cuales se construyen los modelos que permiten generar impacto, con servicios que deben escalar, con altísima disponibilidad y tolerantes a fallas, en otras palabras, que funcionen. Además, mantendrás tu mirada en los indicadores de capacidad y performance de los sistemas.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Como Data Engineer, tu trabajo consistirá en:

  • Participar activamente durante el ciclo de vida del software, desde inception, diseño, deploy, operación y mejora.
  • Apoyar a los equipos de desarrollo en actividades de diseño y consultoría, desarrollando software, frameworks y capacity planning.
  • Desarrollar y mantener arquitecturas de datos, pipelines, templates y estándares.
  • Conectarse a través de API a otros sistemas (Python)
  • Manejar y monitorear el desempeño de infraestructura y aplicaciones.
  • Asegurar la escalabilidad y resiliencia.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia práctica de al menos 3 años en entornos de trabajo como Data Engineer, Software Engineer entre otros.
  • Experiencia con Python.
    Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida optimización de consultas.
  • Pasión en problemáticas de procesamiento de datos.
  • Experiencia con servidores cloud (GCP, AWS o Azure), especialmente el conjunto de servicios de procesamiento de datos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.
  • Habilidades de comunicación y trabajo colaborativo.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” D. Gaucher , J. Friesen and A. C. Kay, Journal of Personality and Social Psychology, 2011.

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Scientist
  • NeuralWorks
  • Santiago (Hybrid)
C Python SQL Big Data

NeuralWorks es una compañía de alto crecimiento fundada hace aproximadamente 4 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

Apply without intermediaries through Get on Board.

Descripción del trabajo

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.
  • Stack orientado a modelos econométricos (statsmodels, pyfixest), serialización.
  • Experiencia con algún motor de datos distribuido como pyspark, dask, modin.
  • Interés en temas "bleeding edge" de Inferencia Causal: (Técnicas Observacionales, Inferencia basada en diseño, Probabilidad y Estadística [Fuerte énfasis en OLS y sus distintas expansiones]).

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia previa en roles de Data Scientist, Data Engineer o similar.
  • Experiencia con Python.
  • Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida la optimización de consultas.
  • Entendimiento de flujo de vida completo modelos de Machine Learning y productos de datos.
  • Habilidades analíticas, de diseño y resolución de problemas.
  • Habilidades de colaboración y comunicación.
  • Buen manejo comunicacional y skills colaborativos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” D. Gaucher , J. Friesen and A. C. Kay, Journal of Personality and Social Psychology, 2011.

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Experiencia con servidores cloud (GCP, AWS o Azure), especialmente el conjunto de servicios de procesamiento de datos.
  • Experiencia usando pipelines de CI/CD y Docker.
  • Experiencia en visión por computador (Computer Vision), incluyendo uso de librerías como OpenCV, PyTorch/TensorFlow, YOLO, Detectron2 u otras.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Outdoors The premises have outdoor spaces such as parks or terraces.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
VIEW JOB APPLY VIA WEB
Gross salary $3400 - 4000 Full time
Sr Data Engineer
  • Checkr
  • Santiago (Hybrid)
Java Python SQL NoSQL

Checkr crea una infraestructura de personas para el futuro del trabajo. Hemos diseñado una forma más rápida y justa de evaluar a los solicitantes de empleo. Fundada en 2014, Checkr pone tecnología moderna impulsada por aprendizaje automático en manos de los equipos de contratación, ayudando a contratar talento con una experiencia rápida, fluida y segura.

Checkr cuenta con más de 100,000 clientes como DoorDash, Coinbase, Lyft, Instacart y Airtable. Trabajar en Checkr implica colaborar con mentes brillantes, revolucionar un sector y abrir oportunidades a candidatos que suelen pasar desapercibidos. Checkr es reconocida en la lista Forbes Cloud 200 2024 y es una empresa innovadora de Y Combinator 2023.

Find this vacancy on Get on Board.

Job functions

Acerca del equipo/puesto

Buscamos un SR Data Engineer con experiencia para incorporarse a nuestro equipo de Plataforma de Datos. Este equipo desempeña un papel crucial en nuestra misión, ya que desarrolla y mantiene plataformas de datos escalables para tomar decisiones de contratación justas y seguras.

Como ingeniero del equipo de la plataforma de datos, trabajarás en la plataforma de datos centralizada de Checkr, fundamental para la visión de la empresa. La plataforma de datos centralizada es el núcleo de todos los productos clave orientados al cliente. Trabajarás en proyectos de gran impacto que contribuyen directamente a los productos de próxima generación.

Qué harás:

  • Serás un colaborador independiente capaz de resolver problemas y ofrecer soluciones de alta calidad con una supervisión mínima/de alto nivel y un alto grado de responsabilidad.
  • Aportarás una mentalidad centrada en el cliente y orientada al producto: colaborarás con los clientes y las partes interesadas internas para resolver ambigüedades del producto y ofrecer funciones impactantes.
  • Te asociarás con ingeniería, producto, diseño y otras partes interesadas en el diseño y la arquitectura de nuevas funciones.
  • Mentalidad experimental: autonomía y empoderamiento para validar las necesidades de los clientes, conseguir la aceptación del equipo y lanzar rápidamente un MVP.
  • Mentalidad de calidad: insistes en la calidad como pilar fundamental de tus productos de software.
  • Mentalidad analítica: instrumenta y despliega nuevos experimentos de productos con un enfoque basado en datos.
  • Entrega código de alto rendimiento, confiable, escalable y seguro para una plataforma de datos altamente escalable.
  • Supervisa, investiga, clasifica y resuelve los problemas de producción que surjan en los servicios propiedad del equipo.

Qualifications and requirements

  • Inglés fluido (reporta a jefatura en USA y las entrevistas técnicas son 100% en inglés). Adjunta tu CV en inglés para postular.
  • Licenciatura en un campo relacionado con la informática o experiencia laboral equivalente.
  • Más de 6-7 años de experiencia en desarrollo en el campo de la ingeniería de datos (más de 5 años escribiendo PySpark).
  • Experiencia en la creación de canalizaciones de procesamiento de datos a gran escala (cientos de terabytes y petabytes), tanto por lotes como en flujo continuo.
  • Experiencia con ETL/ELT, procesamiento de datos en flujo y por lotes a gran escala.
  • Gran dominio de PySpark, Python y SQL.
  • Experiencia en la comprensión de sistemas de bases de datos, modelado de datos, bases de datos relacionales, NoSQL (como MongoDB).
  • Experiencia con tecnologías de big data como Kafka, Spark, Iceberg, Datalake y AWS stack (EKS, EMR, Serverless, Glue, Athena, S3, etc.).
  • Conocimiento de las mejores prácticas de seguridad y cuestiones relacionadas con la privacidad de los datos.
  • Gran capacidad para resolver problemas y atención al detalle.

Desirable skills

  • Experiencia/conocimiento de plataformas de procesamiento de datos como Databricks o Snowflake.
  • Conocimiento de almacenes de datos gráficos y vectoriales (preferible).

Conditions

  • Trabajo híbrido, vamos a la oficina 3 días a la semana y 2 días desde casa.
  • Almuerzo los días que vayas a la oficina.
  • Un entorno colaborativo y dinámico.
  • Contrato indefinido
  • Formar parte de una empresa internacional con sede en Estados Unidos.
  • Bono de $3.000 USD al año para formación y desarrollo.
  • Remuneración competitiva y oportunidad de crecimiento profesional y personal.
  • Cobertura médica, dental y oftalmológica al 100 % para empleados y familiares a cargo.
  • 5 días extra de vacaciones
  • RSU

Equity offered This position includes equity compensation (in the form of stock options or another mechanism).
Life insurance Checkr pays or copays life insurance for employees.
Meals provided Checkr provides free lunch and/or other kinds of meals.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Checkr pays or copays health insurance for employees.
Dental insurance Checkr pays or copays dental insurance for employees.
Free car parking You can park your car for free at the premises.
Computer provided Checkr provides a computer for your work.
Education stipend Checkr covers some educational expenses related to the position.
Informal dress code No dress code is enforced.
Vacation over legal Checkr gives you paid vacations over the legal minimum.
Beverages and snacks Checkr offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer / Sector Bancario
  • Devsu
  • Quito (Hybrid)
Java Python SQL NoSQL

Con más de 10 años impulsando la innovación para empresas que van desde startups hasta grandes corporaciones en Estados Unidos y América Latina, en Devsu hemos desarrollado soluciones de alto impacto en industrias como entretenimiento, banca, salud, retail, educación y seguros.

En Devsu, trabajarás junto a profesionales de primer nivel, con la oportunidad de aprender constantemente y participar en proyectos desafiantes y de alto impacto para clientes globales. Nuestro equipo está presente en más de 18 países, colaborando en distintos productos y soluciones de software.

Formarás parte de un entorno multicultural, con una estructura organizacional plana, donde el trabajo en equipo, el aprendizaje continuo y la flexibilidad son pilares fundamentales.

Actualmente, estamos en la búsqueda de un DATA ENGINEER experimentado para sumarse a nuestro equipo de forma híbrida en Quito/Ecuador

© Get on Board.

Funciones del cargo

  • Diseñar y desarrollar soluciones de datos alineadas con la visión de Arquitectura de Datos.
  • Crear y optimizar ETLs, ELTs y APIs para manejo eficiente de datos.
  • Implementar estrategias de testing para validar calidad funcional y no funcional.
  • Proponer mejoras continuas en procesos y productos de datos.
  • Resolver incidencias técnicas y documentar soluciones conforme a estándares.
  • Mentorizar y apoyar el onboarding de nuevos integrantes del equipo.

Herramientas y Tecnologías

  • Apache Spark, Kafka, Flink, Hadoop, HDFS.
  • Servicios Cloud: AWS, Azure, GCP.
  • Lenguajes: Python, Scala.

Requerimientos del cargo

  • Al menos 3 años de experiencia como ingeniero de datos.
  • Experiencia en optimizacion de SQL y Spark.
  • Experiencia con streaming de datos.
  • Bases de datos relacionales y NoSQL, diseño de Datawarehouse, Datamarts, Datalakes y Lakehouse.
  • Procesamiento distribuido con Hadoop, Spark y arquitecturas batch/streaming.
  • Desarrollo en Python, Scala o Java, aplicando principios de Clean Code.
  • Construcción de pipelines con herramientas ETL (Azure Data Factory, AWS Glue, SSIS).
  • Estrategias de DataOps/MLOps y despliegue CI/CD.

Condiciones

En Devsu, queremos crear un ambiente donde puedas prosperar tanto personal como profesionalmente. Al unirte a nuestro equipo, disfrutarás de:

  • Un contrato estable a largo plazo con oportunidades de crecimiento profesional
  • Seguro médico privado
  • Programas continuos de capacitación, mentoría y aprendizaje para mantenerte a la vanguardia de la industria
  • Acceso gratuito a recursos de capacitación en IA y herramientas de IA de última generación para elevar tu trabajo diario
  • Una política flexible de tiempo libre remunerado (PTO) además de días festivos pagados
  • Proyectos de software desafiantes de clase mundial para clientes en Estados Unidos y Latinoamérica
  • Colaboración con algunos de los ingenieros de software más talentosos de Latinoamérica y Estados Unidos, en un entorno de trabajo diverso

Únete a Devsu y descubre un lugar de trabajo que valora tu crecimiento, apoya tu bienestar y te empodera para generar un impacto global.

Wellness program Devsu offers or subsidies mental and/or physical health activities.
Internal talks Devsu offers space for internal talks or presentations during working hours.
Digital library Access to digital books or subscriptions.
Health coverage Devsu pays or copays health insurance for employees.
Computer provided Devsu provides a computer for your work.
Education stipend Devsu covers some educational expenses related to the position.
VIEW JOB APPLY VIA WEB
Gross salary $1400 - 2000 Full time
Data Analyst / Data Engineer/Solution Architect
  • MAS Analytics
  • Santiago (Hybrid)
Python Data Analysis SQL Business Intelligence
En MAS Analytics creemos que los datos son el motor de la transformación empresarial. Nuestro equipo trabaja mano a mano con organizaciones líderes para convertir información en decisiones estratégicas, utilizando tecnologías de los players más importantes del mercado (AWS, Azure y GCP). Como parte de este equipo, tendrás la oportunidad de participar en proyectos que combinan ingeniería de datos, analítica avanzada y consultoría, en un entorno colaborativo donde la innovación y el aprendizaje continuo son parte del día a día.
Porque aquí no solo desarrollarás tecnología, sino también tu carrera. Te ofrecemos un espacio para crecer, aprender y participar en proyectos que marcan la diferencia en la transformación digital de las empresas. Serás parte de una cultura que valora la innovación, la colaboración y el impacto real.

Apply without intermediaries through Get on Board.

Funciones del cargo

Tu misión será dar vida a soluciones que permitan a nuestros clientes aprovechar al máximo el valor de sus datos. Participarás en la creación de pipelines que aseguren la integración y calidad de la información, diseñarás modelos de datos eficientes y colaborarás en la construcción de arquitecturas en entornos cloud como AWS, GCP o Azure.
Además, serás responsable de desarrollar reportes y dashboards que faciliten la toma de decisiones estratégicas.
Pero este rol va más allá de lo técnico: trabajarás directamente con los clientes, entendiendo sus necesidades, participando en el levantamiento de requerimientos y proponiendo soluciones que impacten en su negocio.
Serás parte de un equipo que no solo entrega tecnología, sino también confianza y valor.

Requerimientos del cargo

Queremos a alguien con hasta un año de experiencia en análisis o ingeniería de datos, con conocimientos en SQL, modelado de datos y herramientas de BI como Power BI o Tableau. Valoramos que tengas nociones en programación (Python o R) y experiencia básica en entornos cloud.
Más allá de lo técnico, buscamos una persona curiosa, proactiva y con habilidades para comunicarse con clientes, capaz de planificar y organizar su trabajo en proyectos dinámicos.
Si te apasiona aprender, resolver problemas y trabajar en equipo, este rol es para ti.

Condiciones

  1. Horario flexible
  2. Ropa relajada 😍😍
  3. Financiamiento de cursos, certificaciones y capacitaciones👨‍🎓👩‍🎓
  4. Ambiente laboral joven
  5. Viernes medio día
  6. Vacaciones extra 🌞🏝
  7. Celebraciones de cumpleaños 🎁🎊
  8. Actividades de empresa 🍻⚽
Y muchos más que podrás conocer…

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks MAS Analytics offers space for internal talks or presentations during working hours.
Life insurance MAS Analytics pays or copays life insurance for employees.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Health coverage MAS Analytics pays or copays health insurance for employees.
Company retreats Team-building activities outside the premises.
Computer repairs MAS Analytics covers some computer repair expenses.
Dental insurance MAS Analytics pays or copays dental insurance for employees.
Computer provided MAS Analytics provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Vacation over legal MAS Analytics gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
VIEW JOB APPLY VIA WEB
Gross salary $1900 - 3000 Full time
Ingeniero de Datos
  • Microsystem
  • Santiago (Hybrid)
JavaScript Python Git SQL
En Microsystem estamos en búsqueda de personas talentosas y motivadas para formar parte de nuestro equipo Lab ⚗️. Con el objetivo de desarrollar infraestructuras de vanguardia tanto en la nube como On-Premise, necesitamos Ingenieros de Datos que tengan ganas de aprender los nuevos desafíos que trae la computación 😎.
Bajo la guía de un equipo joven y con experiencia 🤓, queremos explotar las tecnologías de punta que van apareciendo para así insertarnos en el mercado como una empresa que provea herramientas extraordinarias a sus clientes🚀 .
Día día nos enfrentamos a entender las necesidades del cliente, situarnos en su contexto y dar soluciones integrales a sus problemas mediante la computación💻. Por lo que si te gusta programar, este es tu lugar! Constantemente te verás desafiado por nuevas arquitecturas, servicios y herramientas a implementar, pero siempre con la ayuda de tu equipo 💪.

Apply at getonbrd.com without intermediaries.

Funciones del cargo

-Gestión de infraestructura de datos: principalmente en AWS.
-Desarrollo y optimización de procesos ETL: Implementación de pipelines de datos escalables que soporten grandes volúmenes de información y faciliten análisis complejos.
- Colaboración con equipo de Desarrollo: para diseñar soluciones de datos que respondan a las necesidades del negocio, asegurando calidad y confiabilidad.
- Desarrollo y mantenimiento de APIs y scripts en Python: para la manipulación de datos y la automatización de procesos.
- Gestión de repositorios de código con GitHub: y soporte a la integración continua (CI/CD).
- Uso de AWS CDK (Cloud Development Kit): para automatizar la infraestructura como código en la nube.
- Participación en reuniones técnicas y de negocio: para asegurar que las soluciones de datos cumplan con los objetivos de la organización.

Requerimientos del cargo

- 2 años de experiencia con Título profesional de Ingeniero Civil Informática/Computación, Industrial o 5 años de experiencia en áreas vinculadas.
-
Conocimientos en lenguajes:
- Python (Avanzado)
- JavaScript (Intermedio)
- SQL (Avanzado)
- Conocimientos en Contenedores (Docker)
- Conocimientos en Nube AWS (Intermedio ).
- Git

Opcionales

- Terraform ✨
- Elastic Search ✨
- Kubernetes ✨
- Kafka ✨
- Linux ✨
- Java Spring Boot (Intermedio)

Condiciones

💫Nuestro equipo ofrece soluciones completas, por lo que te tocará aprender desde cómo levantar un servicio a cómo ir mejorándolo.
🧔‍♀️Al ser una área dentro de una empresa más grande y madura, existen muchos colaboradores dispuestos a compartir su experiencia y ayudar en el aprendizaje.
😎Somos relajados, entendemos si tienes alguna urgencia durante el día o trámites que hacer, lo que nos importa es que te puedas comprometer con las entregas.
🧑‍🎤 Puedes venir como quieras a la oficina, mientras tengas algo puesto.
🏋🏻 Tenemos convenios con gimnasios.

Accessible An infrastructure adequate for people with special mobility needs.
Internal talks Microsystem offers space for internal talks or presentations during working hours.
Life insurance Microsystem pays or copays life insurance for employees.
Meals provided Microsystem provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Computer provided Microsystem provides a computer for your work.
Fitness subsidies Microsystem offers stipends for sports or fitness programs.
Informal dress code No dress code is enforced.
Beverages and snacks Microsystem offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
$$$ Full time
Ingeniero de Datos
  • BICE VIDA
  • Santiago (Hybrid)
Python SQL Virtualization Amazon Web Services
En BICE VIDA somos líderes en el rubro de las aseguradoras y trabajamos para satisfacer las necesidades de seguridad, prosperidad y protección de nuestros clientes. Estamos impulsando una fuerte transformación digital para mantenernos a la vanguardia, entregar soluciones world-class y responder a los constantes cambios del mercado.

Apply exclusively at getonbrd.com.

🎯¿Qué buscamos?

En BICE Vida nos encontramos en búsqueda de un Ingeniero de Datos Junior para desempeñarse en el COE de Datos, perteneciente a la Gerencia de Planificación y Gobierno de Datos.
🧭 El objetivo del cargo es apoyar la construcción, mantenimiento y mejora de los procesos que permiten que los datos lleguen limpios, ordenados y disponibles para que la organización pueda analizarlos y tomar buenas decisiones.
💡Tendrás la oportunidad contribuir aprendiendo y aplicando buenas prácticas, colaborando con ingenieros senior y equipos de negocio, y asegurando que los datos fluyan de forma segura, confiable y eficiente dentro de la plataforma de datos📊.

📋 En este rol deberás:
  • Participar en el proceso de levantamiento de requerimientos con las áreas de negocio, apoyando a las áreas usuarias en el entendimiento de sus necesidades desde un punto de vista funcional.
  • Apoyar la incorporación de nuevas fuentes de datos al repositorio centralizado de información (Data Lake) de la compañía.
  • Comprender conceptos fundamentales de ETL/ELT.
  • Validación básica de datos.
  • Identificar errores en ejecuciones o datos.

🧠 ¿Qué necesitamos?

  • Formación académica: Ingeniero Civil Informático o Ingeniero Civil Industrial o carrera afín.
  • Mínimo 1 años de experiencia en gestión de datos o en desarrollos de soluciones informáticas.
  • Experiencia trabajando en alguna nube (AWS, GCP, Azure)
  • Conocimiento en herramientas de consulta de datos, tales como SQL y Python (nivel intermedio).
  • Participación en proyectos relacionados a datos, independiente de la tecnología utilizada.

✨Sumarás puntos si cuentas con:

  • AWS
  • Terraform
  • Spark/Scala
  • Tableau
  • Github
  • R Studio
  • Metodologías Ágiles (Scrum, Kanban)

¿Cómo es trabajar en BICE Vida? 🤝💼

  • Contamos con la mejor cobertura de la industria y te brindamos un seguro complementario de salud, dental y vida, y además un seguro catastrófico (Para ti y tus cargas legales). 🏅
  • Bonos en UF dependiendo de la estación del año y del tiempo que lleves en nuestra Compañía. 🎁
  • Salida anticipada los días viernes, hasta las 14:00 hrs, lo que te permitirá balancear tu vida personal y laboral. 🙌
  • Dress code semi-formal, porque privilegiamos la comodidad. 👟
  • Almuerzo gratis en el casino corporativo, con barra no-fit el dia viernes. 🍟
  • Contamos con capacitaciones constantes, para impulsar y empoderar equipos diversos con foco en buscar mejores resultados. Nuestra Casa Matriz se encuentran en el corazón de Providencia a pasos del metro de Pedro de Valdivia. 🚇
  • Puedes venir en bicicleta y la cuidamos por ti. Tenemos bicicleteros en casa matriz. 🚲

Wellness program BICE VIDA offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Life insurance BICE VIDA pays or copays life insurance for employees.
Meals provided BICE VIDA provides free lunch and/or other kinds of meals.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Health coverage BICE VIDA pays or copays health insurance for employees.
Dental insurance BICE VIDA pays or copays dental insurance for employees.
Computer provided BICE VIDA provides a computer for your work.
VIEW JOB APPLY VIA WEB
$$$ Full time
Ingeniero de Datos Middle
  • BICE VIDA
  • Santiago (Hybrid)
Python Data Analysis SQL Virtualization

En BICE VIDA somos líderes en el rubro de las aseguradoras y trabajamos para satisfacer las necesidades de seguridad, prosperidad y protección de nuestros clientes. Estamos impulsando una fuerte transformación digital para mantenernos a la vanguardia, entregar soluciones world-class y responder a los constantes cambios del mercado.

This posting is original from the Get on Board platform.

🎯¿Qué buscamos?

En BICE Vida nos encontramos en búsqueda de un/a Ingeniero/a de Datos Middle para integrarse al COE de Datos e IA, perteneciente a la Gerencia de Planificación y Gobierno de Datos.

🚀 Objetivo del cargo

Apoyar en el diseño e implementación de soluciones tecnológicas asociadas al manejo de datos que permitan fomentar el uso y la toma de decisiones basadas en datos a nivel compañía. a

Se espera que pueda liderar iniciativas dentro de la misma índole (datos) con el apoyo de un Ingeniero de Datos Senior o del Líder de Datos. Aplicar buenas prácticas de arquitectura y gobernanza, y colaborar con áreas de negocio, analítica y TI para habilitar un ecosistema de datos moderno, escalable y seguro ☁️📊

🔍 Principales funciones:

  • Participar en el proceso de levantamiento de requerimientos con las áreas de negocio, apoyando a las áreas usuarias en el entendimiento de sus necesidades desde un punto de vista funcional.
  • Apoyar la incorporación de nuevas fuentes de datos al repositorio centralizado de información (Data Lake) de la compañía.
  • Asegurar el correcto uso de los servicios AWS en términos de usabilidad y costos.
  • Diseñar e implementar soluciones automatizadas que consideren los lineamientos de arquitectura y ciberseguridad de la compañía

✨ Si te motiva trabajar con datos, tecnología y generar impacto en el negocio, ¡te invitamos a postular y ser parte de BICE Vida!

🧠 ¿Qué necesitamos?

  • Formación académica: Ingeniero Civil Informático o Ingeniero Civil Industrial o carrera afín.
  • Mínimo 3 años de experiencia en gestión de datos o en desarrollos de soluciones informáticas y 2 años en AWS.
  • Conocimiento y experiencia trabajando en AWS (Intermedio o avanzado): A nivel práctico, no sólo académico, servicios como: Lambda Function, Glue Jobs (Spark y PythonShell), Glue Crawlers, DMS, Athena, Lake Formation, EventBridge, Step Functions.
  • Experiencia y conocimento en Herramientas de consulta de datos (SQL Intermedio o Avanzado y Python Intermedio o Avanzado) y versionamiento de códigos fuentes.
  • Participación en proyectos relacionados a datos ( Ingeniero de Datos p Analista de Datos trabajando en modelamiento de datos).

✨Sumarás puntos si cuentas con:

  • Terraform
  • Spark
  • Tableau
  • R Studio
  • Metodologías Ágiles (Scrum, Kanban)

¿Cómo es trabajar en BICE Vida? 🤝💼

  • Contamos con la mejor cobertura de la industria y te brindamos un seguro complementario de salud, dental y vida, y además un seguro catastrófico (Para ti y tus cargas legales). 🏅
  • Bonos en UF dependiendo de la estación del año y del tiempo que lleves en nuestra Compañía. 🎁
  • Salida anticipada los días viernes, hasta las 14:00 hrs, lo que te permitirá balancear tu vida personal y laboral. 🙌
  • Dress code semi-formal, porque privilegiamos la comodidad. 👟
  • Almuerzo gratis en el casino corporativo, con barra no-fit el dia viernes. 🍟
  • Contamos con capacitaciones constantes, para impulsar y empoderar equipos diversos con foco en buscar mejores resultados. Nuestra Casa Matriz se encuentran en el corazón de Providencia a pasos del metro de Pedro de Valdivia. 🚇
  • Puedes venir en bicicleta y la cuidamos por ti. Tenemos bicicleteros en casa matriz. 🚲

Wellness program BICE VIDA offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Life insurance BICE VIDA pays or copays life insurance for employees.
Meals provided BICE VIDA provides free lunch and/or other kinds of meals.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Health coverage BICE VIDA pays or copays health insurance for employees.
Dental insurance BICE VIDA pays or copays dental insurance for employees.
Computer provided BICE VIDA provides a computer for your work.
VIEW JOB APPLY VIA WEB
$$$ Full time
Business Analyst – Digital Analytics & BI
  • WiTi
  • Montevideo &nbsp Santiago (Hybrid)
JavaScript Python Analytics SQL

WiTi es una empresa chilena de tecnología con presencia en Chile, Uruguay y Colombia, dedicada a la innovación en software y soluciones tecnológicas. Formamos parte de un equipo que presta servicios a clientes de primer nivel y trabajamos con un enfoque ágil para impulsar soluciones de analítica digital y BI en grandes retailers con operaciones en múltiples países de Latinoamérica. El proyecto actual se centra en analizar el comportamiento de usuarios en canales digitales (Web y App) para optimizar la experiencia de compra de millones de clientes a través de e-commerce. El Business Analyst reporta al equipo de Digital Analytics & BI y colabora con equipos de desarrollo, marketing y producto para asegurar que las estrategias de medición sean correctas, que el tagging y los pixeles se implementen adecuadamente y que existan dashboards útiles y accionables.

Apply exclusively at getonbrd.com.

Funciones y responsabilidades

  • Generar documentos de marcaje basados en estrategias de medición para equipos de desarrollo.
  • Gestionar y hacer seguimiento del tagging con equipos técnicos y proveedores externos cuando aplique.
  • Implementar tagging y píxeles usando Google Tag Manager (GTM) para Web y App.
  • Analizar datos para identificar quiebres en la experiencia y proponer mejoras concretas.
  • Crear dashboards y visualizaciones sobre el comportamiento de usuarios en Web y App para soportar la toma de decisiones.
  • Realizar seguimiento al embudo de compra en distintos e-commerce y monitorizar KPIs de conversión y retención.
  • Buscar proactivamente oportunidades de mejora y priorizar iniciativas en colaboración con stakeholders.
  • Realizar QA continuo del marcaje para garantizar datos precisos y confiables.

Descripción y requisitos

Buscamos un Business Analyst con al menos 1 año de experiencia en roles similares, orientado a análisis de experiencia de usuario y medición de datos en entornos de retail y e-commerce. Requerimos conocimiento intermedio de Google Analytics, Google Tag Manager, BigQuery y Looker, además de SQL a nivel intermedio, todo lo anterior es EXCLUYENTE. Se valora un nivel de Inglés avanzado. Es deseable disponer de experiencia con JavaScript para GTM y Python.

El perfil ideal posee habilidad para trabajar de forma proactiva en un entorno ágil, capacidad de comunicar hallazgos de negocio a distintas audiencias y una mentalidad orientada a la mejora continua. Si te apasiona la analítica, la toma de decisiones basada en datos y quieres formar parte de un equipo dinámico, te invitamos a postularte.

Requisitos deseables

Conocimientos prácticos de JavaScript para GTM y Python para soporte de scripts de análisis y automatización de datos. Experiencia en creación de dashboards avanzados y storytelling de datos para stakeholders de negocio. Capacidad de trabajar con datasets grandes y complejos, optimización de consultas en BigQuery y comprensión de modelos de atribución. Buenas habilidades de comunicación en español e inglés, y experiencia previa trabajando en contextos multicanal (Web, App, Marketing).

Beneficios

En WiTi, promovemos un ambiente colaborativo donde la cultura del aprendizaje es parte fundamental. Entre nuestros beneficios están:

  • Plan de carrera personalizado para el desarrollo profesional.
  • Certificaciones, para continuar creciendo en tu carrera.
  • Cursos de idiomas, apoyando el desarrollo personal y profesional.

Si eres apasionado por la tecnología y quieres formar parte de nuestro equipo, ¡nos encantaría conocerte!

Digital library Access to digital books or subscriptions.
Computer provided WiTi provides a computer for your work.
Personal coaching WiTi offers counseling or personal coaching to employees.
VIEW JOB APPLY VIA WEB
$$$ Full time
Business Analyst – Digital Analytics
  • BC Tecnología
  • Santiago (Hybrid)
JavaScript Python Analytics SQL
BC Tecnología es una consultora de TI que gestiona portafolio, desarrolla proyectos y ofrece outsourcing y selección de profesionales. Diseñamos equipos ágiles para Infraestructura Tecnológica, Desarrollo de Software y Unidades de Negocio, trabajando con clientes de servicios financieros, seguros, retail y gobierno. Nuestro enfoque se centra en el cliente, con metodologías ágiles, gestión del cambio y desarrollo de productos. Participarás en proyectos innovadores en un entorno colaborativo orientado al crecimiento profesional y al intercambio de conocimientos entre equipos.

Find this vacancy on Get on Board.

Principales responsabilidades

  • Definir y documentar estrategias de medición digital (tagging Web y App).
  • Coordinar y dar seguimiento a la implementación técnica con equipos de desarrollo.
  • Implementar y validar tags, píxeles y eventos usando Google Tag Manager.
  • Analizar funnels de conversión para detectar fricciones y oportunidades de mejora.
  • Construir y mantener dashboards en Looker Studio / Looker / BigQuery.
  • Monitorear el funnel de compra de los diferentes e‑commerce del grupo.
  • Ejecutar QA continuo para asegurar calidad y confiabilidad de los datos.
  • Proponer mejoras proactivas en conversión, eficiencia y experiencia de usuario (UX).

Requisitos

Al menos 2 años de experiencia en roles de Digital Analytics, CRO, BI o Data Product. Dominio intermedio/avanzado de Google Analytics / GA4 y Google Tag Manager (implementación y debugging), BigQuery y Looker / Looker Studio. SQL a nivel intermedio. Se valora: JavaScript aplicado a GTM y/o Python para análisis avanzado. Inglés intermedio (lectura y escritura técnica).

Requisitos deseables

Experiencia trabajando en entornos multinegocio y con métricas de e‑commerce a gran escala. Conocimientos en gestión de datos, calidad de datos y pruebas de validación de tagging. Habilidades de comunicación para presentar hallazgos y recomendaciones a stakeholders y equipos técnicos. Capacidad para trabajar de forma proactiva en entornos dinámicos y con metodologías ágiles.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
$$$ Full time
Senior Data Scientist
  • BICE VIDA
  • Santiago (Hybrid)
Python Artificial Intelligence Machine Learning Deep Learning

En BICE VIDA somos líderes en el rubro de las aseguradoras y trabajamos para satisfacer las necesidades de seguridad, prosperidad y protección de nuestros clientes. Estamos impulsando una fuerte transformación digital para mantenernos a la vanguardia, entregar soluciones world-class y responder a los constantes cambios del mercado.

Find this vacancy on Get on Board.

¿Qué buscamos?

En BICE Vida nos encontramos en búsqueda de nuestro/a próximo/a Senior Data Scientist, quien estará encargado/a de liderar el diseño, desarrollo y correcta implementación de modelos analíticos avanzados para resolver desafíos estratégicos del negocio. Asimismo, deberá actuar como referente técnico y mentor de los Data Scientists Junior, asegurando la adopción de mejores prácticas de desarrollo y elevando el estándar técnico del equipo para garantizar soluciones escalables y de alto impacto para generar una cultura “Data Driven” en BICE Vida.

💼 En este rol deberás:

  • Desarrollar y aplicar metodología de analítica avanzada, alineadas a los desafíos estratégicos del negocio.
  • Mentorear y guiar técnicamente a Data Scientists en el ciclo de vida de sus proyectos.
  • Definir y asegurar la adopción de mejores prácticas de versionamiento, documentación y MLOps en los desarrollos.
  • Traducir hallazgos matemáticos complejos en insights de negocio claros para stakeholders y la alta dirección.
  • Garantizar la seguridad de la información y el cumplimiento de la ley de protección de datos personales en todo el ciclo de vida de los modelos analíticos.
  • Apoyar técnicamente al negocio en el proceso de integración entre ambas compañías, facilitando la unificación de la estrategia de datos y modelos.
  • Investigar y evaluar nuevas tecnologías, algoritmos y tendencias emergentes en Ciencia de Datos.

🧠 ¿Qué necesitamos?

  • Formación: Ingeniería Civil, Matemática, Estadística, Computación o afines.
  • Experiencia: Mínimo 3-4 años desarrollando modelos analíticos en entornos corporativo, liderando proyectos con equipos multidisciplinarios y/o de consultoría interna.
  • Conocimientos: Experiencia avanzada en extracción, limpieza y manejo de datos estructurados, desarrollo e implementación de modelos de Machine Learning, Deep Learning y Forecast, en gestión completa de proyectos, desde el entendimiento del requerimiento hasta el despliegue productivo de la solución y su posterior monitoreo y sólido dominio de Python. Experiencia de despliegue de soluciones escalables en la nube.
  • Competencias: Liderazgo y capacidad para traducir requerimientos estratégicos y comunicar resultados técnicos a los stackholders y equipos de negocio involucrados.

✨Sumarás puntos si cuentas con:

  • Especialización: Deseable magíster en data science, economía, TI, ciencias actuariales.
  • Deseable dominio en R.

¿Cómo es trabajar en BICE Vida?

  • Contamos con la mejor cobertura de la industria y te brindamos un seguro complementario de salud, dental y vida, y además un seguro catastrófico (Para ti y tus cargas legales). 🏅
  • Bonos en UF dependiendo de la estación del año y del tiempo que lleves en nuestra Compañía. 🎁
  • Salida anticipada los días viernes, hasta las 14:00 hrs, lo que te permitirá balancear tu vida personal y laboral. 🙌
  • Dress code semi-formal, porque privilegiamos la comodidad. 👟
  • Almuerzo gratis en el casino corporativo, con barra no-fit el dia viernes. 🍟
  • Contamos con capacitaciones constantes, para impulsar y empoderar equipos diversos con foco en buscar mejores resultados. Nuestra Casa Matriz se encuentran en el corazón de Providencia a pasos del metro de Pedro de Valdivia. 🚇
  • Puedes venir en bicicleta y la cuidamos por ti. Tenemos bicicleteros en casa matriz. 🚲

Wellness program BICE VIDA offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Life insurance BICE VIDA pays or copays life insurance for employees.
Meals provided BICE VIDA provides free lunch and/or other kinds of meals.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Health coverage BICE VIDA pays or copays health insurance for employees.
Dental insurance BICE VIDA pays or copays dental insurance for employees.
Computer provided BICE VIDA provides a computer for your work.
Education stipend BICE VIDA covers some educational expenses related to the position.
Fitness subsidies BICE VIDA offers stipends for sports or fitness programs.
VIEW JOB APPLY VIA WEB
$$$ Full time
Semi Senior Data Engineer AWS
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL Web server Virtualization
BC Tecnología es una consultora de TI especializada en servicios IT, con foco en diseñar soluciones y formar equipos que acompañen a clientes en sectores como financiero, seguros, retail y gobierno. El proyecto en curso busca a un/a Semi Senior Data Engineer para un equipo orientado a la gestión de datos y la construcción de pipelines robustos. El objetivo es habilitar flujos de datos eficientes, escalables y seguros, alineados a prácticas de gobierno de datos, sinergias con arquitectos y líderes técnicos, y entrega continua de valor al negocio.
Trabajarás en un entorno que premia la colaboración, la innovación y la mejora continua, con un mix de trabajo híbrido en Las Condes y presencia colaborativa cuando se requiera, para asegurar la cohesión técnica y la calidad de los entregables.

Job opportunity on getonbrd.com.

Funciones principales

  • Diseñar y construir pipelines de datos eficientes para ingesta, transformación y disponibilización de datos, priorizando escalabilidad y rendimiento.
  • Asegurar la calidad, consistencia y confiabilidad mediante pruebas y validaciones técnicas a lo largo del ciclo de datos.
  • Implementar y mantener flujos CI/CD en entornos de desarrollo y producción para pipelines de datos.
  • Diseñar soluciones avanzadas con resiliencia, idempotencia y arquitecturas orientadas a eventos (event-driven).
  • Contribuir al gobierno de datos mediante metadata, catálogos y linaje, promoviendo prácticas de data discipline.
  • Optimizar procesos y estándares de ingesta y transformación, proponiendo mejoras continuas y buenas prácticas.
  • Colaborar estrechamente con arquitectos y líderes técnicos para asegurar el cumplimiento de lineamientos y arquitectura de referencia.

Requisitos y perfil

Estamos buscando un/a profesional con al menos 2 años de experiencia diseñando y construyendo pipelines de datos. Se requiere dominio avanzado de Python, Spark y SQL, y experiencia trabajando en AWS (Glue, S3, Redshift, Lambda, MWAA, entre otros). Es deseable experiencia en arquitecturas Lakehouse (Delta Lake, Apache Iceberg o Apache Hudi).
Competencias técnicas complementarias incluyen visión de datos, capacidad para resolver problemas complejos, enfoque en calidad y buenas prácticas de pruebas, y experiencia en entornos de entrega continua. Se valora pensamiento analítico, proactividad, creatividad y habilidad para comunicar resultados a equipos multidisciplinarios. Se ofrece un entorno de aprendizaje y desarrollo contínuo, con foco en crecimiento profesional y trabajo colaborativo.

Beneficios y cultura

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
$$$ Full time
Data Scientist Senior Freelance AWS/Sagemaker
  • CoyanServices
Python SQL Virtualization Big Data

CoyanServices busca apoyar a un cliente regional a través de una empresa tecnológica privada. El proyecto es 100% remoto y freelance, abierto a profesionales de cualquier país de Latinoamérica. Trabajarás en un entorno tecnológico moderno, con foco en soluciones analíticas para decisiones estratégicas. El equipo utiliza AWS para desplegar soluciones de ML/AI y necesitamos un Data Scientist Senior para diseñar, entrenar y desplegar modelos end‑to‑end, estandarizar ingesta y gobierno de datos en el Data Lake, y traducir insights técnicos en productos analíticos utilizables para decisiones de negocio.

Objetivos del rol:

Diseñar, entrenar y desplegar modelos de ML/AI end-to-end sobre infraestructura AWS.

Estandarizar procesos de ingesta, limpieza y gobierno de datos en el Data Lake.

Traducir insights técnicos en productos analíticos útiles para la toma de decisiones.

Apply to this job through Get on Board.

Funciones

Ingeniería de datos: Pipelines en S3, Glue, Lambda, Athena. Feature engineering, validación y monitoreo de calidad.

Modelado estadístico y ML: Regresión, clasificación, series de tiempo, NLP. Evaluación rigurosa y documentación técnica.

Deployment y MLOps: Productización en SageMaker/Lambda. CI/CD, versionamiento y monitoreo de modelos.

Análisis y comunicación: Dashboards, storytelling y soporte a decisiones estratégicas.

Gobierno y ética de datos: Mejores prácticas, documentación, reproducibilidad y cumplimiento normativo.

Requisitos y perfil

Formación en Ingeniería, Estadística, Matemáticas, Ciencias de la Computación o afines.

Python avanzado (pandas, numpy, scikit-learn, PyTorch/TensorFlow deseable).

Experiencia comprobable con AWS: S3, Athena, Data Lake, Lambda, SageMaker Studio.

Sólida base en estadística aplicada e inferencia. • Experiencia completa en ciclos de vida ML/AI.

SQL avanzado (Athena, Presto, Redshift).

Control de versiones, documentación y testing de modelos/datos.

Deseables: Conocimientos en PySpark o SparkSQL. • Visualización con herramientas como Power BI.

Habilidades blandas

Pensamiento crítico y enfoque científico.

Autonomía, comunicación efectiva y colaboración.

Curiosidad y aprendizaje continuo.

Beneficios

Freelancer. Oportunidad de trabajar con una empresa tecnológica líder y un cliente regional. Modalidad 100% remota, flexible, con posibilidad de crecimiento profesional. Participación en proyectos estratégicos y exposición a tecnologías punteras en AWS y ML/AI. Agenda y horarios acordes al trabajo remoto. Si te interesa, te invitamos a aplicar para conversar sobre el encaje y próximos pasos.

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $2800 - 3600 Full time
Data Engineer
  • Checkr
  • Santiago (Hybrid)
Python SQL Continuous Deployment Kubernetes

Checkr está expandiendo su centro de innovación en Santiago para impulsar la precisión y la inteligencia de su motor de verificaciones de antecedentes a escala global. Este equipo colabora estrechamente con las oficinas de EE. UU. para optimizar el motor de selección, detectar fraude, y evolucionar la plataforma con modelos GenAI. El candidato seleccionado formará parte de un esfuerzo estratégico para equilibrar velocidad, costo y precisión, impactando millones de candidatos y mejorando la experiencia de clientes y socios. El rol implica liderar iniciativas de optimización, diseño de estrategias analíticas y desarrollo de modelos predictivos dentro de una pila tecnológica de alto rendimiento.

This offer is exclusive to getonbrd.com.

Responsabilidades del cargo

  • Crear, mantener y optimizar canales de datos críticos que sirvan de base para la plataforma y los productos de datos de Checkr.
  • Crear herramientas que ayuden a optimizar la gestión y el funcionamiento de nuestro ecosistema de datos.
  • Diseñar sistemas escalables y seguros para hacer frente al enorme flujo de datos a medida que Checkr sigue creciendo.
  • Diseñar sistemas que permitan flujos de trabajo de aprendizaje automático repetibles y escalables.
  • Identificar aplicaciones innovadoras de los datos que puedan dar lugar a nuevos productos o conocimientos y permitir a otros equipos de Checkr maximizar su propio impacto.

Calificaciones y Requisitos del cargo

  • Más de dos años de experiencia en el sector en un puesto relacionado con la ingeniería de datos o backend y una licenciatura o experiencia equivalente.
  • Experiencia en programación en Python o SQL. Se requiere dominio de uno de ellos y, como mínimo, experiencia en el otro.
  • Experiencia en el desarrollo y mantenimiento de servicios de datos de producción.
  • Experiencia en modelado, seguridad y gobernanza de datos.
  • Familiaridad con las prácticas y herramientas modernas de CI/CD (por ejemplo, GitLab y Kubernetes).
  • Experiencia y pasión por la tutoría de otros ingenieros de datos.

Condiciones del Cargo

  • Un entorno de colaboración y rápido movimiento
  • Formar parte de una empresa internacional con sede en Estados Unidos
  • Asignación de reembolso por aprendizaje y desarrollo
  • Remuneración competitiva y oportunidades de promoción profesional y personal
  • Cobertura médica, dental y oftalmológica del 100% para empleados y dependientes
  • Vacaciones adicionales de 5 días y flexibilidad para tomarse tiempo libre
  • Reembolso de equipos para trabajar desde casa

En Checkr, creemos que un entorno de trabajo híbrido fortalece la colaboración, impulsa la innovación y fomenta la conexión. Nuestras sedes principales son Denver, CO, San Francisco, CA, y Santiago, Chile.

Igualdad de oportunidades laborales en Checkr

Checkr se compromete a contratar a personas cualificadas y con talento de diversos orígenes para todos sus puestos tecnológicos, no tecnológicos y de liderazgo. Checkr cree que la reunión y celebración de orígenes, cualidades y culturas únicas enriquece el lugar de trabajo.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Checkr pays or copays health insurance for employees.
Computer provided Checkr provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Checkr gives you paid vacations over the legal minimum.
Beverages and snacks Checkr offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer GCP
  • BC Tecnología
  • Santiago (Hybrid)
Python Data Analysis SQL Big Data
BC Tecnología es una consultora de TI con enfoque en servicios IT y desarrollo de proyectos para clientes de sectores como finanzas, seguros, retail y gobierno. En este proyecto de Data Engineering en Google Cloud Platform (GCP), nos enfocamos en la ingesta, modelamiento y orquestación de datos para apoyar necesidades del negocio. Trabajamos con equipos multidisciplinarios, implementando soluciones escalables y de alta disponibilidad, para entregar dashboards, reporting y capacidades analíticas a partir de datos en la nube.

Apply to this job without intermediaries on Get on Board.

Funciones

  • Implementar procesos de ingesta y modelamiento de datos en Google Cloud Platform (GCP).
  • Construir y optimizar ETLs y pipelines en BigQuery para apoyar reporting y analítica.
  • Automatizar procesos con Cloud Functions para mejorar la operatividad y la fiabilidad de los flujos de datos.
  • Orquestar tareas con Airflow para gestionar dependencias, monitorización y cumplimiento de SLA.
  • Trabajar con repositorios en GitLab para control de versiones y colaboración entre equipos.

Requisitos y perfil

Buscamos un Data Engineer con experiencia en GCP y un sólido dominio de SQL y Python. Se requiere experiencia práctica en BigQuery, Cloud Functions, Cloud Storage y Airflow, así como manejo de herramientas de control de versiones (GitLab, GitHub o Bitbucket). Debe demostrar capacidad para diseñar y mantener pipelines de datos robustos, con enfoque en calidad, rendimiento y escalabilidad. Se valorará experiencia en entornos colaborativos y en proyectos con enfoque en negocio y análisis de datos.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.

VIEW JOB APPLY VIA WEB
$$$ Full time
Data Analyst – Proyecto de Migración Digital
  • BC Tecnología
  • Lima (Hybrid)
HTML5 Python Data Analysis SQL
En BC Tecnología diseñamos soluciones de TI para clientes de servicios financieros, seguros, retail y gobierno. Buscamos un Data Analyst para formar parte de un proyecto estratégico de Migración Digital enfocado en evolucionar el canal digital del cliente BFPE. Participarás en el desarrollo, documentación y mejora continua de funcionalidades para una nueva plataforma web, como parte de la migración desde Telegestor APK. El rol combina desarrollo, transformación de datos y optimización de procesos para entregar un canal digital robusto y escalable.
El proyecto implica trabajo conjunto con equipos técnicos y funcionales para asegurar requisitos, calidad y despliegues eficientes. Serás parte de un equipo ágil, con enfoque en innovación y mejora continua, contribuyendo a una migración exitosa que impacta directamente la operación digital.

Apply through Get on Board.

Funciones

  • Desarrollar nuevas funcionalidades para el canal digital utilizando Python y HTML5.
  • Participar en la transformación de datos y construcción de pipelines ETL.
  • Analizar, diseñar y documentar especificaciones técnicas y funcionales.
  • Implementar consultas y procesos de explotación de datos en SQL Server y BigQuery.
  • Gestionar control de versiones y despliegues con GitLab.
  • Colaborar con equipos técnicos y funcionales para asegurar el cumplimiento de los requisitos.
  • Participar en pruebas, validaciones y despliegue de mejoras.
  • Proponer mejoras que fortalezcan la plataforma digital.

Descripción

Buscamos un Data Analyst con 2 a 3 años de experiencia en roles similares, con capacidad para trabajar en un entorno regulado y centrado en datos. Requisitos técnicos demostrables: SQL Server, Python, BigQuery, ETLs, GitLab y HTML5. Se valorará experiencia en banca, finanzas o industrias altamente reguladas. El/la candidata ideal será analítico/a, orientado/a a la calidad de datos, con habilidades para documentar y comunicar hallazgos de manera clara, y capaz de colaborar eficazmente con equipos multifuncionales. Se ofrece una modalidad híbrida en Lima y la posibilidad de participar en un proyecto estratégico con impacto directo en el canal digital del cliente, dentro de un entorno de aprendizaje y desarrollo continuo.

Deseable

Experiencia previa en proyectos de migración de plataformas digitales y en entornos de alta seguridad de información. Conocimiento de herramientas de visualización (Power BI, Tableau) y metodologías ágiles. Experiencia en integración de datos entre sistemas legados y plataformas modernas.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
Gross salary $2000 - 2600 Full time
DBA Oracle
  • Coderslab.io
Python SQL Oracle Linux
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un DBA Oracle para unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

This job is original from Get on Board.

Funciones del cargo

- Garantizar la alta disponibilidad y rendimiento de las bases de datos Oracle en producción y desarrollo.
- Configurar y gestionar entornos de alta disponibilidad (HA) utilizando Oracle RAC y Data Guard.
- Realizar migraciones de bases de datos a Oracle Cloud y otros entornos Cloud (OCI, Azure).
- Automatizar tareas rutinarias de administración de bases de datos utilizando scripts.
- Realizar monitoreo, tuning y optimización de bases de datos para mejorar el rendimiento.
- Diseñar e implementar planes de recuperación ante desastres y políticas de backup/restore.
- Colaborar con equipos de desarrollo y operaciones para garantizar una integración eficiente de las bases de datos con las aplicaciones.
- Mantenerse actualizado con las nuevas características y parches de Oracle, garantizando la seguridad y estabilidad de las bases de datos.

Requerimientos del cargo

- Experiencia como DBA Oracle + 3 años.
- Experiencia en la gestión de bases de datos en entornos de producción críticos y de alto volumen de transacciones.
- Familiarizado con servicios Cloud, especialmente Oracle Cloud Infrastructure (OCI).
- Experiencia en migración de bases de datos hacia entornos Cloud (deseable).
- Conocimiento general de redes y seguridad en la gestión de bases de datos (deseable).
Habilidades:
- Competencia avanzada en administración de bases de datos Oracle, incluyendo versiones recientes (Oracle 19c o superior).
- Conocimiento profundo de Oracle RAC (Real Application Clusters), Data Guard, ASM (Automatic Storage Management), y Oracle Multitenant.
- Experiencia en Oracle Cloud Infrastructure (OCI) y otras nubes públicas, como Azure o AWS (deseable).
- Competencia en scripting para automatización de tareas DBA (Ej: Bash, Python).
- Conocimiento de herramientas de monitoreo y optimización de bases de datos.
- Familiaridad con sistemas operativos basados en Linux/Unix.
- Conocimiento de políticas de backup y recuperación de datos (RMAN, Data Pump).
- Experiencia en seguridad y encriptación de datos en bases de datos.
- Conocimientos en PLSQL y tunning a sentencias SQL

Condiciones

Disponibilidad: Inmediata.
Horario de Chile

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $1500 - 2400 Full time
Consultor Científico de Datos
  • Microsystem
  • Santiago (Hybrid)
JavaScript Python Data Analysis SQL

🚀 ¡Estamos buscando talento para el equipo Lab de Microsystem! ⚗️

Si te gustan los datos, la programación y los desafíos que realmente generan impacto, acá hay una oportunidad muy entretenida. Estamos desarrollando proyectos innovadores ligados a Machine Learning, ingeniería y ciencia de datos: desde modelos predictivos de pesca (sí, con datos reales y complejos 👀), hasta modelos bancarios inteligentes que anticipan comportamientos y mejoran decisiones de negocio.

Buscamos a alguien motivado, curioso y con ganas de aprender tecnologías de punta. Alguien que disfrute mezclar lo técnico con lo consultivo: entender al cliente, su contexto y transformar eso en modelos funcionales y útiles.

Trabajarás con un equipo joven, colaborativo y con experiencia 🤓, en un ambiente donde se prueba, se crea y se innova. Si te gusta programar, experimentar y resolver problemas reales, este es tu lugar 💪.

¿Te interesa o conoces a alguien? ¡Hablemos! 🚀

Apply directly from Get on Board.

Funciones del cargo

1. Levantamiento y entendimiento del negocio con el cliente

  • Participar en reuniones con clientes para comprender sus necesidades, procesos, problemas y expectativas.
  • Traducir requerimientos de negocio en objetivos analíticos y diseños de modelos.
  • Presentar hallazgos, resultados y recomendaciones de manera clara y comprensible.

2. Preparación, exploración y análisis de datos

  • Recopilar, limpiar y transformar datos provenientes de distintas fuentes.
  • Realizar análisis exploratorio (EDA) para descubrir patrones, anomalías y oportunidades de modelamiento.
  • Definir y construir pipelines de preparación de datos cuando sea necesario.

3. Construcción y entrenamiento de modelos predictivos

  • Diseñar, programar y entrenar modelos de Machine Learning (supervisados y no supervisados).
  • Seleccionar técnicas adecuadas según el problema: regresión, clasificación, series de tiempo, clustering, árboles, ensembles, etc.
  • Ajustar, validar y optimizar modelos para maximizar desempeño y robustez.

4. Implementación y despliegue de modelos

  • Implementar pipelines end-to-end: desde ingesta de datos hasta predicciones automatizadas.
  • Trabajar con herramientas y entornos de desarrollo modernos (Python, Jupyter, Git, APIs, etc.).
  • Colaborar con equipos Dev/Data Engineering para integrar los modelos en producción.

5. Documentación y comunicación

  • Documentar procesos, decisiones técnicas, métricas, versiones de modelos y flujos de trabajo.
  • Preparar presentaciones y reportes para explicar resultados a stakeholders técnicos y no técnicos.

6. Iteración, mejora continua y acompañamiento al cliente

  • Monitorear el rendimiento de los modelos y proponer mejoras.
  • Acompañar al cliente en el uso, interpretación y adopción del modelo.
  • Levantar nuevas oportunidades de mejora o proyectos relacionados.

7. Participación activa en el equipo Lab

  • Compartir aprendizajes, buenas prácticas y nuevos enfoques con el equipo.
  • Explorar tecnologías emergentes y sugerir innovaciones aplicables a los proyectos.

Requerimientos del cargo

Requisitos Técnicos (Hard Skills)

  • Formación en Ingeniería, Estadística, Matemáticas, Computación o carrera afín.
  • Experiencia comprobable en construcción de modelos predictivos (regresión, clasificación, series de tiempo, clustering, etc.).
  • Dominio de Python para ciencia de datos (pandas, scikit-learn, NumPy, matplotlib, etc.).
  • Conocimientos sólidos en limpieza, transformación y análisis exploratorio de datos (EDA).
  • Manejo de bases de datos y consultas SQL.
  • Conocimiento en APIs REST e integración de datos.
  • Capacidad para construir pipelines end-to-end de ML (ingesta, entrenamiento, evaluación, despliegue).
  • Manejo a nivel básico de herramientas analíticas como Power BI y/o Tableau para exploración y entendimiento de datos.
  • Deseable: experiencia en ML Ops, automatización, versionado de modelos o despliegue en la nube (AWS, Azure, etc.).

Requisitos Interpersonales (Soft Skills)

  • Habilidad para comunicarse claramente con clientes no técnicos.
  • Capacidad de levantar requerimientos, entender el contexto del negocio y traducirlo a problemas analíticos.
  • Buenas habilidades de presentación y storytelling con datos.
  • Proactividad, autonomía y ganas de aprender tecnologías nuevas.
  • Trabajo colaborativo en equipos multidisciplinarios.

Otros Deseables

  • Experiencia en consultoría o interacción directa con clientes.
  • Conocimiento en herramientas de visualización adicionales (Tableau, Looker, Power BI, etc.).
  • Inglés intermedio para lectura de documentación y soporte técnico.
  • Conocimiento de metodologías como CRISP-DM y otras a fines.
  • Conocimiento en otros lenguajes (TypeScript, JavaScript, etc.)

Condiciones

💫Nuestro equipo ofrece soluciones completas, por lo que te tocará aprender desde cómo levantar un servicio a cómo ir mejorándolo.
🧔‍♀️Al ser una área dentro de una empresa más grande y madura, existen muchos colaboradores dispuestos a compartir su experiencia y ayudar en el aprendizaje.
😎Somos relajados, entendemos si tienes alguna urgencia durante el día o trámites que hacer, lo que nos importa es que te puedas comprometer con las entregas.
🧑‍🎤Puedes venir como quieras a la oficina, mientras tengas algo puesto.
📈 Tendrás oportunidades de aprender, mejorar y crecer dentro de un equipo que valora el conocimiento compartido y la evolución profesional.

Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Microsystem pays or copays health insurance for employees.
Computer provided Microsystem provides a computer for your work.
Education stipend Microsystem covers some educational expenses related to the position.
Fitness subsidies Microsystem offers stipends for sports or fitness programs.
Informal dress code No dress code is enforced.
Beverages and snacks Microsystem offers beverages and snacks for free consumption.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer GCP – Proyecto
  • BC Tecnología
  • Santiago (Hybrid)
Python Analytics Git SQL
BC Tecnología es una consultora de TI con experiencia en gestionar portafolios, desarrollar proyectos y realizar outsourcing y selección de profesionales para clientes de servicios financieros, seguros, retail y gobierno. En BC Tecnología promovemos soluciones a la medida y formamos equipos ángeles para infraestructuras TI, desarrollo de software y unidades de negocio. Nuestra operación se apoya en metodologías ágiles, enfoque en el cliente y desarrollo de productos. El proyecto actual se enfoca en diseñar, construir y optimizar pipelines de datos en GCP para clientes de alto nivel, garantizando disponibilidad y calidad de la información para analytics y reporting.

Find this vacancy on Get on Board.

Funciones

  • Construcción, mantenimiento y optimización de pipelines de datos en Google Cloud Platform (GCP).
  • Desarrollo y soporte de ETLs eficientes y escalables, con énfasis en rendimiento y confiabilidad.
  • Modelado de datos para analytics y reporting, asegurando estructuras que soporten reporting y dashboards.
  • Automatización de procesos y flujos de datos utilizando Airflow/Cloud Composer.
  • Colaboración con equipos de datos y negocio para garantizar calidad, disponibilidad y acceso a la información.
  • Implementación de buenas prácticas de versionado y control de cambios (Git, GitLab/Bitbucket/GitHub).

Requisitos y habilidades

• Mínimo 3 años de experiencia como Data Engineer o rol equivalente en proyectos de datos.
• Sólidos conocimientos de SQL y Python para construcción de transformaciones y consultas analíticas.
• Experiencia con servicios de GCP (BigQuery, Cloud Functions, Cloud Composer/Airflow, Cloud Storage).
• Capacidad para diseñar y modelar datos en entornos GCP con foco en analítica y reporting.
• Experiencia con herramientas de control de versiones (GitLab, Bitbucket o GitHub).
• Ideal: experiencia con DBT y prácticas de ciencia de datos en la nube.
• Habilidad para trabajar en entornos colaborativos y adaptarse a cambios en proyectos y prioridades.

Requisitos deseables

• Conocimientos en orquestación de datos y pipelines complejos; experiencia con datos en entornos regulados y de alto rendimiento.
• Familiaridad con metodologías ágiles y cultura DevOps aplicada a data engineering.
• Certificaciones de GCP o fundamentos de ciencia de datos.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
VIEW JOB APPLY VIA WEB
$$$ Full time
Data Engineer GCP
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL Big Data BigQuery
BC Tecnología es una consultora de TI especializada en administrar portafolios, desarrollar proyectos, realizar outsourcing y seleccionar profesionales para clientes en servicios financieros, seguros, retail y gobierno. Diseñamos equipos de trabajo ágiles para Infraestructura Tecnología, Desarrollo de Software y Unidades de Negocio, con un enfoque en cliente, metodologías ágiles, cambio organizacional y desarrollo de productos. En este rol de Data Engineer, formarás parte de proyectos innovadores con clientes de alto nivel, contribuyendo al diseño, implementación y mejora de pipelines de datos que alimentan plataformas analíticas y la toma de decisiones del negocio.

Opportunity published on Get on Board.

Responsabilidades

  • Diseñar, implementar y mantener procesos ETL/ELT para la carga de datos desde APIs hacia BigQuery.
  • Asegurar la escalabilidad, eficiencia y calidad de los pipelines de datos.
  • Aplicar buenas prácticas de versionamiento, documentación y pruebas en el código.
  • Colaborar con equipos internos para la exportación y consumo de datos desde Databricks.
  • Monitorear la calidad e integridad de los datos en los distintos entornos.
  • (Deseable) Desarrollar y mantener reportes Power BI conectados a Databricks.

Perfil y habilidades

Requisitos técnicos:
  • Experiencia mínima de 1 año en roles similares.
  • Experiencia diseñando, implementando y manteniendo procesos ETL/ELT para la carga de datos desde APIs hacia BigQuery.
  • Conocimiento intermedio en BigQuery y SQL.
  • Experiencia en Python, orientado a procesos de datos.
  • (Deseable) Experiencia en integración con APIs y uso de librerías como requests.
  • (Deseable) Conocimientos en herramientas de visualización, idealmente Power BI.
  • (Deseable) Experiencia en entornos cloud y uso de Databricks.

VIEW JOB APPLY VIA WEB
$$$ Full time
Analista de Datos / Business Intelligence
  • BC Tecnología
  • Santiago (Hybrid)
Python Agile Data Analysis Excel
En BC Tecnología somos una consultora de TI que acompaña a clientes de sectores financieros, retail, tecnológico y público. Buscamos un/a Analista de Datos / Business Intelligence para transformar datos en insights que orienten decisiones estratégicas. Trabajarás en proyectos de alto impacto dentro de equipos interdisciplinarios, implementando soluciones de analítica y BI que faciliten la toma de decisiones en clientes de alto nivel. Formarás parte de una organización con enfoque en metodologías ágiles, formación de equipos y desarrollo de productos, con un portfolio de servicios que incluye consultoría, outsourcing y desarrollo de proyectos.

Applications: getonbrd.com.

Principales Responsabilidades

  • Transformar datos en información clara y accionable mediante análisis estadístico, modelado y visualización.
  • Recopilar, analizar y transformar datos de distintas fuentes para generar insights de negocio.
  • Diseñar y desarrollar reportes, dashboards e indicadores clave (KPIs) en Power BI u otras herramientas de visualización.
  • Aplicar técnicas de análisis estadístico y exploración de datos para detectar tendencias, patrones y oportunidades de mejora.
  • Colaborar con equipos de negocio, BI y tecnología para definir métricas relevantes.
  • Asegurar la calidad, integridad y consistencia de los datos; documentar procesos y estructuras de datos.
  • Mantenerse actualizado/a en herramientas de analítica, visualización y ciencia de datos; cumplir con políticas de seguridad y cumplimiento.

Requisitos y Perfil

Formación: Ingeniería, Estadística, Economía, Ciencia de Datos, Administración u afines. Experiencia: mínimo 2 años en roles de Análisis de Datos, Inteligencia de Negocio o Control de Gestión.
Conocimientos Técnicos clave:
  • Modelado de datos y definición de KPIs.
  • Power BI (modelado, DAX, visualizaciones).
  • SQL (consultas y optimización).
  • Python y Power Automate.
  • Excel avanzado.
  • Conocimientos en estadística descriptiva e inferencial aplicada a negocio.
  • Experiencia en limpieza y transformación de datos.
Competencias blandas: pensamiento analítico, orientación a resultados, comunicación efectiva y capacidad para trabajar en equipos multidisciplinarios en entornos ágiles.

Deseables

Experiencia en proyectos de BI en el sector financiero o público; conocimiento de herramientas de visualización adicionales; experiencia en automatización de procesos y manejo de grandes volúmenes de datos; habilidad para traducir requerimientos de negocio en soluciones técnicas.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

VIEW JOB APPLY VIA WEB
Gross salary $2000 - 2500 Full time
Ingeniero/a de Continuidad Operacional 7x7
  • Contac Ingenieros
  • Santiago (In-office)
C Python Data Analysis SQL

Contac Ingenieros es una empresa especializada en proveer soluciones integrales para la industria minera, enfocándose en la optimización y modernización de procesos mediante tecnología y conocimiento especializado. El proyecto se centra en asegurar la continuidad operacional a través de soluciones digitales, y mejora continua, con un enfoque en disponibilidad, confiabilidad y oportunidad de los datos que respaldan la toma de decisiones en procesos mina-planta. El equipo trabaja en un entorno de analítica avanzada, integrando herramientas de datos y plataformas para garantizar la continuidad de las operaciones mineras y la entrega de reportes ejecutivos confiables.

Apply to this job without intermediaries on Get on Board.

Principales Funciones

  • Revisar disponibilidad de aplicativos y la correcta ejecución de servicios y procesos de ingestas asociadas a iniciativas de analítica avanzada.
  • Generar hot fixes necesarios para garantizar la continuidad operacional de las plataformas de analítica avanzada.
  • Proponer y ejecutar mejoras de procesos para optimizar tareas que se vean impactadas.
  • Revisar y medir el impacto de ajustes de código y resolver de acuerdo a la criticidad de cada error.
  • Asegurar la integridad de las ingestas de datos para reportes y rutinas ejecutivas.
  • Verificar la ejecución y envío correcto de información de reportes ejecutivos, cotejando la información con parámetros operacionales.
  • Ejecutar procesos de forma manual cuando sea necesario.
  • Brindar soporte operacional presencial para necesidades operativas.

Requisitos

  • Título en Ingeniería en Informática, Civil o carrera afín.
  • Conocimientos en análisis de datos, reportabilidad y KPIs operacionales.
  • Manejo de herramientas como SQL, PI System, Power BI, Python y la suite Microsoft.
  • Conocimiento de procesos mineros.
  • Capacidad de aprendizaje, proactividad y orientación al cliente.
  • Disponibilidad para trabajar en Jornada 7X7 con presencialidad en la comuna de Las Condes.

Deseables

Experiencia previa en continuidad operacional o en roles de analítica de datos en minería. Conocimientos en C#, ETL, y manejo de entornos de nube. Habilidades de comunicación efectiva y trabajo en equipo, con enfoque en resolución de problemas y entrega de valor a la operación minera.

Beneficios

  • Seguro Complementario de Salud
  • Un grato ambiente laboral, donde la colaboración, el aprendizaje y el desarrollo profesional son prioridad.

VIEW JOB APPLY VIA WEB
Gross salary $2500 - 3200 Full time
Senior Data Consultant
  • Artefact LatAm
Python Data Science English Data Visualization

Somos Artefact, una consultora líder a nivel mundial en crear valor a través del uso de datos y las tecnologías de IA. Buscamos transformar los datos en impacto comercial en toda la cadena de valor de las organizaciones, trabajando con clientes de diversos tamaños, rubros y países. Nos enorgullese decir que estamos disfrutando de un crecimiento importante en la región, y es por eso que queremos que te sumes a nuestro equipo de profesionales altamente capacitados, a modo de abordar problemas complejos para nuestros clientes.

Nuestra cultura se caracteriza por un alto grado de colaboración, con un ambiente de aprendizaje constante, donde creemos que la innovación y las soluciones vienen de cada integrante del equipo. Esto nos impulsa a la acción, y generar entregables de alta calidad y escalabilidad.

This job is published by getonbrd.com.

Tus responsabilidades serán:

  • Realizar investigaciones exhaustivas y análisis de información relevante para el proyecto.
  • Desarrollar diagnósticos y proponer soluciones adaptadas a las necesidades específicas de cada cliente, utilizando un enfoque analítico y estratégico.
  • Crear entregables innovadores y orientados a resultados, con un enfoque en la transformación digital.
  • Aplicar rápidamente el aprendizaje adquirido de diversas industrias y herramientas para abordar los desafíos de cada cliente.
  • Presentar de manera efectiva los hallazgos y resultados del proyecto, adaptándose a las necesidades de los stakeholders del cliente.
  • Contribuir a la elaboración de propuestas para potenciales clientes, mediante un análisis detallado de la industria y la identificación de soluciones adecuadas.
  • Construir y mantener relaciones sólidas con los clientes, actuando como un socio estratégico en su camino hacia el éxito.
  • Apoyar al equipo en la planificación estratégica y en la transferencia de conocimientos y mejores prácticas.

Los requisitos del cargo son:

  • Titulación en Ingeniería Civil Industrial, Ingeniería Industrial, Economía o áreas afines.
  • Experiencia laboral mínima de 4 a 6 años en consultoría o roles relacionados.
  • Dominio avanzado de herramientas de Office y/o Google.
  • Pensamiento Analítico: Capacidad para analizar datos y extraer información significativa que respalde la toma de decisiones.
  • Conocimiento profundo de diversas herramientas y soluciones digitales.
  • Inglés fluido para comunicarse oralmente con los clientes.

Algunos deseables no excluyentes:

  • Deseable experiencia en programación en Python y uso de herramientas de visualización como PowerBI o Tableau.
  • Conocimiento o nociones de Data Science.

Algunos de nuestros beneficios:

  • Presupuesto de 500 USD al año para capacitaciones, sean cursos, membresías, eventos u otros.
  • Rápido crecimiento profesional: Un plan de mentoring para formación y avance de carrera, ciclos de evaluación de aumentos y promociones cada 6 meses.
  • Hasta 11 días de vacaciones adicionales a lo legal. Esto para descansar y poder generar un sano equilibrio entre vida laboral y personal.
  • Participación en el bono por utilidades de la empresa, además de bonos por trabajador referido y por cliente.
  • Medio día libre de cumpleaños, además de un regalito.
  • Almuerzos quincenales pagados con el equipo en nuestros hubs (Santiago, Bogotá, Lima y Ciudad de Mexico).
  • Flexibilidad horaria y trabajo por objetivos.
  • Trabajo remoto, con posibilidad de hacerse híbrido (Oficina en Santiago de Chile, Cowork pagado en Bogotá, Lima y Ciudad de Mexico).
  • Post Natal extendido para hombres, y cobertura de diferencia pagado por sistema de salud para mujeres (Chile)

...y más!

Outdoors The premises have outdoor spaces such as parks or terraces.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Artefact LatAm offers space for internal talks or presentations during working hours.
Meals provided Artefact LatAm provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Company retreats Team-building activities outside the premises.
Computer repairs Artefact LatAm covers some computer repair expenses.
Computer provided Artefact LatAm provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Conference stipend Artefact LatAm covers tickets and/or some expenses for conferences related to the position.
Informal dress code No dress code is enforced.
Vacation over legal Artefact LatAm gives you paid vacations over the legal minimum.
Beverages and snacks Artefact LatAm offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
VIEW JOB APPLY VIA WEB
Gross salary $3000 - 5000 Full time
Senior Data Engineer – AI Data Infrastructure & Automation
  • Common Forge Ventures
Python SQL Cloud Computing Automation

Common Forge Ventures is seeking a Senior Data Engineer to join one of our venture studio startups, a high-growth company building the world’s most robust, contextualized buyer intelligence platform for investment banks, private equity, and strategic acquirers. You will own and evolve the data infrastructure that ingests, cleanses, and enriches large-scale data from APIs, web scraping agents, LLM outputs, and internal datasets. This role focuses on scalable pipelines, data governance, AI agent orchestration, and seamless integration with product teams to deliver reliable data APIs and feeds that power advanced buyer insights.

Apply to this job from Get on Board.

Key Responsibilities

  • Data Architecture & Pipelines: Design and optimize large-scale ETL/ELT pipelines across structured and semi-structured data sources. Implement data validation, normalization, and reconciliation frameworks to ensure data integrity. Automate ingestion and transformation processes using orchestration tools.
  • AI Agent Orchestration & Integration: Develop, train, and refine LLM-based data agents to collect, clean, update, and infer new attributes for buyer profiles. Build robust prompting architectures, JSON schema validation, and feedback loops to ensure high-quality structured outputs. Collaborate to optimize agent reasoning, reduce hallucinations, and integrate embeddings for context-aware inference.
  • Data Governance & Quality: Define standards for data versioning, lineage, and observability. Build quality-control layers for agent-generated data, including confidence scoring, human-in-the-loop validation, and automated correction mechanisms. Ensure compliance with data governance, privacy, and security requirements.
  • Collaboration & Product Integration: Work cross-functionally with AI, product, and engineering teams to deliver data APIs and feeds. Partner with leadership to prioritize data reliability, scalability, and innovation. Lead ongoing improvements to the data infrastructure roadmap.

Required Skills & Experience

5+ years in data engineering (or similar) with strong experience in Python (Pydantic a bonus), SQL, and orchestration frameworks. Proficiency with cloud data stacks (including GCP). Demonstrated ability to design or integrate AI/LLM agents for data collection, enrichment, or inference tasks. Track record of building structured data pipelines from unstructured sources, with error recovery, validation, and monitoring. Deep understanding of prompt engineering, function calling, embedding-based retrieval, and data labeling workflows. Excellent communication, documentation, and cross-team collaboration skills. You care deeply about your craft and maintain clean, scalable projects even when not directly supervised.

Desirable Skills & Experience

Familiarity with LangChain or other agent frameworks (e.g., LlamaIndex, Haystack), tool-calling, and similar agent orchestration technologies. Experience with data quality scoring, schema evolution, and metadata management (dbt, Great Expectations, etc.). Background in investment data, market intelligence, or deal-sourcing platforms. Experience leading small data or engineering teams.

Benefits & Perks

From Common Forge Enterprises, you will enjoy a remote working environment with flexible hours, enabling you to balance personal and professional commitments effectively. We prioritize opportunities for professional development and growth, fostering an inclusive and collaborative team culture. Join us to access the latest technologies and tools as we work toward impactful solutions together! 🚀

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB
Gross salary $3500 - 4300 Full time
Data Scientist ML Engineer
  • Pulsar Technologies
Python Analytics DevOps Continuous Deployment
Project and Role
 The role involves developing, deploying, and maintaining ML models on cloud platforms using Databricks, MLflow, and Azure DevOps. The goal is to build reproducible, monitored, and well-governed analytics solutions that meet the client’s MLOps best practices. The main focus is automating the ML lifecycle—from data preparation and feature engineering to training, registration, deployment, and monitoring in production. Experience designing scalable, resilient, and maintainable solutions aligned with business goals and performance metrics is highly valued.

Applications at getonbrd.com.

Description

As a Data Scientist - ML Engineer, you will be responsible for designing and maintaining ML models in production, ensuring quality and compliance with MLOps practices. 
  • Design, train, and evaluate supervised and unsupervised models, with an emphasis on reproducibility and traceability.
  • Develop data and feature pipelines, including data cleaning, transformation, and quality validation.
  • Manage the model lifecycle using MLflow: tracking, registration, and versioning of models and metrics.
  • Work with Databricks for analytics and ML, optimizing notebooks and shared notebook workflows.
  • Oversee deployments and monitoring in Azure DevOps, applying Gitflow practices, CI/CD, and version control.
  • Define and follow coding standards (PEP8), implement model and pipeline testing, and manage environments (dev, prod).
  • Set up performance metrics, anomaly detection, and alerts for models in production.
  • Collaborate with data engineers, tech leads, and other stakeholders to align solutions with business objectives.
  • You are expected to demonstrate teamwork, proactivity in problem-solving, and commitment to quality and continuous improvement.

Requirements

We are looking for a Data Scientist with strong experience in Machine Learning Engineering.
The candidate will be responsible for designing, developing, and maintaining advanced analytics models. They will ensure quality and compliance with the client’s MLOps best practices by implementing scalable, reliable, and reproducible ML solutions on cloud platforms. Experience in automating the ML lifecycle and continuously improving model performance will be highly valued. 
Requirements
  • Education: Engineering, Computer Science, Mathematics, Statistics, or a related field.
  • Experience: Minimum of 3 years applying ML in production environments.
  • Programming: Python (PEP8, Pylint, Black) and adherence to clean coding standards.
  • Modeling: Design and training of supervised and unsupervised models.
  • MLOps: Data preparation, feature engineering, training, registration, deployment, and monitoring.
  • Tools: Databricks for analytics and ML; MLflow for model lifecycle management.
  • DevOps: Azure DevOps (Gitflow, CI/CD, version control).
  • Best Practices: Model and pipeline testing, environment management (dev, prod).
  • Performance: Ability to configure and track metrics (MAE, RMSE, F1, AUC-ROC), anomaly detection, and production alerts.
  • Collaboration: Strong communication skills to work with multidisciplinary teams and convey results to both technical and non-technical stakeholders.

Desirable skills

  • Knowledge of analytical project frameworks (e.g., Databricks Asset Bundles), advanced cloud architecture, and scalable ML solution design
  • Experience with Lakeview or other tools for interactive visualization and monitoring
  • Proven experience implementing end-to-end automated ML pipelines
  • Ability to manage user feedback to continuously improve models.

Conditions

  • 100% remote
  • Spanish language, professional proficiency is required
  • Chile-based is preferred
  • Must be compatible with Chilean timezone

Fully remote You can work from anywhere in the world.
VIEW JOB APPLY VIA WEB