We didn't find any results.

Try with another group of words.

If you think this is a problem, please contact us.

$$$ Full time
DevOps Engineer
  • Softserve
DevOps Virtualization Routing Docker
WE ARE
SoftServe is an IT & global digital solutions company with headquarters in Austin, Texas, founded in 1993 in Ukraine. Our associates work on 2,000+ projects with clients in the USA, Europe, and APAC region. We are about people who create bold things, who make a difference, who have fun, and who love their work. In January 2022, we started our operations in Latin America. We committed to grow our local community to 3,500 associates by 2025 and invest in the market.

Funciones del cargo

AND YOU WANT TO
  • Collaborate with the LATAM DevOps Practice to contribute to cloud platforms for globally innovative companies
  • Engage in diverse private and public cloud-oriented projects of various scales
  • Participate in enterprise-scale migrations, cloud-native application development, and trending technology initiatives
  • Build, maintain, and optimize CI/CD pipelines for automated deployment and updates
  • Configure and manage scalable, secure, and high-performing cloud environments
  • Use tools like Terraform for infrastructure as code (IaC) to enhance deployment consistency and minimize manual interventions

Requerimientos del cargo

IF YOU ARE
  • Experienced with SRE/DevOps best practices
  • Proficient in AWS core IaaS and PaaS services, including IAM, VPC, Internet Gateway, NAT Gateway, ELB, RDS, EC2, S3, Security Groups, ACLs, and Routing Tables
  • Skilled in Docker, Kubernetes, and EKS
  • Adept in HELM charts and troubleshooting workloads in K8s clusters
  • Knowledgeable in Infrastructure as Code using Terraform or CloudFormation
  • Skilled in scripting languages such as Shell or Bash
  • Proficient in Linux, including administration, command-line expertise, and service debugging
  • Experienced in configuring log collectors and using observability platforms for containerized workloads

Opcionales

  • Good at maintaining existing CI/CD pipelines with tools like Jenkins, GitHub, GitLab, or CircleCI (as a plus)
  • Familiar with Python and tools like Prometheus and Grafana (would be a plus)
  • Knowledgeable in AFT Control Tower and Landing Zone (optional)

Condiciones

SoftServe is an Equal Opportunity Employer. All qualified applicants will receive consideration for employment regardless of race, color, religion, age, sex, nationality, disability, sexual orientation, gender identity and expression, veteran status, and other protected characteristics under applicable law. Let’s put your talents and experience in motion with SoftServe.

Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Softserve pays or copays health insurance for employees.
Computer provided Softserve provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Softserve gives you paid vacations over the legal minimum.
Beverages and snacks Softserve offers beverages and snacks for free consumption.
APPLY VIA WEB
Gross salary $1500 - 1700 Full time
Desarrollador/a DevOps
  • rFlex.io
  • Santiago (In-office)
Redis DevOps Virtualization Docker

rFlex.io es una empresa SaaS joven y en crecimiento, dedicada a ofrecer soluciones para la gestión de turnos y asistencia en salud. Somos un equipo compuesto actualmente por 40 personas, que ha logrado un crecimiento explosivo en el ultimo tiempo y estamos en proceso de escalamiento que requiere agrandar el equipo. Somos un equipo joven, con mucha energía, flexible y queremos ir a la vanguardia. Valoramos la innovación, honestidad, pro actividad y el constante aprendizaje.

Funciones del cargo

Como Desarrollador/a DevOps, tendrás un rol clave en la estabilidad, escalabilidad y eficiencia de nuestra infraestructura. Serás responsable del monitoreo, optimización y automatización de nuestros servidores y procesos, asegurando el máximo rendimiento de nuestras aplicaciones. Trabajarás en estrecha colaboración con nuestro CTO y Tech Lead para garantizar una infraestructura ágil y robusta.

Responsabilidades:

  • Monitorización proactiva de los servidores y sistemas mediante herramientas como DataDog y Sentry
  • Gestión y optimización de recursos en nuestra infraestructura (AWS) para mejorar la eficiencia y escalabilidad
  • Actualización y mantenimiento de dependencias en nuestros softwares en Laravel, React y AngularJS
  • Identificación de procesos o lógicas que generen un uso excesivo de recursos
  • Optimización de colas de trabajo para mejorar el rendimiento de procesos asíncronos
  • Optimización de nuestros procesos de integración y despliegue continuo (CI/CD)
  • Gestión de contenedores con Docker

Requerimientos del cargo

Buscamos a alguien con experiencia en:

  • CI/CD (agilizando ciclos de vida del desarrollo del software)
  • Monitorización con DataDog, Sentry o herramientas similares
  • Administración de servidores y optimización de recursos
  • AWS (EC2, RDS, S3, Load Balancers, etc.)
  • Docker y gestión de contenedores
  • Colas de trabajo (Laravel Queues, Redis o similares)
  • Ownership

Opcionales

  • Conocimientos en Terraform o Ansible para infraestructura como código
  • Optimización de bases de datos en MySQL o MariaDB
  • Scripting en Bash para automatización de tareas

Condiciones

  • Horario de trabajo de 09:00 a 18:00 horas
  • Ofrecemos 3 meses de contrato fijo a prueba y luego indefinido
  • Modalidad de trabajo presencial. Una vez pasado el período de prueba, podemos coordinar una modalidad de trabajo híbrida, con un mínimo de 3 días presenciales
  • Seguro de salud complementario
  • Presupuesto para capacitación

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage rFlex.io pays or copays health insurance for employees.
Computer provided rFlex.io provides a computer for your work.
Informal dress code No dress code is enforced.
APPLY VIA WEB
Gross salary $1400 - 2000 Full time
Administrador de Sistemas
  • RiskAmerica
  • Santiago (Hybrid)
Sysadmin Python Virtualization Docker
RiskAmerica es una empresa consolidada en la industria FinTech, proveemos servicios de gestión e información a todas las empresas de inversiones de Chile. Nos caracterizamos por ser un agente de innovación y transformación digital estando siempre a la vanguardia en las tecnologías y metodologías que usamos.
Hoy en día nos encontramos en un proceso de expansión y buscamos un nuevo Administrador de Sistemas para ayudar a gestionar múltiples soluciones hospedadas en la nube de Google Cloud Platform con Kubernetes Engine.
¿Te atrae el rol de Solution Architect, Cloud Engineer, DevOps o Administrar Sistemas? Acá podrás aprender mucho de gente muy talentosa y podrás contribuir de manera significativa en toda la cadena de vida de los servicios de la empresa.

Que necesitamos de ti

  • Diseño, desarrollo, mantención y actualización de infraestructura para soluciones multi-tennant de alta disponibilidad.
  • Construir y administrar herramientas de monitoring de los servicios e infraestructura.
  • Ayudar a diseñar, mantener y probar la seguridad de la infraestructura de red y diversas plataformas.
  • Construir utilidades para apoyar las labores de los ingenieros de software del área.
  • Mejorar la cadena de Integración Continua de los servicios administrados.
  • Administrar la generación, almacenamiento y uso de respaldos de los distintos servicios.
  • Ayudar a diseñar, mantener y probar los planes de continuidad de negocio de los distintos servicios.

Que necesitamos de ti

  • Experiencia en seguridad de Redes
  • Experiencia Bash scripting.
  • Experiencia programando en Python.
  • Experiencia básica usando containers (Docker y/o Kubernetes) tanto en Build como Deploy.
  • Experiencia de al menos 1 año administrando cargas productivas de algún servicio
  • Interés y entusiasmo por aprender de nuevas tecnologías, con el fin de crear soluciones robustas y automáticas que requieran mínima mantención.
  • Versatilidad para aprender de diversas tecnologías y lenguajes para apoyar al equipo de Ingenieros de Software en sus diversas necesidades
  • Experiencia en sistemas Linux
  • Manejo de inglés leído técnico.

Sumas puntos si

  • Certificado de Solution Architect de AWS o GCP
  • Experiencia trabajando con Kubernetes
  • Experiencia trabajando sobre Google Cloud Platform (especialmente GKE, GCS y Compute)
  • Conocimientos teóricos de Kubernetes
  • Experiencia usando Ansible
  • Experiencia con Prometheus & Graphana
  • Experiencia con Bases de Datos MariaDB trabajando en esquemas master-slave o master-master
  • Experiencia implementando cadenas de integración continua (CI)

Que tenemos para ti

  • Excelente clima laboral junto a un gran equipo.
  • Seguro complementario de salud, incluyendo dental, catastrófico y vida.
  • Amplias posibilidades para aprender del rubro de inversiones.
  • Incentivo al ahorro previsional voluntario (APV).
  • Buena relación vida/trabajo.
Si vienes a la oficina:
  • Vestimenta casual
  • Estacionamiento para bicicletas
  • Y un buen café!

Life insurance RiskAmerica pays or copays life insurance for employees.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage RiskAmerica pays or copays health insurance for employees.
Dental insurance RiskAmerica pays or copays dental insurance for employees.
Computer provided RiskAmerica provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Beverages and snacks RiskAmerica offers beverages and snacks for free consumption.
APPLY VIA WEB
$$$ Full time
DevOps Junior
  • Caligrafix
DevOps Virtualization Docker Amazon Web Services

Caligrafix es la editorial de material educativo favorita de miles de niñ@s, profesores y padres. Nuestros proyectos se centran en crear y distribuir contenido de alta calidad que apoye el aprendizaje y desarrollo de los más jóvenes. Buscamos un DevOps Junior que se una a nuestro comprometido y apasionado equipo, ayudando a gestionar nuestros servidores y optimizar el rendimiento de nuestras aplicaciones.

Funciones principales:

  • Infraestructura: Administrar y mantener los servidores Linux, tanto físicos como en la nube (AWS), así como la infraestructura de red incluyendo la configuración de routers, switches y firewalls.
  • Seguridad: Garantizar la seguridad de la información y la disponibilidad de los sistemas mediante la implementación de medidas de seguridad y planes de contingencia.
  • Disponibilidad y Recuperación: Gestionar los respaldos y la recuperación de datos, asegurando la integridad y continuidad del negocio.
  • Despliegue y Automatización: Automatizar los procesos de despliegue de aplicaciones utilizando herramientas como Docker y Kubernetes.
  • Rendimiento y Monitoreo: Monitorear el rendimiento de las aplicaciones e identificar y resolver problemas de forma proactiva, colaborando con el equipo de desarrollo para optimizar la infraestructura.
  • Mejora Continua: Investigar y mantenerse al día en nuevas tecnologías y tendencias en administración de sistemas y DevOps, documentando la infraestructura y procesos.
  • Soporte técnico a usuarios internos: Brindar soporte técnico a colaboradores de forma remota o in situ, resolver incidentes de hardware y software, asegurar la satisfacción de los usuarios y gestionar el inventario de equipos.

Descripción del puesto:

Estamos buscando una persona con sólidos conocimientos en administración de sistemas Linux, redes y seguridad informática. Es esencial tener familiaridad con cloud computing, preferentemente AWS, y dominar herramientas de virtualización y contenerización como Docker y Kubernetes. Buscamos a alguien con excelentes habilidades analíticas, capacidad de resolución de problemas y fuertes habilidades de comunicación oral y escrita. La persona ideal debe ser orientada al detalle, tener pasión por el aprendizaje continuo y la capacidad de trabajar de forma independiente o como parte de un equipo.

Habilidades y experiencia deseables:

Se valorará experiencia en automatización y CI/CD, así como conocimientos adicionales en nuevas tecnologías relacionadas con la administración de sistemas. Un enfoque proactivo en la investigación de nuevas tendencias en el campo de DevOps también es altamente apreciado.

Beneficios adicionales:

Ofrecemos un paquete de beneficios atractivo que incluye: bono de escolaridad, una semana adicional de vacaciones anuales, seguro complementario de vida, salud y dental, 4 días administrativos al año, bono por recién nacido, aguinaldo, y descuentos en productos de la empresa. La jornada laboral es de 40 horas semanales, de lunes a viernes, de 10:00 a 19:00 hrs, con modalidad remota y posibilidad de asistir a la oficina si es necesario. ¡Te esperamos para ser parte de nuestro equipo!

Life insurance Caligrafix pays or copays life insurance for employees.
Health coverage Caligrafix pays or copays health insurance for employees.
Dental insurance Caligrafix pays or copays dental insurance for employees.
Informal dress code No dress code is enforced.
Shopping discounts Caligrafix provides some discounts or deals in certain stores.
Vacation over legal Caligrafix gives you paid vacations over the legal minimum.
APPLY VIA WEB
$$$ Full time
DevOps Engineer II
  • ZeroFox
  • Santiago (Hybrid)
DevOps Virtualization Docker Amazon Web Services

Opportunity Overview

At ZeroFox, we are passionate about bringing world-class protection to the digital-first world. Together, we have built a system capable of collecting and analyzing data from all over the internet, creating a paradigm-shifting cybersecurity product that helps secure and protect our customers and improves the global threat landscape.

We are a team of software engineers, cybersecurity experts, and data scientists who continue to develop unparalleled solutions for the cyber security industry by providing the best Digital Risk Protection SaaS in the global market. Our company, services, and user base are growing faster than ever and we’d like you to help us innovate. We believe the greatest solutions in the Digital Risk Protection space come from composing teams with varied backgrounds and experiences that can use their complementary skill sets to come up with the best market-defining solutions.

Role and responsibilities

  • Collaborate with product teams and software engineers across security, machine learning, digital risk protection, and cyber threat intelligence to develop the next generation of solutions for the ZeroFox platform
  • Gain in-depth knowledge of our microservices architecture and stack; leverage this knowledge to improve system stability, performance, scalability, and security
  • Own and maintain multiple components of our DevOps infrastructure, including CI/CD pipelines, monitoring solutions, and container orchestration platforms, with a focus on embedding security controls and checks
  • Begin to take on a leadership role within projects, guiding best practices around deployment automation, infrastructure as code, and secure configuration management
  • Research, evaluate, and implement new tooling or capabilities to ensure our systems meet or exceed production security requirements (e.g., scanning, patching, vulnerability management)
  • Coordinate with security stakeholders to review engineering milestones and third-party systems for compliance with security standards

Required qualifications and skills

  • Motivated, communicative, teamwork-oriented professionals comfortable working in agile environments
  • Bachelor’s degree in computer science or a related field, OR equivalent education or experience
  • DevOps experience, typically obtained in 3+ years
  • Good understanding of the software development lifecycle, automation, and CI/CD practices
  • Familiarity with cloud services like AWS for building and scaling web architecture, including basic security considerations and standards
  • Experience working with containerization and orchestration technologies such as Docker, Nomad, or Kubernetes
  • Ability to write and maintain infrastructure as code (e.g., Terraform or AWS CloudFormation), integrating security into IaC workflows
  • Good communication, collaboration, and presentation skills in English
  • Ability to work effectively in a fast-paced, agile environment

Desirable skills

  • Proficiency in scripting languages such as Python, Go, or a similar language
  • Experience troubleshooting networking issues in a cloud environment, including basic network security principles
  • Familiarity with monitoring and alerting tools (e.g., Prometheus, Grafana, Datadog)
  • Solid knowledge of infrastructure best practices, security considerations, and automation tools
  • Understanding of or exposure to security scanning tools (e.g., SAST, DAST, or container image scanners)
  • We also value equivalent experience to these languages and frameworks. If you think you might be a fit, apply!

Benefits

  • Opportunities to learn and contribute your knowledge to our Digital Risk Protection platform
  • Competitive compensation
  • Competitive PTO
  • Complementary health insurance
  • Daily catered lunches for in-office work
  • Respectful and nourishing work environment, where every opinion is heard and everyone is encouraged to be an active part of the organizational culture.
  • Regular team bonding activities like cooking and cocktails classes, bingos, stand up comedy, magic shows, virtual happy hour, lunch and learns, etc.
  • Additional Parental Leave
  • Excellent communication: between teams, people, organizations and leaders

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance ZeroFox pays or copays life insurance for employees.
Meals provided ZeroFox provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage ZeroFox pays or copays health insurance for employees.
Dental insurance ZeroFox pays or copays dental insurance for employees.
Computer provided ZeroFox provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal ZeroFox gives you paid vacations over the legal minimum.
Beverages and snacks ZeroFox offers beverages and snacks for free consumption.
Parental leave over legal ZeroFox offers paid parental leave over the legal minimum.
APPLY VIA WEB
$$$ Full time
Ingeniero Cloud / Sector Bancario
  • Devsu
  • Quito (In-office)
DevOps Virtualization Docker Azure

Con más de 10 años de experiencia, en Devsu te encontrarás trabajando con los mejores profesionales de los que podrás aprender constantemente y participar en proyectos emocionantes y desafiantes para clientes globales. Nuestro equipo trabaja desde más de 18 países del mundo en diversos productos de software y áreas de trabajo.

Tendrás la oportunidad de estar en un ambiente multicultural y con una estructura horizontal, en donde el trabajo en equipo y aprendizaje continuo serán elementos muy presentes.

Estamos en la búsqueda de un Ingeniero Cloud para unirse a nuestro equipo dinámico y altamente calificado. Este rol es crucial para el diseño, implementación y gestión de soluciones en la nube para nuestros clientes en el sector financiero/bancario. Esta posición es presencial en la ciudad de Quito, Ecuador.

Tu trabajo se centrará en asegurar que nuestras arquitecturas en la nube sean robustas, escalables y seguras.

Funciones del cargo

  • Configura, despliega y soporta la infraestructura en la nube, asegurando que se ajuste a las especificaciones de diseño.
  • Utiliza herramientas de automatización y scripts para la creación y gestión de la infraestructura.
  • Trabaja estrechamente con el equipo de DevOps para integrar pipelines de CI/CD que permitan una entrega más ágil de la infraestructura.
  • Implementa políticas y soluciones de seguridad para proteger los datos y recursos en la nube. También supervisa el cumplimiento de normativas y mejores prácticas de seguridad.
  • Mantiene documentación clara y detallada sobre la arquitectura, configuraciones y procesos para facilitar su comprensión y mantenimiento.
  • Colabora en la creación de arquitecturas de referencia que incluyan servicios de almacenamiento, redes, bases de datos, computación entre otros

Requerimientos del cargo

  • Experiencia de 3+ años trabajando con arquitecturas en la nube (preferiblemente AWS o Azure).
  • Experiencia Plataformas Cloud: Familiaridad con AWS, Azure, Google Cloud, etc.
  • Servicios Cloud: Comprensión de IaaS, PaaS y SaaS.
  • Familiaridad con herramientas de automatización y scripts (por ejemplo, Terraform, CloudFormation, Azure ARM).
  • Comprensión de las mejores prácticas de seguridad y compliance.
  • Conocimiento en redes virtuales, VPNs y conectividad entre nubes.
  • Experiencia en herramientas de integración y entrega continua (Azure DevOps).
  • Comprensión de contenedores y orquestación (Docker, Kubernetes).
  • Experiencia en el uso de herramientas de monitoreo y gestión de entornos cloud como CloudWatch (AWS), Azure Monitor, o Stackdriver (GCP).
  • Experiencia de al menos un año con empresas del sector financiero.

Deseable:

  • Certificaciones de proveedores de nube (AWS Certified Solutions Architect, Azure Administrator, etc.).

Condiciones

Un contrato estable a largo plazo. Entrenamiento contínuo. Seguro de Salud Privado. Trabajarás con algunos de los ingenieros de software más talentosos de América Latina y los EEUU, haciendo un trabajo desafiante y software de clase mundial.

Wellness program Devsu offers or subsidies mental and/or physical health activities.
Internal talks Devsu offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Digital library Access to digital books or subscriptions.
Health coverage Devsu pays or copays health insurance for employees.
Computer provided Devsu provides a computer for your work.
Education stipend Devsu covers some educational expenses related to the position.
Personal coaching Devsu offers counseling or personal coaching to employees.
APPLY VIA WEB
$$$ Full time
Senior Azure DevOps Engineer
  • Devsu
C# DevOps C Python

Devsu, with over 10 years of experience driving innovation for companies, offers the opportunity to work with top professionals on challenging projects for global clients. We are currently looking for a Senior DevOps Engineer for a leading provider of retail workforce management and performance solutions. This role is critical in designing and maintaining scalable, secure cloud infrastructure on Azure, using Kubernetes, CI/CD, and IaC with Terraform. The position requires close collaboration with development, QA, and operations teams to streamline deployment processes, enhance automation, and improve system performance.

Responsibilities:

  • Design, deploy, and maintain Azure-based infrastructure solutions.
  • Manage and optimize virtual machines, storage accounts, and networking resources.
  • Implement and manage infrastructure using Terraform
  • Maintain version control for IaC templates using Git and Azure DevOps.
  • Build and maintain CI/CD pipelines using Azure DevOps.
  • Automate application builds, testing, and deployment processes.
  • Develop and deploy containerized applications using Docker.
  • Implement and manage Kubernetes clusters for application orchestration and scaling.
  • Configure and troubleshoot network components, including VNETs, subnets, firewalls, and load balancers.
  • Develop utilities and tools using OOP language such as Python, Java, C#.
  • Use tools such as Azure Monitor, Log Analytics, or other third-party solutions for observability.
  • Collaborate with development, QA, and operations teams to ensure seamless integration and delivery of services.
  • Troubleshoot issues, maintain issues log to document findings and resolution.
  • Provide support and guide other DevOps team members to build a skilled DevOps team, reduce errors, and contribute to a culture of continuous learning.

Requirements:

  • Bachelor’s degree in computer science, engineering, or a related field, or equivalent work experience.
  • Proven experience in Azure cloud services and infrastructure management.
  • Hands-on experience with container technologies (Docker) and orchestration tools (Kubernetes).
  • Expertise in CI/CD pipelines using Azure DevOps.
  • Solid understanding of networking concepts (e.g., DNS, VPNs, load balancers, routing, and security).
  • Proficiency in OOP languages (e.g., Python, Java, C#, etc.).
  • Strong knowledge of Infrastructure as Code (IaC) using Terraform, including writing and maintaining infrastructure modules.
  • Familiarity with version control systems and Git workflows.
  • Strong problem-solving skills and the ability to work under minimal supervision.
  • Excellent communication and collaboration skills
  • Fluent in English (B2 minimum required).

Preferred Qualifications:

  • Certification in Azure (e.g., Azure DevOps Engineer Expert, Azure Administrator Associate).
  • Demonstrated experience creating reusable, modular Terraform infrastructure templates.
  • Experience with hybrid cloud environments or multi-cloud strategies.
  • Knowledge of DevSecOps practices and tools.

Benefits:

A stable, long-term contract. Continuous Training. Private Health insurance. Training bonus. Annual performance bonus. Flexible schedule. Work with some of the most talented software engineers in Latin America and the US, doing challenging work and world-class software for clients in the US and worldwide.

Wellness program Devsu offers or subsidies mental and/or physical health activities.
Fully remote You can work from anywhere in the world.
Internal talks Devsu offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Digital library Access to digital books or subscriptions.
Health coverage Devsu pays or copays health insurance for employees.
Computer provided Devsu provides a computer for your work.
Education stipend Devsu covers some educational expenses related to the position.
Personal coaching Devsu offers counseling or personal coaching to employees.
APPLY VIA WEB
Gross salary $2600 - 2800 Full time
Ingeniero DevOps
  • BC Tecnología
  • Santiago (Hybrid)
DevOps Python Virtualization Docker
En BC Tecnología, somos una consultora de TI con un enfoque claro en el cliente y metodologías ágiles. Durante los últimos 6 años hemos diseñado soluciones personalizadas para una variedad de sectores incluyendo servicios financieros, seguros, retail y gobierno. Gestionamos un portafolio diversificado, desarrollamos proyectos innovadores, y ofrecemos servicios de outsourcing y selección de profesionales. Nuestro equipo está compuesto por expertos en diferentes áreas tecnológicas, lo que nos permite formar equipos de trabajo ágiles y eficaces. Como parte de tu rol como Ingeniero DevOps, tendrás la oportunidad de postularte para ser parte en la gestión de plataformas en Oracle Cloud Infrastructure (OCI) y Microsoft Azure, contribuyendo así a la mejora continua de la infraestructura de nuestros clientes.

Responsabilidades:

  • Administrar y mantener la infraestructura de plataformas en OCI y Azure.
  • Gestionar y automatizar los procesos de implementación de sistemas.
  • Monitorear el rendimiento y la disponibilidad de las plataformas.
  • Implementar y mantener herramientas de CI/CD.
  • Colaborar con equipos de desarrollo para mejorar la eficiencia y la calidad de los despliegues.
  • Resolver problemas y optimizar el rendimiento de las aplicaciones y servicios.

Requisitos:

  • Experiencia comprobable en administración de plataformas en OCI y Azure.
  • Conocimientos en herramientas de automatización y CI/CD.
  • Habilidades en scripting y programación (Python, Bash, etc.).
  • Experiencia en la gestión de contenedores y orquestación (Docker, Kubernetes).
  • Conocimiento en Power Platform (deseable).
  • Capacidad para trabajar en un entorno híbrido y adaptarse a los horarios establecidos.

Deseable:

Conocimiento en Power Platform es considerado un plus, de igual forma, habilidades adicionales en herramientas existentes de orquestación y su manejo eficiente podrían ser favorables en el proceso de selección. Se aprecia una actitud proactiva y la voluntad de enfrentar y resolver problemas que surjan en un entorno dinámico.

Beneficios:

En BC Tecnología, valoramos a nuestros colaboradores y ofrecemos un entorno dinámico con oportunidades de continuo aprendizaje. Trabajarás en proyectos innovadores que ofrecen retos tecnológicos, en una modalidad híbrida que permite 4 días de trabajo remoto y 1 día en la oficina. También ofrecemos un seguro complementario de salud, acceso a Amipass y aguinaldos en fiestas patrias y Navidad.
¡Si te apasiona la tecnología y deseas unirte a un equipo altamente cualificado, esta es tu oportunidad!

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB
$$$ Full time
DevOps Engineer
  • Leniolabs_
DevOps Virtualization Docker Scrum

Leniolabs_ es una empresa internacional de desarrollo de software con una sólida presencia en Argentina, Chile, España y USA. Cobrimos un espectro diverso de clientes, mayoritariamente en San Francisco, ofreciendo soluciones innovadoras en el desarrollo de software. Nuestro enfoque se centra en trabajar codo a codo con nuestros clientes, integrando equipos y asegurando que las soluciones sean totalmente adaptadas a sus necesidades específicas.

Actualmente nos encontramos en busqueda de un DevOps Engineer para sumarse y laborar con nuestros equipos quienes se encuentran laborando en uno de los proyectos relacionados con el almacenamiento de energía a escala global.

Funciones del cargo

  • Implementar y administrar servicios AWS: S3, Lambdas, IAM, ECS, EC2, Networking, RDS.
  • Optimizar recursos en la nube para un rendimiento eficiente y seguro.
  • Implementar aplicaciones usando Docker para portabilidad y consistencia.
  • Automatizar despliegues con Terraform (IaC).
  • Gestionar permisos y roles en AWS IAM para garantizar la seguridad.
  • Aplicar mejores prácticas de seguridad para proteger infraestructura y datos.
  • Desarrollar soluciones de monitoreo y análisis en AWS.
  • Identificar y resolver problemas en sistemas productivos de forma proactiva.
  • Colaborar con equipos multidisciplinarios para alcanzar objetivos de negocio.
  • Documentar procesos y crear guías técnicas para transferencia de conocimiento.
  • (Plus) Experiencia con Node + Nest, Python, AWS Timestream, AWS Quicksight.

Requerimientos del cargo

Buscamos un profesional con al menos 5 años de experiencia como DevOps con experiencia en:

  • AWS ( S3, Lambdas, IAM, ECS, EC2, networking, RDS)
  • Docker
  • Terraform
  • Experiencia en metodologías ágiles, preferentemente Scrum.
  • Habilidades de resolución de problemas y capacidad para trabajar de forma independiente y en equipo.
  • Nivel intermedio/avanzado o avanzado de inglés es esencial para colaborar en un entorno global.

Opcionales

  • Node+Nest
  • Python
  • AWS Timestream
  • AWS Quicksight

Beneficios

  • Metlife (Chile)
  • 100% Remoto. En Buenos Aires existe un espacio para asistir dos veces por semana. En Santiago tenemos un espacio para asistir los días que se desee.
  • Posibilidad de recibir 2 bonos al año
  • 2 revisiones salariales al año
  • Clases de inglés
  • Equipamiento Apple
  • Cursos UDEMY
  • Budget para compra de libros
  • Budget para compra de materiales de trabajo

APPLY VIA WEB
Gross salary $2000 - 3000 Full time
Experto en Infraestructura AWS &Amp; CI/CD
  • OlaClick
Git Linux Docker CI/CD
OlaClick es una innovadora plataforma digital enfocada en la gestión y digitalización de restaurantes en América Latina, con presencia en más de 20 países y más de 20,000 clientes activos. OlaClick ofrece menús digitales interactivos, herramientas integradas de pago y campañas automatizadas para que los restaurantes puedan comenzar a vender en línea rápidamente, sin necesidad de conocimientos técnicos ni comisiones ocultas. El proyecto se centra en automatizar la gestión de pedidos y aumentar significativamente el volumen de ventas, transformando la experiencia operativa y comercial de los establecimientos gastronómicos.

¿Qué harás en OlaClick?

Como Experto en Infraestructura AWS e Integración Continua, tu principal objetivo será diseñar, mantener y optimizar la infraestructura cloud sobre AWS, asegurando alta disponibilidad, seguridad y rendimiento óptimo de los sistemas backend de OlaClick. Gestionarás pipelines de CI/CD que permitan acelerar la entrega continua con calidad, así como la automatización de tareas operativas para los entornos de staging y producción. Colaborarás estrechamente con otros ingenieros y equipos de producto en un entorno de trabajo ágil, aplicando metodologías modernas para garantizar despliegues eficientes y la estabilidad de la plataforma.
  • Diseñar y mantener la infraestructura cloud en AWS.
  • Implementar pipelines de integración y despliegue continuo (CI/CD) para optimizar la velocidad y calidad de entrega.
  • Monitorear, analizar y optimizar el rendimiento, la disponibilidad y la seguridad de los sistemas backend.
  • Automatizar la gestión operativa de entornos staging y producción.
  • Colaborar con los equipos de ingeniería y producto para asegurar alineación y éxito en entregables.

¿Qué esperamos de ti?

Buscamos un profesional con mínimo 3 años de experiencia sólida y comprobable en AWS, habiendo trabajado con servicios como EC2, RDS, S3, Lambda y API Gateway. Es fundamental contar con dominio en herramientas de integración y despliegue continuo, especialmente GitLab CI, que permitan construir pipelines robustos y eficientes. Se requiere conocimiento profundo en sistemas Linux, incluyendo scripting para automatización, manejo de contenedores con Docker y control de versiones usando Git.
Además, es deseable experiencia en Infrastructure as Code (IaC), preferentemente con Terraform, para facilitar la reproducibilidad y escalabilidad de la infraestructura. La habilidad para diagnosticar y resolver problemas complejos es fundamental, junto con una comunicación efectiva para colaborar dentro de equipos multifuncionales y dinámicos. La experiencia en ambientes altamente transaccionales y la orientación al detalle completan el perfil técnico ideal.
Se valorarán especialmente las certificaciones oficiales de AWS, conocimientos en herramientas de monitoreo como Grafana y experiencia previa en startups o entornos con altos volúmenes de tráfico.

✔️Puntos a favor

Contar con certificaciones oficiales AWS que certifiquen tu conocimiento avanzado en sus servicios y buenas prácticas en la nube será un gran diferencial. También valoramos la experiencia implementando soluciones de monitoreo y observabilidad con Grafana para mantener un control riguroso sobre la salud y desempeño de los sistemas. Haber trabajado en entornos altamente transaccionales y dinámicos demuestra tu capacidad para manejar infraestructuras críticas con cargas variables y elevados niveles de concurrencia.

🚀¿Qué te ofrecemos?

En OlaClick ofrecemos una relación laboral estable con una modalidad de trabajo 100% remota, que te permite desempeñarte desde cualquier país de América Latina o Brasil. Nuestra cultura se caracteriza por un ambiente laboral positivo, retador y colaborativo, compuesto por un equipo talentoso y con buena disposición para compartir conocimiento y crecer juntos.
Adicionalmente, facilitamos clases de idiomas gratuitas (inglés o portugués) dos veces por semana a través de Políglota.org para tu desarrollo personal y profesional. Dispondrás de un día libre por tu cumpleaños y un día off extra cada trimestre trabajado, fomentando el equilibrio entre vida laboral y personal. También promovemos capacitaciones continuas tanto en el área técnica como en habilidades blandas, brindándote oportunidades reales de crecimiento dentro de una startup global en expansión.

APPLY VIA WEB
$$$ Full time
DevOps
  • TIMINING
  • Santiago (Hybrid)
Python Go Docker Kubernetes

En Timining nos apasiona resolver problemas complejos y generar impacto real en la minería. Desarrollamos soluciones tecnológicas que integran ciencia de datos, geología, planificación minera y diseño estratégico para transformar cómo se toman decisiones en la gran minería: más informadas, eficientes y sustentables.

Nuestra cultura y valores, combina conocimiento técnico, colaboración, aprendizaje continuo y compromiso con la innovación.

Creemos en una minería mejor, y estamos construyéndola con tecnología.

Funciones del cargo

Buscamos un DevOps Engineer que promueva una cultura DevOps de colaboración, automatización y mejora continua, y que cuente con experiencia en automatización de infraestructura, monitoreo, integración y despliegue continuo, y administración de plataformas.

El candidato ideal actuará como un puente entre los equipos de desarrollo y operaciones, facilitando la comunicación y la eficiencia en el flujo de trabajo. Por lo que debe comprender los flujos de desarrollo y despliegue, además de las herramientas de monitoreo, con el fin de garantizar la confiabilidad y escalabilidad de los sistemas en un entorno minero.

1. Monitoreo y observabilidad: Implementar y mantener sistemas de monitoreo y alertas utilizando el stack tecnológico de Prometheus, Grafana y herramientas relacionadas.
2. CI/CD: Diseñar, optimizar y mantener pipelines de integración y despliegue continuo mediante GitHub Actions, para componentes en diversos lenguajes y tecnologías.
3. Colaboración y soporte: Trabajar junto a desarrolladores y operación para facilitar despliegues, troubleshooting, y garantizar el uptime de los servicios, participando activamente con los equipos y sesiones de resolución de problemas para facilitar despliegues y garantizar el uptime de los servicios.
4. Garantizar la calidad del software: Certificar que el software cumple con los requisitos del usuario final y asegurar su correcto funcionamiento en distintas plataformas.
5. Mejora continua y actualización: Optimizar estrategias de prueba, promover prácticas DevOps a los diversos equipos de la organización y mantenerse al día con tendencias del sector.

Requerimientos del cargo

1. | Programación en Go o Python para scripting y automatización
2. | Conocimientos de redes y protocolos
3. | CI/CD con GitHub Actions
4 | Gestión de contenedores (Docker) y orquestador de servicio (Kubernetes o Nomad)
5 | Observabilidad con Prometheus y Grafana

Opcionales

Consul para configuración y descubrimiento de servicios
Seguridad en pipelines y despliegues
Experiencia en entornos de alta disponibilidad

Traefik como proxy inverso
Capacidad analítica en traza de errores

Conditions

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage TIMINING pays or copays health insurance for employees.
Computer provided TIMINING provides a computer for your work.
Informal dress code No dress code is enforced.
APPLY VIA WEB
Gross salary $1800 - 2000 Full time
QA Engineer
  • getxerpa

En getxerpa trabajamos para transformar el sector financiero en América Latina, ayudando a bancos e instituciones financieras a modernizar su propuesta digital y fortalecer su vinculación con los clientes mediante el uso de herramientas que promueven la salud financiera y la personalización basada en datos. Nuestra plataforma está diseñada para entregar experiencias digitales mejores y más rápidas, a través de soluciones integrables que apoyan a los usuarios a alcanzar sus metas financieras mientras incrementan la interacción con productos y canales bancarios.

Con presencia en México, Ecuador, Colombia y Chile, colaboramos con grandes actores como Santander, Banco del Pacífico, Scotiabank y Sura, contando actualmente con más de 700 mil usuarios activos que han logrado ahorrar más de USD 1 billón gracias a nuestras herramientas innovadoras y adaptadas a las necesidades regionales.

Responsabilidades del puesto

El/La QA Engineer será responsable de garantizar la calidad y el correcto funcionamiento de las soluciones digitales que ofrecemos a nuestros clientes en el sector financiero.

  • Colaborar con el equipo de desarrollo para identificar los requisitos de prueba, diseñar y crear casos de prueba exhaustivos.
  • Identificar la data clave para poder probar la funcionalidad esperada.
  • Detectar riesgos y dependencias de los requerimientos.
  • Generar Plan de pruebas, Matriz de Escenarios y Casos de Prueba que garanticen la funcionalidad de la solución.
  • Definir la estrategia de pruebas y asegurar la cobertura adecuada de pruebas funcionales, de regresión y de rendimiento.
  • Realizar pruebas automatizadas o manuales de acuerdo al plan y las necesidades del desarrollo.
  • Realizar diversos tipos de pruebas, incluidas pruebas funcionales, de integración, intromisión. regresión y de rendimiento, para garantizar la calidad y estabilidad de nuestras soluciones de identidad.
  • Identificar y gestionar riesgos asociados a la calidad del software y presentar informes de progreso.
  • Colaborar con equipos de desarrollo, Product Owners y otros interesados para alinear los objetivos de calidad con los requisitos del negocio.
  • Realizar análisis de resultados de pruebas y preparar informes detallados sobre la calidad del software, destacando defectos y sugerencias de mejoras.
  • Mantenerse actualizado con las últimas herramientas, tendencias y mejores prácticas de la industria en pruebas automatizadas y aseguramiento de calidad.
  • Conocer el valor que aporta al negocio la funcionalidad que se dará con la solución que se requiere.
  • Dar seguimiento a la liberación en producción, así como a los criterios mínimos de aceptación para poder comenzar con la ejecución de los casos de prueba previstos.

Requisitos y habilidades necesarias

Buscamos profesionales con experiencia comprobable en aseguramiento de calidad para plataformas digitales, preferentemente en entornos fintech o productos digitales orientados al consumidor financiero. Es fundamental contar con fuertes conocimientos técnicos y una mentalidad proactiva para identificar y resolver problemas de manera ágil.

Los requisitos clave incluyen:

  • +2 años Banco o fintech o grandes volúmenes de datos
  • +3 años experiencia QA Engineer
  • +3 años metodologías ágiles
  • +3 años CI/CD
  • Experiencia utilizando herramientas de IA para procesos de testing

Tech

  • +2 años Cypress, Selenium o Playwright o similar (automatización)
  • +2 años CircleCI, Jenkins, GitHub Actions o similar (integración)
  • +2 años Jest, Mocha, Karma o similar (unitarias)
  • +2 años REST Assured, Postman o Supertest o similar (API’s)
  • +2 años Github
  • +2 años AWS
  • +2 años Docker
  • +2 años SQL (Postgres)

Skills

  • Análisis y diseño de requerimientos
  • Ingeniería de Software
  • Arquitectura de Software
  • Arquitectura de componentes en la Nube
  • Patrones de Diseño
  • Seguridad Informática
  • Autonomía - autodidacta
  • Análisis y resolución de problemas
  • Trabajo por objetivos
  • Trabajo en equipo
  • Pensamiento crítico

Se valorarán también habilidades blandas como trabajo en equipo, adaptabilidad a ambientes dinámicos, y enfoque en resultados orientados al cliente final.

Competencias y conocimientos adicionales deseables

Serán altamente valorados aquellos candidatos/as que cuenten con experiencia previa en proyectos fintech o bancarios, así como conocimiento de normativas de seguridad y privacidad en el sector financiero. También recomendamos tener familiaridad con:

    • Excelentes habilidades de organización y comunicación.
    • Experiencia en proyectos complejos.
    • +2 años experiencia Javascript, Python, .NET como BackEnd Developer.
    • +2 años experiencia en programación orientada a objetos, patrones de programación asíncronos
    • +1 año Lighthouse, QebPageTest, Sitespeed.io (rendimiento)
    • +1 año OWASP ZAP, Burp suite o similar (seguridad)

Beneficios y cultura laboral

  • 🧑🏽‍💻 Modalidad de trabajo 100% remoto
  • 🌎 Oportunidad de integrarte a un equipo multicultural e innovador.
  • 🏝️ Días xerpa adicionales a los días normales de vacaciones para un mejor balance vida-personal.
  • 💸 Bono de vacaciones por tomar 10 días hábiles consecutivos.
  • 🎂 Medio día libre en tu cumpleaños para celebrar contigo mismo.
  • 🕰️ Flexibilidad horaria para una gestión óptima de tu tiempo laboral.
  • 🤸🏽‍♀️ Trabajo bajo metodologías ágiles con equipos multidisciplinarios que fomentan la colaboración y el aprendizaje continuo.
  • 💻 Bono mensual para mejorar tu espacio de home office y llevar tu lugar de trabajo a otro nivel.
  • ✈️ Viaje Offsite anual para fortalecer vínculos y motivación de equipo.
  • Muchos otros beneficios que revelaremos al conocernos personalmente.

APPLY VIA WEB
$$$ Full time
DevOps Engineer con Conocimientos en Back-end y AWS
  • coderslab.io
En CodersLab es una empresa dedicada al desarrollo de soluciones para empresas y actualmente estamos enfocados en el crecimiento global de nuestros equipos con el objetivo de posicionar nuestros productos en más países de Latinoamérica. Por esta razón, estamos buscando un DevOps Engineer con conocimientos en Backend y AWS

Te sumarás a un equipo desafiante y ambicioso con ganas de innovar en el mercado, haciendo que tus propuestas sean altamente valiosas para el negocio.
¡Aplica ahora para este increíble reto!

Funciones del cargo

  • Diseñar, implementar y mantener pipelines CI/CD para aplicaciones backend.
  • Automatizar despliegues y configuraciones en entornos AWS (EC2, Lambda, ECS, EKS, S3, RDS, etc.).
  • Gestionar infraestructura como código usando herramientas como Terraform, CloudFormation o similares.
  • Monitorizar y optimizar el rendimiento de sistemas y aplicaciones.
  • Colaborar con desarrolladores backend para integrar y mejorar procesos de desarrollo y despliegue.
  • Implementar prácticas de seguridad en la infraestructura y aplicaciones.
  • Gestionar la escalabilidad, alta disponibilidad y recuperación ante desastres.
  • Documentar procesos y arquitecturas implementadas.

Requerimientos del cargo

  • Experiencia mínima de 2 años como DevOps Engineer o en roles similares.
  • Conocimientos sólidos en AWS y sus servicios principales.
  • Experiencia en desarrollo backend con lenguajes como Python, Node.js, Java o Go.
  • Dominio de herramientas CI/CD (Jenkins, GitLab CI, GitHub Actions, etc.).
  • Conocimientos en infraestructura como código (Terraform, CloudFormation).
  • Experiencia con contenedores y orquestadores (Docker, Kubernetes).
  • Familiaridad con monitoreo y logging (Prometheus, Grafana, ELK, CloudWatch).
  • Buenas prácticas de seguridad en la nube.
  • Capacidad para trabajar en equipo y comunicar efectivamente.
Deseables:
  • Certificaciones AWS (AWS Certified DevOps Engineer, AWS Solutions Architect).
  • Experiencia con microservicios y arquitecturas serverless.
  • Conocimiento en bases de datos SQL y NoSQL.
  • Experiencia en metodologías ágiles.

APPLY VIA WEB
$$$ Full time
DevOps Engineer II
  • ZeroFox
  • Santiago (Hybrid)
Python Agile Go DevOps

Opportunity Overview

At ZeroFox, we are passionate about bringing world-class protection to the digital-first world. Together, we have built a system capable of collecting and analyzing data from all over the internet, creating a paradigm-shifting cybersecurity product that helps secure and protect our customers and improves the global threat landscape.

We are a team of software engineers, cybersecurity experts, and data scientists who continue to develop unparalleled solutions for the cyber security industry by providing the best Digital Risk Protection SaaS in the global market. Our company, services, and user base are growing faster than ever and we’d like you to help us innovate. We believe the greatest solutions in the Digital Risk Protection space come from composing teams with varied backgrounds and experiences that can use their complementary skill sets to come up with the best market-defining solutions.

Role and responsibilities

  • Collaborate with product teams and software engineers across security, machine learning, digital risk protection, and cyber threat intelligence to develop the next generation of solutions for the ZeroFox platform
  • Gain in-depth knowledge of our microservices architecture and stack; leverage this knowledge to improve system stability, performance, scalability, and security
  • Own and maintain multiple components of our DevOps infrastructure, including CI/CD pipelines, monitoring solutions, and container orchestration platforms, with a focus on embedding security controls and checks
  • Begin to take on a leadership role within projects, guiding best practices around deployment automation, infrastructure as code, and secure configuration management
  • Research, evaluate, and implement new tooling or capabilities to ensure our systems meet or exceed production security requirements (e.g., scanning, patching, vulnerability management)
  • Coordinate with security stakeholders to review engineering milestones and third-party systems for compliance with security standards

Required qualifications and skills

  • Motivated, communicative, teamwork-oriented professionals comfortable working in agile environments
  • Bachelor’s degree in computer science or a related field, OR equivalent education or experience
  • DevOps experience, typically obtained in 3+ years
  • Good understanding of the software development lifecycle, automation, and CI/CD practices
  • Familiarity with cloud services like AWS for building and scaling web architecture, including basic security considerations and standards
  • Experience working with containerization and orchestration technologies such as Docker, Nomad, or Kubernetes
  • Ability to write and maintain infrastructure as code (e.g., Terraform or AWS CloudFormation), integrating security into IaC workflows
  • Good communication, collaboration, and presentation skills in English
  • Ability to work effectively in a fast-paced, agile environment

Desirable skills

  • Proficiency in scripting languages such as Python, Go, or a similar language
  • Experience troubleshooting networking issues in a cloud environment, including basic network security principles
  • Familiarity with monitoring and alerting tools (e.g., Prometheus, Grafana, Datadog)
  • Solid knowledge of infrastructure best practices, security considerations, and automation tools
  • Understanding of or exposure to security scanning tools (e.g., SAST, DAST, or container image scanners)
  • We also value equivalent experience to these languages and frameworks. If you think you might be a fit, apply!

Benefits

  • Opportunities to learn and contribute your knowledge to our Digital Risk Protection platform
  • Competitive compensation
  • Competitive PTO
  • Complementary health insurance
  • Daily catered lunches for in-office work
  • Respectful and nourishing work environment, where every opinion is heard and everyone is encouraged to be an active part of the organizational culture.
  • Regular team bonding activities like cooking and cocktails classes, bingos, stand up comedy, magic shows, virtual happy hour, lunch and learns, etc.
  • Additional Parental Leave
  • Excellent communication: between teams, people, organizations and leaders

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance ZeroFox pays or copays life insurance for employees.
Meals provided ZeroFox provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage ZeroFox pays or copays health insurance for employees.
Dental insurance ZeroFox pays or copays dental insurance for employees.
Computer provided ZeroFox provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal ZeroFox gives you paid vacations over the legal minimum.
Beverages and snacks ZeroFox offers beverages and snacks for free consumption.
Parental leave over legal ZeroFox offers paid parental leave over the legal minimum.
APPLY VIA WEB
$$$ Full time
Ingeniero Cloud / Sector Bancario
  • Devsu
  • Quito (In-office)
DevOps Virtualization Amazon Web Services Docker

Con más de 10 años de experiencia, en Devsu te encontrarás trabajando con los mejores profesionales de los que podrás aprender constantemente y participar en proyectos emocionantes y desafiantes para clientes globales. Nuestro equipo trabaja desde más de 18 países del mundo en diversos productos de software y áreas de trabajo.

Tendrás la oportunidad de estar en un ambiente multicultural y con una estructura horizontal, en donde el trabajo en equipo y aprendizaje continuo serán elementos muy presentes.

Estamos en la búsqueda de un Ingeniero Cloud para unirse a nuestro equipo dinámico y altamente calificado. Este rol es crucial para el diseño, implementación y gestión de soluciones en la nube para nuestros clientes en el sector financiero/bancario. Esta posición es presencial en la ciudad de Quito, Ecuador.

Tu trabajo se centrará en asegurar que nuestras arquitecturas en la nube sean robustas, escalables y seguras.

Funciones del cargo

  • Configura, despliega y soporta la infraestructura en la nube, asegurando que se ajuste a las especificaciones de diseño.
  • Utiliza herramientas de automatización y scripts para la creación y gestión de la infraestructura.
  • Trabaja estrechamente con el equipo de DevOps para integrar pipelines de CI/CD que permitan una entrega más ágil de la infraestructura.
  • Implementa políticas y soluciones de seguridad para proteger los datos y recursos en la nube. También supervisa el cumplimiento de normativas y mejores prácticas de seguridad.
  • Mantiene documentación clara y detallada sobre la arquitectura, configuraciones y procesos para facilitar su comprensión y mantenimiento.
  • Colabora en la creación de arquitecturas de referencia que incluyan servicios de almacenamiento, redes, bases de datos, computación entre otros

Requerimientos del cargo

  • Experiencia de 3+ años trabajando con arquitecturas en la nube (preferiblemente AWS o Azure).
  • Experiencia Plataformas Cloud: Familiaridad con AWS, Azure, Google Cloud, etc.
  • Servicios Cloud: Comprensión de IaaS, PaaS y SaaS.
  • Familiaridad con herramientas de automatización y scripts (por ejemplo, Terraform, CloudFormation, Azure ARM).
  • Comprensión de las mejores prácticas de seguridad y compliance.
  • Conocimiento en redes virtuales, VPNs y conectividad entre nubes.
  • Experiencia en herramientas de integración y entrega continua (Azure DevOps).
  • Comprensión de contenedores y orquestación (Docker, Kubernetes).
  • Experiencia en el uso de herramientas de monitoreo y gestión de entornos cloud como CloudWatch (AWS), Azure Monitor, o Stackdriver (GCP).
  • Experiencia de al menos un año con empresas del sector financiero.

Deseable:

  • Certificaciones de proveedores de nube (AWS Certified Solutions Architect, Azure Administrator, etc.).

Condiciones

Un contrato estable a largo plazo. Entrenamiento contínuo. Seguro de Salud Privado. Trabajarás con algunos de los ingenieros de software más talentosos de América Latina y los EEUU, haciendo un trabajo desafiante y software de clase mundial.

Wellness program Devsu offers or subsidies mental and/or physical health activities.
Internal talks Devsu offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Digital library Access to digital books or subscriptions.
Health coverage Devsu pays or copays health insurance for employees.
Computer provided Devsu provides a computer for your work.
Education stipend Devsu covers some educational expenses related to the position.
Personal coaching Devsu offers counseling or personal coaching to employees.
APPLY VIA WEB
Gross salary $4000 - 5500 Full time
DevOps Data Engineer (Azure & Databricks)
  • Zaelot
Python SQL DevOps Docker

At Zaelot, we pride ourselves on developing scalable solutions for enterprise-grade clients. As a DevOps Data Engineer, you will play a crucial role in maintaining robust, secure, and scalable data pipelines within the Azure cloud ecosystem.
We thrive on collaboration amongst our analysts, designers, and software engineers to not only meet our client needs but to pioneer innovative strategies that set us apart in this rapidly changing technology landscape.

Key Responsibilities:

  • Collaborate with data scientists, analysts, and developers to design, build, and maintain efficient data pipelines in the Azure environment.
  • Optimize existing cloud-based data solutions to improve performance and reliability.
  • Utilize Azure Data Factory and Azure Databricks for data integration and processing.
  • Implement CI/CD practices using tools like Azure DevOps or GitHub Actions, ensuring seamless deployments.
  • Develop scripts in Python and SQL for automation and data manipulation.
  • Engage in troubleshooting and problem-solving to enhance system efficiency.

Required Skills and Experience:

  • 4+ years of experience as a Data Engineer or DevOps Engineer, demonstrating practical knowledge and expertise.
  • Hands-on proficiency with Azure Data Factory and Azure Databricks.
  • Solid understanding of Python, SQL, and automation scripting.
  • Experience with CI/CD tools like Azure DevOps or GitHub Actions.
  • Familiarity with orchestrating data workflows and creating cloud-based solutions.
  • Advanced English proficiency (both written and spoken) for effective communication with the team.
  • Strong problem-solving skills and a collaborative mindset are essential.

Desirable Skills:

  • Azure certifications such as Azure Data Engineer Associate or DevOps Engineer Expert would be advantageous.
  • Familiarity with container tools like Docker or Kubernetes.

What We Offer:

  • Paid vacations for 20 days after one year.
  • Referrals program
  • Finder's fee
  • Training and certifications program
  • Work from home aid
  • English Classes
  • Fitness Program
  • Profit Share
  • Coaching sessions
At Zaelot, we believe in fostering a supportive and innovative work environment. We look forward to welcoming you to our talented team and achieving great things together! 🚀

Wellness program Zaelot offers or subsidies mental and/or physical health activities.
Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Zaelot offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Computer provided Zaelot provides a computer for your work.
Fitness subsidies Zaelot offers stipends for sports or fitness programs.
Performance bonus Extra compensation is offered upon meeting performance goals.
Personal coaching Zaelot offers counseling or personal coaching to employees.
APPLY VIA WEB
$$$ Full time
DevOps Engineer
  • Softserve
Python Linux DevOps Virtualization
WE ARE
SoftServe is an IT & global digital solutions company with headquarters in Austin, Texas, founded in 1993 in Ukraine. Our associates work on 2,000+ projects with clients in the USA, Europe, and APAC region. We are about people who create bold things, who make a difference, who have fun, and who love their work. In January 2022, we started our operations in Latin America. We committed to grow our local community to 3,500 associates by 2025 and invest in the market.

Funciones del cargo

AND YOU WANT TO
  • Collaborate with the LATAM DevOps Practice to contribute to cloud platforms for globally innovative companies
  • Engage in diverse private and public cloud-oriented projects of various scales
  • Participate in enterprise-scale migrations, cloud-native application development, and trending technology initiatives
  • Build, maintain, and optimize CI/CD pipelines for automated deployment and updates
  • Configure and manage scalable, secure, and high-performing cloud environments
  • Use tools like Terraform for infrastructure as code (IaC) to enhance deployment consistency and minimize manual interventions

Requerimientos del cargo

IF YOU ARE
  • Experienced with SRE/DevOps best practices
  • Proficient in AWS core IaaS and PaaS services, including IAM, VPC, Internet Gateway, NAT Gateway, ELB, RDS, EC2, S3, Security Groups, ACLs, and Routing Tables
  • Skilled in Docker, Kubernetes, and EKS
  • Adept in HELM charts and troubleshooting workloads in K8s clusters
  • Knowledgeable in Infrastructure as Code using Terraform or CloudFormation
  • Skilled in scripting languages such as Shell or Bash
  • Proficient in Linux, including administration, command-line expertise, and service debugging
  • Experienced in configuring log collectors and using observability platforms for containerized workloads

Opcionales

  • Good at maintaining existing CI/CD pipelines with tools like Jenkins, GitHub, GitLab, or CircleCI (as a plus)
  • Familiar with Python and tools like Prometheus and Grafana (would be a plus)
  • Knowledgeable in AFT Control Tower and Landing Zone (optional)

Condiciones

SoftServe is an Equal Opportunity Employer. All qualified applicants will receive consideration for employment regardless of race, color, religion, age, sex, nationality, disability, sexual orientation, gender identity and expression, veteran status, and other protected characteristics under applicable law. Let’s put your talents and experience in motion with SoftServe.

Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Softserve pays or copays health insurance for employees.
Computer provided Softserve provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Softserve gives you paid vacations over the legal minimum.
Beverages and snacks Softserve offers beverages and snacks for free consumption.
APPLY VIA WEB
Gross salary $2400 - 3000 Full time
DevOps
  • coderslab.io
  • Santiago (Hybrid)
Ruby Python Git Linux
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente nos encontramos apuntando al crecimiento de nuestros equipos de manera global con el objetivo de posicionarnos con nuestros productos en más países de Latinoamérica, es por ello que estamos en búsqueda de un DEVOPSpara sumarse a nuestro equipo.
Te sumarás a un equipo desafiante y ambicioso con ganas de renovar el mercado, por lo que tus propuestas serán de mucho valor para el negocio.
¡Postula para este tremendo desafío!

Funciones del cargo

  1. Diseño e Implementación de Infraestructura:
    • Diseñar e implementar soluciones de infraestructura que cumplan con los estándares de alta disponibilidad, escalabilidad y observabilidad.
    • Automatizar la configuración y el despliegue de los componentes de la infraestructura utilizando herramientas de Infraestructura como Código (IaC), como Terraform.
  2. Mantenimiento y Monitoreo:
    • Tomar posesión de los componentes de la infraestructura, asegurando su confiabilidad y rendimiento a través de revisiones de código y pruebas.
    • Implementar y gestionar herramientas de monitoreo y observabilidad, incluyendo ELK stack y Datadog, para garantizar la integridad y el rendimiento de los sistemas.
  3. Colaboración y Gestión de Proyectos:
    • Colaborar con otros ingenieros, partes interesadas y equipos de operaciones para comprender los requisitos comerciales y brindar soluciones técnicas efectivas.
    • Trabajar en un entorno de desarrollo ágil, utilizando herramientas como Jira y Confluence para gestionar el trabajo y realizar un seguimiento del progreso.
  4. Optimización y Mejora Continua:
    • Identificar y abordar los puntos débiles en los sistemas de la empresa a través de la automatización y la optimización.
    • Mantenerse actualizado con las tecnologías emergentes y las tendencias de la industria en el espacio DevOps/SRE para impulsar la innovación.
  5. Desarrollo y Scripting:
    • Programar en lenguajes como Python, Ruby y Bash para optimizar procesos y herramientas de infraestructura.

Requerimientos del cargo

  • Experiencia: Mínimo 3 años de experiencia como ingeniero DevOps o en roles relacionados con infraestructura cloud, incluyendo migración de infraestructura.
  • Conocimientos Técnicos:
    • Competencia en lenguajes de programación desde una perspectiva de infraestructura (Python, Ruby, Bash).
    • Familiaridad con servicios Cloud (AWS, Azure, GCP, etc.).
    • Experiencia con herramientas de monitoreo y logs, como ELK stack y Datadog.
    • Conocimiento avanzado de herramientas de infraestructura como código (IaC), específicamente Terraform.
    • Gran comprensión de los principios y prácticas de DevOps.
    • Experiencia en administración de sistemas Linux, control de versiones (Git), y tecnologías de contenedorización (Docker, Kubernetes).
  • Habilidades Personales:
    • Fuertes habilidades de comunicación y colaboración.
    • Capacidad para trabajar en un entorno ágil y adaptarse a cambios.
    • Pensamiento analítico y orientación a resultados.
    • Compromiso con la mejora continua y la innovación.

APPLY VIA WEB
Gross salary $1400 - 2000 Full time
Administrador de Sistemas
  • RiskAmerica
  • Santiago (Hybrid)
Python Linux Sysadmin Virtualization
RiskAmerica es una empresa consolidada en la industria FinTech, proveemos servicios de gestión e información a todas las empresas de inversiones de Chile. Nos caracterizamos por ser un agente de innovación y transformación digital estando siempre a la vanguardia en las tecnologías y metodologías que usamos.
Hoy en día nos encontramos en un proceso de expansión y buscamos un nuevo Administrador de Sistemas para ayudar a gestionar múltiples soluciones hospedadas en la nube de Google Cloud Platform con Kubernetes Engine.
¿Te atrae el rol de Solution Architect, Cloud Engineer, DevOps o Administrar Sistemas? Acá podrás aprender mucho de gente muy talentosa y podrás contribuir de manera significativa en toda la cadena de vida de los servicios de la empresa.

Que necesitamos de ti

  • Diseño, desarrollo, mantención y actualización de infraestructura para soluciones multi-tennant de alta disponibilidad.
  • Construir y administrar herramientas de monitoring de los servicios e infraestructura.
  • Ayudar a diseñar, mantener y probar la seguridad de la infraestructura de red y diversas plataformas.
  • Construir utilidades para apoyar las labores de los ingenieros de software del área.
  • Mejorar la cadena de Integración Continua de los servicios administrados.
  • Administrar la generación, almacenamiento y uso de respaldos de los distintos servicios.
  • Ayudar a diseñar, mantener y probar los planes de continuidad de negocio de los distintos servicios.

Que necesitamos de ti

  • Experiencia en seguridad de Redes
  • Experiencia Bash scripting.
  • Experiencia programando en Python.
  • Experiencia básica usando containers (Docker y/o Kubernetes) tanto en Build como Deploy.
  • Experiencia de al menos 1 año administrando cargas productivas de algún servicio
  • Interés y entusiasmo por aprender de nuevas tecnologías, con el fin de crear soluciones robustas y automáticas que requieran mínima mantención.
  • Versatilidad para aprender de diversas tecnologías y lenguajes para apoyar al equipo de Ingenieros de Software en sus diversas necesidades
  • Experiencia en sistemas Linux
  • Manejo de inglés leído técnico.

Sumas puntos si

  • Certificado de Solution Architect de AWS o GCP
  • Experiencia trabajando con Kubernetes
  • Experiencia trabajando sobre Google Cloud Platform (especialmente GKE, GCS y Compute)
  • Conocimientos teóricos de Kubernetes
  • Experiencia usando Ansible
  • Experiencia con Prometheus & Graphana
  • Experiencia con Bases de Datos MariaDB trabajando en esquemas master-slave o master-master
  • Experiencia implementando cadenas de integración continua (CI)

Que tenemos para ti

  • Excelente clima laboral junto a un gran equipo.
  • Seguro complementario de salud, incluyendo dental, catastrófico y vida.
  • Amplias posibilidades para aprender del rubro de inversiones.
  • Incentivo al ahorro previsional voluntario (APV).
  • Buena relación vida/trabajo.
Si vienes a la oficina:
  • Vestimenta casual
  • Estacionamiento para bicicletas
  • Y un buen café!

Life insurance RiskAmerica pays or copays life insurance for employees.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage RiskAmerica pays or copays health insurance for employees.
Dental insurance RiskAmerica pays or copays dental insurance for employees.
Computer provided RiskAmerica provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Beverages and snacks RiskAmerica offers beverages and snacks for free consumption.
APPLY VIA WEB
$$$ Full time
DevOps Lead
  • Moventi
Python Linux DevOps Virtualization

We are seeking an experienced DevOps Lead to join our team, who will be responsible for designing, implementing, and maintaining our cloud-based infrastructure on Amazon Web Services (AWS).
En este rol, tendrás la oportunidad de liderar proyectos relacionados con la innovación tecnológica, garantizando que cumplamos con los estándares más altos.

Funciones del cargo

As a DevOps Lead, you will be responsible for leading our DevOps team, ensuring the smooth operation of our cloud infrastructure, and driving the adoption of DevOps best practices across the organization.

  • Cloud Infrastructure: Design, implement, and maintain our cloud infrastructure on AWS, ensuring scalability, security, and high availability.
  • CI/CD Pipelines: Develop and maintain CI/CD pipelines using GitHub Actions, ensuring automated testing, building, and deployment of our applications.
  • Automation: Automate repetitive tasks, and implement infrastructure-as-code (IaC) using tools like Chef, CloudFormation, CDK.
  • Containerization: Implement and manage containerization using Docker, ensuring efficient and scalable deployment of our applications.
  • Security: Ensure the security and compliance of our cloud infrastructure, implementing best practices, and adhering to industry standards (e.g., HIPAA, PCI-DSS).
  • Collaboration: Work closely with cross-functional teams, including development, QA, and product, to ensure smooth operation of our applications and infrastructure.
  • Monitoring and Logging: Implement monitoring and logging tools (DataDog, CloudWatch), ensuring real-time visibility into our infrastructure and applications.
  • Troubleshooting: Identify and resolve issues, debugging complex problems, and optimizing system performance.

Requerimientos del cargo

  • Technical Skills:
  • AWS, including EC2, ECS, RDS, IAM
  • Expertise in IaC tools (preferably - AWS CDK)
  • Expertise in CI/CD pipelines using GitHub Actions
  • Proficiency in automation tools like Chef, Ansible, or Puppet
  • Experience with containerization using Docker, including Docker Compose and Docker Swarm
  • Strong understanding of security best practices, including network security, access control, and compliance
  • Strong knowledge of Python and Shell scripting
  • Familiarity with monitoring and logging tools (DataDog, AWS CloudWatch)
  • Soft Skills:
  • Excellent leadership and communication skills
  • Strong problem-solving skills, with the ability to break down complex issues into manageable parts
  • Ability to adapt to changing requirements and priorities
  • Passion for DevOps, automation, and security, with a focus on delivering high-quality solutions
  • Education
  • Bachelor's degree in Computer Science, Information Technology, or a related field
  • Experience
  • At least 5 years of experience in DevOps, with a focus on cloud infrastructure, CI/CD pipelines, and automation
  • Experience leading DevOps teams, with a proven track record of delivering high-quality solutions

Opcionales

Certifications:

  • AWS Certified DevOps Engineer - Professional
  • GitHub Actions Certified Developer
  • Chef Certified Developer
  • Docker Certified Associate

Conditions

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
APPLY VIA WEB
Gross salary $2600 - 2800 Full time
Ingeniero DevOps
  • BC Tecnología
  • Santiago (Hybrid)
Python Linux DevOps Virtualization
En BC Tecnología, somos una consultora de TI con un enfoque claro en el cliente y metodologías ágiles. Durante los últimos 6 años hemos diseñado soluciones personalizadas para una variedad de sectores incluyendo servicios financieros, seguros, retail y gobierno. Gestionamos un portafolio diversificado, desarrollamos proyectos innovadores, y ofrecemos servicios de outsourcing y selección de profesionales. Nuestro equipo está compuesto por expertos en diferentes áreas tecnológicas, lo que nos permite formar equipos de trabajo ágiles y eficaces. Como parte de tu rol como Ingeniero DevOps, tendrás la oportunidad de postularte para ser parte en la gestión de plataformas en Oracle Cloud Infrastructure (OCI) y Microsoft Azure, contribuyendo así a la mejora continua de la infraestructura de nuestros clientes.

Responsabilidades:

  • Administrar y mantener la infraestructura de plataformas en OCI y Azure.
  • Gestionar y automatizar los procesos de implementación de sistemas.
  • Monitorear el rendimiento y la disponibilidad de las plataformas.
  • Implementar y mantener herramientas de CI/CD.
  • Colaborar con equipos de desarrollo para mejorar la eficiencia y la calidad de los despliegues.
  • Resolver problemas y optimizar el rendimiento de las aplicaciones y servicios.

Requisitos:

  • Experiencia comprobable en administración de plataformas en OCI y Azure.
  • Conocimientos en herramientas de automatización y CI/CD.
  • Habilidades en scripting y programación (Python, Bash, etc.).
  • Experiencia en la gestión de contenedores y orquestación (Docker, Kubernetes).
  • Conocimiento en Power Platform (deseable).
  • Capacidad para trabajar en un entorno híbrido y adaptarse a los horarios establecidos.

Deseable:

Conocimiento en Power Platform es considerado un plus, de igual forma, habilidades adicionales en herramientas existentes de orquestación y su manejo eficiente podrían ser favorables en el proceso de selección. Se aprecia una actitud proactiva y la voluntad de enfrentar y resolver problemas que surjan en un entorno dinámico.

Beneficios:

En BC Tecnología, valoramos a nuestros colaboradores y ofrecemos un entorno dinámico con oportunidades de continuo aprendizaje. Trabajarás en proyectos innovadores que ofrecen retos tecnológicos, en una modalidad híbrida que permite 4 días de trabajo remoto y 1 día en la oficina. También ofrecemos un seguro complementario de salud, acceso a Amipass y aguinaldos en fiestas patrias y Navidad.
¡Si te apasiona la tecnología y deseas unirte a un equipo altamente cualificado, esta es tu oportunidad!

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB
$$$ Full time
DevOps Engineer
  • Leniolabs_
Python Agile DevOps Virtualization

Leniolabs_ es una empresa internacional de desarrollo de software con una sólida presencia en Argentina, Chile, España y USA. Cobrimos un espectro diverso de clientes, mayoritariamente en San Francisco, ofreciendo soluciones innovadoras en el desarrollo de software. Nuestro enfoque se centra en trabajar codo a codo con nuestros clientes, integrando equipos y asegurando que las soluciones sean totalmente adaptadas a sus necesidades específicas.

Actualmente nos encontramos en busqueda de un DevOps Engineer para sumarse y laborar con nuestros equipos quienes se encuentran laborando en uno de los proyectos relacionados con el almacenamiento de energía a escala global.

Funciones del cargo

  • Implementar y administrar servicios AWS: S3, Lambdas, IAM, ECS, EC2, Networking, RDS.
  • Optimizar recursos en la nube para un rendimiento eficiente y seguro.
  • Implementar aplicaciones usando Docker para portabilidad y consistencia.
  • Automatizar despliegues con Terraform (IaC).
  • Gestionar permisos y roles en AWS IAM para garantizar la seguridad.
  • Aplicar mejores prácticas de seguridad para proteger infraestructura y datos.
  • Desarrollar soluciones de monitoreo y análisis en AWS.
  • Identificar y resolver problemas en sistemas productivos de forma proactiva.
  • Colaborar con equipos multidisciplinarios para alcanzar objetivos de negocio.
  • Documentar procesos y crear guías técnicas para transferencia de conocimiento.
  • (Plus) Experiencia con Node + Nest, Python, AWS Timestream, AWS Quicksight.

Requerimientos del cargo

Buscamos un profesional con al menos 5 años de experiencia como DevOps con experiencia en:

  • AWS ( S3, Lambdas, IAM, ECS, EC2, networking, RDS)
  • Docker
  • Terraform
  • Experiencia en metodologías ágiles, preferentemente Scrum.
  • Habilidades de resolución de problemas y capacidad para trabajar de forma independiente y en equipo.
  • Nivel intermedio/avanzado o avanzado de inglés es esencial para colaborar en un entorno global.

Opcionales

  • Node+Nest
  • Python
  • AWS Timestream
  • AWS Quicksight

Beneficios

  • Metlife (Chile)
  • 100% Remoto. En Buenos Aires existe un espacio para asistir dos veces por semana. En Santiago tenemos un espacio para asistir los días que se desee.
  • Posibilidad de recibir 2 bonos al año
  • 2 revisiones salariales al año
  • Clases de inglés
  • Equipamiento Apple
  • Cursos UDEMY
  • Budget para compra de libros
  • Budget para compra de materiales de trabajo

APPLY VIA WEB
$$$ Full time
Ingeniero DevOps y Monitoreo
  • BC Tecnología
JavaScript .Net DevOps Virtualization
En BC Tecnología, somos una consultora de TI especializada en ofrecer soluciones innovadoras a nuestros clientes en los sectores de servicios financieros, seguros, retail y gobierno. Con un enfoque en el cliente y la implementación de metodologías ágiles, diseñamos y desarrollamos proyectos tecnológicos que abarcan desde la consultoría hasta el apoyo en infraestructura tecnológica. En este proyecto específico, buscamos un Ingeniero DevOps y Monitoreo, quien será parte de un equipo dinámico enfocado en optimizar la administración y el monitoreo de nuestras soluciones en entornos de nube como Azure y GCP.

Funciones del puesto

Como Ingeniero DevOps y Monitoreo, tendrás responsabilidades clave que incluyen:
  • Implantar y gestionar entornos de integración y despliegue continuo utilizando GitLab.
  • Desarrollar y mantener infraestructuras como código utilizando Terraform.
  • Colaborar en la implementación de aplicaciones en plataformas en la nube como Azure y GCP.
  • Implementar soluciones de contenedores utilizando Docker y Kubernetes para asegurar despliegues eficientes.
  • Participar en la monitorización de sistemas y aplicaciones para garantizar su disponibilidad y rendimiento óptimos.
Esperamos que puedas colaborar con nuestro equipo para ofrecer soluciones robustas y escalables a nuestros clientes.

Descripción del perfil buscado

Buscamos un profesional con al menos 4 años de experiencia en el área de DevOps, que cuente con habilidades técnicas comprobadas en:
  • GitLab para la gestión de repositorios y flujos de trabajo CI/CD.
  • Plataformas de nube como Azure y Google Cloud Platform (GCP).
  • Tecnologías de infraestructura como código, específicamente Terraform.
  • Desarrollo con .Net y JavaScript.
  • Contenerización de aplicaciones mediante Docker y gestión de orquestadores como Kubernetes.
Valoramos la capacidad para trabajar de manera remota, así como habilidades de trabajo en equipo, comunicación efectiva y una mentalidad de mejora continua.

Habilidades deseables

Sería ideal que el candidato tuviera experiencia adicional en:
  • Automatización de procesos de infraestructura y despliegue.
  • Herramientas de monitoreo y gestión de rendimiento.
  • Implementación de metodologías ágiles en proyectos de TI.
  • Participación en equipos multidisciplinarios para la solución de incidencias y mejoras.
La capacidad para adaptarse a nuevas tecnologías y un enfoque proactivo son altamente valoradas.

Beneficios de trabajar con nosotros

Ofrecemos un contrato por proyecto de 6 meses con posibilidad de extensión, acompañado de un sueldo a convenir. Nuestros empleados disfrutan de:
  • Seguro complementario.
  • Amipass de $4,500 por día laborado.
  • Convenciones, actividades y bonos.
Nuestra ubicación en Alto Las Condes proporciona un entorno de trabajo moderno y funcional. ¡Nos encantaría contar contigo en nuestro equipo! 🌟

APPLY VIA WEB
$$$ Full time
Ingeniero DevOps
  • Agilesoft SpA
JavaScript Node.js DevOps Continuous Integration
Agilesoft es una start-up formada por gente joven, enfocada en el desarrollo de software. Somos amantes de la tecnología, con un ambiente laboral entretenido y grato. Más que cumplir horarios, trabajamos bajo metas, que nos impulsan a resultados innovadores y de calidad.
Descripción:
Trabajamos principalmente desarrollando plataformas web y aplicaciones móviles para grandes empresas. A la vez, tenemos la necesidad de desafiarnos constantemente a mejorar nuestras buenas prácticas y expertise en las diferentes tecnologías emergentes. Somos agnósticos a las marcas o productos, amamos la velocidad de transformación y la posibilidad de aprender cada día algo nuevo.

Funciones del cargo

Estamos en búsqueda de un Ingeniero DevOps para integrarse a nuestra planta de trabajo de Santiago de Chile a una célula de desarrollo ágil asignada a uno de nuestros clientes.
Deberá realizar una monitorización continua de todo el ciclo de vida del desarrollo del software y debe saber cómo administrar la infraestructura TI, asegurando la integración y despliegue continuo.
Es muy importante la motivación por aprender, estar actualizado en tecnologías y autogestión para cumplir con el equipo, los cuales pueden ser diversos y cambiar, por lo que debes estar preparado para un ambiente dinámico, desafiante y divertido para crecer como profesional.

Requerimientos del cargo

- Título profesional de Ingeniería civil / ejecución en computación / informática.
- Minimo 2 años de experiencia como Devops
- Kubernetes
- Docker
- jenkins
- GitHub
- JavasScript
- Node.js
- GitLab
- Boostrap

Condiciones

- Lunes a Jueves de 09:00 hrs a 18:00 hrs y Viernes de 09:00 hrs a 17:00 hrs
- Ambiente laboral grato, flexible, entretenido y dinámico.
- Computador de trabajo.

- Caja de compensación Los Andes (CHILE)
- Seguro complementario de Salud y Dental. (CHILE)
- Seguro Yunen (REPUBLICA DOMINICANA)

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Agilesoft SpA pays or copays health insurance for employees.
Computer provided Agilesoft SpA provides a computer for your work.
APPLY VIA WEB
$$$ Full time
Arquitecto y Administrador Cloud Senior (AWS/GCP)
  • Factor IT
SQL NoSQL Continuous Integration Virtualization
En FactorIT, somos líderes en tecnología y soluciones en Data y Analytics, Transformación Digital e Inteligencia Artificial. Con presencia en 8 países en Latinoamérica, brindamos la oportunidad de trabajar en proyectos regionales que transforman grandes empresas. Buscamos incorporar a un Arquitecto y Administrador Cloud Senior que juegue un rol clave en nuestros proyectos de infraestructura multi-nube, especialmente en AWS y GCP, asegurando soluciones de alta disponibilidad y optimización de costos.

Responsabilidades Principales:

  • Diseñar y desarrollar arquitecturas cloud escalables siguiendo mejores prácticas y patrones de diseño.
  • Implementar y mantener infraestructura como código (IaC) utilizando Terraform, CloudFormation o herramientas similares.
  • Gestionar y optimizar servicios cloud en AWS y GCP.
  • Desarrollar estrategias de seguridad, cumplimiento y gobernanza dentro de la nube.
  • Liderar la automatización de procesos de infraestructura y despliegue.
  • Supervisar costos y optimizar recursos cloud para garantizar eficiencia.

Requisitos Técnicos:

  • Certificaciones requeridas: AWS: Solutions Architect Professional o Advanced, GCP: Professional Cloud Architect.
  • Experiencia comprobable (2+ años) en: AWS (EC2, S3, RDS, Lambda, VPC, EKS) y GCP (Compute Engine, Cloud Storage, Cloud SQL, Cloud Functions, GKE).
  • Contenedores y orquestación: Docker, Kubernetes.
  • IaC y automatización: Terraform, Ansible, CloudFormation.
  • CI/CD: Jenkins, GitLab CI, GitHub Actions.
Habilidades Adicionales:
  • Sólida comprensión de redes, seguridad y protocolos de comunicación.
  • Experiencia en microservicios y arquitecturas distribuidas.
  • Conocimientos de bases de datos SQL y NoSQL.
  • Capacidad para estimar costos y optimizar gastos en la nube.
  • Inglés avanzado (lectura y escritura).
Competencias Blandas:
  • Excelentes habilidades de comunicación y documentación.
  • Capacidad de liderazgo técnico y mentoría.
  • Pensamiento analítico y resolución de problemas complejos.
  • Habilidad para trabajar con múltiples equipos y stakeholders.

Experiencia Deseable:

  • Participación en proyectos de migración a la nube a gran escala.
  • Experiencia en implementación de soluciones híbridas.
  • Conocimientos de metodologías ágiles.
  • Experiencia en arquitecturas serverless y event-driven.

Beneficios:

En FactorIT, promovemos un ambiente laboral colaborativo y orientado al aprendizaje continuo. Además de un contrato indefinido, brindamos flexibilidad laboral con opciones de trabajo remoto, híbrido o presencial. Valoramos el equilibrio entre la vida personal y laboral, ofreciendo oportunidades de crecimiento profesional en un entorno inclusivo y diverso. Únete a nuestro equipo y transforma el futuro de la tecnología con nosotros 🚀!

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Factor IT provides a computer for your work.
APPLY VIA WEB
$$$ Full time
Ingeniero de Operaciones TI
  • Usercode SpA
Python Node.js Linux DevOps

Usercode es una empresa tecnológica especializada en el desarrollo de software para instituciones públicas y organizaciones privadas. Nuestro foco son las tecnologías Cloud, la automatización y digitalización de procesos.

Trabajamos 100% remoto, nuestro equipo está en distintas regiones de Chile, México y Perú. Para comunicarnos y trabajar utilizamos Slack, Meet Hangout y Monday.

La necesidad actual:

El volumen del negocio de Usercode está creciendo por la vía de incorporar una mayor cantidad y tipo de proyectos de desarrollo, por un lado, y por otro lado, abriendo líneas de negocio relacionadas, como mantenimiento de infraestructura, y ampliando la cartera de clientes hacia el mercado privado.

Para lograr el éxito en este proceso es clave contar con un equipo de desarrollo capaz, autónomo, responsable, con experiencia, preparado técnicamente, con profundos conocimientos en una serie de herramientas específica, capaz de aprender y adquirir el uso herramientas nuevas.

Funciones del cargo

Para el puesto de Ingeniero de Operaciones TI con un enfoque en servicios cloud y DevOps, debe tener conocimiento en las siguientes características técnicas:

Configuración de máquinas virtuales en entornos Linux (obligatorio): Habilidad para instalar, configurar y mantener sistemas basados en Linux. Experiencia en la administración de servidores, optimización de rendimiento y seguridad de sistemas Linux.

Configuración de servicios web y de aplicaciones (obligatorio): Experiencia en la configuración y administración de servidores web y aplicaciones como Apache, Nginx, y Tomcat. Capacidad para implementar y gestionar procesos con gestores como PM2 para aplicaciones Node.js.

Seguridad de sistemas y redes (obligatorio): Conocimiento en la implementación de políticas de seguridad, gestión de accesos y configuración de firewalls y otros mecanismos de seguridad en entornos cloud y on-premise.

Monitoreo y logística (obligatorio): Experiencia en la configuración de herramientas de monitoreo y logística para garantizar la visibilidad y el rendimiento operativo, utilizando herramientas como Prometheus, Grafana, ELK Stack, etc.

Creación, mantención e implementación de productos digitales como plataformas web, aplicaciones móviles y/o sitios web.

El ingeniero de operaciones TI trabajará en el área de desarrollo de software junto con los demás desarrolladores, arquitecto de software, líder técnico y jefe de proyecto. Los proyectos serán mayoritariamente plataformas web para instituciones públicas o privadas donde debe levantar los diferentes ambientes, configurarlos, asegurar la seguridad, levantar y configurar los servicios necesarios para el correcto funcionamiento de las plataformas web y/o APIs.

Requerimientos del cargo

Requisitos técnicos:

Estamos en búsqueda de un Ingeniero de Operaciones TI, con un enfoque decidido hacia la gestión y optimización de servicios en la nube y prácticas DevOps. Esperamos que el candidato ideal tenga experiencia robusta en la implementación y manejo de ambientes cloud, utilizando herramientas modernas de CI/CD como Jenkins, y que posea habilidades sólidas en la configuración y administración de ambientes de desarrollo, prueba y producción.

El rol implica responsabilidades clave como la configuración de bases de datos y la garantía de su rendimiento óptimo, la implementación de soluciones escalables y la administración de infraestructura como código. Es fundamental que el candidato tenga la capacidad de colaborar estrechamente con equipos de desarrollo para facilitar despliegues rápidos y seguros, y asegurar la alta disponibilidad y resiliencia de los sistemas.

Buscamos a alguien que no solo se encargue de mantener la infraestructura existente, sino que también proponga y ejecute mejoras continuas, aplicando las mejores prácticas de seguridad y optimización de costos en entornos cloud.

Experiencia excluyente:

  • Configuración de máquinas virtuales en entornos Linux.
  • Configuración de servicios web y de aplicaciones.
  • Seguridad de sistemas y redes.
  • Monitoreo y logística.

Comportamiento esperado:

Lo que buscamos en ti:

  • Proactividad
  • Trabajo en equipo
  • Autonomía
  • Orientado a objetivos y resultados

Características personales:

  • Autonomía
  • Cumplimiento
  • Buenas habilidades de comunicación oral y escrita incluyendo comprensión lectora
  • Saber escuchar, atención
  • Ser respetuoso
  • Disposición a colaborar con el equipo
  • Responsable de sus tareas proyectos trabajos

Conocimientos deseables

Conocimiento en servicios AWS: Configuración y gestión de servicios clave de AWS como EC2, S3, RDS, ECS, Lambda, y VPC. Familiaridad con AWS CloudFormation o Terraform.

Gestión de bases de datos: Configuración, optimización y mantenimiento de sistemas de bases de datos. Experiencia en tareas como la configuración de replicación, backups automatizados y tuning de rendimiento.

Configuración y manejo de contenedores: Experiencia en uso de Docker para la creación y gestión de contenedores.

Orquestación con Kubernetes: Capacidad para implementar, configurar y manejar clústeres de Kubernetes.

Implementación y configuración de herramientas de CI/CD: Experiencia en la configuración y uso de Jenkins para la integración y entrega continua. Capacidad para diseñar pipelines de CI/CD.

Automatización y scripting: Habilidad en scripting con Bash, Python, o similar para la automatización de tareas administrativas y de despliegue.

Condiciones

Este puesto ofrece la flexibilidad de un entorno de trabajo remoto, sin embargo, según las necesidades específicas de nuestros clientes, puede haber ocasiones en las que se requiera tu presencia en un lugar de trabajo presencial.

  • Días extra de vacaciones.
  • Días libres 3x5, día libre por cumpleaños, cambio de domicilio, muerte de mascota
  • Pago de certificaciones seleccionadas
  • Pausa activa colaborativa
  • Aguinaldo

APPLY VIA WEB
$$$ Full time
Ingeniero de Operaciones TI
  • Usercode SpA
Python MySQL Linux DevOps

Usercode es una empresa tecnológica especializada en el desarrollo de software para instituciones públicas y organizaciones privadas. Nuestro foco son las tecnologías Cloud, la automatización y digitalización de procesos.

Trabajamos 100% remoto, nuestro equipo está en distintas regiones de Chile, México y Perú. Para comunicarnos y trabajar utilizamos Slack, Meet Hangout y Monday.

La necesidad actual:
El volumen del negocio de Usercode está creciendo por la vía de incorporar una mayor cantidad y tipo de proyectos de desarrollo, por un lado, y por otro lado, abriendo líneas de negocio relacionadas, como mantenimiento de infraestructura, y ampliando la cartera de clientes hacia el mercado privado.

Para lograr el éxito en este proceso es clave contar con un equipo de desarrollo capaz, autónomo, responsable, con experiencia, preparado técnicamente, con profundos conocimientos en una serie de herramientas específica, capaz de aprender y adquirir el uso herramientas nuevas.

Funciones del cargo

Configuración de máquinas virtuales en entornos Linux (obligatorio): Habilidad para instalar, configurar y mantener sistemas basados en Linux. Experiencia en la administración de servidores, optimización de rendimiento y seguridad de sistemas Linux.

Configuración de servicios web y de aplicaciones (obligatorio): Experiencia en la configuración y administración de servidores web y aplicaciones como Apache, Nginx, y Tomcat. Capacidad para implementar y gestionar procesos con gestores como PM2 para aplicaciones Node.js.

Seguridad de sistemas y redes (obligatorio): Conocimiento en la implementación de políticas de seguridad, gestión de accesos y configuración de firewalls y otros mecanismos de seguridad en entornos cloud y on-premise.

Monitoreo y logística (obligatorio): Experiencia en la configuración de herramientas de monitoreo y logística para garantizar la visibilidad y el rendimiento operativo, utilizando herramientas como Prometheus, Grafana, ELK Stack, etc.

Requerimientos del cargo

Enfoque decidido hacia la gestión y optimización de servicios en la nube y prácticas DevOps. Esperamos que el candidato ideal tenga experiencia robusta en la implementación y manejo de ambientes cloud, utilizando herramientas modernas de CI/CD como Jenkins, y que posea habilidades sólidas en la configuración y administración de ambientes de desarrollo, prueba y producción.

El rol implica responsabilidades clave como la configuración de bases de datos y la garantía de su rendimiento óptimo, la implementación de soluciones escalables y la administración de infraestructura como código. Es fundamental que el candidato tenga la capacidad de colaborar estrechamente con equipos de desarrollo para facilitar despliegues rápidos y seguros, y asegurar la alta disponibilidad y resiliencia de los sistemas.

Buscamos a alguien que no solo se encargue de mantener la infraestructura existente, sino que también proponga y ejecute mejoras continuas, aplicando las mejores prácticas de seguridad y optimización de costos en entornos cloud.

El candidato ideal debe ser proactivo, trabajar bien en equipo, y manejar habilidades de comunicación efectivas. Se valoran personas con orientación a resultados, autonomía, y un enfoque en la mejora continua.

Experiencia excluyente:

  • Configuración de máquinas virtuales en entornos Linux.
  • Configuración de servicios web y de aplicaciones.
  • Seguridad de sistemas y redes.
  • Monitoreo y logística.

Comportamiento esperado:

Lo que buscamos en ti:

  • Proactividad
  • Trabajo en equipo
  • Autonomía
  • Orientado a objetivos y resultados

Características personales:

  • Autonomía
  • Cumplimiento
  • Buenas habilidades de comunicación oral y escrita incluyendo comprensión lectora
  • Saber escuchar, atención
  • Ser respetuoso
  • Disposición a colaborar con el equipo
  • Responsable de sus tareas proyectos trabajos

Opcionales

Conocimiento en servicios AWS: Experiencia en la configuración y gestión de servicios clave de AWS como EC2, S3, RDS, ECS, Lambda, y VPC. Familiaridad con AWS CloudFormation o Terraform.

Gestión de bases de datos: Sólidos conocimientos en la configuración, optimización y mantenimiento de sistemas de bases de datos como MySQL y SQL Server. Experiencia en tareas como la configuración de replicación, backups automatizados y tuning de rendimiento.

Configuración y manejo de contenedores: Experiencia en el uso de Docker para la creación y gestión de contenedores.

Orquestación con Kubernetes : Capacidad para implementar, configurar y manejar clústeres de Kubernetes, optimizando la automatización y escalabilidad de aplicaciones en producción.

Implementación y configuración de herramientas de CI/CD: Experiencia en la configuración y uso de Jenkins para la integración y entrega continua.

Automatización y scripting: Habilidad en scripting con Bash, Python, o similar.

Beneficios

Este puesto ofrece la flexibilidad de un entorno de trabajo remoto, sin embargo, según las necesidades específicas de nuestros clientes, puede haber ocasiones en las que se requiera tu presencia en un lugar de trabajo presencial.

  • Días extra de vacaciones.
  • Días libres 3x5, día libre por cumpleaños, cambio de domicilio, muerte de mascota
  • Pago de certificaciones seleccionadas
  • Pausa activa colaborativa
  • Aguinaldo

APPLY VIA WEB
Gross salary $2000 - 2500 Full time
Systems Engineer
  • Mediastream
  • Bogotá &nbsp Santiago &nbsp São Paulo (Hybrid)
Ruby Python Linux Web server
Company Description
Mediastream is a leading streaming technology company that has been in business for over 16 years. We collaborate with major companies and broadcasters around the world to offer a quality end-to-end solution for content administration, distribution, audiovisual production, and user experience. Our goal is to connect our customers with their audience in a simple and effective way, creating new revenue streams for their businesses.
Role Description
This is a hybrid role for a Systems Engineer. This role will be responsible for designing, implementing and maintaining Mediastream's content delivery network (CDN) infrastructure and services, ensuring fast, secure, robust and scalable access to our digital services for our customers. customers. users around the world, with a focus on video encoding and transcoding.

Responsibilities

  • Design, configure, and optimize the CDN infrastructure to enhance content delivery speed and security.
  • Continuously monitor CDN performance, identify bottlenecks, and make adjustments to ensure operational continuity and speed.
  • Rotate on-call shifts and synchronously monitor high-concurrency streaming events.
  • Implement robust security measures to safeguard the CDN against threats, including DDoS attacks or others.
  • Collaborate closely with application development and cybersecurity teams to ensure efficient integration of the CDN and the implementation of security policies.
  • Work collaboratively with development and content teams to ensure that content is optimized for delivery through the CDN.
  • Research and evaluate new technologies, trends, and best practices in the CDN solutions domain, and subsequently propose, agree upon, implement, document, and provide training as necessary.

Minimum requirements

  • Operating Systems Linux Server (Ubuntu, Debian, CentOS, etc.): Exceptional
  • Network Infrastructure Management and Support (BGP, HTTP, DNS, DHCP, NTP, TCP/IP, FTP, Firewalls, among others): Advanced
  • Application and Network Monitoring Tools (Desirable: Datadog): Intermediate
  • Scripting Programming in BASH, RUBY, PYTHON, or others: Intermediate
  • Webserver Administration (Nginx): Exceptional
  • AWS Amazon CloudFront & Route 53: Intermediate
  • Video encoding and transcoding: Exceptional
  • Bachelor's degree in Computer Engineering, Systems, Networks, or related field
  • Additional Certifications: Cloud, Cisco, Linux, Networking, Nginx, Docker
  • Other: Streaming Technologies

APPLY VIA WEB
$$$ Full time
DevOps
  • Wird
Node.js DevOps Sysadmin Scala
En Wird ayudamos a las empresas rentabilizar las conversaciones con sus clientes, aumentando la eficiencia y felicidad del equipo.
¿Por qué?
Queremos que cada conversación entre las empresas y sus clientes genere valor para la sociedad.
Somos una empresa en crecimiento, por lo que tus contribuciones serán visibles para todos, donde nuestros valores están centrado en tener un buen ambiente de trabajo y entre las personas. Trabajamos con tecnologías de tope de linea en Inteligencia Artificial, por lo que estamos constantemente innovando y desafiándonos.

Funciones del cargo

  • Serás el responsable de guiar la mantención de nuestra infraestructura en la nube, estimación de carga, arquitectura, dimensionamiento, etc.
  • Tendrás que gestionar, mantener, optimizar y mejorar integración de CI/CD (Bitbucket Pipelines, SonarCloud, Cloudsmith -Artefactos-)
  • Buscamos que aportes en el monitoreo de aplicación y logs (Mantener y mejorar actual sistema – Azure Monitor, DataDog, Kubernetes Logs.)
  • Serás actor fundamental en la gestión, mantención y mejoramiento la seguridad de la infraestructura según los estándares (ISO27001, SOC2)
  • Mantener imágenes de los ambientes de nuestra nube para implementaciones en nubes privadas u on-premise.

Requerimientos del cargo

  • Buscamos a personas que hayan trabajado al menos 5 años en puestos similares como SysAdmin o Ingeniero Cloud.
  • Experiencia trabajando con Azure.
  • Experiencia con Kubernetes (administración de Clusters especialmente con la línea de comando kubectl).
  • Experiencia sobre manejo de usuarios, roles, credenciales, y administradores de identidades (azure identity managed)
  • Trabajo en servidores con Linux (CentOS, Debian).
  • Conocimientos en Bash Scripting y en YAML.
  • Experiencia con Docker y Docker Compose, si has trabajado creando imágenes con Docker excelente.
  • Experiencia trabajando con cualquier tipo de herramienta CI/CD (Nosotros usamos Bitbucket Pipelines.)
  • Mantención de microservicios y aplicaciones que corran en JVM o NodeJS.
  • Trabajo en stack web (ej HTTP, cookies, asset loading, caching, REST). Específicamente si ha trabajado con APIs.
  • Experiencia con Helm (versión 2.)
  • Conocimientos en arquitecturas de colas (Azure Service Bus, RabbitMQ, Kafka, etc.)
  • Experiencia o conocimiento API Gateway.
  • Conocimientos en Sistemas de Monitoreo (Datadog).
  • Deseable experiencia en liderato de equipos TI.

Opcionales

  • Importante cualidad es si aprendes rápidamente, resolver problemas y la tecnología es tu pasión, eres un buen candidato.
  • Deseable conocimientos en Bases de Datos (MySQL, MongoDB, Redis, ElasticSearch).
  • Experiencia en lenguajes (ideal Java/Python), frameworks (NextJS).
  • Esperamos que resuelvas los problemas de forma autónoma y con compromiso. Queremos escuchar cómo resolvían los problemas en el pasado. También esperamos que proactivamente propongas soluciones y mejoras.
  • Trabajamos en un buen equipo, por eso el trabajo de equipo y la comunicación deben ser tus fuerzas. Si tienes un perfil de Stack Overflow, muéstranos cómo ayudas a resolver los problemas de otros.

Condiciones

  • Días adicionales de vacaciones🏖️
  • Hora protegida para bienestar🏃‍♀️
  • Portal de Wird Academy con cursos disponibles📚
  • ¡Nos encanta trabajar de manera remota!💻
  • Trabajarás con gente genial🥳
  • Somos una empresa en crecimiento, por eso tus contribuciones serán muy visibles para todos🤘

Wellness program Wird offers or subsidies mental and/or physical health activities.
Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
Vacation over legal Wird gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
Gross salary $2000 - 2500 Full time
Data Scientist
  • Interfell
Python Git Data Analysis SQL

En Interfell, estamos revolucionando la manera en que las empresas se conectan con talento calificado en LATAM. Nuestro proyecto actual se orienta hacia el área de ciencia de los datos es por ellos que actualmente estamos en búsqueda de un DATA SCIENTIST con +4 años de experiencia para que se una a nuestro equipo de IT, para trabajar en un proyecto a tiempo determinado de 6 a 8 meses

** Con el objetivo de facilitar nuestros procesos, solicitamos amablemente que consideres postularte únicamente si cumples con los conocimientos requeridos. En caso contrario, te animamos a estar pendiente de nuestras futuras oportunidades, ya que seguramente surgirá alguna donde puedas destacarte. Agradecemos tu comprensión y colaboración. **

Funciones del cargo

  • Identificar oportunidades donde el análisis de datos puede generar ventajas competitivas y diseñar soluciones apropiadas.
  • Desarrollar modelos de machine learning y analítica predictiva (clasificación, regresión, segmentación, scoring, recomendación, etc.).
  • Construir y automatizar pipelines de datos para la limpieza, transformación y enriquecimiento de fuentes heterogéneas.
  • Realizar análisis exploratorios y visualización de datos para generar insights relevantes y comunicar hallazgos de manera efectiva.
  • Implementar modelos en producción, trabajando junto a ingenieros de datos y software, asegurando performance, escalabilidad y mantenibilidad.
  • Evaluar el impacto de iniciativas mediante técnicas estadísticas (pruebas de hipótesis, análisis causal, A/B testing).
  • Documentar procesos y resultados, promoviendo una cultura de datos dentro de la organización.

Requerimientos del cargo


Formación y experiencia:
  • Grado o máster en carreras STEM (Ciencia, Tecnología, Ingeniería o Matemáticas), idealmente con enfoque en ciencia de datos, estadística o informática.
  • Mínimo 3-5 años de experiencia aplicando técnicas de análisis de datos y machine learning en entornos profesionales.

Habilidades técnicas:
  • Programación fluida en Python o R para análisis de datos y modelado estadístico.
  • Manejo avanzado de bibliotecas como Pandas, Scikit-learn, TensorFlow/PyTorch, Statsmodels, Matplotlib/Seaborn.
  • Experiencia en SQL y trabajo con bases de datos relacionales y no relacionales.
  • Familiaridad con herramientas de visualización (Tableau, Power BI, Looker o similares).
  • Conocimiento de plataformas cloud (AWS, GCP, Azure) y entornos colaborativos (Git, Docker, notebooks).

Opcionales

  • Deseable: experiencia en despliegue de modelos, MLOps y frameworks de producción.

Condiciones

  • Oportunidad de crecimiento con un equipo multinivel
  • Pago USD
  • Jornada: Lunes - Viernes -09:00 am - 06:30 pm / Perú
  • Tiempo de contratación estimado: Proyecto 6 - 8 meses
    IMPORTANTE: Este empleo requiere exclusividad.

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
Gross salary $3000 - 4000 Full time
Senior Data Engineer (Rag)
  • Niuro
Python MySQL PostgreSQL BigQuery
Niuro is a company dedicated to connecting projects with elite technology teams specializing in partnerships with leading U.S. companies. Our mission focuses on simplifying global talent acquisition through innovative and efficient solutions that emphasize maximizing quality and performance. We empower autonomous, high-performance tech teams by offering a collaborative environment enriched with continuous professional growth, training in both technical and soft skills, and leadership development. Through managing all administrative tasks, including hiring, payments, and training, Niuro allows teams to concentrate fully on delivering excellent and innovative outcomes aligned with cutting-edge technology and client needs.

Responsibilities

  • Design, implement, and maintain scalable, reliable, and efficient data pipelines tailored to Retrieval-Augmented Generation (RAG) based applications, ensuring seamless automation of intelligent query processes.
  • Configure, manage, and optimize vector databases and advanced search engines to support high-performance embedding and retrieval functionalities.
  • Collaborate closely with Data Scientists and AI Engineers to deploy embedding models and generative AI solutions, fostering integration across teams.
  • Develop and fine-tune ETL/ELT processes to guarantee outstanding data quality, pipeline performance, and resilience within production environments.
  • Ensure system scalability, stability, and operational efficiency to support high-demand data workloads and AI-powered services.

Requirements & Professional Profile

We require candidates with a minimum of 4 to 5 years of experience as a Data Engineer, demonstrating a proven track record managing data-intensive projects and environments. Expertise in Retrieval-Augmented Generation (RAG) methodologies is essential as you will lead innovative data pipeline development.
Technical proficiency must include deep experience with at least one tool or technology from each of the following categories:
  • Vector Databases: Experience with Pinecone, Milvus, Qdrant, Weaviate, or equivalent solutions to manage embedding data effectively.
  • Databases: Proficiency in SQL databases such as PostgreSQL and MySQL, plus NoSQL databases including MongoDB and Cassandra.
  • Data Warehousing: Knowledge of warehouse platforms such as Redshift, BigQuery, or Snowflake to support analytical processing.
  • ETL/ELT Tools: Skilled in dbt, Apache NiFi, Talend, or Informatica for robust data transformation workflows.
  • Big Data Frameworks: Experience with Apache Spark and Kafka for handling large-scale data streams.
  • Search Engines: Familiarity with Elasticsearch, Solr, or OpenSearch to implement advanced search capabilities.
  • Cloud Platforms: Working knowledge of AWS, Google Cloud Platform, or Azure for scalable cloud infrastructure.
  • Containers: Proficient with Docker to containerize and deploy applications reliably.
  • Programming: Advanced skills in Python for scripting, automation, and integration.
Strong analytical aptitude and problem-solving capabilities are vital to address complex data challenges. We seek candidates who thrive in agile, cross-functional teams and possess excellent communication and collaboration skills to work effectively across different roles and disciplines.

Nice-to-have Skills

  • Experience with machine learning frameworks including TensorFlow, PyTorch, and Scikit-learn to support advanced model deployment.
  • Familiarity with natural language processing tools such as spaCy, NLTK, and Hugging Face Transformers to enhance text and language-related functionalities.
  • Knowledge of generative AI models like OpenAI, Azure GPT, and Amazon Bedrock is beneficial for working on cutting-edge AI augmentation projects.
  • Competence in container orchestration using Kubernetes to manage containerized applications at scale.

What We Offer

  • 🌍 100% Remote – Embrace full flexibility by working from anywhere around the world, enabling an optimal work-life balance.
  • 📈 Career Growth – Become part of a tech-forward, innovative, and collaborative team committed to your ongoing professional development and success.
  • 📝 Full-time employment contract with an initial 3-month trial period followed by an indefinite contract, ensuring job stability and continuous collaboration.

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
APPLY VIA WEB
$$$ Full time
Data Scientist
  • Forma - Moovmedia Group
¡Hola! Somos Forma y somos parte de Moov Media Group, una familia de empresas que también integran Metrix y Moov. Nuestro modelo es colaborativo, ¿qué significa esto? Que trabajamos de manera específica o integral según las necesidades de cada cliente.
Buscamos ser el mejor partner de nuestros clientes apañándolos en la transformación digital. Nos peinamos con el desarrollo tecnológico y el uso de datos, siempre con una mirada estratégica que nos lleve a tomar la mejor decisión.
Hoy queremos seguir creciendo y para eso buscamos un Data Scientist que nos acompañe a recorrer el mundo digital en una empresa con cultura flexible, ágil e innovadora. ¿Te interesa? Entonces déjanos contarte un poco más.
El proceso de selección consta de:

  • Llamado telefónico
  • Entrevista con Selección
  • Entrevista con jefatura directa.
¿Te interesa? ¡Dale! Escríbenos y conversemos.

Funciones del cargo

Diseñar, entrenar y desplegar modelos de Machine Learning y algoritmos de predicción (scikit-learn, XGBoost, etc.)
Liderar procesos de análisis estadístico y modelado de datos con Python y SQL
Automatizar pipelines de datos e integraciones con APIs (Google Ads, Meta, ecommerce, CRM)
Desarrollar dashboards interactivos y embebidos (Power BI, Looker Studio, Tableau)
Validar y mantener la calidad de modelos en producción, utilizando ML Ops básico
Colaborar con equipos de ingeniería, automatización, media y producto

Requerimientos del cargo

Requisitos técnicos:
  • Lenguajes obligatorios: Python (Pandas, Scikit-learn, Numpy, Matplotlib), SQL.
  • Cloud: GCP o AWS (manejo de BigQuery, S3, Redshift u otros).
  • Automatización: Airflow, dbt o scripts programados.
  • Visualización: Power BI y/o Looker Studio (excluyente).
  • Modelos ML: Clasificación, regresión, clustering, análisis de series temporales.
Otros requisitos:
  • Ingeniero en Estadística, Computación, Ciencia de Datos o afín.
  • 3+ años de experiencia en proyectos de data science o advanced analytics.
  • Capacidad para explicar conceptos técnicos a equipos no técnicos.
  • Mentalidad de experimentación y prototipado rápido (MVPs, hackathons).

Opcionales

Deseable: ML Ops (Vertex AI, SageMaker, MLflow), APIs REST, web scraping, Docker
Deseable: experiencia en ecommerce, retail o marketing digital.

Conditions

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
$$$ Full time
Data Engineer
  • 2BRAINS
Python Git Data Analysis SQL

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

El/la Data Engineer de 2Brains

Se encarga de participar en el diseño y desarrollo de los nuevos modelos de información de gestión y las mantenciones evolutivas de los existentes. Participar en las iniciativas de Analítica avanzada del área, apoyando las exploración de modelos de información internos y externos (Data Discovery). Obtener datos históricos desde múltiples fuentes de información interna para apoyar las iniciativas de analítica avanzada del equipo.

El/la Data Engineer de 2Brains debe

  • Construir y optimizar pipelines de datos para la ingesta, transformación y carga eficiente de información.
  • Manejar infraestructuras en la nube (AWS, GCP, Azure), asegurando escalabilidad y eficiencia en costos.
  • Automatizar y monitorear procesos mediante herramientas de DevOps como Airflow, Terraform o Kubernetes.
  • Implementar controles de calidad y gobernanza para garantizar la integridad y disponibilidad de los datos.
  • Colaborar con equipos de Data Science, Producto y Desarrollo para diseñar soluciones alineadas con las necesidades del negocio.

Qué conocimientos buscamos en/la Data Engineer

  • Excluyente Experiencia trabajando con tecnologías de BI
  • Experiencia en la construcción/operación de sistemas distribuidos de extracción, ingestión y procesamiento de grandes conjuntos de datos de gran disponibilidad.
  • Capacidad demostrable en modelado de datos, desarrollo de ETL y almacenamiento de datos.
  • Experiencia en el uso de herramientas de informes de inteligencia empresarial (Power BI)
  • Excluyente conocimiento en consumo de microservicios de APIs Rest
  • Excluyente conocimiento en Git , Bitbucket, Docker,Jenkins,Webhooks
  • Programación con Python y bases sólidas de ingeniería de software.
  • Automatización y scripting.
  • Uso de librerías de Python para manipulación y análisis de datos y Apache Spark.
  • Conocimientos en bases de datos SQL y NoSQL.
  • Conocimiento en CI/CD, Dataflow
  • Conocimiento en S3, Redshift y Glue AWS

Que competencias buscamos en/la Data Engineer

  • Empatía
  • Buena capacidad de comunicación.
  • Colaboración y trabajo en equipo.
  • Proactividad.
  • Autonomía.
  • Foco en los objetivos de proyectos.

Condiciones

Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos

Acceso a grandes clientes y proyectos desafiantes

Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales

Un entorno de trabajo flexible y dinámico

Beneficios especiales: día libre para tu cumpleaños, días de descanso a convenir.

Informal dress code No dress code is enforced.
Vacation over legal 2BRAINS gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Data Engineer
  • Niuro
Python MySQL Docker SQL Server
At Niuro, we connect elite tech teams with top-tier U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality. We empower projects by providing autonomous, high-performance tech teams, and we offer continuous professional growth opportunities to ensure everyone involved is set for success in innovative and challenging projects.

Key Responsibilities

  • Ingest, process, and integrate data from multiple systems and platforms using Big Data tools.
  • Design and implement data pipelines to transfer data from source to destination systems, ensuring alignment with integration standards and existing frameworks.
  • Guarantee high data quality, availability, and compliance across applications and digital products.
  • Collaborate with product teams to identify required datasets and evaluate existing sources (e.g., update frequency, data reliability, known issues).
  • Contribute to the delivery of scalable, strategic data engineering solutions aligned with our data roadmap.

Requirements

🔹 Experience: 3+ years in data engineering or a similar role.
🔹 Tech Stack:
  • Cloud & Big Data: Proficient with AWS services including Lambda, S3, Glue.
  • Data Orchestration: Experience designing and managing workflows using Airflow.
  • Data Modeling & Transformation: Hands-on experience with dbt.
  • Data Warehousing: Solid knowledge of Snowflake.
  • Databases: Experience with MySQL or SQL Server.
  • Programming: Strong Python skills, including scripting, automation, and unit testing.
🔹 Other Skills:
  • Good understanding of data quality and governance practices.
  • Familiarity with various data sources and types in data mining and analytics.
  • Intermediate to advanced English for international team collaboration.

Nice to Have

🔸 Experience deploying dbt in production environments.
🔸 Knowledge of Data Lake and Lakehouse architectures.
🔸 Familiarity with CI/CD tools and Git-based version control (GitHub, GitLab, or Azure DevOps).
🔸 Experience with Docker for containerized data workflows.

What We Offer

  • 🌍 100% Remote – Work from anywhere in the world.
  • 🚀 Growth Opportunities – Be part of shaping a robust and modern data ecosystem.

Informal dress code No dress code is enforced.
APPLY VIA WEB
$$$ Full time
Data Engineer
  • Leniolabs_
SQL Business Intelligence Virtualization Amazon Web Services
Leniolabs_ que ahora es Improving South America es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España, USA y Canadá.
Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes.
Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.
Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Responsabilidades del Ingeniero de Datos

  • Descubrimiento de Fuentes Legacy: Utilizar SQL avanzado y scripting (Python/PowerShell) para automatizar procesos y documentar sistemas heredados.
  • Análisis de Calidad de Datos: Ejecutar perfiles de datos, identificar problemas de calidad y generar métricas clave de calidad (KPIs).
  • Limpieza Inicial de Datos: Aplicar herramientas ETL/ELT (Informatica, Talend, dbt) y realizar limpieza de datos en base a las comunicaciones con expertos.
  • Definición de Estrategias de Archivo vs. Migración: Diseñar modelos de datos y evaluar soluciones de almacenamiento equilibrando cumplimiento y costos.
  • Mapping a la Plataforma del Proveedor: Desarrollar procesos de mapeo y transformación para garantizar la correcta transferencia de datos.
  • Análisis de Necesidades Actuales de BI/Reportes: Colaborar con usuarios para optimizar consultas SQL y estructurar datos para reportes.
  • Tareas Adicionales: Orquestación de pipelines (Airflow), CI/CD, contenedorización (Docker, Kubernetes) y automatización en la nube (AWS).

Requisitos Técnicos y Habilidades Deseadas

Buscamos un profesional con el siguiente perfil:

  • Dominio en SQL avanzado, así como experiencia en herramientas ETL/ELT como Informatica, Talend y dbt. Conocimientos en sistemas de almacenamiento en la nube (AWS S3, Redshift)
  • Habilidades en orquestación de pipelines (Airflow, Docker, Kubernetes)
  • Familiaridad con herramientas de BI como Power BI o Tableau.
  • Nivel de inglés intermedio/avanzado o avanzado.
  • A nivel de habilidades blandas, esperamos que los candidatos tengan un fuerte pensamiento crítico, atención al detalle y la capacidad de comunicar hallazgos técnicos a diferentes públicos.

Habilidades Deseables

Si bien no son imprescindibles, se valorarán conocimientos adicionales en el trabajo con big data y experiencia en entornos ágiles. La capacidad de adaptarse rápidamente a nuevas herramientas y requisitos será muy apreciada, al igual que la iniciativa para proponer mejoras a nuestros procesos actuales.

¿Qué Ofrecemos?

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Computer provided Leniolabs_ provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
Gross salary $3000 - 3900 Full time
Senior Data Engineer
  • Apply Digital Latam
Python SQL Virtualization Big Data
ABOUT APPLY DIGITAL
Apply Digital is a global digital transformation partner for change agents. Leveraging expertise that spans Business Transformation Strategy, Product Design & Development, Commerce, Platform Engineering, Data Intelligence, Change Management, and beyond, we enable our clients to modernize their organizations and deliver meaningful impact to the business and to their customers. Our 650+ team members have helped transform global companies like Kraft Heinz, NFL, Moderna, Lululemon, Games Workshop, Atlassian, and The Very Group. Visit applydigital.com to learn how we can unlock your company’s potential.
If you'd like to learn more about Apply Digital's culture click HERE.
LOCATION: Apply Digital is hybrid/remote-friendly. The preferred candidate should be based in Latin America, preferably working in hours that align to ET (Eastern Timezone) or PT (Pacific Timezone).

Responsibilities:

  • Design, build, and optimize ETL/ELT pipelines using Python and SQL
  • Develop and maintain data warehouse schemas and analytics solutions
  • Implement data models and ensure data quality, consistency, and integrity
  • Leverage cloud data platforms (e.g., AWS Athena, Databricks, Snowflake, Azure Synapse/Fabric, Google BigQuery) for storage, processing, and querying
  • Create and maintain optimal data pipeline architecture.
  • Collaborate with analysts and stakeholders to define requirements and deliver data solutions that meet business needs
  • Communicate with stakeholders to understand data requirements and develop solutions.
  • Design, develop, implement, and maintain data architectures and pipelines.
  • Optimize query performance and ensure efficient data workflowsDocument data pipelines, architectures, and processes
  • Continuously improve and refine existing data infrastructure and solution
  • Develop and implement best practices for data management, security, and privacy.

Requirements:

  • A Bachelor's degree in Computer Science, Information Systems, or a related field.
  • At least 5 years of experience in data engineering or related fields.
  • Strong expertise in SQL, ETL, and data warehousing technologies.
  • Strong working knowledge of Python and PySpark
  • Proven experience with at least one major cloud data platform (AWS Athena, Databricks, Snowflake, Azure Synapse/Fabric, or Google BigQuery)
  • Knowledge of data migration tools and techniques.
  • Good knowledge of databases.
  • Strong background in data warehouse design, ETL/ELT processes, and data modeling, ideally with modern data warehouse and DBT
  • Familiarity with cloud engineering concepts and best practices
  • Experience working with large datasets and optimizing performance
  • Excellent problem-solving skills and attention to detail
  • Outstanding communication skills in English, both written and verbal.

Nice-to-haves:

  • Knowledge of multiple cloud platforms (AWS, Azure, GCP) and their data services
  • Familiarity with data governance and compliance requirements
  • Knowledge of CI/CD practices for data engineering
  • Familiarity with Agile development methodologies
  • Experience with containerization (Docker, Kubernetes)

Conditions

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Apply Digital Latam provides a computer for your work.
Vacation over legal Apply Digital Latam gives you paid vacations over the legal minimum.
Beverages and snacks Apply Digital Latam offers beverages and snacks for free consumption.
APPLY VIA WEB
$$$ Full time
Ingeniero de Operaciones TI
  • Usercode SpA
DevOps Continuous Integration Jenkins CI/CD

Usercode es una empresa tecnológica especializada en el desarrollo de software para instituciones públicas y organizaciones privadas. Nuestro foco son las tecnologías Cloud, la automatización y digitalización de procesos.

Trabajamos 100% remoto, nuestro equipo está en distintas regiones de Chile, México y Perú. Para comunicarnos y trabajar utilizamos Slack, Meet Hangout y Monday.

La necesidad actual:

El volumen del negocio de Usercode está creciendo por la vía de incorporar una mayor cantidad y tipo de proyectos de desarrollo, por un lado, y por otro lado, abriendo líneas de negocio relacionadas, como mantenimiento de infraestructura, y ampliando la cartera de clientes hacia el mercado privado.

Para lograr el éxito en este proceso es clave contar con un equipo de desarrollo capaz, autónomo, responsable, con experiencia, preparado técnicamente, con profundos conocimientos en una serie de herramientas específica, capaz de aprender y adquirir el uso herramientas nuevas.

Funciones del cargo

Para el puesto de Ingeniero de Operaciones TI con un enfoque en servicios cloud y DevOps, debe tener conocimiento en las siguientes características técnicas:

Configuración de máquinas virtuales en entornos Linux (obligatorio): Habilidad para instalar, configurar y mantener sistemas basados en Linux. Experiencia en la administración de servidores, optimización de rendimiento y seguridad de sistemas Linux.

Configuración de servicios web y de aplicaciones (obligatorio): Experiencia en la configuración y administración de servidores web y aplicaciones como Apache, Nginx, y Tomcat. Capacidad para implementar y gestionar procesos con gestores como PM2 para aplicaciones Node.js.

Seguridad de sistemas y redes (obligatorio): Conocimiento en la implementación de políticas de seguridad, gestión de accesos y configuración de firewalls y otros mecanismos de seguridad en entornos cloud y on-premise.

Monitoreo y logística (obligatorio): Experiencia en la configuración de herramientas de monitoreo y logística para garantizar la visibilidad y el rendimiento operativo, utilizando herramientas como Prometheus, Grafana, ELK Stack, etc.

Creación, mantención e implementación de productos digitales como plataformas web, aplicaciones móviles y/o sitios web.

El ingeniero de operaciones TI trabajará en el área de desarrollo de software junto con los demás desarrolladores, arquitecto de software, líder técnico y jefe de proyecto. Los proyectos serán mayoritariamente plataformas web para instituciones públicas o privadas donde debe levantar los diferentes ambientes, configurarlos, asegurar la seguridad, levantar y configurar los servicios necesarios para el correcto funcionamiento de las plataformas web y/o APIs.

Requerimientos del cargo

Requisitos técnicos:

Estamos en búsqueda de un Ingeniero de Operaciones TI, con un enfoque decidido hacia la gestión y optimización de servicios en la nube y prácticas DevOps. Esperamos que el candidato ideal tenga experiencia robusta en la implementación y manejo de ambientes cloud, utilizando herramientas modernas de CI/CD como Jenkins, y que posea habilidades sólidas en la configuración y administración de ambientes de desarrollo, prueba y producción.

El rol implica responsabilidades clave como la configuración de bases de datos y la garantía de su rendimiento óptimo, la implementación de soluciones escalables y la administración de infraestructura como código. Es fundamental que el candidato tenga la capacidad de colaborar estrechamente con equipos de desarrollo para facilitar despliegues rápidos y seguros, y asegurar la alta disponibilidad y resiliencia de los sistemas.

Buscamos a alguien que no solo se encargue de mantener la infraestructura existente, sino que también proponga y ejecute mejoras continuas, aplicando las mejores prácticas de seguridad y optimización de costos en entornos cloud.

Experiencia excluyente:

  • Configuración de máquinas virtuales en entornos Linux.
  • Configuración de servicios web y de aplicaciones.
  • Seguridad de sistemas y redes.
  • Monitoreo y logística.

Comportamiento esperado:

Lo que buscamos en ti:

  • Proactividad
  • Trabajo en equipo
  • Autonomía
  • Orientado a objetivos y resultados

Características personales:

  • Autonomía
  • Cumplimiento
  • Buenas habilidades de comunicación oral y escrita incluyendo comprensión lectora
  • Saber escuchar, atención
  • Ser respetuoso
  • Disposición a colaborar con el equipo
  • Responsable de sus tareas proyectos trabajos

Conocimientos deseables

Conocimiento en servicios AWS: Configuración y gestión de servicios clave de AWS como EC2, S3, RDS, ECS, Lambda, y VPC. Familiaridad con AWS CloudFormation o Terraform.

Gestión de bases de datos: Configuración, optimización y mantenimiento de sistemas de bases de datos. Experiencia en tareas como la configuración de replicación, backups automatizados y tuning de rendimiento.

Configuración y manejo de contenedores: Experiencia en uso de Docker para la creación y gestión de contenedores.

Orquestación con Kubernetes: Capacidad para implementar, configurar y manejar clústeres de Kubernetes.

Implementación y configuración de herramientas de CI/CD: Experiencia en la configuración y uso de Jenkins para la integración y entrega continua. Capacidad para diseñar pipelines de CI/CD.

Automatización y scripting: Habilidad en scripting con Bash, Python, o similar para la automatización de tareas administrativas y de despliegue.

Condiciones

Este puesto ofrece la flexibilidad de un entorno de trabajo remoto, sin embargo, según las necesidades específicas de nuestros clientes, puede haber ocasiones en las que se requiera tu presencia en un lugar de trabajo presencial.

  • Días extra de vacaciones.
  • Días libres 3x5, día libre por cumpleaños, cambio de domicilio, muerte de mascota
  • Pago de certificaciones seleccionadas
  • Pausa activa colaborativa
  • Aguinaldo

APPLY VIA WEB
$$$ Full time
Ingeniero de Operaciones TI
  • Usercode SpA
DevOps Continuous Integration Jenkins CI/CD

Usercode es una empresa tecnológica especializada en el desarrollo de software para instituciones públicas y organizaciones privadas. Nuestro foco son las tecnologías Cloud, la automatización y digitalización de procesos.

Trabajamos 100% remoto, nuestro equipo está en distintas regiones de Chile, México y Perú. Para comunicarnos y trabajar utilizamos Slack, Meet Hangout y Monday.

La necesidad actual:
El volumen del negocio de Usercode está creciendo por la vía de incorporar una mayor cantidad y tipo de proyectos de desarrollo, por un lado, y por otro lado, abriendo líneas de negocio relacionadas, como mantenimiento de infraestructura, y ampliando la cartera de clientes hacia el mercado privado.

Para lograr el éxito en este proceso es clave contar con un equipo de desarrollo capaz, autónomo, responsable, con experiencia, preparado técnicamente, con profundos conocimientos en una serie de herramientas específica, capaz de aprender y adquirir el uso herramientas nuevas.

Funciones del cargo

Configuración de máquinas virtuales en entornos Linux (obligatorio): Habilidad para instalar, configurar y mantener sistemas basados en Linux. Experiencia en la administración de servidores, optimización de rendimiento y seguridad de sistemas Linux.

Configuración de servicios web y de aplicaciones (obligatorio): Experiencia en la configuración y administración de servidores web y aplicaciones como Apache, Nginx, y Tomcat. Capacidad para implementar y gestionar procesos con gestores como PM2 para aplicaciones Node.js.

Seguridad de sistemas y redes (obligatorio): Conocimiento en la implementación de políticas de seguridad, gestión de accesos y configuración de firewalls y otros mecanismos de seguridad en entornos cloud y on-premise.

Monitoreo y logística (obligatorio): Experiencia en la configuración de herramientas de monitoreo y logística para garantizar la visibilidad y el rendimiento operativo, utilizando herramientas como Prometheus, Grafana, ELK Stack, etc.

Requerimientos del cargo

Enfoque decidido hacia la gestión y optimización de servicios en la nube y prácticas DevOps. Esperamos que el candidato ideal tenga experiencia robusta en la implementación y manejo de ambientes cloud, utilizando herramientas modernas de CI/CD como Jenkins, y que posea habilidades sólidas en la configuración y administración de ambientes de desarrollo, prueba y producción.

El rol implica responsabilidades clave como la configuración de bases de datos y la garantía de su rendimiento óptimo, la implementación de soluciones escalables y la administración de infraestructura como código. Es fundamental que el candidato tenga la capacidad de colaborar estrechamente con equipos de desarrollo para facilitar despliegues rápidos y seguros, y asegurar la alta disponibilidad y resiliencia de los sistemas.

Buscamos a alguien que no solo se encargue de mantener la infraestructura existente, sino que también proponga y ejecute mejoras continuas, aplicando las mejores prácticas de seguridad y optimización de costos en entornos cloud.

El candidato ideal debe ser proactivo, trabajar bien en equipo, y manejar habilidades de comunicación efectivas. Se valoran personas con orientación a resultados, autonomía, y un enfoque en la mejora continua.

Experiencia excluyente:

  • Configuración de máquinas virtuales en entornos Linux.
  • Configuración de servicios web y de aplicaciones.
  • Seguridad de sistemas y redes.
  • Monitoreo y logística.

Comportamiento esperado:

Lo que buscamos en ti:

  • Proactividad
  • Trabajo en equipo
  • Autonomía
  • Orientado a objetivos y resultados

Características personales:

  • Autonomía
  • Cumplimiento
  • Buenas habilidades de comunicación oral y escrita incluyendo comprensión lectora
  • Saber escuchar, atención
  • Ser respetuoso
  • Disposición a colaborar con el equipo
  • Responsable de sus tareas proyectos trabajos

Opcionales

Conocimiento en servicios AWS: Experiencia en la configuración y gestión de servicios clave de AWS como EC2, S3, RDS, ECS, Lambda, y VPC. Familiaridad con AWS CloudFormation o Terraform.

Gestión de bases de datos: Sólidos conocimientos en la configuración, optimización y mantenimiento de sistemas de bases de datos como MySQL y SQL Server. Experiencia en tareas como la configuración de replicación, backups automatizados y tuning de rendimiento.

Configuración y manejo de contenedores: Experiencia en el uso de Docker para la creación y gestión de contenedores.

Orquestación con Kubernetes : Capacidad para implementar, configurar y manejar clústeres de Kubernetes, optimizando la automatización y escalabilidad de aplicaciones en producción.

Implementación y configuración de herramientas de CI/CD: Experiencia en la configuración y uso de Jenkins para la integración y entrega continua.

Automatización y scripting: Habilidad en scripting con Bash, Python, o similar.

Beneficios

Este puesto ofrece la flexibilidad de un entorno de trabajo remoto, sin embargo, según las necesidades específicas de nuestros clientes, puede haber ocasiones en las que se requiera tu presencia en un lugar de trabajo presencial.

  • Días extra de vacaciones.
  • Días libres 3x5, día libre por cumpleaños, cambio de domicilio, muerte de mascota
  • Pago de certificaciones seleccionadas
  • Pausa activa colaborativa
  • Aguinaldo

APPLY VIA WEB
Gross salary $1900 - 2300 Full time
Desarrollador Full-Stack Integraciones y QA
  • Sendu
QA Ruby on Rails HTML5 PHP

En Sendu, nos dedicamos a facilitar la última milla través de integraciones efectivas y personalizadas con cualquier canal de venta digital de un negocio eCommerce. Nuestro ambiente laboral es dinámico y joven, lo que promueve la creatividad y el trabajo en equipo. Estamos en búsqueda de un Desarrollador Full Stack que encaje en este enfoque y que pueda liderar la calidad y estabilidad de nuestra plataforma, trabajando de manera remota y eficiente.

Responsabilidades Principales:

  • Desarrollo y mantenimiento de integraciones (plugins): Diseñar y mantener plugins de Sendu para plataformas como WooCommerce, Shopify, Magento y VTEX. Implementar nuevas funcionalidades y optimizar el rendimiento y la seguridad.
  • Integración personalizada con clientes: Coordinar reuniones y configurar integraciones necesarias, ofreciendo soporte técnico en tiempo real y realizando ajustes personalizados.
  • Ingeniería de soporte y QA: Diagnosticar problemas técnicos, realizar debugging y ejecutar pruebas para validar la calidad de nuevas funcionalidades, así como administrar tareas en Jira y Trello.

Requisitos Técnicos:

Desarrollo de Integraciones: Experiencia comprobada en desarrollo de plugins para plataformas eCommerce (WooCommerce, Shopify, Magento, VTEX) y conocimientos en JavaScript, PHP, Ruby on Rails (o equivalente), HTML5 y CSS3. Experiencia con APIs REST y Webhooks.

Soporte y QA: Habilidad para diagnosticar problemas en aplicaciones existentes y experiencia en debugging con herramientas como Selenium, Cypress, Jest o similar. Capacidad para gestionar proyectos en Jira y Trello.

Habilidades Blandas: Excelentes habilidades de comunicación, capacidad para liderar reuniones técnicas y proactividad para identificar y solucionar problemas. Organización efectiva y actitud colaborativa orientada al cliente.

Requisitos Deseables:

Experiencia con Docker y contenedores, familiaridad con AWS y conocimientos en bases de datos relacionales y no relacionales como MySQL, PostgreSQL o MongoDB.

Ofrecemos:

Un entorno de trabajo dinámico y colaborativo con modalidad híbrida/remota, según disponibilidad. Brindamos oportunidades de desarrollo profesional continuo y desafíos técnicos interesantes que te permitirán crecer en tu carrera.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Mlops Engineer
  • Niuro
Python Linux DevOps Docker
At Niuro, we are dedicated to connecting projects with elite tech teams, working collaboratively with leading companies in the U.S. Our AI team is expanding, and we are seeking a proactive MLOps Engineer to help us build and maintain robust machine learning pipelines. You will play a critical role in ensuring that our models are production-ready and scalable within dynamic environments, contributing to the successful execution of innovative projects.

Responsibilities

  • Pipeline Management & Automation: Build and maintain ML pipelines using Databricks and MLflow. Automate data workflows and ensure reproducibility of experiments.
  • Model Deployment & Monitoring: Deploy models to production and monitor their performance over time. Implement best practices for CI/CD in machine learning using Bitbucket.
  • Infrastructure & Environment Management: Manage and monitor batch jobs on Linux environments. Collaborate with data scientists to ensure smooth transitions from notebooks to production-grade code.
  • Collaboration & Documentation: Work closely with international teams to align on MLOps strategies and solutions. Document workflows and setups to ensure maintainability and transparency.

Requirements

  • Experience: 3+ years working in MLOps, DevOps, or related roles with machine learning pipelines.
  • Technologies: Hands-on experience with Databricks, MLflow, Python, Bitbucket, Batch processing, and Linux.
  • English: Intermediate-advanced written and spoken English (required) to work with international teams.
  • Mindset: Strong problem-solving skills and a passion for automation, performance, and scalability.

Preferred Qualifications

  • Experience working in remote, agile teams with international clients.
  • Familiarity with cloud services (AWS, Azure, or GCP).
  • Knowledge of Docker, Kubernetes, or Terraform is a plus.

What We Offer

  • 🌎 100% Remote – Work from anywhere!
  • 📈 Professional Growth – Join an innovative and collaborative AI-driven environment.

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
Gross salary $1800 - 2200 Full time
Especialista en Redes y Deploy (Senior)
  • Sumato-Id
  • Buenos Aires (Hybrid)
Linux Virtualization Docker English

Somos una empresa dedicada a digitalizar el mundo físico a través de Computer Vision e Inteligencia Artificial, con el fin de mejorar la operatoria de nuestros clientes. Trabajamos con marcas importantes de retail de Sudamerica.

Buscamos protagonistas que quieran desarrollarse en un ambiente de trabajo flexible con ganas de aprender y desarrollar soluciones innovadoras.

Funciones del cargo

En Sumato estamos buscando un Deploy Sr proactivo, con ganas de aprender sobre nuevas tecnologías y que quiera crecer junto con nosotros en su carrera profesional.

· Diseñar, implementar y mantener la generación de imágenes para la plataforma AKIRA EDGE.

· Configurar y gestionar redes privadas y públicas, incluyendo VPNs, garantizando su seguridad y funcionalidad.

· Implementar y gestionar contenedores Docker para entornos controlados y reproducibles.

· Automatizar el proceso de deploy para optimizar tiempos y recursos.

· Administrar servidores Linux, incluyendo la configuración y manejo de servicios como SSH, SFTP y firewall.

Requerimientos del cargo

Conocimiento de redes y deploy con un mínimo de entre 3-5 años de experiencia, para ayudarnos a crear soluciones innovadoras para el mercado.

Buscamos personas proactivas que posean experiencia demostrable en:

  • Experiencia sólida en redes informáticas, configuración de redes privadas/públicas y manejo de protocolos y topologías.
  • Conocimientos avanzados en administración de servidores Linux y servicios asociados.
  • Capacidad para configurar y gestionar firewalls y sistemas de transferencia segura de archivos.
  • Familiaridad con Docker y contenedores para el despliegue eficiente de aplicaciones.

Educación:

  • EDUCACIÓN: Universitario completo, ingeniería informática, Ingeniería en Redes y Telecomunicaciones, o carreras relacionadas.
  • IDIOMAS: inglés básico.
  • LUGAR DE RESIDENCIA: Buenos Aires.

Competencias Valoradas

  • COMUNICACION: Capacidad para comunicarse de manera clara y efectiva con el equipo y otros miembros de la organización.
  • RESOLUCION DE PROBLEMAS: Capaz de abordar y resolver desafíos técnicos y organizativos de manera efectiva.
  • GESTION DE TIEMPO: Gestionar eficientemente el tiempo y los recursos para cumplir con plazos y objetivos.

Condiciones

Somos una startup dinámica que trabaja por objetivos:

  • Ambiente flexible y desafiante, con foco en lo último en tecnología.
  • Posibilidad de trabajo remoto con autogestión de horarios.
  • Equipo dinámico, innovador y con valores como transparencia, confianza y compañerismo.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Sumato-Id provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Sumato-Id gives you paid vacations over the legal minimum.
APPLY VIA WEB
Gross salary $2800 - 3700 Full time
Site Reliability Engineer
  • Buk
Java Ruby on Rails Python PHP

En Buk, estamos en una misión audaz 💪🌎:

¡Transformar los entornos laborales en lugares más felices y productivos! Somos un equipo joven, lleno de energía y pasión por revolucionar la gestión de RRHH en Latinoamérica. La tecnología es nuestra herramienta principal, y nos esforzamos por la excelencia en cada aspecto de nuestra plataforma.

Con presencia en Chile, Colombia, México y Perú y próximos a iniciar operaciones en Brasil ¡estamos listos para atraer mentes brillantes que nos ayuden a seguir alcanzando muchas metas con miras al infinito y más allá! si quieres saber cómo es un día de trabajo con nosotros, no dudes en echar un vistazo al siguiente video: https://www.youtube.com/watch?v=jBxmAcOrMZU

Funciones del cargo

  • Te encargarás de desarrollar módulos y componentes transversales de la infraestructura.
  • Serás responsable de la administración de las plataformas internas.
  • Velarás por su estabilidad, disponibilidad, seguridad y escalabilidad.
  • Participarás en la mejora continua identificando mejoras a desarrollar.
  • Te encargarás de atender incidentes.
  • Participarás en la automatización de procesos.

Requerimientos del cargo

  • Al menos 3 años de experiencia en roles similares
  • Experiencia trabajando con Terraform
  • Conocimientos en AWS
  • Experiencia con Stack de monitoreo Grafana/Prometheus
  • Conocimiento en gitOps
  • Experiencia trabajando con Docker y Kubernetes (INDISPENSABLE)
  • Conocimientos de sistemas operativos Linux

Opcionales

  • Administración de bases de datos PostgreSQL
  • Experiencia en desarrollo de software (PHP, Java, Python, RoR, etc.)

Condiciones

  • ¡El mejor ambiente de trabajo! Nuestra misión es crear lugares de trabajo más felices, y bueno, lideramos con el ejemplo!😀
  • VACACIONES ILIMITADAS! 🌴🏖️☀️ Sí! ¡Leíste bien!
  • Plan de Beneficios personalizado ⭐ podrás elegir muchas opciones, entre Seguro complementario de Salud, aguinaldos, bonos, capacitaciones, clases de inglés, gimnasio, giftcards, asesoría financiera, ayuda psicológica, Netflix, Spotify y muchos más!
  • Postnatal Paternal de 5 semanas 🍼💙
  • Flexibilidad horaria, queremos que la gente se motive y trabaje feliz, cumpliendo objetivos, no que marque tarjeta.
  • Modalidad WFA 🌴🌞(Work From Anywhere) trabaja 100% en la oficina/ híbrido/ full remoto ¡Tú eliges!
  • Increíbles oficinas en Latam, modernas y con áreas recreativas: Máquina de cerveza, Helados, Mesa PingPong, Snacks y Café, Nintendo.🍩🍫🍺🍕🍎
  • ¡Olvídate de las corbatas y de los zapatos!
  • Sueldo: propone, si eres la persona que buscamos, no te quedarás fuera

Fully remote You can work from anywhere in the world.
Equity offered This position includes equity compensation (in the form of stock options or another mechanism).
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Buk pays or copays health insurance for employees.
Computer provided Buk provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Buk gives you paid vacations over the legal minimum.
Beverages and snacks Buk offers beverages and snacks for free consumption.
APPLY VIA WEB
Gross salary $1600 - 2500 Full time
Data Engineer
  • Brain Food
  • Ciudad de México (Hybrid)
MySQL SQL Oracle Python

Somos Brain Food, una consultora especializada en analítica, ciencia de datos, y transformación digital.

Trabajamos de la mano con grandes compañías de diversos rubros, nacionales e internacionales, en proyectos de alta complejidad. Contamos con un equipo heterogéneo de profesionales con vasta experiencia en diversas industrias, los cuales tienen distintos intereses y especialidades.

Nuestro objetivo es generar alto impacto en nuestros clientes, trabajando en equipo, con profesionalismo, ética, motivación, preparación y honestidad. Tenemos una cultura diferenciadora, con una propuesta de valor muy atractiva para el equipo y un lugar para trabajar extraordinario.

¿Cuáles serán tus funciones?

Serás parte del equipo de Data Engineers de Brain Food, liderado por el Head of Data Engineering y apoyado por un mentor que te será asignado para guiar y orientar tu desarrollo profesional. Como Data Engineer serás parte de distintos proyectos, para distintos clientes, y tendrás la responsabilidad de desarrollar proyectos de Big Data en los que deberás:

  • Diseñar una arquitectura de datos que cumpla la misión de ser puente entre la estrategia de negocios y la ejecución de la tecnología bajo los lineamientos de data governance de los clientes
  • Diseñar, mantener e implementar estructuras de almacenamiento de datos transaccionales y analíticos.
  • Extraer datos de diferentes fuentes y transferirlos a un entorno de almacén de datos.
  • Trabajar con grandes volúmenes de datos leídos de fuentes dispersas de información en la infraestructura tecnológica de una organización.
  • Procesar datos en ambientes de Big Data y posteriormente traducir los resultados emanantes en buenos diseños técnicos y datos consistentes
  • Revisar la integración consolidada de los datos, ya sea física o virtualmente, y describir cómo la interoperatividad de dichos datos capacitan para que múltiples sistemas se comuniquen

Los clientes en cuestión podrán variar de acuerdo al proyecto al que seas asignado

¿Cuáles son los requerimientos del cargo?

  • Experiencia demostrable con uno o mas servicios de GCP: BigQuery, BigTable, Cloud SQL, Cloud Storage; Cloud Composer, Data Fusion, Dataflow, Dataproc, Dataform; Docker-Kubernetes
  • Experiencia con una o mas de las siguientes bases de datos relacionales: sql server, oracle, postgres, db2, sqlite y/o mysql
  • Conocimientos avanzados de python y/o pyspark
  • Conocimientos de modelado de datos y experiencia en diseño e implementación de data warehouse, data lakes, data lakehouses
  • Experiencia trabajando bajo metodologías ágiles

Requisitos deseables pero no excluyentes

  • Conocimientos y/o experiencia con herramientas de BI como Looker, Power BI, Tableau
  • Conocimientos y/o experiencia con servicios de procesamiento y almacenamiento de datos de Azure o AWS

¿Qué ofrecemos?

  • Alta exposición y experiencia de trabajo: Constante interacción con clientes, alto nivel de exposición con cargos estratégicos de la contraparte, trabajando desde el primer día con grandes empresas en proyectos desafiantes de alta complejidad y muchas de ellas en Latinoamérica.
  • Trabajar no lo es todo: Para promover el descanso, ofrecemos 11 días libres adicionales al año.
  • Nunca se deja de aprender: Para mejorar como profesionales tenemos que estar en constante aprendizaje; contamos con un presupuesto anual por persona destinado a capacitaciones.
  • Plan de participación en el reparto de utilidades después del primer año.
  • Excelente ambiente laboral: Equipo joven y altamente cohesionado, con disposición, centrado en el apoyo entre equipos.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Computer provided Brain Food provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Brain Food gives you paid vacations over the legal minimum.
Beverages and snacks Brain Food offers beverages and snacks for free consumption.
APPLY VIA WEB
Gross salary $3000 - 3900 Full time
Senior Data Engineer
  • Apply Digital Latam
SQL Python Virtualization BigQuery
ABOUT APPLY DIGITAL
Apply Digital is a global digital transformation partner for change agents. Leveraging expertise that spans Business Transformation Strategy, Product Design & Development, Commerce, Platform Engineering, Data Intelligence, Change Management, and beyond, we enable our clients to modernize their organizations and deliver meaningful impact to the business and to their customers. Our 650+ team members have helped transform global companies like Kraft Heinz, NFL, Moderna, Lululemon, Games Workshop, Atlassian, and The Very Group. Visit applydigital.com to learn how we can unlock your company’s potential.
If you'd like to learn more about Apply Digital's culture click HERE.
LOCATION: Apply Digital is hybrid/remote-friendly. The preferred candidate should be based in Latin America, preferably working in hours that align to ET (Eastern Timezone) or PT (Pacific Timezone).

Responsibilities:

  • Design, build, and optimize ETL/ELT pipelines using Python and SQL
  • Develop and maintain data warehouse schemas and analytics solutions
  • Implement data models and ensure data quality, consistency, and integrity
  • Leverage cloud data platforms (e.g., AWS Athena, Databricks, Snowflake, Azure Synapse/Fabric, Google BigQuery) for storage, processing, and querying
  • Create and maintain optimal data pipeline architecture.
  • Collaborate with analysts and stakeholders to define requirements and deliver data solutions that meet business needs
  • Communicate with stakeholders to understand data requirements and develop solutions.
  • Design, develop, implement, and maintain data architectures and pipelines.
  • Optimize query performance and ensure efficient data workflowsDocument data pipelines, architectures, and processes
  • Continuously improve and refine existing data infrastructure and solution
  • Develop and implement best practices for data management, security, and privacy.

Requirements:

  • A Bachelor's degree in Computer Science, Information Systems, or a related field.
  • At least 5 years of experience in data engineering or related fields.
  • Strong expertise in SQL, ETL, and data warehousing technologies.
  • Strong working knowledge of Python and PySpark
  • Proven experience with at least one major cloud data platform (AWS Athena, Databricks, Snowflake, Azure Synapse/Fabric, or Google BigQuery)
  • Knowledge of data migration tools and techniques.
  • Good knowledge of databases.
  • Strong background in data warehouse design, ETL/ELT processes, and data modeling, ideally with modern data warehouse and DBT
  • Familiarity with cloud engineering concepts and best practices
  • Experience working with large datasets and optimizing performance
  • Excellent problem-solving skills and attention to detail
  • Outstanding communication skills in English, both written and verbal.

Nice-to-haves:

  • Knowledge of multiple cloud platforms (AWS, Azure, GCP) and their data services
  • Familiarity with data governance and compliance requirements
  • Knowledge of CI/CD practices for data engineering
  • Familiarity with Agile development methodologies
  • Experience with containerization (Docker, Kubernetes)

Conditions

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Apply Digital Latam provides a computer for your work.
Vacation over legal Apply Digital Latam gives you paid vacations over the legal minimum.
Beverages and snacks Apply Digital Latam offers beverages and snacks for free consumption.
APPLY VIA WEB
$$$ Full time
DevOps Engineer
  • NeuralWorks
  • Santiago (Hybrid)
DevOps Python Virtualization Docker
NeuralWorks es una compañía de alto crecimiento fundada hace 3 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

Descripción del trabajo

El equipo de Data y Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.
Como DevOps Engineer, tu trabajo es clave en construir y proveer los sistemas e infraestructura que permiten el desarrollo de estos servicios, formando los cimientos sobre los cuales las y los Software Engineers construyen los modelos que permiten generar impacto, con servicios que deben escalar, con altísima disponibilidad y tolerantes a fallas, en otras palabras, que funcionen. Además, mantendrás tu mirada en los indicadores de capacidad y performance de los sistemas.
En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, una pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.
Trabajarás en conjunto con ML Engineers, Data Scientists, Data Engineers, DevOps y Software Engineers. Cómo DevOps Engineer, tu trabajo consistirá en:
  • Participar activamente durante el ciclo de vida del software, desde inception, diseño, deploy, operación y mejora.
  • Apoyar a los equipos de desarrollo en actividades de diseño y consultoría, desarrollando software, frameworks y capacity planning.
  • Manejar y monitorear el desempeño de infraestructura y aplicaciones.
  • Poner en práctica conceptos de Site Reliability Engineering cómo SLA, SLI, SLO, error budgets, entre otros, con métricas de confiabilidad y performance adecuadas a cada modelo.
  • Asegurar la escalabilidad y resiliencia.
  • Promover buenas prácticas en desarrollo de software, fomentando la automatización y monitoreo continuo.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia práctica de al menos 3 años en ingeniería de software o sistemas (DevOps, SRE, ML Engineer).
  • Experiencia con Python.
  • Pasión en problemáticas de infraestructura y producción.
  • Experiencia con servidores cloud (GCP, AWS o Azure), especialmente el conjunto de servicios de procesamiento de datos.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en pipelines de CI/CD y Docker
  • Habilidad para debug, optimizar código y automatizar tareas rutinarias.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.
  • Habilidades de comunicación y trabajo colaborativo.
¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

Nice to have

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Entendimiento de arquitectura de microservicios y orquestación de containers con Kubernetes.
  • Conocimiento de elementos de SRE y MLOps (CT).
  • Experiencia en la construcción y optimización de pipelines de producción e infraestructura como código.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Vestimenta informal
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Commuting stipend NeuralWorks offers a stipend to cover some commuting costs.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
APPLY VIA WEB
$$$ Full time
DevOps Engineer Senior
  • 2BRAINS
  • Santiago (Hybrid)
DevOps Continuous Integration Virtualization Docker

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

El perfil de DevOps Engineer de 2Brains

El DevOps Engineer se encargará de combinar el desarrollo de software (Dev) y las operaciones de TI (Ops) para optimizar el ciclo de vida del software. Su objetivo principal es automatizar, integrar y mejorar los procesos de desarrollo, prueba y despliegue de aplicaciones, asegurando que sean rápidos, eficientes y confiables. Buscamos sumar un nuevo talento al equipo de desarrollo, personas apasionadas por la metodología DevOps y la optimización de procesos. Si disfrutas diseñando e implementando servicios en infraestructuras, esta oportunidad es para ti. Trabajarás junto a diversas células de desarrollo, impulsando mejoras en la entrega y el despliegue continuo para llevar nuestra infraestructura al siguiente nivel.

Que conocimientos buscamos en/la DevOps Engineer

  • Conocimiento en fundamentos DevOps (Valores, Principios, Prácticas)
  • Conocimiento de Plataformas Cloud (AWS, GCP o Azure)
  • Experiencia en desarrollos de pipelines CI/CD (Jenkins, Github Actions)
  • Uso de sistemas de repositorio GIT (Code Commit, Github)
  • Conocimiento en estrategias de versionado (Git Flow, TBD)
  • Experiencia en integración de Code Scan con Sonar
  • Experiencia en uso de contenedores con Docker, Kubernetes y arquitectura orientada a microservicios.
  • Experiencia en herramientas DevSecOps como Snyk o OWASP Dependency-CheckExperiencia en estrategias de despliegue seguro como blue/green deployments o canary releases.
  • Experiencia con metodologías ágiles (Scrum, Kanban).
  • Conocimiento en lenguajes y frameworks de programación (Java, Spring Boot, React)
  • Experiencia en testing y test automation (JUnit, Selenium, Postman, JMeter)

Que competencias buscamos en/la DevOps Engineer

  • Relacionamiento con diferentes áreas y profesionales.
  • Buena comunicación.
  • Tolerancia a la frustración.
  • Mucha autogestión.

Te ofrecemos

  • Trabajar con un gran equipo de alto rendimiento, aprendemos y nos desarrollamos juntos.
  • Acceso a grandes clientes y proyectos desafiantes.
  • Aprendizaje y crecimiento permanente, generamos meetups, capacitaciones y charlas internas.
  • Un entorno de trabajo flexible y dinámico.
  • Trabajo híbrido.
  • Bono de educación para cursos relacionados con el puesto
  • Vacaciones extras adicionales al mínimo legal
  • Día de cumpleaños libre
  • Espacios para charlas internas.
  • Proyecto por 3 meses.

Wellness program 2BRAINS offers or subsidies mental and/or physical health activities.
Internal talks 2BRAINS offers space for internal talks or presentations during working hours.
Informal dress code No dress code is enforced.
Shopping discounts 2BRAINS provides some discounts or deals in certain stores.
Vacation over legal 2BRAINS gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
Gross salary $1800 - 2500 Full time
DevOps Engineer
  • coderslab.io
  • Santiago (Hybrid)
NoSQL SQL DevOps Continuous Integration

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente nos encontramos apuntando al crecimiento de nuestros equipos de manera global con el objetivo de posicionarnos con nuestros productos en más países de Latinoamérica, es por ello que estamos en búsqueda de un DEVOPS para sumarse a nuestro equipo.

Te sumarás a un equipo desafiante y ambicioso con ganas de renovar el mercado, por lo que tus propuestas serán de mucho valor para el negocio.

¡Postula para este tremendo desafío!

Funciones del cargo

  • Apoyar en la implementación y mantenimiento de pipelines de CI/CD para la integración y entrega continua.
  • Colaborar en la migración de aplicaciones hacia entornos basados en Kubernetes y Docker.
  • Asistir en la administración de infraestructura en la nube y on-premise utilizando herramientas de IaC (Infrastructure as Code).
  • Optimizar la configuración y orquestación de contenedores en Kubernetes bajo la supervisión del Ingeniero DevOps Senior.
  • Implementar estrategias de observabilidad, monitoreo y alertamiento utilizando herramientas como Datadog o similares.
  • Apoyar en la resolución de incidentes y en la optimización de tiempos de respuesta.
  • Documentar procedimientos, configuraciones y mejoras implementadas en la infraestructura.

Requerimientos del cargo

  • Experiencia de al menos 2 a 4 años en roles similares de DevOps o SRE.
  • Conocimiento medio/avanzado en Kubernetes y Docker.
  • Experiencia con herramientas de CI/CD (Jenkins, GitLab CI/CD, GitHub Actions, ArgoCD, etc.).
  • Manejo de Infraestructura como Código (Terraform, Ansible, Helm, CloudFormation, etc.).
  • Experiencia en scripting y automatización con Bash, Python, o similares.
  • Conocimiento en monitoreo y logging (Grafana, ELK, Datadog, etc.).
  • Manejo de sistemas operativos Linux (principalmente) y Windows.
  • Conocimiento en redes y seguridad en entornos cloud y on-premise.
  • Familiaridad con bases de datos SQL y NoSQL.

Habilidades Blandas:

  • Capacidad de trabajo en equipo y colaboración con desarrolladores y otras áreas.
  • Proactividad y autonomía para la resolución de problemas.
  • Comunicación efectiva, tanto escrita como verbal.
  • Adaptabilidad a nuevas tecnologías y metodologías.
  • Pensamiento analítico y enfoque en la mejora continua.

APPLY VIA WEB
$$$ Full time
DevOps Lead
  • Moventi
DevOps Python Virtualization Docker

We are seeking an experienced DevOps Lead to join our team, who will be responsible for designing, implementing, and maintaining our cloud-based infrastructure on Amazon Web Services (AWS).
En este rol, tendrás la oportunidad de liderar proyectos relacionados con la innovación tecnológica, garantizando que cumplamos con los estándares más altos.

Funciones del cargo

As a DevOps Lead, you will be responsible for leading our DevOps team, ensuring the smooth operation of our cloud infrastructure, and driving the adoption of DevOps best practices across the organization.

  • Cloud Infrastructure: Design, implement, and maintain our cloud infrastructure on AWS, ensuring scalability, security, and high availability.
  • CI/CD Pipelines: Develop and maintain CI/CD pipelines using GitHub Actions, ensuring automated testing, building, and deployment of our applications.
  • Automation: Automate repetitive tasks, and implement infrastructure-as-code (IaC) using tools like Chef, CloudFormation, CDK.
  • Containerization: Implement and manage containerization using Docker, ensuring efficient and scalable deployment of our applications.
  • Security: Ensure the security and compliance of our cloud infrastructure, implementing best practices, and adhering to industry standards (e.g., HIPAA, PCI-DSS).
  • Collaboration: Work closely with cross-functional teams, including development, QA, and product, to ensure smooth operation of our applications and infrastructure.
  • Monitoring and Logging: Implement monitoring and logging tools (DataDog, CloudWatch), ensuring real-time visibility into our infrastructure and applications.
  • Troubleshooting: Identify and resolve issues, debugging complex problems, and optimizing system performance.

Requerimientos del cargo

  • Technical Skills:
  • AWS, including EC2, ECS, RDS, IAM
  • Expertise in IaC tools (preferably - AWS CDK)
  • Expertise in CI/CD pipelines using GitHub Actions
  • Proficiency in automation tools like Chef, Ansible, or Puppet
  • Experience with containerization using Docker, including Docker Compose and Docker Swarm
  • Strong understanding of security best practices, including network security, access control, and compliance
  • Strong knowledge of Python and Shell scripting
  • Familiarity with monitoring and logging tools (DataDog, AWS CloudWatch)
  • Soft Skills:
  • Excellent leadership and communication skills
  • Strong problem-solving skills, with the ability to break down complex issues into manageable parts
  • Ability to adapt to changing requirements and priorities
  • Passion for DevOps, automation, and security, with a focus on delivering high-quality solutions
  • Education
  • Bachelor's degree in Computer Science, Information Technology, or a related field
  • Experience
  • At least 5 years of experience in DevOps, with a focus on cloud infrastructure, CI/CD pipelines, and automation
  • Experience leading DevOps teams, with a proven track record of delivering high-quality solutions

Opcionales

Certifications:

  • AWS Certified DevOps Engineer - Professional
  • GitHub Actions Certified Developer
  • Chef Certified Developer
  • Docker Certified Associate

Conditions

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
APPLY VIA WEB
Gross salary $2400 - 3000 Full time
DevOps
  • coderslab.io
  • Santiago (Hybrid)
Ruby DevOps Python Virtualization
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente nos encontramos apuntando al crecimiento de nuestros equipos de manera global con el objetivo de posicionarnos con nuestros productos en más países de Latinoamérica, es por ello que estamos en búsqueda de un DEVOPSpara sumarse a nuestro equipo.
Te sumarás a un equipo desafiante y ambicioso con ganas de renovar el mercado, por lo que tus propuestas serán de mucho valor para el negocio.
¡Postula para este tremendo desafío!

Funciones del cargo

  1. Diseño e Implementación de Infraestructura:
    • Diseñar e implementar soluciones de infraestructura que cumplan con los estándares de alta disponibilidad, escalabilidad y observabilidad.
    • Automatizar la configuración y el despliegue de los componentes de la infraestructura utilizando herramientas de Infraestructura como Código (IaC), como Terraform.
  2. Mantenimiento y Monitoreo:
    • Tomar posesión de los componentes de la infraestructura, asegurando su confiabilidad y rendimiento a través de revisiones de código y pruebas.
    • Implementar y gestionar herramientas de monitoreo y observabilidad, incluyendo ELK stack y Datadog, para garantizar la integridad y el rendimiento de los sistemas.
  3. Colaboración y Gestión de Proyectos:
    • Colaborar con otros ingenieros, partes interesadas y equipos de operaciones para comprender los requisitos comerciales y brindar soluciones técnicas efectivas.
    • Trabajar en un entorno de desarrollo ágil, utilizando herramientas como Jira y Confluence para gestionar el trabajo y realizar un seguimiento del progreso.
  4. Optimización y Mejora Continua:
    • Identificar y abordar los puntos débiles en los sistemas de la empresa a través de la automatización y la optimización.
    • Mantenerse actualizado con las tecnologías emergentes y las tendencias de la industria en el espacio DevOps/SRE para impulsar la innovación.
  5. Desarrollo y Scripting:
    • Programar en lenguajes como Python, Ruby y Bash para optimizar procesos y herramientas de infraestructura.

Requerimientos del cargo

  • Experiencia: Mínimo 3 años de experiencia como ingeniero DevOps o en roles relacionados con infraestructura cloud, incluyendo migración de infraestructura.
  • Conocimientos Técnicos:
    • Competencia en lenguajes de programación desde una perspectiva de infraestructura (Python, Ruby, Bash).
    • Familiaridad con servicios Cloud (AWS, Azure, GCP, etc.).
    • Experiencia con herramientas de monitoreo y logs, como ELK stack y Datadog.
    • Conocimiento avanzado de herramientas de infraestructura como código (IaC), específicamente Terraform.
    • Gran comprensión de los principios y prácticas de DevOps.
    • Experiencia en administración de sistemas Linux, control de versiones (Git), y tecnologías de contenedorización (Docker, Kubernetes).
  • Habilidades Personales:
    • Fuertes habilidades de comunicación y colaboración.
    • Capacidad para trabajar en un entorno ágil y adaptarse a cambios.
    • Pensamiento analítico y orientación a resultados.
    • Compromiso con la mejora continua y la innovación.

APPLY VIA WEB
Gross salary $2000 - 2300 Full time
Analista DevOps
  • Interfell
  • Medellín (Hybrid)
DevOps Virtualization Docker Git

En Interfell, conectamos empresas con el más destacado talento IT de LATAM. Somos apasionados por impulsar el futuro del mundo empresarial a través del trabajo remoto y la inclusión. Buscamos un Analista DevOps , con la misión de a segurar la entrega eficiente, confiable y escalable de las aplicaciones y servicios, promoviendo la automatización, la colaboración interdisciplinaria y la cultura DevOps dentro de la organización, principalmente en proyectos de ecosistemas de pago. Para trabajar en modalidad Híbrida 5 días al mes en oficina.

Funciones del cargo

  • Integración y entrega continua (CI/CD):
  • Diseñar, implementar y mantener pipelines de CI/CD.
  • Automatizar pruebas, despliegues y retroalimentación al equipo de desarrollo.
  • Gestión de infraestructura.
  • Configuración y administración de infraestructura con código (IaS) utilizando herramientas como Terraform, Terragunt, Cloudformation, Argo.
  • Supervisar y gestionar entornos de desarrollo, testing y producción.
  • Automatización de procesos.
  • Desarrollar y mantener scripts para automatizar tareas repetitivas.
  • Optimizar flujos de trabajo para mejorar la eficiencia.
  • Monitoreo y resolución de problemas.
  • Configurar sistemas de monitoreo y observabilidad para detectar fallos de manera automática y proactiva.
  • Diagnosticar y solucionar problemas de rendimiento y disponibilidad de los servicios.
  • Seguridad y cumplimiento.
  • Implementar controles de seguridad en el proceso de desarrollo y despliegue.
  • Garantizar el cumplimiento de normativas y estándares de seguridad.
  • Colaboración interdisciplinaria.
  • Trabajar estrechamente con los equipos de desarrollo, producto, QA para alineación de objetivos estratégicos.
  • Participar en reuniones de planificación para anticipar necesidades técnicas.

Requerimientos del cargo

  • Experiencia comprobada en diseño e implementación de CI/CD o CI/CD/CT (mínimo 3 años).
  • Familiaridad con múltiples plataformas de nube (AWS, Azure, Google Cloud, etc.)
  • Nivel de inglés intermedio (lectura y comprensión)
  • Herramientas de orquestación y automatización (Terraform, Argo, Ansible, CloudFormation, Terragrunt, etc.).
  • Conocimiento en GitHub, Git, GitHub actions.
  • Habilidades en programación o scripting.
  • Conocimiento con contenedores y orquestadores (Docker, Kubernetes)

Opcionales

  • Docker Certified Associate (DCA).
  • Certified Kubernetes Administrator (CKA).
  • AWS Solutions Architect Associate.
  • AWS Certified DevOps Engineer.

Condiciones

  • Modalidad de trabajo híbrido (3 - 5 días al mes en oficina)
  • Programas de formación académica.
  • Días adicionales de vacaciones.
  • Días libres en fechas especiales.
  • Excelente ambiente laboral y oportunidades de crecimiento personal y profesional.
  • Lunes a viernes 8:00 am - 5:30 pm. Colombia
  • Tiempo de contratación estimado Indefinido, en modalidad de contractor
  • Requiere Prueba Técnica

APPLY VIA WEB
$$$ Full time
Ingeniero DevOps y Monitoreo
  • BC Tecnología
DevOps .Net Virtualization Docker
En BC Tecnología, somos una consultora de TI especializada en ofrecer soluciones innovadoras a nuestros clientes en los sectores de servicios financieros, seguros, retail y gobierno. Con un enfoque en el cliente y la implementación de metodologías ágiles, diseñamos y desarrollamos proyectos tecnológicos que abarcan desde la consultoría hasta el apoyo en infraestructura tecnológica. En este proyecto específico, buscamos un Ingeniero DevOps y Monitoreo, quien será parte de un equipo dinámico enfocado en optimizar la administración y el monitoreo de nuestras soluciones en entornos de nube como Azure y GCP.

Funciones del puesto

Como Ingeniero DevOps y Monitoreo, tendrás responsabilidades clave que incluyen:
  • Implantar y gestionar entornos de integración y despliegue continuo utilizando GitLab.
  • Desarrollar y mantener infraestructuras como código utilizando Terraform.
  • Colaborar en la implementación de aplicaciones en plataformas en la nube como Azure y GCP.
  • Implementar soluciones de contenedores utilizando Docker y Kubernetes para asegurar despliegues eficientes.
  • Participar en la monitorización de sistemas y aplicaciones para garantizar su disponibilidad y rendimiento óptimos.
Esperamos que puedas colaborar con nuestro equipo para ofrecer soluciones robustas y escalables a nuestros clientes.

Descripción del perfil buscado

Buscamos un profesional con al menos 4 años de experiencia en el área de DevOps, que cuente con habilidades técnicas comprobadas en:
  • GitLab para la gestión de repositorios y flujos de trabajo CI/CD.
  • Plataformas de nube como Azure y Google Cloud Platform (GCP).
  • Tecnologías de infraestructura como código, específicamente Terraform.
  • Desarrollo con .Net y JavaScript.
  • Contenerización de aplicaciones mediante Docker y gestión de orquestadores como Kubernetes.
Valoramos la capacidad para trabajar de manera remota, así como habilidades de trabajo en equipo, comunicación efectiva y una mentalidad de mejora continua.

Habilidades deseables

Sería ideal que el candidato tuviera experiencia adicional en:
  • Automatización de procesos de infraestructura y despliegue.
  • Herramientas de monitoreo y gestión de rendimiento.
  • Implementación de metodologías ágiles en proyectos de TI.
  • Participación en equipos multidisciplinarios para la solución de incidencias y mejoras.
La capacidad para adaptarse a nuevas tecnologías y un enfoque proactivo son altamente valoradas.

Beneficios de trabajar con nosotros

Ofrecemos un contrato por proyecto de 6 meses con posibilidad de extensión, acompañado de un sueldo a convenir. Nuestros empleados disfrutan de:
  • Seguro complementario.
  • Amipass de $4,500 por día laborado.
  • Convenciones, actividades y bonos.
Nuestra ubicación en Alto Las Condes proporciona un entorno de trabajo moderno y funcional. ¡Nos encantaría contar contigo en nuestro equipo! 🌟

APPLY VIA WEB
Gross salary $1200 - 1400 Full time
Ingeniero Cloud
  • BC Tecnología
  • Lima (In-office)
Cloud Cloud Engineer
En BC Tecnología, somos una consultora de TI en constante evolución, ofreciendo servicios que incluyen la gestión de portafolios, desarrollo de proyectos y outsourcing de talento en diferentes áreas tecnológicas. Durante los últimos 6 años, hemos trabajado con clientes en servicios financieros, seguros, retail y gobierno, creando soluciones personalizadas que responden a las necesidades específicas de cada cliente. Nuestras áreas de negocio abarcan consultoría, formación de equipos de trabajo, y servicios de soporte y administración IT, siempre con un enfoque claro en el cliente y el uso de metodologías ágiles.

✅ Requerimiento:

Estamos buscando un Especialista Cloud que cuente con al menos 2 a 3 años de experiencia en el área. Las responsabilidades incluirán:
  • -Experiencia práctica con Docker (creación, optimización de imágenes).
  • -Conocimientos avanzados de AWS (despliegue, configuración y seguridad).
  • -Experiencia en arquitectura de software (microservicios, escalabilidad, etc.).
  • -Manejo de herramientas de CI/CD (Jenkins, GitLab CI, GitHub Actions, etc.).
  • -Habilidades de liderazgo técnico y comunicación efectiva.

✅ Condiciones:

El candidato ideal deberá tener habilidades técnicas sólidas y ser un buen comunicador. Ofrecemos un contrato por proyecto estimado a 6 meses, con trabajo presencial en nuestras oficinas en San Isidro, Perú. La disponibilidad requerida es de lunes a viernes de 9:00 am a 6:00 pm. El salario se definirá de común acuerdo, basado en la experiencia y conocimientos del candidato.

Deseable:

Sería ideal contar con conocimientos adicionales en Kubernetes, Terraform u otras plataformas de cloud computing, lo que será valorado durante el proceso de selección.

APPLY VIA WEB
Gross salary $2800 - 3700 Full time
Site Reliability Engineer
  • Buk
Virtualization Docker Amazon Web Services Kubernetes

En Buk, estamos en una misión audaz 💪🌎:

¡Transformar los entornos laborales en lugares más felices y productivos! Somos un equipo joven, lleno de energía y pasión por revolucionar la gestión de RRHH en Latinoamérica. La tecnología es nuestra herramienta principal, y nos esforzamos por la excelencia en cada aspecto de nuestra plataforma.

Con presencia en Chile, Colombia, México y Perú y próximos a iniciar operaciones en Brasil ¡estamos listos para atraer mentes brillantes que nos ayuden a seguir alcanzando muchas metas con miras al infinito y más allá! si quieres saber cómo es un día de trabajo con nosotros, no dudes en echar un vistazo al siguiente video: https://www.youtube.com/watch?v=jBxmAcOrMZU

Funciones del cargo

  • Te encargarás de desarrollar módulos y componentes transversales de la infraestructura.
  • Serás responsable de la administración de las plataformas internas.
  • Velarás por su estabilidad, disponibilidad, seguridad y escalabilidad.
  • Participarás en la mejora continua identificando mejoras a desarrollar.
  • Te encargarás de atender incidentes.
  • Participarás en la automatización de procesos.

Requerimientos del cargo

  • Al menos 3 años de experiencia en roles similares
  • Experiencia trabajando con Terraform
  • Conocimientos en AWS
  • Experiencia con Stack de monitoreo Grafana/Prometheus
  • Conocimiento en gitOps
  • Experiencia trabajando con Docker y Kubernetes (INDISPENSABLE)
  • Conocimientos de sistemas operativos Linux

Opcionales

  • Administración de bases de datos PostgreSQL
  • Experiencia en desarrollo de software (PHP, Java, Python, RoR, etc.)

Condiciones

  • ¡El mejor ambiente de trabajo! Nuestra misión es crear lugares de trabajo más felices, y bueno, lideramos con el ejemplo!😀
  • VACACIONES ILIMITADAS! 🌴🏖️☀️ Sí! ¡Leíste bien!
  • Plan de Beneficios personalizado ⭐ podrás elegir muchas opciones, entre Seguro complementario de Salud, aguinaldos, bonos, capacitaciones, clases de inglés, gimnasio, giftcards, asesoría financiera, ayuda psicológica, Netflix, Spotify y muchos más!
  • Postnatal Paternal de 5 semanas 🍼💙
  • Flexibilidad horaria, queremos que la gente se motive y trabaje feliz, cumpliendo objetivos, no que marque tarjeta.
  • Modalidad WFA 🌴🌞(Work From Anywhere) trabaja 100% en la oficina/ híbrido/ full remoto ¡Tú eliges!
  • Increíbles oficinas en Latam, modernas y con áreas recreativas: Máquina de cerveza, Helados, Mesa PingPong, Snacks y Café, Nintendo.🍩🍫🍺🍕🍎
  • ¡Olvídate de las corbatas y de los zapatos!
  • Sueldo: propone, si eres la persona que buscamos, no te quedarás fuera

Fully remote You can work from anywhere in the world.
Equity offered This position includes equity compensation (in the form of stock options or another mechanism).
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Buk pays or copays health insurance for employees.
Computer provided Buk provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Buk gives you paid vacations over the legal minimum.
Beverages and snacks Buk offers beverages and snacks for free consumption.
APPLY VIA WEB
$$$ Full time
Ingeniero DevOps
  • Agilesoft SpA
Node.js DevOps Continuous Integration Virtualization
Agilesoft es una start-up formada por gente joven, enfocada en el desarrollo de software. Somos amantes de la tecnología, con un ambiente laboral entretenido y grato. Más que cumplir horarios, trabajamos bajo metas, que nos impulsan a resultados innovadores y de calidad.
Descripción:
Trabajamos principalmente desarrollando plataformas web y aplicaciones móviles para grandes empresas. A la vez, tenemos la necesidad de desafiarnos constantemente a mejorar nuestras buenas prácticas y expertise en las diferentes tecnologías emergentes. Somos agnósticos a las marcas o productos, amamos la velocidad de transformación y la posibilidad de aprender cada día algo nuevo.

Funciones del cargo

Estamos en búsqueda de un Ingeniero DevOps para integrarse a nuestra planta de trabajo de Santiago de Chile a una célula de desarrollo ágil asignada a uno de nuestros clientes.
Deberá realizar una monitorización continua de todo el ciclo de vida del desarrollo del software y debe saber cómo administrar la infraestructura TI, asegurando la integración y despliegue continuo.
Es muy importante la motivación por aprender, estar actualizado en tecnologías y autogestión para cumplir con el equipo, los cuales pueden ser diversos y cambiar, por lo que debes estar preparado para un ambiente dinámico, desafiante y divertido para crecer como profesional.

Requerimientos del cargo

- Título profesional de Ingeniería civil / ejecución en computación / informática.
- Minimo 2 años de experiencia como Devops
- Kubernetes
- Docker
- jenkins
- GitHub
- JavasScript
- Node.js
- GitLab
- Boostrap

Condiciones

- Lunes a Jueves de 09:00 hrs a 18:00 hrs y Viernes de 09:00 hrs a 17:00 hrs
- Ambiente laboral grato, flexible, entretenido y dinámico.
- Computador de trabajo.

- Caja de compensación Los Andes (CHILE)
- Seguro complementario de Salud y Dental. (CHILE)
- Seguro Yunen (REPUBLICA DOMINICANA)

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Agilesoft SpA pays or copays health insurance for employees.
Computer provided Agilesoft SpA provides a computer for your work.
APPLY VIA WEB
Gross salary $2100 - 2700 Full time
DevOps
  • coderslab.io
  • Santiago (Hybrid)
Ruby DevOps Python Virtualization

En CodersLab, actualmente estamos enfocados en el crecimiento global de nuestros equipos con el objetivo de posicionar nuestros productos en más países de Latinoamérica. Por esta razón, estamos buscando un DEVOPS

Te sumarás a un equipo desafiante y ambicioso con ganas de innovar en el mercado, haciendo que tus propuestas sean altamente valiosas para el negocio.

¡Aplica ahora para este increíble reto!

Funciones del cargo

Funciones del Cargo:

  1. Gestión de Infraestructura:
    • Administrar y optimizar la infraestructura para asegurar su confiabilidad y rendimiento.
  2. Colaboración Multifuncional:
    • Trabajar estrechamente con equipos de desarrollo y operaciones para entender los requisitos técnicos y diseñar soluciones automatizadas.
  3. Implementación de Soluciones:
    • Desarrollar e implementar soluciones escalables y observables en la infraestructura, priorizando la automatización y la optimización.
  4. Trabajo en Metodologías Ágiles:
    • Participar en entornos ágiles (Jira, Confluence), contribuyendo activamente a sprints y ceremonias diarias.
  5. Integración de Aplicaciones:
    • Integrar de manera eficiente aplicaciones y componentes en entornos Cloud.
  6. Promoción de la Mejora Continua:
    • Fomentar la innovación y la mejora continua, manteniéndose al tanto de las últimas tendencias y mejores prácticas en el ámbito DevOps.

Requerimientos del cargo

  1. Experiencia Profesional:
    • Más de 3 años de experiencia como Ingeniero DevOps o en roles relacionados con Infraestructura Cloud.
  2. Habilidades Técnicas:
    • Experiencia en programación relacionada con la infraestructura utilizando Python, Ruby y Bash, incluyendo pipelines de CI/CD.
    • Familiaridad con herramientas de Infraestructura como Código, como Terraform y Ansible (deseable).
    • Sólido conocimiento de Linux, así como manejo avanzado de Git, Docker y Kubernetes (gestión de clústeres y producción).
    • Experiencia con servicios Cloud (AWS, GCP, Azure).
  3. Monitoreo y Trazabilidad:
    • Competencia en herramientas de monitoreo, logging y trazabilidad como Prometheus, ELK y Grafana, así como en sistemas de observabilidad (Datadog).
  4. Conocimientos Adicionales:
    • Conocimiento general de redes y seguridad en la infraestructura (deseable).
    • Familiaridad con normativas y mejores prácticas de seguridad.

APPLY VIA WEB
Gross salary $2800 - 3000 Full time
DevOps Semi Senior
  • BC Tecnología
  • Santiago (Hybrid)
DevOps Virtualization Docker Git
En BC Tecnología, somos una consultora de TI con más de 6 años de experiencia ofreciendo soluciones adaptadas a las necesidades de nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestra especialidad incluye la formación de equipos ágiles para distintas áreas de tecnología, incluyendo Infraestructura TI y Desarrollo de Software. Nos enfocamos en la creación de productos innovadores y en el apoyo organizacional mediante metodologías ágiles.

Funciones del Rol

Como Devops Semi Senior, tus responsabilidades incluyen:
  • Implementar y gestionar infraestructuras en la nube utilizando herramientas de primeros niveles como AWS, GCP o Azure.
  • Desarrollar y mantener pipelines de CI/CD utilizando lenguajes de programación como Python, Ruby y Bash.
  • Colaborar en el uso de Infraestructura como Código mediante herramientas como Terraform y Ansible.
  • Monitorear y optimizar clústeres de producción en entornos de Linux, utilizando herramientas como Docker y Kubernetes.
  • Participar activamente en sesiones de migración de infraestructura, asesorando en el proceso de transición de on-premise a Cloud.
  • Soporte técnico continuo para el equipo en prácticas DevOps, asegurando la implementación de mejores prácticas y principios de calidad en el desarrollo.
  • Utilizar y optimizar herramientas de monitoreo y trazabilidad como Prometheus, ELK y Grafana para garantizar el rendimiento efectivo de las aplicaciones.

Descripción del Perfil

Buscamos un profesional con al menos 3 años de experiencia en roles de Ingeniero DevOps o en Infraestructura Cloud, que demuestre un profundo conocimiento en prácticas DevOps. Buscamos habilidades tanto técnicas como interpersonales, incluyendo:
  • Salto de experiencia demostrado en sistemas Linux, control de versiones con Git y implementación de contenedores con Docker y Kubernetes.
  • Conocimientos sólidos en servicios en la nube (AWS, GCP, Azure) y sus respectivas herramientas de monitoreo.
  • Capacidad para trabajar en un entorno híbrido, manteniendo una comunicación efectiva tanto en ambientes remotos como presenciales.
  • Iniciativa propia y aptitud para resolver problemas, así como la capacidad de colaborar colaborativamente dentro de equipos multidisciplinarios.

Habilidades Deseables

Además de los requisitos mencionados, serán valoradas las siguientes habilidades:
  • Experiencia previa con herramientas de Infraestructura como Código como Terraform y Ansible.
  • Certificaciones en plataformas de nube como AWS o Azure.
  • Conocimientos en metodologías ágiles de gestión y desarrollo de software.
  • Capacidades en sistemas de logging y trazabilidad, aumentando la visibilidad del rendimiento de las aplicaciones.

Beneficios de Trabajar en BC Tecnología

En BC Tecnología, cuidamos el bienestar de nuestro equipo. Ofrecemos:
  • Seguro Complementario de Salud y Seguro de Vida para todos los empleados.
  • Bonos de rendimiento y aguinaldos durante festividades importantes.
  • Flexibilidad de horarios con múltiples turnos y una jornada laboral adaptable.
  • Acceso a certificaciones y cursos en AWS, Azure y otras tecnologías relevantes.
  • Convenios con instituciones de salud y acceso a un gimnasio cercano.
  • Oportunidades para participar en actividades externas y enriquecedoras.
¡Únete a un equipo donde tu talento hará la diferencia! 🌟

Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB
$$$ Full time
Arquitecto y Administrador Cloud Senior (AWS/GCP)
  • Factor IT
NoSQL SQL Continuous Integration Virtualization
En FactorIT, somos líderes en tecnología y soluciones en Data y Analytics, Transformación Digital e Inteligencia Artificial. Con presencia en 8 países en Latinoamérica, brindamos la oportunidad de trabajar en proyectos regionales que transforman grandes empresas. Buscamos incorporar a un Arquitecto y Administrador Cloud Senior que juegue un rol clave en nuestros proyectos de infraestructura multi-nube, especialmente en AWS y GCP, asegurando soluciones de alta disponibilidad y optimización de costos.

Responsabilidades Principales:

  • Diseñar y desarrollar arquitecturas cloud escalables siguiendo mejores prácticas y patrones de diseño.
  • Implementar y mantener infraestructura como código (IaC) utilizando Terraform, CloudFormation o herramientas similares.
  • Gestionar y optimizar servicios cloud en AWS y GCP.
  • Desarrollar estrategias de seguridad, cumplimiento y gobernanza dentro de la nube.
  • Liderar la automatización de procesos de infraestructura y despliegue.
  • Supervisar costos y optimizar recursos cloud para garantizar eficiencia.

Requisitos Técnicos:

  • Certificaciones requeridas: AWS: Solutions Architect Professional o Advanced, GCP: Professional Cloud Architect.
  • Experiencia comprobable (2+ años) en: AWS (EC2, S3, RDS, Lambda, VPC, EKS) y GCP (Compute Engine, Cloud Storage, Cloud SQL, Cloud Functions, GKE).
  • Contenedores y orquestación: Docker, Kubernetes.
  • IaC y automatización: Terraform, Ansible, CloudFormation.
  • CI/CD: Jenkins, GitLab CI, GitHub Actions.
Habilidades Adicionales:
  • Sólida comprensión de redes, seguridad y protocolos de comunicación.
  • Experiencia en microservicios y arquitecturas distribuidas.
  • Conocimientos de bases de datos SQL y NoSQL.
  • Capacidad para estimar costos y optimizar gastos en la nube.
  • Inglés avanzado (lectura y escritura).
Competencias Blandas:
  • Excelentes habilidades de comunicación y documentación.
  • Capacidad de liderazgo técnico y mentoría.
  • Pensamiento analítico y resolución de problemas complejos.
  • Habilidad para trabajar con múltiples equipos y stakeholders.

Experiencia Deseable:

  • Participación en proyectos de migración a la nube a gran escala.
  • Experiencia en implementación de soluciones híbridas.
  • Conocimientos de metodologías ágiles.
  • Experiencia en arquitecturas serverless y event-driven.

Beneficios:

En FactorIT, promovemos un ambiente laboral colaborativo y orientado al aprendizaje continuo. Además de un contrato indefinido, brindamos flexibilidad laboral con opciones de trabajo remoto, híbrido o presencial. Valoramos el equilibrio entre la vida personal y laboral, ofreciendo oportunidades de crecimiento profesional en un entorno inclusivo y diverso. Únete a nuestro equipo y transforma el futuro de la tecnología con nosotros 🚀!

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Factor IT provides a computer for your work.
APPLY VIA WEB
$$$ Full time
Data Engineer
  • 2BRAINS
NoSQL Web server SQL Continuous Integration

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

El/la Data Engineer de 2Brains

Se encarga de participar en el diseño y desarrollo de los nuevos modelos de información de gestión y las mantenciones evolutivas de los existentes. Participar en las iniciativas de Analítica avanzada del área, apoyando las exploración de modelos de información internos y externos (Data Discovery). Obtener datos históricos desde múltiples fuentes de información interna para apoyar las iniciativas de analítica avanzada del equipo.

El/la Data Engineer de 2Brains debe

  • Construir y optimizar pipelines de datos para la ingesta, transformación y carga eficiente de información.
  • Manejar infraestructuras en la nube (AWS, GCP, Azure), asegurando escalabilidad y eficiencia en costos.
  • Automatizar y monitorear procesos mediante herramientas de DevOps como Airflow, Terraform o Kubernetes.
  • Implementar controles de calidad y gobernanza para garantizar la integridad y disponibilidad de los datos.
  • Colaborar con equipos de Data Science, Producto y Desarrollo para diseñar soluciones alineadas con las necesidades del negocio.

Qué conocimientos buscamos en/la Data Engineer

  • Excluyente Experiencia trabajando con tecnologías de BI
  • Experiencia en la construcción/operación de sistemas distribuidos de extracción, ingestión y procesamiento de grandes conjuntos de datos de gran disponibilidad.
  • Capacidad demostrable en modelado de datos, desarrollo de ETL y almacenamiento de datos.
  • Experiencia en el uso de herramientas de informes de inteligencia empresarial (Power BI)
  • Excluyente conocimiento en consumo de microservicios de APIs Rest
  • Excluyente conocimiento en Git , Bitbucket, Docker,Jenkins,Webhooks
  • Programación con Python y bases sólidas de ingeniería de software.
  • Automatización y scripting.
  • Uso de librerías de Python para manipulación y análisis de datos y Apache Spark.
  • Conocimientos en bases de datos SQL y NoSQL.
  • Conocimiento en CI/CD, Dataflow
  • Conocimiento en S3, Redshift y Glue AWS

Que competencias buscamos en/la Data Engineer

  • Empatía
  • Buena capacidad de comunicación.
  • Colaboración y trabajo en equipo.
  • Proactividad.
  • Autonomía.
  • Foco en los objetivos de proyectos.

Condiciones

Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos

Acceso a grandes clientes y proyectos desafiantes

Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales

Un entorno de trabajo flexible y dinámico

Beneficios especiales: día libre para tu cumpleaños, días de descanso a convenir.

Informal dress code No dress code is enforced.
Vacation over legal 2BRAINS gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Data Engineer
  • Leniolabs_
SQL Virtualization ETL Power BI
Leniolabs_ que ahora es Improving South America es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España, USA y Canadá.
Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes.
Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.
Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Responsabilidades del Ingeniero de Datos

  • Descubrimiento de Fuentes Legacy: Utilizar SQL avanzado y scripting (Python/PowerShell) para automatizar procesos y documentar sistemas heredados.
  • Análisis de Calidad de Datos: Ejecutar perfiles de datos, identificar problemas de calidad y generar métricas clave de calidad (KPIs).
  • Limpieza Inicial de Datos: Aplicar herramientas ETL/ELT (Informatica, Talend, dbt) y realizar limpieza de datos en base a las comunicaciones con expertos.
  • Definición de Estrategias de Archivo vs. Migración: Diseñar modelos de datos y evaluar soluciones de almacenamiento equilibrando cumplimiento y costos.
  • Mapping a la Plataforma del Proveedor: Desarrollar procesos de mapeo y transformación para garantizar la correcta transferencia de datos.
  • Análisis de Necesidades Actuales de BI/Reportes: Colaborar con usuarios para optimizar consultas SQL y estructurar datos para reportes.
  • Tareas Adicionales: Orquestación de pipelines (Airflow), CI/CD, contenedorización (Docker, Kubernetes) y automatización en la nube (AWS).

Requisitos Técnicos y Habilidades Deseadas

Buscamos un profesional con el siguiente perfil:

  • Dominio en SQL avanzado, así como experiencia en herramientas ETL/ELT como Informatica, Talend y dbt. Conocimientos en sistemas de almacenamiento en la nube (AWS S3, Redshift)
  • Habilidades en orquestación de pipelines (Airflow, Docker, Kubernetes)
  • Familiaridad con herramientas de BI como Power BI o Tableau.
  • Nivel de inglés intermedio/avanzado o avanzado.
  • A nivel de habilidades blandas, esperamos que los candidatos tengan un fuerte pensamiento crítico, atención al detalle y la capacidad de comunicar hallazgos técnicos a diferentes públicos.

Habilidades Deseables

Si bien no son imprescindibles, se valorarán conocimientos adicionales en el trabajo con big data y experiencia en entornos ágiles. La capacidad de adaptarse rápidamente a nuevas herramientas y requisitos será muy apreciada, al igual que la iniciativa para proponer mejoras a nuestros procesos actuales.

¿Qué Ofrecemos?

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Computer provided Leniolabs_ provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Data Engineer
  • ICONSTRUYE
  • Santiago (Hybrid)
NoSQL SQL Python Go
En ICONSTRUYE, hemos estado a la vanguardia de la tecnología en la construcción durante más de 20 años. Nuestra robusta plataforma tecnológica es un testimonio de nuestra experiencia y compromiso con la industria. Con más de 4,000 clientes en Chile, Colombia y Perú, nos enorgullecemos de proporcionar soluciones integrales que simplifican la cadena de abastecimiento. Buscamos un Ingeniero de Datos que se una a nosotros en la transformación de la industria de la construcción, siendo el puente entre los datos brutos y aquellos que toman decisiones críticas.

Tus funciones principales:

Tu misión: Ser el puente entre los datos brutos y quienes necesitan realizar análisis y/o tomar decisiones con esos datos.

  • Garantizar la calidad, integridad y seguridad de los datos.
  • Colaborar con diversos stakeholders para comprender sus necesidades de datos.
  • Desarrollar procesos de extracción, transformación y carga (ETL) de datos para nuestro data lake, proporcionando información valiosa para el análisis y toma de decisiones.
  • Implementar nuevas bases de datos y/o data warehouses para satisfacer las necesidades de la empresa.
  • Contribuir a la definición de políticas de gobernanza de datos.
  • Ser una autoridad en la creación, implementación y operación de soluciones escalables y de bajo costo, facilitando el flujo de datos desde sistemas de producción hasta el data lake.

Requerimientos técnicos:

  • Dominio de Python o Go.
  • Dominio de SQL.
  • Conocimiento de base de datos relacionales y no relacionales (NoSQL).
  • Conocimiento de AirFlow, Luigi, Dagster.
  • Conocimientos de Kafka y/o RabbitMQ.
  • Conocimiento en Docker y Kubernetes.

Beneficios que ofrecemos:

  • 🌴 5 días extras de descanso al año.
  • 🍔 Tarjeta amipass para utilizar en restaurantes, delivery y supermercados.
  • 👨‍⚕️ Seguro complementario de salud, dental y de vida.
  • 🏠 Modalidad de trabajo híbrido.
  • 📠 Flexibilidad con permisos para trámites y asuntos familiares.
  • 👩‍👦 Jornada reducida en días de vacaciones escolares (viernes medio día).
  • 🎂 Tarde libre en tu cumpleaños.
¡Únete a nosotros y sé parte de nuestra misión de transformar la industria de la construcción!

Health coverage ICONSTRUYE pays or copays health insurance for employees.
Computer provided ICONSTRUYE provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal ICONSTRUYE gives you paid vacations over the legal minimum.
Beverages and snacks ICONSTRUYE offers beverages and snacks for free consumption.
APPLY VIA WEB
Gross salary $2000 - 2200 Full time
Data Engineer Sr
  • coderslab.io
  • Santiago (Hybrid)
Node.js Continuous Integration Analytics Python

En CodersLab, actualmente estamos enfocados en el crecimiento global de nuestros equipos con el objetivo de posicionar nuestros productos en más países de Latinoamérica. Por esta razón, estamos buscando un Data Engineer SR.

Te sumarás a un equipo desafiante y ambicioso con ganas de innovar en el mercado, haciendo que tus propuestas sean altamente valiosas para el negocio.

¡Aplica ahora para este increíble reto!

Job functions

Buscamos un Data Engineer para un proyecto Big Data en GCP, responsable del diseño, desarrollo y mantenimiento de plataformas en la nube. Su rol incluirá la creación y automatización de pipelines de datos, integración y optimización de procesos ETL/ELT, y el despliegue de soluciones en producción.

Responsabilidades

  • Diseñar y desarrollar plataformas de datos en la nube, asegurando escalabilidad y eficiencia.
  • Implementar y optimizar pipelines de datos para la ingesta, transformación y almacenamiento.
  • Automatizar procesos ETL/ELT y garantizar su despliegue en producción.
  • Integrar, consolidar y estructurar datos para su uso en modelos analíticos.
  • Colaborar con equipos de datos y tecnología para mejorar la arquitectura y calidad de datos.

Qualifications and requirements

Requisitos

Must Have

  • Experiencia en Java y Python.
  • Conocimiento en contenedores (Docker) y orquestación (Kubernetes).
  • Experiencia en plataformas GCP: BigQuery, Dataflow, Dataproc, Composer y Cloud Run.
  • Conocimiento en procesamiento por lotes (Batch Processing) y arquitectura de datos.
  • Manejo de herramientas de orquestación y automatización de pipelines.
  • Experiencia en GitLab CI para integración continua.
  • Conocimientos en Data Analytics.

Nice to Have

  • Experiencia con Scala y Node.js.
  • Conocimiento en Spark y Kafka (Connect y Streams).
  • Manejo de Terraform para infraestructura como código.
  • Experiencia en procesamiento en streaming.
  • Conocimientos en Data Science.

Conditions

Ubicación: Chile (modalidad híbrida, al menos 2 días presenciales por semana)

APPLY VIA WEB
$$$ Full time
AI Engineer
  • Mindtech
Python Deep Learning Machine Learning Engineer Machine Learning
In Mindtech, we provide end-to-end software outsourcing solutions tailored for businesses of all sizes. Our expertise lies in linking Latin American talent with global opportunities, ensuring that we deliver exceptional service with a cost-effective approach that enhances your business potential. Our team consists of over 70 skilled professionals who are passionate about innovation and impact. By joining us, you'll contribute to exciting tech projects that not only advance your career but also reshape the technology landscape.

Habilidades Técnicas

Como AI Engineer, tus responsabilidades incluirán:
  • Python Avanzado: Dominio del lenguaje y bibliotecas esenciales como NumPy, pandas y scikit-learn.
  • Modelos LLM y Generativos: Implementación, fine-tuning y optimización de modelos preentrenados, además del desarrollo de soluciones generativas para tareas de texto, imagen o audio.
  • Bases de Datos Vectoriales: Integración y optimización en búsquedas con tecnologías como FAISS, Milvus o Pinecone.
  • Implementaciones RAG: Desarrollo de sistemas que combinan recuperación de información con generación de contenido, aumentando la precisión y relevancia de los resultados.
  • Experiencia en la Nube: Despliegue y escalado en AWS, Google Cloud o Azure, utilizando arquitecturas serverless y contenedores (Docker, Kubernetes).
  • Docker y Gestión de Containers: Creación, administración y orquestación de contenedores para garantizar entornos de desarrollo y producción consistentes.
  • FastAPI: Desarrollo de APIs RESTful de alto rendimiento y escalables, facilitando la integración de modelos de IA en aplicaciones web.

Descripción del puesto

Buscamos un AI Engineer talentoso con habilidades técnicas sólidas y una pasión por desarrollar soluciones innovadoras en el campo de la inteligencia artificial. Los candidatos ideales deberán tener experiencia previa en la implementación y optimización de modelos de Machine Learning y/o Deep Learning, así como habilidades avanzadas en Python. Aptitudes para trabajar de manera colaborativa en un entorno ágil y comunicarse de manera efectiva son esenciales. La capacidad de adaptarse rápidamente a nuevas tecnologías y una mentalidad orientada a resultados contribuirán al éxito en este papel.

Habilidades deseables

Sería un plus contar con experiencia en frameworks de deep learning como TensorFlow o PyTorch, así como en herramientas como HuggingFace. Adicionalmente, conocimientos en tecnologías de bases de datos vectoriales y experiencia previa en entornos de nube son altamente deseables. La familiaridad con la creación de APIs y la gestión de contenedores también será beneficiosa para este puesto.

Beneficios de trabajar en Mindtech

En Mindtech, ofrecemos un entorno de trabajo totalmente remoto, lo que te dará flexibilidad en tu jornada. Disfrutarás de un salario basado en USD y contarás con acceso a descuentos en plataformas de e-learning. Además, ofrecemos clases de inglés con docentes nativos y bonos de referencia de USD 300. Forma parte de un equipo que valora la colaboración y la diversidad y trabaja en proyectos impactantes en el sector tecnológico.

APPLY VIA WEB
Gross salary $600 - 1000 Full time
AI Developer Python Specialist
  • TELLEX Group
Python Scrum API Keras
At TELLEX Group, we are seeking for an experienced AI Developer proficient in Python to join our team. This person will work closely with our Systems Integration and Solutions Director, collaborating on the development of AI agents for various projects. The development of these projects will be approached as a team effort, and then handed over to the developer for full implementation.

Responsabilities

  • Design, develop, and implement AI agents for different projects.
    Write efficient, clean, and scalable Python code.
  • Integrate AI models into existing systems.
    Optimize AI models for performance and accuracy.
  • Collaborate with the Director of Integrations and other teams to define requirements and development strategies.
  • Conduct testing and validation to ensure proper functionality of AI agents.
  • Create and maintain documentation on processes and developed agents, keeping them up to date with modifications.
  • Stay up to date with the latest trends and advancements in AI and machine learning.

Requirements and Qualifications

  • Proven experience in Python development.
    Experience in creating and training AI agents.
  • Knowledge of AI/Machine Learning frameworks and libraries (TensorFlow, PyTorch, LangChain, OpenAI API, among others).
  • Experience in integrating AI models into applications and systems.
  • Strong problem-solving skills and ability to optimize AI algorithms.
  • Ability to work collaboratively with different departments.
  • Knowledge of software development under agile methodologies (Scrum/Kanban).
    Excellent communication and technical documentation skills.

Nice to Have

  • Experience with AI model deployment tools (Docker, Kubernetes, etc.).
  • Previous programming experience with Flowise.
  • Knowledge of databases and data storage.
  • Experience in Natural Language Processing (NLP).

Conditions

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
Gross salary $2400 - 3600 Full time
Senior Back-end Engineer (Python, AI & Data)
  • DBG Labs
Python PostgreSQL Virtualization Docker

You will join a high-impact engineering team working on multiple projects, ranging from custom AI-driven solutions to SaaS platforms that we actively run and scale. Our backend systems process large datasets, optimize data pipelines, and integrate machine learning models into production. The team collaborates with ML engineers, data scientists, and DevOps to build robust, scalable, and high-performance solutions across different industries.

Job functions

As a Senior Backend Engineer, you will design, develop, and optimize APIs, databases, and data pipelines using mainly Python and related libraries. You’ll work on scalable architectures, performance tuning, and AI integrations, ensuring high availability and efficiency in data-driven applications.

Qualifications and requirements

5+ years of backend development experience with Python
Strong knowledge of PostgreSQL, query optimization, and indexing
Experience building REST APIs, microservices, and distributed systems
Familiarity with Docker, Kubernetes, and CI/CD pipelines
Cloud experience with AWS, GCP, or Azure
Solid understanding of security best practices

Desirable skills

Experience deploying AI/ML models into production
Knowledge of data engineering, ETLs, and large-scale processing
Familiarity with Kafka, RabbitMQ, or event-driven architectures
Experience with BigQuery, Snowflake, or Redshift

Conditions

Fully remote & flexible hours
Competitive salary
and performance-based incentives
Professional training & certification budget
Opportunity to work on cutting-edge AI & data engineering projects
A collaborative, high-performance team environment

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
APPLY VIA WEB
Gross salary $1800 - 2200 Full time
Especialista en Redes y Deploy (Senior)
  • Sumato-Id
  • Buenos Aires (Hybrid)
Virtualization Docker English Linux

Somos una empresa dedicada a digitalizar el mundo físico a través de Computer Vision e Inteligencia Artificial, con el fin de mejorar la operatoria de nuestros clientes. Trabajamos con marcas importantes de retail de Sudamerica.

Buscamos protagonistas que quieran desarrollarse en un ambiente de trabajo flexible con ganas de aprender y desarrollar soluciones innovadoras.

Funciones del cargo

En Sumato estamos buscando un Deploy Sr proactivo, con ganas de aprender sobre nuevas tecnologías y que quiera crecer junto con nosotros en su carrera profesional.

· Diseñar, implementar y mantener la generación de imágenes para la plataforma AKIRA EDGE.

· Configurar y gestionar redes privadas y públicas, incluyendo VPNs, garantizando su seguridad y funcionalidad.

· Implementar y gestionar contenedores Docker para entornos controlados y reproducibles.

· Automatizar el proceso de deploy para optimizar tiempos y recursos.

· Administrar servidores Linux, incluyendo la configuración y manejo de servicios como SSH, SFTP y firewall.

Requerimientos del cargo

Conocimiento de redes y deploy con un mínimo de entre 3-5 años de experiencia, para ayudarnos a crear soluciones innovadoras para el mercado.

Buscamos personas proactivas que posean experiencia demostrable en:

  • Experiencia sólida en redes informáticas, configuración de redes privadas/públicas y manejo de protocolos y topologías.
  • Conocimientos avanzados en administración de servidores Linux y servicios asociados.
  • Capacidad para configurar y gestionar firewalls y sistemas de transferencia segura de archivos.
  • Familiaridad con Docker y contenedores para el despliegue eficiente de aplicaciones.

Educación:

  • EDUCACIÓN: Universitario completo, ingeniería informática, Ingeniería en Redes y Telecomunicaciones, o carreras relacionadas.
  • IDIOMAS: inglés básico.
  • LUGAR DE RESIDENCIA: Buenos Aires.

Competencias Valoradas

  • COMUNICACION: Capacidad para comunicarse de manera clara y efectiva con el equipo y otros miembros de la organización.
  • RESOLUCION DE PROBLEMAS: Capaz de abordar y resolver desafíos técnicos y organizativos de manera efectiva.
  • GESTION DE TIEMPO: Gestionar eficientemente el tiempo y los recursos para cumplir con plazos y objetivos.

Condiciones

Somos una startup dinámica que trabaja por objetivos:

  • Ambiente flexible y desafiante, con foco en lo último en tecnología.
  • Posibilidad de trabajo remoto con autogestión de horarios.
  • Equipo dinámico, innovador y con valores como transparencia, confianza y compañerismo.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Sumato-Id provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Sumato-Id gives you paid vacations over the legal minimum.
APPLY VIA WEB
Gross salary $2000 - 2500 Full time
Systems Engineer
  • Mediastream
  • Bogotá (Hybrid)
Web server Ruby Python Virtualization
Company Description
Mediastream is a leading streaming technology company that has been in business for over 16 years. We collaborate with major companies and broadcasters around the world to offer a quality end-to-end solution for content administration, distribution, audiovisual production, and user experience. Our goal is to connect our customers with their audience in a simple and effective way, creating new revenue streams for their businesses.
Role Description
This is a hybrid role for a Systems Engineer. This role will be responsible for designing, implementing and maintaining Mediastream's content delivery network (CDN) infrastructure and services, ensuring fast, secure, robust and scalable access to our digital services for our customers. customers. users around the world, with a focus on video encoding and transcoding.

Responsibilities

  • Design, configure, and optimize the CDN infrastructure to enhance content delivery speed and security.
  • Continuously monitor CDN performance, identify bottlenecks, and make adjustments to ensure operational continuity and speed.
  • Rotate on-call shifts and synchronously monitor high-concurrency streaming events.
  • Implement robust security measures to safeguard the CDN against threats, including DDoS attacks or others.
  • Collaborate closely with application development and cybersecurity teams to ensure efficient integration of the CDN and the implementation of security policies.
  • Work collaboratively with development and content teams to ensure that content is optimized for delivery through the CDN.
  • Research and evaluate new technologies, trends, and best practices in the CDN solutions domain, and subsequently propose, agree upon, implement, document, and provide training as necessary.

Minimum requirements

  • Operating Systems Linux Server (Ubuntu, Debian, CentOS, etc.): Exceptional
  • Network Infrastructure Management and Support (BGP, HTTP, DNS, DHCP, NTP, TCP/IP, FTP, Firewalls, among others): Advanced
  • Application and Network Monitoring Tools (Desirable: Datadog): Intermediate
  • Scripting Programming in BASH, RUBY, PYTHON, or others: Intermediate
  • Webserver Administration (Nginx): Exceptional
  • AWS Amazon CloudFront & Route 53: Intermediate
  • Video encoding and transcoding: Exceptional
  • Bachelor's degree in Computer Engineering, Systems, Networks, or related field
  • Additional Certifications: Cloud, Cisco, Linux, Networking, Nginx, Docker
  • Other: Streaming Technologies

APPLY VIA WEB
$$$ Full time
DevOps
  • TIMINING
En Timining nos apasiona resolver problemas complejos y generar impacto real en la minería. Desarrollamos soluciones tecnológicas que integran ciencia de datos, geología, planificación minera y diseño estratégico para transformar cómo se toman decisiones en la gran minería: más informadas, eficientes y sustentables.
Nuestra cultura y valores, combina conocimiento técnico, colaboración, aprendizaje continuo y compromiso con la innovación.
Creemos en una minería mejor, y estamos construyéndola con tecnología.

© Get on Board. All rights reserved.

Funciones del cargo

Buscamos un DevOps Engineer que promueva una cultura DevOps de colaboración, automatización y mejora continua, y que cuente con experiencia en automatización de infraestructura, monitoreo, integración y despliegue continuo, y administración de plataformas.
El candidato ideal actuará como un puente entre los equipos de desarrollo y operaciones, facilitando la comunicación y la eficiencia en el flujo de trabajo. Por lo que debe comprender los flujos de desarrollo y despliegue, además de las herramientas de monitoreo, con el fin de garantizar la confiabilidad y escalabilidad de los sistemas en un entorno minero.
1. Monitoreo y observabilidad: Implementar y mantener sistemas de monitoreo y alertas utilizando el stack tecnológico de Prometheus, Grafana y herramientas relacionadas.
2. CI/CD: Diseñar, optimizar y mantener pipelines de integración y despliegue continuo mediante GitHub Actions, para componentes en diversos lenguajes y tecnologías.
3. Colaboración y soporte: Trabajar junto a desarrolladores y operación para facilitar despliegues, troubleshooting, y garantizar el uptime de los servicios, participando activamente con los equipos y sesiones de resolución de problemas para facilitar despliegues y garantizar el uptime de los servicios.
4. Garantizar la calidad del software: Certificar que el software cumple con los requisitos del usuario final y asegurar su correcto funcionamiento en distintas plataformas.
5. Mejora continua y actualización: Optimizar estrategias de prueba, promover prácticas DevOps a los diversos equipos de la organización y mantenerse al día con tendencias del sector.

Requerimientos del cargo

1. | Programación en Go o Python para scripting y automatización
2. | Conocimientos de redes y protocolos
3. | CI/CD con GitHub Actions
4 | Gestión de contenedores (Docker) y orquestador de servicio (Kubernetes o Nomad)
5 | Observabilidad con Prometheus y Grafana

Opcionales

Consul para configuración y descubrimiento de servicios
Seguridad en pipelines y despliegues
Experiencia en entornos de alta disponibilidad
Traefik como proxy inverso
Capacidad analítica en traza de errores

Conditions

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage TIMINING pays or copays health insurance for employees.
Computer provided TIMINING provides a computer for your work.
Informal dress code No dress code is enforced.
APPLY VIA WEB
Gross salary $1800 - 2100 Full time
IT Technical Operations Specialist
  • Adecco
SQL Microservices Kubernetes Splunk

Adecco Chile, líder absoluto en servicios de Recursos Humanos con más de 35 años de trayectoria y presencia en las principales ciudades del país, se distingue por su compromiso hacia el servicio y excelencia empresarial. Enfocados en soluciones integrales como selección de personal, staffing, payroll y consultoría, Adecco acredita sus procesos bajo la norma de calidad ISO 9001:2015, garantizando estrictos controles y prácticas adaptadas a las necesidades del mercado.

El proyecto se enmarca dentro del equipo de BAO Technical Operations, dedicado a diseñar, implementar y mantener infraestructuras de TI alineadas a objetivos empresariales de nuestro cliente, optimizando la operación técnica y la calidad del servicio otorgado mediante tecnología de punta y un enfoque colaborativo.

Apply to this posting directly on Get on Board.

Responsabilidades del Puesto

  • Colaborar con equipos multidisciplinarios para diseñar, implementar y mantener soluciones IT alineadas con los objetivos del negocio.
  • Diagnosticar y resolver problemas relacionados con Kubernetes utilizando kubectl y herramientas de gestión como Rafay o Docker.
  • Desarrollar y mantener scripts SQL para la gestión, manipulación y generación de reportes de bases de datos.
  • Utilizar DataDog para monitorear, solucionar problemas y optimizar el rendimiento y uso de recursos del sistema.
  • Asesorar sobre prácticas de monitoreo y trabajar en conjunto para mejorar capacidades de respuesta ante incidentes.
  • Analizar logs y métricas mediante Datadog, Splunk u otras herramientas nativas para la detección proactiva de posibles problemas.
  • Implementar y administrar prácticas de integración continua, despliegue y entrega continua con Azure DevOps.

Perfil y Requisitos

Buscamos un especialista con sólida experiencia en operaciones técnicas de TI, particularmente en entornos Microsoft Azure y microservicios, con profundos conocimientos en plataformas de monitoreo y automatización. Es indispensable un dominio avanzado en SQL para gestión de bases de datos y reportes, así como habilidades avanzadas en PowerShell para automatización de tareas y orquestación.

El candidato debe poseer experiencia práctica con Azure DevOps, especialmente en la creación y gestión de pipelines para integración y despliegue continuo. Se valorará asimismo el conocimiento de herramientas de monitoreo como DataDog, Splunk, AppInsights y Log Analytics.

Además, es fundamental contar con habilidades analíticas y capacidad para resolver problemas complejos en un entorno dinámico y acelerado. La comunicación efectiva y el trabajo colaborativo son pilares para desenvolverse con éxito dentro de equipos cross-funcionales.

Requisitos académicos incluyen titulación universitaria en informática, ingeniería o carreras afines, acompañado de al menos 4 años de experiencia en operaciones técnicas de TI o roles similares que involucren scripting, servicios en la nube y metodologías de desarrollo.

El manejo del idioma inglés a nivel intermedio-alto (B2 o superior) es mandatorio, ya que la entrevista y la comunicación técnica estarán en este idioma. Certificaciones en tecnologías relevantes como Microsoft Azure, AWS o DevOps son un plus, reflejando compromiso con la actualización profesional continua.

Habilidades y Experiencia Deseables

Certificaciones profesionales en plataformas cloud y metodologías DevOps, tales como Microsoft Certified: Azure Administrator Associate o AWS Certified Solutions Architect, aportarán un valor diferencial significativo.

Experiencia en el uso avanzado de herramientas de monitoreo y analytics, incluyendo AppInsights y Log Analytics, para una mejor gestión del rendimiento y detección preventiva de fallas.

Conocimientos complementarios en scripting con PowerShell, combinados con experiencia usando plataformas como Datadog o Splunk para análisis y optimización, son altamente valorados.

Además, es preferible experiencia en ambientes ágiles de trabajo y dinamismo operativo, que permitan adaptarse rápidamente a las necesidades y cambios en entornos tecnológicos exigentes.

Beneficios y Condiciones

Ofrecemos una modalidad 100% remota, permitiendo gran flexibilidad para equilibrar vida personal y profesional desde cualquier ubicación adecuada dentro del país.

Brindamos seguros complementarios de salud, vida y catastrófico que aportan seguridad y protección integral a nuestro equipo.

Contamos con un bono de vacaciones tras un año de antigüedad como reconocimiento al compromiso y permanencia dentro de la empresa.

Promovemos el crecimiento profesional financiando certificaciones técnicas hasta por USD 300 anuales y realizamos ajustes salariales alineados con la inflación para cuidar el poder adquisitivo de nuestros colaboradores.

APPLY VIA WEB
Gross salary $3000 - 4000 Full time
Ingeniero/a DevOps
  • Devups
Devups es una empresa dedicada al staffing tecnologico, focalizados con una vision de proveer a nuestros clientes con talento de calidad pero priorizando el bienestar de nuestros recursos. Para nosotros el cliente es importante, pero el desarrollador aun mas por eso actuamos como representantes de talentos y trabajamos para mejorar la calidad de vida de estos.
DevUps nace de la famosa frase de Barney Stinson, Suit Up.

Apply to this job from Get on Board.

Job functions

  • Diseñar e implementar pipelines de CI/CD junto al PM asignado.
  • Colaborar con equipos de desarrollo en la automatización de pruebas y despliegues.
  • Reportes diarios: lo que hiciste hoy, qué harás mañana y tus bloqueadores.
  • Asistir al menos a 2 llamadas semanales con el equipo de planificación Devups.

Qualifications and requirements

El perfil que buscamos deberá comprender la arquitectura de infraestructuras y aplicar patrones comprobados de IaC y orquestación. Deberá tener experiencia optimizando performance y seguridad en pipelines de CI/CD, así como la capacidad para comunicar claramente retos técnicos complejos. Experiencia trabajando en entornos ágiles y altamente iterativos es deseable.
Nivel de inglés: B2+.
Se debe cumplir con al menos (1) de los siguientes:
Herramientas CI/CD:
  • Jenkins
  • GitLab CI/CD
  • GitHub Actions
Contenedores y Orquestación:
  • Docker
  • Kubernetes
Infraestructura como Código (elige uno):
  • Terraform
  • CloudFormation

Desirable skills

  • Experiencia en AWS Services (EKS, ECS, Lambda) o Azure DevOps.
  • Monitoreo y logging con Prometheus, Grafana o ELK.
  • Conocimientos de Networking y seguridad en la nube.

Conditions

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
Vacation over legal Devups gives you paid vacations over the legal minimum.
APPLY VIA WEB
$$$ Full time
Cloud Engineer Mid
  • Alegra
MySQL PostgreSQL MongoDB Docker

Sobre Alegra 💙

Únete a Alegra, el lugar en donde tu talento crece y crea superpoderes. 🚀

En Alegra contamos con un equipo de más de 500 personas en más de 19 países trabajando 100% remoto con una cultura única, innovadora y dinámica que está revolucionando cómo las Pymes gestionan sus finanzas con un ecosistema de soluciones digitales en la nube disponible en más de 10 países en Latam, España y ¡vamos por más! 🚀

Apply directly through getonbrd.com.

Tu misión en Alegra 💪

Este rol de Cloud Engineer, tiene un enfoque de Hands On, colaborará con un equipo de 3 personas y le reportará al líder de Cloud.

¿Qué hace este rol?

☁️ Cloud

  • Diseñar e implementar políticas de gobernanza cloud alineadas con las regulaciones y estándares de Alegra.
  • Monitorear y optimizar los costos en la nube para maximizar el valor para el negocio.
  • Garantizar la seguridad de los sistemas y los datos alojados en la nube, aplicando buenas prácticas y controles adecuados.

⚙️ DevOps

  • Automatizar procesos de despliegue, integración y gestión de la infraestructura para mejorar la eficiencia operativa.
  • Colaborar estrechamente con los equipos de desarrollo para acelerar la entrega de software, manteniendo altos estándares de calidad.

🚨 Site Reliability Engineering (SRE)


  • Participar activamente en la resolución de incidentes y en la mejora del rendimiento de los sistemas.
  • Implementar y mantener sistemas de monitoreo y alertas para detectar y resolver problemas de forma proactiva.
  • Realizar análisis post-mortem de incidentes, identificando causas raíz y proponiendo acciones correctivas y preventivas.

Aclaración: En Alegra no manejamos Kubernetes, manejamos EKs, analiza si esto se ajusta a tus expectativas profesionales.

¿Qué esperamos de ti? 🧐

  • Experiencia de 2 años en adelante en el diseño, implementación y operación de infraestructuras en la nube con AWS.
  • Pleno entendimiento en el funcionamiento de los productos: Lambda, API. Gateway, SQS, SNS, EKS, ECS, EC2, S3, CloudWatch, Aurora, VPC, CodeBuild.
  • Conocimientos profundos de herramientas de automatización y orquestación como Terraform, Ansible o CloudFormation.
  • Conocimientos en infraestructura como código.
  • Experiencia en desarrollo y diseño de APIs REST.
  • Experiencia en la utilización de Docker.
  • Experiencia en la utilización de motores de bases de datos como MySQL, MariaDB, DynamoDB, MongoDB, PostgreSQL.
  • Conocimiento en conceptos de arquitectura asociada a microservicios.
  • Aprendizaje como estilo de vida.
  • Capacidad para trabajar en equipo y en un ambiente colaborativo.
  • Espíritu crítico y proactividad para proponer mejoras.
  • Capacidad de escucha y comunicación.
  • Nivel de inglés intermedio en lectura y escritura.
  • Nivel de Español intermedio / Avanzado para la comunicación oral y escrita con el equipo.
  • Habilidades de resolución de problemas y capacidad para trabajar de manera efectiva en un entorno colaborativo.


¿Qué más se realiza?

  • Diseñar arquitecturas en AWS que permitan desplegar nuevos servicios y mejorar los actuales.
  • Mejorar configuraciones actuales que permitan bajar tiempos de respuesta de los servicios.
  • Optimizar la utilización de infraestructura para mantener un nivel de costo saludable en el consumo de proveedores de nube.
  • Acompañar a los equipos de desarrolladores en el diseño, configuración y administración de infraestructura tecnológica.
  • Capacitar a los distintos equipos técnicos en el uso de productos de la nube AWS
  • Colaborar con equipos de desarrollo para garantizar la integración continua y la entrega continua de aplicaciones en la nube.
  • Investigar y adoptar nuevas tecnologías y mejores prácticas para mejorar la eficiencia y la confiabilidad de nuestras operaciones en la nube.

Es un plus si… 👇

  • Certificación en AWS o estar en proceso de certificación.
  • Asistencia a conferencias de AWS ReInvent.

Alégrate con… ⭐️

  • Hacer lo que amas trabajando de manera 100% remota. 💖
  • Una relación laboral estable y a largo plazo 🤝, ¡no freelance!
  • Plan carrera, oportunidad de seguir llevando tus habilidades a un siguiente nivel. 🚀
  • Compartir con un talento que trasciende fronteras y culturas. 🗺️
  • Espacios para socializar y compartir gustos de todo tipo. 💬
  • Un ambiente para experimentar, aprender de los errores y trabajar con autonomía pero con mucho compromiso y responsabilidad. 💡
  • Convertir la lectura en tu mejor aliada para aprender 📚, con acceso a plataformas educativas, cursos con certificaciones, capacitaciones y una biblioteca virtual que te ayude a seguir desarrollándote día a día.
  • Tu salud es lo primero, y por tanto te apoyamos con su cobertura 🩺
  • Dos días de cuidado al año, adicionales a tus vacaciones. 😎
  • Apoyo económico para llevar tu lugar de trabajo al siguiente nivel. 💪💻
  • Celebrar tu cumpleaños con una cena especial junto a quienes más quieres y medio día libre. 🥳
  • Clases de inglés 🇺🇸

Wellness program Alegra offers or subsidies mental and/or physical health activities.
Fully remote You can work from anywhere in the world.
Pet-friendly Pets are welcome at the premises.
Computer repairs Alegra covers some computer repair expenses.
Education stipend Alegra covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Personal coaching Alegra offers counseling or personal coaching to employees.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
DevOps Senior
  • coderslab.io
  • Santiago (Hybrid)
Python Docker Kubernetes Terraform

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un devops senior para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Official source: getonbrd.com.

Funciones del cargo

  • Diseño, implementación y operación de arquitecturas basadas en contenedores usando Kubernetes, Helm, GitLab CI/CD, ArgoCD y Kong API Gateway.
  • Despliegues seguros, reproducibles y escalables con fuerte orientación a la seguridad.
  • Gestión de secretos y credenciales con HashiCorp Vault, asegurando cumplimiento de estándares como PCI-DSS.
  • Desarrollo y mantenimiento de pipelines CI/CD robustos y automatización de procesos mediante scripting avanzado en Bash y Python.
  • Integración y operación en entornos regulados, especialmente bancarios.
  • Administración y optimización de infraestructura en OCI, incluyendo redes, IAM, VCN, almacenamiento y seguridad (WAF, escaneo de vulnerabilidades).
  • Implementación de infraestructura versionada y reproducible con Terraform.
  • Gestión de imágenes Docker y orquestación con Kubernetes.
  • Colaboración en entornos híbridos y multicloud.

Requerimientos del cargo

  • Experiencia avanzada en Oracle Cloud Infrastructure (OCI).
  • Oracle Linux 8/9: endurecimiento, SELinux, systemd, optimización y troubleshooting.
  • Terraform: módulos reutilizables, workspaces, estados remotos.
  • GitLab CI/CD y ArgoCD para pipelines y GitOps.
  • Kubernetes, Helm, Docker, Argo Workflows, Kong API Gateway.
  • HashiCorp Vault para gestión de secretos y políticas de seguridad.
  • Scripting avanzado en Bash y Python.
  • Experiencia con bases de datos MSSQL, PostgreSQL y MySQL (deseable).
  • Conocimiento en normativas y buenas prácticas de ciberseguridad y cumplimiento (PCI-DSS).

Condiciones

Modalidad de contratación: Plazo fijo
Duración del proyecto: 7 meses

APPLY VIA WEB
Gross salary $2000 - 2500 Full time
DevOps Engineer
  • Kabeli Selección
  • Santiago (Hybrid)
Python Docker Kubernetes DynamoDB

En Kabeli buscamos ser socios estratégicos de nuestros clientes apoyándoles en la implementación de proyectos ágiles y en la transformación digital de sus procesos, con foco en un delivery continuo.

Nuestro objetivo es agregar valor a sus distintos productos y servicios , a través de soluciones tecnológicas innovadoras y fáciles de utilizar.

Apply through Get on Board.

Funciones del cargo

En Kabeli estamos buscando un DevOps Engineer altamente motivado y con experiencia en la automatización y optimización de infraestructura en la nube, para unirse a nuestra área de Desarrollo en modalidad híbrida (Santiago de Chile, metro Manquehue).

  • Diseñar, implementar y gestionar soluciones en la nube utilizando AWS.
  • Configurar y mantener clústeres de contenedores en EKS y manejar herramientas de contenedores como Docker y Kubernetes (K8s).
  • Crear y optimizar scripts en BASH para automatización de procesos.
  • Implementar y mantener servicios serverless utilizando Lambda.
  • Diseñar, desplegar y administrar bases de datos NoSQL con DynamoDB.

Requerimientos del cargo

  • Más de 3 años de experiencia en un rol DevOps similar.
  • Conocimiento avanzado de AWS y sus servicios relacionados.
  • Experiencia trabajando con EKS, Glue, API Gateway, DynamoDB y Lambda.
  • Fuertes habilidades en scripting, especialmente con BASH y Python.
  • Experiencia en contenedores y orquestadores como Docker y Kubernetes (K8s).

Condiciones

  • Modalidad híbrida (metro Manquehue)
  • 2 días administrativos al año
  • Día libre por cumpleaños
  • Bonos de Fiestas Patrias y Navidad
  • Seguro complementario de salud, vida y dental
  • Otros beneficios corporativos

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance Kabeli Selección pays or copays life insurance for employees.
Health coverage Kabeli Selección pays or copays health insurance for employees.
Dental insurance Kabeli Selección pays or copays dental insurance for employees.
Computer provided Kabeli Selección provides a computer for your work.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
Gross salary $2000 - 3000 Full time
DevOps Engineer Modyo
  • I2B Technologies
I2B Technologies es una empresa comprometida con impulsar la transformación digital en sus clientes, ayudándolos a mejorar la calidad de vida de los usuarios finales a través de desarrollos de alto impacto. La empresa cuenta con una amplia experiencia y metodología sólida basada en cuatro pilares fundamentales: Consultoría, Desarrollo de Software, Evolución y Data Science. Estos pilares sustentan proyectos que resuelven desafíos industriales y mejoran la experiencia entre empresas y sus usuarios.
Formar parte del equipo de I2B implica integrarse a un ámbito que no solo se ocupa de la creación y ejecución de ideas, sino también de un acompañamiento constante para asegurar el éxito y la evolución continua de los proyectos.

Apply through Get on Board.

Funciones

  • Diseñar, implementar y mantener pipelines de integración y entrega continua (CI/CD) que aseguren la eficiencia y calidad en los procesos de desarrollo y despliegue.
  • Automatizar y gestionar la infraestructura usando herramientas como Terraform, Ansible u otras similares para optimizar y estandarizar los entornos.
  • Administrar entornos en la nube, priorizando plataformas como AWS, Azure o Google Cloud Platform, garantizando la disponibilidad, escalabilidad y seguridad de los mismos.
  • Supervisar el rendimiento de los sistemas, establecer monitoreos robustos y gestionar la resolución de incidentes para minimizar interrupciones y asegurar la continuidad operativa.
  • Colaborar estrechamente con los equipos de desarrollo para optimizar los despliegues, mejorar los entornos de testing y facilitar la integración entre aplicaciones y servicios.

Requisitos

Buscamos profesionales con más de 3 años de experiencia demostrable en roles de DevOps o ingeniería de infraestructura, capaces de manejar sistemas complejos y variadas tecnologías de automatización y nube.
Es imprescindible contar con experiencia en tecnologías de contenedores, particularmente Docker y Kubernetes, además de una sólida administración de servidores Linux para garantizar la estabilidad y seguridad de los servicios.
Se requiere un conocimiento profundo y práctico en herramientas y procesos de CI/CD, como Jenkins, GitLab CI o GitHub Actions, para asegurar la implementación continua en ambientes flexibles y escalables.
La experiencia con servicios en la nube es fundamental, destacando AWS, Azure o Google Cloud Platform, con habilidad para administrar y monitorear infraestructuras distribuidas e integradas.
Se valorarán certificaciones oficiales en Cloud Computing y metodologías DevOps, ya que demuestran un compromiso con la actualización constante y las mejores prácticas del área.
Además, el candidato debe poseer habilidades interpersonales para el trabajo en equipo, capacidad analítica para resolver problemas complejos y una mentalidad proactiva orientada a la mejora continua.

Deseable

Certificaciones en tecnologías cloud y DevOps, como AWS Certified Solutions Architect, Azure DevOps Engineer Expert o Certified Kubernetes Administrator, son altamente valoradas.
Experiencia adicional en herramientas complementarias de automatización y configuración como Puppet o Chef sería un plus importante.
Conocimientos en metodologías ágiles y herramientas de colaboración (JIRA, Confluence) ayudarán a integrarse fluidamente con los equipos multidisciplinarios.

Beneficios

En I2B Technologies promovemos un ambiente laboral cercano, eficiente y colaborativo, libre de burocracia y código de vestimenta, creando un espacio cómodo y flexible para todos nuestros profesionales. Ofrecemos beneficios exclusivos incluso para colaboradores freelance, incluyendo vacaciones pagadas, medios días administrativos durante el año, medio día libre en el cumpleaños propio y de hijos, bonos y días libres por matrimonio o nacimiento. Además, brindamos financiamiento para actividades físicas con FitnessDoer, acceso a una biblioteca digital y apoyo económico para la adquisición de laptops, cursos y certificaciones para el desarrollo profesional. Te invitamos a ser parte de una empresa apasionada por la transformación digital y en constante crecimiento.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Fitness subsidies I2B Technologies offers stipends for sports or fitness programs.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
DevOps Engineer
  • Moventi
Redis Docker Celery Prometheus
At Moventi, we are dedicated to helping organizations lead digital transformation by leveraging technology with an innovative mindset. We work within a multidisciplinary team of talented professionals, fostering continuous learning of new technologies and collaborative work methodologies. Our projects involve building scalable and robust cloud infrastructures, developing and deploying cutting-edge solutions, and driving innovations that create a positive market impact. Our office is centrally located and inspires teamwork with agile workspaces and recreational areas to enhance creativity and productivity.

This job is original from Get on Board.

Key Responsibilities

We are looking for a DevOps Engineer to strengthen our infrastructure and operational capabilities. In this role, you will be responsible for auditing and optimizing cloud infrastructure—primarily on AWS—ensuring performance, cost-efficiency, and scalability. You will manage Amazon DynamoDB configurations in production environments and be directly involved in implementing secure self-hosted solutions, including migrations and deployments like Langfuse.
Your daily work will also include configuring and maintaining Redis instances for high-availability production environments and collaborating closely with backend development teams to design and sustain efficient work queues using Celery or similar technologies.
Another important aspect is designing, implementing, and maintaining comprehensive monitoring, logging, and alerting systems using tools such as Prometheus, Grafana, and AWS CloudWatch to ensure reliability and rapid issue detection. You will lead and automate CI/CD pipelines and containerization workflows using Docker, GitHub Actions, GitLab CI, among others.
Additionally, you will apply strong expertise in networking, security best practices, system availability, and disaster recovery planning to ensure the robustness of our systems.

Required Skills and Experience

  • Experience auditing cloud infrastructure, preferably on AWS, focusing on performance and costs.
  • Strong knowledge of Amazon DynamoDB, including production configuration and scalability.
  • Experience implementing self-hosted solutions, such as the secure migration and deployment of Langfuse.
  • Proficiency in implementing and configuring Redis for production environments.
  • Experience collaborating with backend teams to design and support work queues (Celery or similar).
  • Experience designing, implementing, and maintaining monitoring, logging, and alerting systems (Prometheus, Grafana, CloudWatch).
  • Proficiency in CI/CD and containerization tools (Docker, GitHub Actions, GitLab CI, etc.).
  • Strong understanding of networking, security, availability, and disaster recovery.

Desirable Skills and Attributes

It is highly valuable if candidates bring additional knowledge of alternative cloud providers or hybrid cloud strategies. Familiarity with advanced security frameworks and compliance standards will enhance our infrastructure security posture. Experience with infrastructure-as-code tools such as Terraform or CloudFormation is a plus, enabling infrastructure automation and repeatability.
Strong problem-solving skills, the ability to thrive in a collaborative team environment, excellent communication abilities, and a proactive mindset towards continuous learning and innovation will allow you to excel in this role and contribute to our company’s growth.

What We Offer

  • Continuous opportunities for professional growth and learning new technologies alongside a multidisciplinary team.
  • Regular team activities and events designed to boost creativity, well-being, and team spirit.
  • Holidays paid
Join us at Moventi and be part of the positive change we aim to create in the technology market!

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
APPLY VIA WEB
Gross salary $2000 - 2500 Full time
Ingeniero de Operaciones
  • Robotia
  • Santiago (Hybrid)
Python Git Docker Deep Learning

Estamos en búsqueda de un Ingeniero de Operaciones dinámico y proactivo para unirse a nuestro equipo. La persona seleccionada será responsable de brindar apoyo a nuestra gerencia de servicios, asegurando la eficiencia, seguridad y estabilidad de los sistemas desplegados en los entornos productivos. Reportará directamente al jefe de operaciones.

Apply from getonbrd.com.

Funciones del cargo

1. Monitoreo de sistemas en producción

o Supervisión del estado de los sistemas de visión artificial.

o Gestionar herramientas de monitoreo y diagnóstico.

o Asegurar la estabilidad e integridad de los sistemas.

o Administración de cámaras de vigilancia industriales.

2. Gestión de incidencias y soporte de segundo nivel

o Atender incidentes técnicos, investigar causas raíz y aplicar soluciones.

o Escalar problemas complejos a desarrollo o ciencia de datos si es necesario.

3. Evaluación del rendimiento de modelos deep learning

o Revisar salidas de los modelos (detecciones, clasificaciones) y compararlas contra parámetros de calidad esperados.

o Reportar desviaciones o deterioro de desempeño (por ejemplo, falsos positivos/negativos).

o Descarga y recuperación de registros, métricas y material multimedia para la retroalimentación de los modelos de aprendizaje.

4. Automatización y mejora continua

o Gestión del monitoreo y alerta de sistemas mediante la integración de herramientas automatizadas.

o Contribuir en las definiciones técnicas que maximicen la estabilidad, escalabilidad, rendimiento y seguridad de los sistemas.

5. Documentación y procedimientos operativos

o Mantener documentación clara sobre incidentes, cambios en configuración, y actualizaciones en modelos o sistemas.

6. Interacción con clientes o áreas operativas

o Comunicar hallazgos técnicos de forma clara y efectiva.

o Participar en reuniones operativas y sugerir mejoras.

Requerimientos del cargo

1. Técnicas

o Dominio de sistemas Unix (consola, gestión de procesos, eventos de sistema, administración de servicios, networking). (Obligatorio)

o Manejo de herramientas de monitoreo (Prometheus, Grafana, Nagios u otras). (Obligatorio)

o Conocimientos básicos de deep learning: cómo interpretar outputs de modelos, métricas como precision, recall, etc. (Deseable)

o Sólido manejo de scripting Bash y Python.

o Manejo Git y CI/CD (ideal para revisar versiones de modelos o pipelines).

o Manejo de Docker y administración de contenedores.

o Experiencia con Jira y Confluence. (Deseable)

2. Blandas

o Disponibilidad para visitas a terreno y pasaporte vigente (o en trámite).

o Buena comunicación, tanto oral como escrita.

o Pensamiento analítico y enfoque en resolución de problemas.

o Autoaprendizaje y adaptación a nuevas tecnologías.

o Capacidad para discriminar información relevante (ej. identificar cuándo un modelo está fallando por datos de entrada, por desalineamiento, o por bugs).

Beneficios y Condiciones

o Pertenecer a una compañía joven, con gran potencial de crecimiento regional, líder en el desarrollo de tecnología de visión artificial en el ámbito de la minería y la industria.

o Café de grano gratis en oficina.

o Capacitaciones y certificaciones.

o Snack y galletas gratis en oficina.

o Permiso de 5 días administrativos al año.

o Día de cumpleaños libre.

o Contrato a tres meses, renovación a indefinido según evaluación.

APPLY VIA WEB
$$$ Full time
Ingeniero de Sistemas
  • Mediastream

Mediastream es una empresa líder con más de 16 años de experiencia en tecnología de streaming, dedicada a proveer soluciones integrales y de alta calidad para la administración, distribución y producción audiovisual. Trabajamos con importantes empresas y emisoras a nivel mundial, conectando a nuestros clientes con sus audiencias de manera sencilla y efectiva para generar nuevas fuentes de ingresos. Nuestra plataforma end-to-end está diseñada para optimizar la experiencia de usuario y satisfacer las necesidades dinámicas de la audiencia digital, respaldada por soporte técnico 24/7 y atención personalizada.

Job opportunity on getonbrd.com.

Responsabilidades

  • Diseñar y gestionar la infraestructura tecnológica que incluye servidores físicos y virtuales, redes y sistemas de almacenamiento, asegurando su escalabilidad y redundancia para soportar la transmisión continua de contenido audiovisual.
  • Configurar y administrar entornos de virtualización utilizando tecnologías como VMware y Hyper-V, además de orquestar contenedores mediante Docker y Kubernetes para optimizar recursos y garantizar la flexibilidad del sistema.
  • Monitorizar el rendimiento de la infraestructura tecnológica a través de herramientas especializadas, identificar cuellos de botella y proponer mejoras para asegurar un funcionamiento eficiente y estable de los servicios de streaming.
  • Implementar y mantener sistemas robustos de seguridad, configurando firewalls, sistemas de detección de intrusiones y aplicando políticas de seguridad para proteger la infraestructura y datos sensibles contra amenazas externas e internas.
  • Automatizar tareas operativas recurrentes mediante el desarrollo y mantenimiento de scripts en Bash, Python y PowerShell, además de integrar herramientas y procesos que mejoren la productividad y reduzcan la intervención manual.
  • Colaborar estrechamente con los equipos de desarrollo para integrar aplicaciones en producción, configurar y mantener pipelines de CI/CD, y resolver incidencias relacionadas con la integración y despliegue continuo de software.
  • Proveer soporte técnico avanzado de segundo y tercer nivel, diagnosticando y solucionando problemas complejos, coordinando la atención de problemas críticos y asistiendo a usuarios y equipos internos para garantizar la continuidad operativa.
  • Documentar detalladamente la arquitectura de sistemas y procedimientos operativos, creando y actualizando manuales, guías y protocolos que faciliten el mantenimiento y la mejora continua de la infraestructura.

Descripción del puesto

Buscamos un Ingeniero de Sistemas que asegure la disponibilidad, seguridad y eficiencia de nuestra infraestructura tecnológica, elemento clave para ofrecer una experiencia de streaming ininterrumpida y de alta calidad. El candidato ideal debe poseer sólidos conocimientos técnicos en administración de servidores físicos y virtuales, redes, almacenamiento, virtualización (VMware, Hyper-V) y manejo de contenedores (Docker, Kubernetes).

Es fundamental contar con habilidades para el monitoreo y la optimización del rendimiento, así como experiencia en la implementación y gestión de sistemas de seguridad que protejan la infraestructura y los datos. Además, se valoran competencias en automatización de procesos mediante scripting (Bash, Python, PowerShell) y en la gestión de entornos de integración y despliegue continuo (CI/CD).

Además de las capacidades técnicas, buscamos un profesional proactivo, detallista y orientado a la resolución de problemas complejos, con habilidades para trabajar en equipo y colaborar de manera efectiva con áreas de desarrollo y soporte. La capacidad de documentar procesos y arquitecturas con rigurosidad y claridad también es imprescindible para garantizar la transferencia de conocimiento y la continuidad operativa.

Conocimientos deseables

Se valorará experiencia previa en entornos de streaming o plataformas audiovisuales, así como el manejo de herramientas de orquestación avanzada y automatización de infraestructura como código. Conocimientos en seguridad avanzada, auditorías y cumplimiento normativo serán un plus importante. La familiaridad con metodologías ágiles, DevOps y prácticas de integración continua contribuirá positivamente al desempeño en el puesto.

Beneficios

En Mediastream ofrecemos un entorno laboral dinámico y colaborativo que fomenta la innovación constante y el crecimiento profesional continuo. Promovemos una cultura inclusiva basada en el apoyo mutuo y el desarrollo tanto personal como profesional. Contamos con amplias oportunidades de capacitación en tecnologías de vanguardia y trabajamos en conjunto con un equipo de alto nivel para enfrentar desafíos relevantes dentro de la industria del streaming y distribución audiovisual.

Health coverage Mediastream pays or copays health insurance for employees.
Computer provided Mediastream provides a computer for your work.
Informal dress code No dress code is enforced.
APPLY VIA WEB
$$$ Full time
Ingeniero DevOps
  • Agilesoft SpA
Oracle DevOps Docker Azure

Agilesoft es una start-up formada por gente joven, enfocada en el desarrollo de software. Somos amantes de la tecnología, con un ambiente laboral entretenido y grato.

Descripción:
Trabajamos principalmente desarrollando plataformas web y aplicaciones móviles para grandes empresas. A la vez, tenemos la necesidad de desafiarnos constantemente a mejorar nuestras buenas prácticas y expertise en las diferentes tecnologías emergentes. Somos agnósticos a las marcas o productos, amamos la velocidad de transformación y la posibilidad de aprender cada día algo nuevo.

Apply to this job directly at getonbrd.com.

Funciones del cargo

Estamos en búsqueda de un Ingeniero DevOps (100% Remoto) para integrarse a nuestro equipo

Deberá realizar una monitorización continua de todo el ciclo de vida del desarrollo del software y debe saber cómo administrar la infraestructura TI, asegurando la integración y despliegue continuo.

Es muy importante la motivación por aprender, estar actualizado en tecnologías y autogestión para cumplir con el equipo, los cuales pueden ser diversos y cambiar, por lo que debes estar preparado para un ambiente dinámico, desafiante y divertido para crecer como profesional.

Requerimientos del cargo

- Título profesional de Ingeniería civil / ejecución en computación / informática.
- Minimo 3 años de experiencia como Devops
- Kubernetes
- Docker
- Grafana / Prometheus
- ⁠Experiencia con CI/CD (por ejemplo jenkins, azure devops, github)
- ⁠Experiencia con diferentes proveedores Cloud (por ejemplo Oracle, Azure, Google)
- ⁠Keycloak (deseable)
- ⁠Terraform (deseable)

Condiciones

- Ambiente laboral grato, flexible, entretenido y dinámico.
- Computador de trabajo.
- Contrato indefinido
- Modalidad: 100% Remota

- Caja de compensación Los Andes (CHILE)
- Seguro complementario de Salud y Dental. (CHILE)
- Seguro Yunen (REPUBLICA DOMINICANA)

Health coverage Agilesoft SpA pays or copays health insurance for employees.
Computer provided Agilesoft SpA provides a computer for your work.
APPLY VIA WEB
$$$ Full time
DevOps Engineer II
  • ZeroFox
  • Santiago (Hybrid)
Python Agile Go DevOps

Opportunity Overview

At ZeroFox, we are passionate about bringing world-class protection to the digital-first world. Together, we have built a system capable of collecting and analyzing data from all over the internet, creating a paradigm-shifting cybersecurity product that helps secure and protect our customers and improves the global threat landscape.

We are a team of software engineers, cybersecurity experts, and data scientists who continue to develop unparalleled solutions for the cyber security industry by providing the best Digital Risk Protection SaaS in the global market. Our company, services, and user base are growing faster than ever and we’d like you to help us innovate. We believe the greatest solutions in the Digital Risk Protection space come from composing teams with varied backgrounds and experiences that can use their complementary skill sets to come up with the best market-defining solutions.

Apply directly through getonbrd.com.

Role and responsibilities

  • Collaborate with product teams and software engineers across security, machine learning, digital risk protection, and cyber threat intelligence to develop the next generation of solutions for the ZeroFox platform
  • Gain in-depth knowledge of our microservices architecture and stack; leverage this knowledge to improve system stability, performance, scalability, and security
  • Own and maintain multiple components of our DevOps infrastructure, including CI/CD pipelines, monitoring solutions, and container orchestration platforms, with a focus on embedding security controls and checks
  • Begin to take on a leadership role within projects, guiding best practices around deployment automation, infrastructure as code, and secure configuration management
  • Research, evaluate, and implement new tooling or capabilities to ensure our systems meet or exceed production security requirements (e.g., scanning, patching, vulnerability management)
  • Coordinate with security stakeholders to review engineering milestones and third-party systems for compliance with security standards

Required qualifications and skills

  • Motivated, communicative, teamwork-oriented professionals comfortable working in agile environments
  • Bachelor’s degree in computer science or a related field, OR equivalent education or experience
  • DevOps experience, typically obtained in 3+ years
  • Good understanding of the software development lifecycle, automation, and CI/CD practices
  • Familiarity with cloud services like AWS for building and scaling web architecture, including basic security considerations and standards
  • Experience working with containerization and orchestration technologies such as Docker, Nomad, or Kubernetes
  • Ability to write and maintain infrastructure as code (e.g., Terraform or AWS CloudFormation), integrating security into IaC workflows
  • Good communication, collaboration, and presentation skills in English
  • Ability to work effectively in a fast-paced, agile environment

Desirable skills

  • Proficiency in scripting languages such as Python, Go, or a similar language
  • Experience troubleshooting networking issues in a cloud environment, including basic network security principles
  • Familiarity with monitoring and alerting tools (e.g., Prometheus, Grafana, Datadog)
  • Solid knowledge of infrastructure best practices, security considerations, and automation tools
  • Understanding of or exposure to security scanning tools (e.g., SAST, DAST, or container image scanners)
  • We also value equivalent experience to these languages and frameworks. If you think you might be a fit, apply!

Benefits

  • Opportunities to learn and contribute your knowledge to our Digital Risk Protection platform
  • Competitive compensation
  • Competitive PTO
  • Complementary health insurance
  • Daily catered lunches for in-office work
  • Respectful and nourishing work environment, where every opinion is heard and everyone is encouraged to be an active part of the organizational culture.
  • Regular team bonding activities like cooking and cocktails classes, bingos, stand up comedy, magic shows, virtual happy hour, lunch and learns, etc.
  • Additional Parental Leave
  • Excellent communication: between teams, people, organizations and leaders

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance ZeroFox pays or copays life insurance for employees.
Meals provided ZeroFox provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage ZeroFox pays or copays health insurance for employees.
Dental insurance ZeroFox pays or copays dental insurance for employees.
Computer provided ZeroFox provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal ZeroFox gives you paid vacations over the legal minimum.
Beverages and snacks ZeroFox offers beverages and snacks for free consumption.
Parental leave over legal ZeroFox offers paid parental leave over the legal minimum.
APPLY VIA WEB
Gross salary $1800 - 2000 Full time
QA Automation
  • Interfell
Agile SQL Scrum Docker

En Interfell, estamos revolucionando la manera en que las empresas se conectan con talento calificado en LATAM.
Buscamos un QA Automation, responsable de garantizar la calidad del software mediante la implementación y automatización de pruebas. Su objetivo es detectar defectos de manera temprana e integrar procesos de control de calidad dentro del ciclo de desarrollo del software, donde serás parte del equipo QA para un proyecto del área fintech.

Jornada de trabajo: De 9:00 AM a 6:00 PM Costa Rica

** Con el objetivo de facilitar nuestros procesos, solicitamos amablemente que consideres postularte únicamente si cumples con los conocimientos requeridos. En caso contrario, te animamos a estar pendiente de nuestras futuras oportunidades, ya que seguramente surgirá alguna donde puedas destacarte. Agradecemos tu comprensión y colaboración. **

Applications are only received at getonbrd.com.

Funciones del cargo

  • Analizar los requerimientos de proyectos de mediana complejidad y alto impacto.
  • Estimar el esfuerzo necesario para implementar pruebas automatizadas.
  • Diseñar y desarrollar un plan de pruebas automatizadas basado en los requisitos.
  • Implementar y mantener frameworks de automatización para pruebas funcionales y no funcionales.
  • Desarrollar y ejecutar pruebas de carga y estrés con herramientas especializadas.
  • Asegurar la actualización y mantenimiento de la cobertura de pruebas automatizadas conforme a los cambios en el sistema.
  • Implementar y gestionar la ejecución de pruebas automatizadas en entornos de CI/CD.
  • Ejecutar pruebas manuales cuando sea necesario y validar la automatización de los casos de prueba.
  • Verificar los resultados de las pruebas y generar reportes detallados sobre su ejecución (ejemplo: defectos, estado del proyecto, cobertura de pruebas, análisis de código y diseño).
  • Documentar lecciones aprendidas y mejores prácticas en automatización de pruebas.
  • Diseñar estrategias de prueba combinando pruebas manuales y automatizadas.
  • Crear documentación técnica de las pruebas automatizadas, incluyendo scripts, métodos de ejecución y estrategias de cobertura.

Requerimientos del cargo

  • 4 años de experiencia en QA.
  • Experiencia en automatización de pruebas utilizando frameworks como Appium, WebdriverIO, Cypress, entre otros.
  • Conocimientos en programación orientada a objetos, funcional, procedural y asíncrona.
  • Comprensión de los procesos de ingeniería de software, ciclo de desarrollo y control de calidad.
  • Experiencia en pruebas unitarias, de integración, de sistema y de regresión.
  • Conocimientos en pruebas de rendimiento, carga, estrés y API.
  • Experiencia en diseño y desarrollo de pruebas automatizadas.
  • Capacidad para documentar pruebas, incluyendo casos de prueba, diagramas de diseño y README.md.
  • Familiaridad con metodologías ágiles como SCRUM y Kanban.
  • Conocimientos en bases de datos relacionales y no relacionales.
  • Conocimientos básicos de computación en la nube (AWS).

Opcionales

  • Manejo de herramientas de integración continua como Jenkins, GitHub Actions, CircleCI o Travis.
  • Uso de contenedores y virtualización con Docker y Kubernetes.

Condiciones

  • Contrato a largo plazo, modalidad de contractor
  • Pago USD
  • 100% remoto
  • Oportunidad de crecimiento
  • Vacaciones y feriados

APPLY VIA WEB
Gross salary $1800 - 2000 Full time
QA Engineer
  • getxerpa
SQL Docker Jenkins CircleCi

En getxerpa trabajamos para transformar el sector financiero en América Latina, ayudando a bancos e instituciones financieras a modernizar su propuesta digital y fortalecer su vinculación con los clientes mediante el uso de herramientas que promueven la salud financiera y la personalización basada en datos. Nuestra plataforma está diseñada para entregar experiencias digitales mejores y más rápidas, a través de soluciones integrables que apoyan a los usuarios a alcanzar sus metas financieras mientras incrementan la interacción con productos y canales bancarios.

Con presencia en México, Ecuador, Colombia y Chile, colaboramos con grandes actores como Santander, Banco del Pacífico, Scotiabank y Sura, contando actualmente con más de 700 mil usuarios activos que han logrado ahorrar más de USD 1 billón gracias a nuestras herramientas innovadoras y adaptadas a las necesidades regionales.

© Get on Board. All rights reserved.

Responsabilidades del puesto

El/La QA Engineer será responsable de garantizar la calidad y el correcto funcionamiento de las soluciones digitales que ofrecemos a nuestros clientes en el sector financiero.

  • Colaborar con el equipo de desarrollo para identificar los requisitos de prueba, diseñar y crear casos de prueba exhaustivos.
  • Identificar la data clave para poder probar la funcionalidad esperada.
  • Detectar riesgos y dependencias de los requerimientos.
  • Generar Plan de pruebas, Matriz de Escenarios y Casos de Prueba que garanticen la funcionalidad de la solución.
  • Definir la estrategia de pruebas y asegurar la cobertura adecuada de pruebas funcionales, de regresión y de rendimiento.
  • Realizar pruebas automatizadas o manuales de acuerdo al plan y las necesidades del desarrollo.
  • Realizar diversos tipos de pruebas, incluidas pruebas funcionales, de integración, intromisión. regresión y de rendimiento, para garantizar la calidad y estabilidad de nuestras soluciones de identidad.
  • Identificar y gestionar riesgos asociados a la calidad del software y presentar informes de progreso.
  • Colaborar con equipos de desarrollo, Product Owners y otros interesados para alinear los objetivos de calidad con los requisitos del negocio.
  • Realizar análisis de resultados de pruebas y preparar informes detallados sobre la calidad del software, destacando defectos y sugerencias de mejoras.
  • Mantenerse actualizado con las últimas herramientas, tendencias y mejores prácticas de la industria en pruebas automatizadas y aseguramiento de calidad.
  • Conocer el valor que aporta al negocio la funcionalidad que se dará con la solución que se requiere.
  • Dar seguimiento a la liberación en producción, así como a los criterios mínimos de aceptación para poder comenzar con la ejecución de los casos de prueba previstos.

Requisitos y habilidades necesarias

Buscamos profesionales con experiencia comprobable en aseguramiento de calidad para plataformas digitales, preferentemente en entornos fintech o productos digitales orientados al consumidor financiero. Es fundamental contar con fuertes conocimientos técnicos y una mentalidad proactiva para identificar y resolver problemas de manera ágil.

Los requisitos clave incluyen:

  • +2 años Banco o fintech o grandes volúmenes de datos
  • +3 años experiencia QA Engineer
  • +3 años metodologías ágiles
  • +3 años CI/CD
  • Experiencia utilizando herramientas de IA para procesos de testing

Tech

  • +2 años Cypress, Selenium o Playwright o similar (automatización)
  • +2 años CircleCI, Jenkins, GitHub Actions o similar (integración)
  • +2 años Jest, Mocha, Karma o similar (unitarias)
  • +2 años REST Assured, Postman o Supertest o similar (API’s)
  • +2 años Github
  • +2 años AWS
  • +2 años Docker
  • +2 años SQL (Postgres)

Skills

  • Análisis y diseño de requerimientos
  • Ingeniería de Software
  • Arquitectura de Software
  • Arquitectura de componentes en la Nube
  • Patrones de Diseño
  • Seguridad Informática
  • Autonomía - autodidacta
  • Análisis y resolución de problemas
  • Trabajo por objetivos
  • Trabajo en equipo
  • Pensamiento crítico

Se valorarán también habilidades blandas como trabajo en equipo, adaptabilidad a ambientes dinámicos, y enfoque en resultados orientados al cliente final.

Competencias y conocimientos adicionales deseables

Serán altamente valorados aquellos candidatos/as que cuenten con experiencia previa en proyectos fintech o bancarios, así como conocimiento de normativas de seguridad y privacidad en el sector financiero. También recomendamos tener familiaridad con:

    • Excelentes habilidades de organización y comunicación.
    • Experiencia en proyectos complejos.
    • +2 años experiencia Javascript, Python, .NET como BackEnd Developer.
    • +2 años experiencia en programación orientada a objetos, patrones de programación asíncronos
    • +1 año Lighthouse, QebPageTest, Sitespeed.io (rendimiento)
    • +1 año OWASP ZAP, Burp suite o similar (seguridad)

Beneficios y cultura laboral

  • 🧑🏽‍💻 Modalidad de trabajo 100% remoto
  • 🌎 Oportunidad de integrarte a un equipo multicultural e innovador.
  • 🏝️ Días xerpa adicionales a los días normales de vacaciones para un mejor balance vida-personal.
  • 💸 Bono de vacaciones por tomar 10 días hábiles consecutivos.
  • 🎂 Medio día libre en tu cumpleaños para celebrar contigo mismo.
  • 🕰️ Flexibilidad horaria para una gestión óptima de tu tiempo laboral.
  • 🤸🏽‍♀️ Trabajo bajo metodologías ágiles con equipos multidisciplinarios que fomentan la colaboración y el aprendizaje continuo.
  • 💻 Bono mensual para mejorar tu espacio de home office y llevar tu lugar de trabajo a otro nivel.
  • ✈️ Viaje Offsite anual para fortalecer vínculos y motivación de equipo.
  • Muchos otros beneficios que revelaremos al conocernos personalmente.

APPLY VIA WEB
Gross salary $2400 - 2600 Full time
DevOps AWS Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Git Linux DevOps Docker
En BC Tecnología, somos una consultora especializada en servicios IT con un amplio expertise en diversas áreas tecnológicas. Nuestra oferta incluye la administración de portafolios, desarrollo de proyectos, outsourcing y selección de profesionales. Formamos equipos ágiles para áreas como Infraestructura, Desarrollo de Software y unidades de negocios, atendiendo a clientes en sectores financieros, seguros, retail y gobierno.
El proyecto actual, con duración inicial de 6 meses y posibilidad de extensión, se enmarca dentro de nuestra línea de trabajo basada en soluciones tecnológicas innovadoras. Se centra en potenciar la infraestructura cloud de nuestros clientes a través de la implementación avanzada de DevOps sobre AWS, contribuyendo a la transformación digital y optimización continua de servicios críticos.

This job offer is available on Get on Board.

Principales responsabilidades y funciones

Como DevOps AWS Engineer, serás responsable de diseñar, implementar y mantener infraestructuras cloud utilizando AWS y otras tecnologías modernas. Trabajarás en conjunto con equipos multifuncionales para garantizar la automatización, escalabilidad y eficiencia de las plataformas de producción y desarrollo.
  • Implementar y gestionar servicios en AWS, asegurando su disponibilidad y desempeño.
  • Utilizar herramientas de infraestructura como código (IaaC), especialmente Terraform, para construir y mantener entornos reproducibles y confiables.
  • Administrar y optimizar pipelines CI/CD, integrándolos con Git, Docker y Kubernetes.
  • Asegurar la integración de monitoreo y logging mediante plataformas ELK (Elasticsearch, Logstash, Kibana) para la visibilidad completa de las operaciones.
  • Promover prácticas DevOps sólidas que faciliten la entrega continua y la colaboración entre equipos de desarrollo y operaciones.
  • Gestionar y solucionar incidencias en entornos Linux, garantizando la estabilidad y seguridad de los sistemas.

Requisitos y habilidades necesarias

Buscamos un profesional con al menos 2 años de experiencia práctica en entornos AWS y servicios cloud relacionados. Es fundamental poseer un sólido entendimiento de los principios y prácticas DevOps, combinando conocimientos técnicos en infraestructura y desarrollo de software para optimizar procesos y recursos tecnológicos.
Se requiere experiencia avanzada en la utilización de herramientas de infraestructura como código, especialmente Terraform, para automatizar la provisión y gestión de recursos cloud. Además, debe manejar con soltura tecnologías de contenedores y orquestación, tales como Docker y Kubernetes, para asegurar despliegues eficientes y portabilidad.
El candidato debe tener habilidades para administrar sistemas Linux, dominar control de versiones con Git y familiarizarse con plataformas ELK para la supervisión y análisis de logs. Además, es imprescindible contar con competencias para trabajar en equipo, comunicación efectiva y adaptabilidad a metodologías ágiles en entornos dinámicos.

Habilidades y conocimientos deseables

Sería altamente valorado contar con experiencia previa en proyectos de infraestructura cloud en sectores regulados como financiero o gobierno, donde las mejores prácticas de seguridad y cumplimiento son esenciales. Conocimientos en automatización avanzada de pipelines CI/CD y familiaridad con otras herramientas complementarias de monitoreo y seguridad también serán considerados un plus. Asimismo, la capacidad para aportar iniciativas de mejora continua y adaptación tecnológica contribuirá significativamente al éxito del proyecto.

Beneficios y entorno laboral

Ofrecemos un contrato basado en proyectos con posibilidad de continuidad según desempeño, trabajando en un entorno laboral presencial en Santiago, Chile, con modalidad híbrida que combina flexibilidad y colaboración directa.
Formarás parte de un equipo profesional comprometido con la innovación tecnológica, desarrollando soluciones vanguardistas en tecnologías cloud e inteligencia artificial.
Nuestra consultora aplica metodologías ágiles y atiende clientes de alto nivel en múltiples sectores, generando un ambiente ideal para el desarrollo profesional, aprendizaje continuo y crecimiento dentro de la empresa.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB
Gross salary $2800 - 3700 Full time
Site Reliability Engineer
  • Buk
Java Ruby on Rails Python PHP

En Buk, estamos en una misión audaz 💪🌎:

¡Transformar los entornos laborales en lugares más felices y productivos! Somos un equipo joven, lleno de energía y pasión por revolucionar la gestión de RRHH en Latinoamérica. La tecnología es nuestra herramienta principal, y nos esforzamos por la excelencia en cada aspecto de nuestra plataforma.

Con presencia en Chile, Colombia, México y Perú y próximos a iniciar operaciones en Brasil ¡estamos listos para atraer mentes brillantes que nos ayuden a seguir alcanzando muchas metas con miras al infinito y más allá! si quieres saber cómo es un día de trabajo con nosotros, no dudes en echar un vistazo al siguiente video: https://www.youtube.com/watch?v=jBxmAcOrMZU

Find this vacancy on Get on Board.

Funciones del cargo

  • Te encargarás de desarrollar módulos y componentes transversales de la infraestructura.
  • Serás responsable de la administración de las plataformas internas.
  • Velarás por su estabilidad, disponibilidad, seguridad y escalabilidad.
  • Participarás en la mejora continua identificando mejoras a desarrollar.
  • Te encargarás de atender incidentes.
  • Participarás en la automatización de procesos.

Requerimientos del cargo

  • Al menos 3 años de experiencia en roles similares
  • Experiencia trabajando con Terraform
  • Conocimientos en AWS
  • Experiencia con Stack de monitoreo Grafana/Prometheus
  • Conocimiento en gitOps
  • Experiencia trabajando con Docker y Kubernetes (INDISPENSABLE)
  • Conocimientos de sistemas operativos Linux

Opcionales

  • Administración de bases de datos PostgreSQL
  • Experiencia en desarrollo de software (PHP, Java, Python, RoR, etc.)

Condiciones

  • ¡El mejor ambiente de trabajo! Nuestra misión es crear lugares de trabajo más felices, y bueno, lideramos con el ejemplo!😀
  • VACACIONES ILIMITADAS! 🌴🏖️☀️ Sí! ¡Leíste bien!
  • Plan de Beneficios personalizado ⭐ podrás elegir muchas opciones, entre Seguro complementario de Salud, aguinaldos, bonos, capacitaciones, clases de inglés, gimnasio, giftcards, asesoría financiera, ayuda psicológica, Netflix, Spotify y muchos más!
  • Postnatal Paternal de 5 semanas 🍼💙
  • Flexibilidad horaria, queremos que la gente se motive y trabaje feliz, cumpliendo objetivos, no que marque tarjeta.
  • Modalidad WFA 🌴🌞(Work From Anywhere) trabaja 100% en la oficina/ híbrido/ full remoto ¡Tú eliges!
  • Increíbles oficinas en Latam, modernas y con áreas recreativas: Máquina de cerveza, Helados, Mesa PingPong, Snacks y Café, Nintendo.🍩🍫🍺🍕🍎
  • ¡Olvídate de las corbatas y de los zapatos!
  • Sueldo: propone, si eres la persona que buscamos, no te quedarás fuera

Fully remote You can work from anywhere in the world.
Equity offered This position includes equity compensation (in the form of stock options or another mechanism).
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Buk pays or copays health insurance for employees.
Computer provided Buk provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Buk gives you paid vacations over the legal minimum.
Beverages and snacks Buk offers beverages and snacks for free consumption.
APPLY VIA WEB
Gross salary $2000 - 3000 Full time
Experto en Infraestructura AWS &Amp; CI/CD
  • OlaClick
Git Linux Docker CI/CD
OlaClick es una innovadora plataforma digital enfocada en la gestión y digitalización de restaurantes en América Latina, con presencia en más de 20 países y más de 20,000 clientes activos. OlaClick ofrece menús digitales interactivos, herramientas integradas de pago y campañas automatizadas para que los restaurantes puedan comenzar a vender en línea rápidamente, sin necesidad de conocimientos técnicos ni comisiones ocultas. El proyecto se centra en automatizar la gestión de pedidos y aumentar significativamente el volumen de ventas, transformando la experiencia operativa y comercial de los establecimientos gastronómicos.

This job is exclusive to getonbrd.com.

¿Qué harás en OlaClick?

Como Experto en Infraestructura AWS e Integración Continua, tu principal objetivo será diseñar, mantener y optimizar la infraestructura cloud sobre AWS, asegurando alta disponibilidad, seguridad y rendimiento óptimo de los sistemas backend de OlaClick. Gestionarás pipelines de CI/CD que permitan acelerar la entrega continua con calidad, así como la automatización de tareas operativas para los entornos de staging y producción. Colaborarás estrechamente con otros ingenieros y equipos de producto en un entorno de trabajo ágil, aplicando metodologías modernas para garantizar despliegues eficientes y la estabilidad de la plataforma.
  • Diseñar y mantener la infraestructura cloud en AWS.
  • Implementar pipelines de integración y despliegue continuo (CI/CD) para optimizar la velocidad y calidad de entrega.
  • Monitorear, analizar y optimizar el rendimiento, la disponibilidad y la seguridad de los sistemas backend.
  • Automatizar la gestión operativa de entornos staging y producción.
  • Colaborar con los equipos de ingeniería y producto para asegurar alineación y éxito en entregables.

¿Qué esperamos de ti?

Buscamos un profesional con mínimo 3 años de experiencia sólida y comprobable en AWS, habiendo trabajado con servicios como EC2, RDS, S3, Lambda y API Gateway. Es fundamental contar con dominio en herramientas de integración y despliegue continuo, especialmente GitLab CI, que permitan construir pipelines robustos y eficientes. Se requiere conocimiento profundo en sistemas Linux, incluyendo scripting para automatización, manejo de contenedores con Docker y control de versiones usando Git.
Además, es deseable experiencia en Infrastructure as Code (IaC), preferentemente con Terraform, para facilitar la reproducibilidad y escalabilidad de la infraestructura. La habilidad para diagnosticar y resolver problemas complejos es fundamental, junto con una comunicación efectiva para colaborar dentro de equipos multifuncionales y dinámicos. La experiencia en ambientes altamente transaccionales y la orientación al detalle completan el perfil técnico ideal.
Se valorarán especialmente las certificaciones oficiales de AWS, conocimientos en herramientas de monitoreo como Grafana y experiencia previa en startups o entornos con altos volúmenes de tráfico.

✔️Puntos a favor

Contar con certificaciones oficiales AWS que certifiquen tu conocimiento avanzado en sus servicios y buenas prácticas en la nube será un gran diferencial. También valoramos la experiencia implementando soluciones de monitoreo y observabilidad con Grafana para mantener un control riguroso sobre la salud y desempeño de los sistemas. Haber trabajado en entornos altamente transaccionales y dinámicos demuestra tu capacidad para manejar infraestructuras críticas con cargas variables y elevados niveles de concurrencia.

🚀¿Qué te ofrecemos?

En OlaClick ofrecemos una relación laboral estable con una modalidad de trabajo 100% remota, que te permite desempeñarte desde cualquier país de América Latina o Brasil. Nuestra cultura se caracteriza por un ambiente laboral positivo, retador y colaborativo, compuesto por un equipo talentoso y con buena disposición para compartir conocimiento y crecer juntos.
Adicionalmente, facilitamos clases de idiomas gratuitas (inglés o portugués) dos veces por semana a través de Políglota.org para tu desarrollo personal y profesional. Dispondrás de un día libre por tu cumpleaños y un día off extra cada trimestre trabajado, fomentando el equilibrio entre vida laboral y personal. También promovemos capacitaciones continuas tanto en el área técnica como en habilidades blandas, brindándote oportunidades reales de crecimiento dentro de una startup global en expansión.

APPLY VIA WEB
$$$ Full time
DevOps Engineer con Conocimientos en Back-end y AWS
  • coderslab.io
Java Python Agile Node.js
En CodersLab es una empresa dedicada al desarrollo de soluciones para empresas y actualmente estamos enfocados en el crecimiento global de nuestros equipos con el objetivo de posicionar nuestros productos en más países de Latinoamérica. Por esta razón, estamos buscando un DevOps Engineer con conocimientos en Backend y AWS

Te sumarás a un equipo desafiante y ambicioso con ganas de innovar en el mercado, haciendo que tus propuestas sean altamente valiosas para el negocio.
¡Aplica ahora para este increíble reto!

Apply through Get on Board.

Funciones del cargo

  • Diseñar, implementar y mantener pipelines CI/CD para aplicaciones backend.
  • Automatizar despliegues y configuraciones en entornos AWS (EC2, Lambda, ECS, EKS, S3, RDS, etc.).
  • Gestionar infraestructura como código usando herramientas como Terraform, CloudFormation o similares.
  • Monitorizar y optimizar el rendimiento de sistemas y aplicaciones.
  • Colaborar con desarrolladores backend para integrar y mejorar procesos de desarrollo y despliegue.
  • Implementar prácticas de seguridad en la infraestructura y aplicaciones.
  • Gestionar la escalabilidad, alta disponibilidad y recuperación ante desastres.
  • Documentar procesos y arquitecturas implementadas.

Requerimientos del cargo

  • Experiencia mínima de 2 años como DevOps Engineer o en roles similares.
  • Conocimientos sólidos en AWS y sus servicios principales.
  • Experiencia en desarrollo backend con lenguajes como Python, Node.js, Java o Go.
  • Dominio de herramientas CI/CD (Jenkins, GitLab CI, GitHub Actions, etc.).
  • Conocimientos en infraestructura como código (Terraform, CloudFormation).
  • Experiencia con contenedores y orquestadores (Docker, Kubernetes).
  • Familiaridad con monitoreo y logging (Prometheus, Grafana, ELK, CloudWatch).
  • Buenas prácticas de seguridad en la nube.
  • Capacidad para trabajar en equipo y comunicar efectivamente.
Deseables:
  • Certificaciones AWS (AWS Certified DevOps Engineer, AWS Solutions Architect).
  • Experiencia con microservicios y arquitecturas serverless.
  • Conocimiento en bases de datos SQL y NoSQL.
  • Experiencia en metodologías ágiles.

APPLY VIA WEB
Gross salary $4000 - 5500 Full time
DevOps Data Engineer (Azure & Databricks)
  • Zaelot
Python SQL DevOps Docker

At Zaelot, we pride ourselves on developing scalable solutions for enterprise-grade clients. As a DevOps Data Engineer, you will play a crucial role in maintaining robust, secure, and scalable data pipelines within the Azure cloud ecosystem.
We thrive on collaboration amongst our analysts, designers, and software engineers to not only meet our client needs but to pioneer innovative strategies that set us apart in this rapidly changing technology landscape.

Apply at getonbrd.com without intermediaries.

Key Responsibilities:

  • Collaborate with data scientists, analysts, and developers to design, build, and maintain efficient data pipelines in the Azure environment.
  • Optimize existing cloud-based data solutions to improve performance and reliability.
  • Utilize Azure Data Factory and Azure Databricks for data integration and processing.
  • Implement CI/CD practices using tools like Azure DevOps or GitHub Actions, ensuring seamless deployments.
  • Develop scripts in Python and SQL for automation and data manipulation.
  • Engage in troubleshooting and problem-solving to enhance system efficiency.

Required Skills and Experience:

  • 4+ years of experience as a Data Engineer or DevOps Engineer, demonstrating practical knowledge and expertise.
  • Hands-on proficiency with Azure Data Factory and Azure Databricks.
  • Solid understanding of Python, SQL, and automation scripting.
  • Experience with CI/CD tools like Azure DevOps or GitHub Actions.
  • Familiarity with orchestrating data workflows and creating cloud-based solutions.
  • Advanced English proficiency (both written and spoken) for effective communication with the team.
  • Strong problem-solving skills and a collaborative mindset are essential.

Desirable Skills:

  • Azure certifications such as Azure Data Engineer Associate or DevOps Engineer Expert would be advantageous.
  • Familiarity with container tools like Docker or Kubernetes.

What We Offer:

  • Paid vacations for 20 days after one year.
  • Referrals program
  • Finder's fee
  • Training and certifications program
  • Work from home aid
  • English Classes
  • Fitness Program
  • Profit Share
  • Coaching sessions
At Zaelot, we believe in fostering a supportive and innovative work environment. We look forward to welcoming you to our talented team and achieving great things together! 🚀

Wellness program Zaelot offers or subsidies mental and/or physical health activities.
Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Zaelot offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Computer provided Zaelot provides a computer for your work.
Fitness subsidies Zaelot offers stipends for sports or fitness programs.
Performance bonus Extra compensation is offered upon meeting performance goals.
Personal coaching Zaelot offers counseling or personal coaching to employees.
APPLY VIA WEB
$$$ Full time
DevOps Engineer
  • Softserve
Python Linux DevOps Virtualization
WE ARE
SoftServe is an IT & global digital solutions company with headquarters in Austin, Texas, founded in 1993 in Ukraine. Our associates work on 2,000+ projects with clients in the USA, Europe, and APAC region. We are about people who create bold things, who make a difference, who have fun, and who love their work. In January 2022, we started our operations in Latin America. We committed to grow our local community to 3,500 associates by 2025 and invest in the market.

Apply at getonbrd.com without intermediaries.

Funciones del cargo

AND YOU WANT TO
  • Collaborate with the LATAM DevOps Practice to contribute to cloud platforms for globally innovative companies
  • Engage in diverse private and public cloud-oriented projects of various scales
  • Participate in enterprise-scale migrations, cloud-native application development, and trending technology initiatives
  • Build, maintain, and optimize CI/CD pipelines for automated deployment and updates
  • Configure and manage scalable, secure, and high-performing cloud environments
  • Use tools like Terraform for infrastructure as code (IaC) to enhance deployment consistency and minimize manual interventions

Requerimientos del cargo

IF YOU ARE
  • Experienced with SRE/DevOps best practices
  • Proficient in AWS core IaaS and PaaS services, including IAM, VPC, Internet Gateway, NAT Gateway, ELB, RDS, EC2, S3, Security Groups, ACLs, and Routing Tables
  • Skilled in Docker, Kubernetes, and EKS
  • Adept in HELM charts and troubleshooting workloads in K8s clusters
  • Knowledgeable in Infrastructure as Code using Terraform or CloudFormation
  • Skilled in scripting languages such as Shell or Bash
  • Proficient in Linux, including administration, command-line expertise, and service debugging
  • Experienced in configuring log collectors and using observability platforms for containerized workloads

Opcionales

  • Good at maintaining existing CI/CD pipelines with tools like Jenkins, GitHub, GitLab, or CircleCI (as a plus)
  • Familiar with Python and tools like Prometheus and Grafana (would be a plus)
  • Knowledgeable in AFT Control Tower and Landing Zone (optional)

Condiciones

SoftServe is an Equal Opportunity Employer. All qualified applicants will receive consideration for employment regardless of race, color, religion, age, sex, nationality, disability, sexual orientation, gender identity and expression, veteran status, and other protected characteristics under applicable law. Let’s put your talents and experience in motion with SoftServe.

Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Softserve pays or copays health insurance for employees.
Computer provided Softserve provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Softserve gives you paid vacations over the legal minimum.
Beverages and snacks Softserve offers beverages and snacks for free consumption.
APPLY VIA WEB
Gross salary $2400 - 3000 Full time
DevOps
  • coderslab.io
  • Santiago (Hybrid)
Ruby Python Git Linux
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente nos encontramos apuntando al crecimiento de nuestros equipos de manera global con el objetivo de posicionarnos con nuestros productos en más países de Latinoamérica, es por ello que estamos en búsqueda de un DEVOPSpara sumarse a nuestro equipo.
Te sumarás a un equipo desafiante y ambicioso con ganas de renovar el mercado, por lo que tus propuestas serán de mucho valor para el negocio.
¡Postula para este tremendo desafío!

This offer is exclusive to getonbrd.com.

Funciones del cargo

  1. Diseño e Implementación de Infraestructura:
    • Diseñar e implementar soluciones de infraestructura que cumplan con los estándares de alta disponibilidad, escalabilidad y observabilidad.
    • Automatizar la configuración y el despliegue de los componentes de la infraestructura utilizando herramientas de Infraestructura como Código (IaC), como Terraform.
  2. Mantenimiento y Monitoreo:
    • Tomar posesión de los componentes de la infraestructura, asegurando su confiabilidad y rendimiento a través de revisiones de código y pruebas.
    • Implementar y gestionar herramientas de monitoreo y observabilidad, incluyendo ELK stack y Datadog, para garantizar la integridad y el rendimiento de los sistemas.
  3. Colaboración y Gestión de Proyectos:
    • Colaborar con otros ingenieros, partes interesadas y equipos de operaciones para comprender los requisitos comerciales y brindar soluciones técnicas efectivas.
    • Trabajar en un entorno de desarrollo ágil, utilizando herramientas como Jira y Confluence para gestionar el trabajo y realizar un seguimiento del progreso.
  4. Optimización y Mejora Continua:
    • Identificar y abordar los puntos débiles en los sistemas de la empresa a través de la automatización y la optimización.
    • Mantenerse actualizado con las tecnologías emergentes y las tendencias de la industria en el espacio DevOps/SRE para impulsar la innovación.
  5. Desarrollo y Scripting:
    • Programar en lenguajes como Python, Ruby y Bash para optimizar procesos y herramientas de infraestructura.

Requerimientos del cargo

  • Experiencia: Mínimo 3 años de experiencia como ingeniero DevOps o en roles relacionados con infraestructura cloud, incluyendo migración de infraestructura.
  • Conocimientos Técnicos:
    • Competencia en lenguajes de programación desde una perspectiva de infraestructura (Python, Ruby, Bash).
    • Familiaridad con servicios Cloud (AWS, Azure, GCP, etc.).
    • Experiencia con herramientas de monitoreo y logs, como ELK stack y Datadog.
    • Conocimiento avanzado de herramientas de infraestructura como código (IaC), específicamente Terraform.
    • Gran comprensión de los principios y prácticas de DevOps.
    • Experiencia en administración de sistemas Linux, control de versiones (Git), y tecnologías de contenedorización (Docker, Kubernetes).
  • Habilidades Personales:
    • Fuertes habilidades de comunicación y colaboración.
    • Capacidad para trabajar en un entorno ágil y adaptarse a cambios.
    • Pensamiento analítico y orientación a resultados.
    • Compromiso con la mejora continua y la innovación.

APPLY VIA WEB
Gross salary $1400 - 2000 Full time
Administrador de Sistemas
  • RiskAmerica
  • Santiago (Hybrid)
Python Linux Sysadmin Continuous Integration
RiskAmerica es una empresa consolidada en la industria FinTech, proveemos servicios de gestión e información a todas las empresas de inversiones de Chile. Nos caracterizamos por ser un agente de innovación y transformación digital estando siempre a la vanguardia en las tecnologías y metodologías que usamos.
Hoy en día nos encontramos en un proceso de expansión y buscamos un nuevo Administrador de Sistemas para ayudar a gestionar múltiples soluciones hospedadas en la nube de Google Cloud Platform con Kubernetes Engine.
¿Te atrae el rol de Solution Architect, Cloud Engineer, DevOps o Administrar Sistemas? Acá podrás aprender mucho de gente muy talentosa y podrás contribuir de manera significativa en toda la cadena de vida de los servicios de la empresa.

This company only accepts applications on Get on Board.

Que necesitamos de ti

  • Diseño, desarrollo, mantención y actualización de infraestructura para soluciones multi-tennant de alta disponibilidad.
  • Construir y administrar herramientas de monitoring de los servicios e infraestructura.
  • Ayudar a diseñar, mantener y probar la seguridad de la infraestructura de red y diversas plataformas.
  • Construir utilidades para apoyar las labores de los ingenieros de software del área.
  • Mejorar la cadena de Integración Continua de los servicios administrados.
  • Administrar la generación, almacenamiento y uso de respaldos de los distintos servicios.
  • Ayudar a diseñar, mantener y probar los planes de continuidad de negocio de los distintos servicios.

Que necesitamos de ti

  • Experiencia en seguridad de Redes
  • Experiencia Bash scripting.
  • Experiencia programando en Python.
  • Experiencia básica usando containers (Docker y/o Kubernetes) tanto en Build como Deploy.
  • Experiencia de al menos 1 año administrando cargas productivas de algún servicio
  • Interés y entusiasmo por aprender de nuevas tecnologías, con el fin de crear soluciones robustas y automáticas que requieran mínima mantención.
  • Versatilidad para aprender de diversas tecnologías y lenguajes para apoyar al equipo de Ingenieros de Software en sus diversas necesidades
  • Experiencia en sistemas Linux
  • Manejo de inglés leído técnico.

Sumas puntos si

  • Certificado de Solution Architect de AWS o GCP
  • Experiencia trabajando con Kubernetes
  • Experiencia trabajando sobre Google Cloud Platform (especialmente GKE, GCS y Compute)
  • Conocimientos teóricos de Kubernetes
  • Experiencia usando Ansible
  • Experiencia con Prometheus & Graphana
  • Experiencia con Bases de Datos MariaDB trabajando en esquemas master-slave o master-master
  • Experiencia implementando cadenas de integración continua (CI)

Que tenemos para ti

  • Excelente clima laboral junto a un gran equipo.
  • Seguro complementario de salud, incluyendo dental, catastrófico y vida.
  • Amplias posibilidades para aprender del rubro de inversiones.
  • Incentivo al ahorro previsional voluntario (APV).
  • Buena relación vida/trabajo.
Si vienes a la oficina:
  • Vestimenta casual
  • Estacionamiento para bicicletas
  • Y un buen café!

Life insurance RiskAmerica pays or copays life insurance for employees.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage RiskAmerica pays or copays health insurance for employees.
Dental insurance RiskAmerica pays or copays dental insurance for employees.
Computer provided RiskAmerica provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Beverages and snacks RiskAmerica offers beverages and snacks for free consumption.
APPLY VIA WEB
$$$ Full time
DevOps Lead
  • Moventi
Python Linux DevOps Virtualization

We are seeking an experienced DevOps Lead to join our team, who will be responsible for designing, implementing, and maintaining our cloud-based infrastructure on Amazon Web Services (AWS).
En este rol, tendrás la oportunidad de liderar proyectos relacionados con la innovación tecnológica, garantizando que cumplamos con los estándares más altos.

Apply directly at getonbrd.com.

Funciones del cargo

As a DevOps Lead, you will be responsible for leading our DevOps team, ensuring the smooth operation of our cloud infrastructure, and driving the adoption of DevOps best practices across the organization.

  • Cloud Infrastructure: Design, implement, and maintain our cloud infrastructure on AWS, ensuring scalability, security, and high availability.
  • CI/CD Pipelines: Develop and maintain CI/CD pipelines using GitHub Actions, ensuring automated testing, building, and deployment of our applications.
  • Automation: Automate repetitive tasks, and implement infrastructure-as-code (IaC) using tools like Chef, CloudFormation, CDK.
  • Containerization: Implement and manage containerization using Docker, ensuring efficient and scalable deployment of our applications.
  • Security: Ensure the security and compliance of our cloud infrastructure, implementing best practices, and adhering to industry standards (e.g., HIPAA, PCI-DSS).
  • Collaboration: Work closely with cross-functional teams, including development, QA, and product, to ensure smooth operation of our applications and infrastructure.
  • Monitoring and Logging: Implement monitoring and logging tools (DataDog, CloudWatch), ensuring real-time visibility into our infrastructure and applications.
  • Troubleshooting: Identify and resolve issues, debugging complex problems, and optimizing system performance.

Requerimientos del cargo

  • Technical Skills:
  • AWS, including EC2, ECS, RDS, IAM
  • Expertise in IaC tools (preferably - AWS CDK)
  • Expertise in CI/CD pipelines using GitHub Actions
  • Proficiency in automation tools like Chef, Ansible, or Puppet
  • Experience with containerization using Docker, including Docker Compose and Docker Swarm
  • Strong understanding of security best practices, including network security, access control, and compliance
  • Strong knowledge of Python and Shell scripting
  • Familiarity with monitoring and logging tools (DataDog, AWS CloudWatch)
  • Soft Skills:
  • Excellent leadership and communication skills
  • Strong problem-solving skills, with the ability to break down complex issues into manageable parts
  • Ability to adapt to changing requirements and priorities
  • Passion for DevOps, automation, and security, with a focus on delivering high-quality solutions
  • Education
  • Bachelor's degree in Computer Science, Information Technology, or a related field
  • Experience
  • At least 5 years of experience in DevOps, with a focus on cloud infrastructure, CI/CD pipelines, and automation
  • Experience leading DevOps teams, with a proven track record of delivering high-quality solutions

Opcionales

Certifications:

  • AWS Certified DevOps Engineer - Professional
  • GitHub Actions Certified Developer
  • Chef Certified Developer
  • Docker Certified Associate

Conditions

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
APPLY VIA WEB
Gross salary $2000 - 2200 Full time
Ingeniero DevOps y Monitoreo
  • BC Tecnología
JavaScript .Net DevOps Virtualization
En BC Tecnología, somos una consultora de TI especializada en ofrecer soluciones innovadoras a nuestros clientes en los sectores de servicios financieros, seguros, retail y gobierno. Con un enfoque en el cliente y la implementación de metodologías ágiles, diseñamos y desarrollamos proyectos tecnológicos que abarcan desde la consultoría hasta el apoyo en infraestructura tecnológica. En este proyecto específico, buscamos un Ingeniero DevOps y Monitoreo, quien será parte de un equipo dinámico enfocado en optimizar la administración y el monitoreo de nuestras soluciones en entornos de nube como Azure y GCP.

Apply to this job from Get on Board.

Funciones del puesto

Como Ingeniero DevOps y Monitoreo, tendrás responsabilidades clave que incluyen:
  • Implantar y gestionar entornos de integración y despliegue continuo utilizando GitLab.
  • Desarrollar y mantener infraestructuras como código utilizando Terraform.
  • Colaborar en la implementación de aplicaciones en plataformas en la nube como Azure y GCP.
  • Implementar soluciones de contenedores utilizando Docker y Kubernetes para asegurar despliegues eficientes.
  • Participar en la monitorización de sistemas y aplicaciones para garantizar su disponibilidad y rendimiento óptimos.
Esperamos que puedas colaborar con nuestro equipo para ofrecer soluciones robustas y escalables a nuestros clientes.

Descripción del perfil buscado

Buscamos un profesional con al menos 4 años de experiencia en el área de DevOps, que cuente con habilidades técnicas comprobadas en:
  • GitLab para la gestión de repositorios y flujos de trabajo CI/CD.
  • Plataformas de nube como Azure y Google Cloud Platform (GCP).
  • Tecnologías de infraestructura como código, específicamente Terraform.
  • Desarrollo con .Net y JavaScript.
  • Contenerización de aplicaciones mediante Docker y gestión de orquestadores como Kubernetes.
Valoramos la capacidad para trabajar de manera remota, así como habilidades de trabajo en equipo, comunicación efectiva y una mentalidad de mejora continua.

Habilidades deseables

Sería ideal que el candidato tuviera experiencia adicional en:
  • Automatización de procesos de infraestructura y despliegue.
  • Herramientas de monitoreo y gestión de rendimiento.
  • Implementación de metodologías ágiles en proyectos de TI.
  • Participación en equipos multidisciplinarios para la solución de incidencias y mejoras.
La capacidad para adaptarse a nuevas tecnologías y un enfoque proactivo son altamente valoradas.

Beneficios de trabajar con nosotros

Ofrecemos un contrato por proyecto de 6 meses con posibilidad de extensión, acompañado de un sueldo a convenir. Nuestros empleados disfrutan de:
  • Seguro complementario.
  • Amipass de $4,500 por día laborado.
  • Convenciones, actividades y bonos.
Nuestra ubicación en Alto Las Condes proporciona un entorno de trabajo moderno y funcional. ¡Nos encantaría contar contigo en nuestro equipo! 🌟

APPLY VIA WEB
Gross salary $1200 - 1400 Full time
Ingeniero Cloud
  • BC Tecnología
  • Lima (In-office)
Docker Microservices Jenkins Kubernetes
En BC Tecnología, somos una consultora de TI en constante evolución, ofreciendo servicios que incluyen la gestión de portafolios, desarrollo de proyectos y outsourcing de talento en diferentes áreas tecnológicas. Durante los últimos 6 años, hemos trabajado con clientes en servicios financieros, seguros, retail y gobierno, creando soluciones personalizadas que responden a las necesidades específicas de cada cliente. Nuestras áreas de negocio abarcan consultoría, formación de equipos de trabajo, y servicios de soporte y administración IT, siempre con un enfoque claro en el cliente y el uso de metodologías ágiles.

Applications: getonbrd.com.

✅ Requerimiento:

Estamos buscando un Especialista Cloud que cuente con al menos 2 a 3 años de experiencia en el área. Las responsabilidades incluirán:
  • -Experiencia práctica con Docker (creación, optimización de imágenes).
  • -Conocimientos avanzados de AWS (despliegue, configuración y seguridad).
  • -Experiencia en arquitectura de software (microservicios, escalabilidad, etc.).
  • -Manejo de herramientas de CI/CD (Jenkins, GitLab CI, GitHub Actions, etc.).
  • -Habilidades de liderazgo técnico y comunicación efectiva.

✅ Condiciones:

El candidato ideal deberá tener habilidades técnicas sólidas y ser un buen comunicador. Ofrecemos un contrato por proyecto estimado a 6 meses, con trabajo presencial en nuestras oficinas en San Isidro, Perú. La disponibilidad requerida es de lunes a viernes de 9:00 am a 6:00 pm. El salario se definirá de común acuerdo, basado en la experiencia y conocimientos del candidato.

Deseable:

Sería ideal contar con conocimientos adicionales en Kubernetes, Terraform u otras plataformas de cloud computing, lo que será valorado durante el proceso de selección.

APPLY VIA WEB
Gross salary $2000 - 2300 Full time
Arquitecto Cloud Presencial
  • BC Tecnología
  • Lima (In-office)
Agile Continuous Integration Virtualization Amazon Web Services
En BC Tecnología, somos una consultora de TI con un enfoque claro en el cliente. Nos especializamos en administrar portafolios y desarrollar proyectos innovadores para sectores de servicios financieros, seguros, retail y gobierno. Buscamos crear equipos de trabajo ágiles para abordar desafíos complejos utilizando metodologías como Scrum y Kanban. Actualmente, estamos enfocados en la creación de soluciones de cloud computing utilizando tecnologías de vanguardia.

This company only accepts applications on Get on Board.

Responsabilidades del Rol

Como Arquitecto Cloud, tu papel será fundamental en la creación e implementación de infraestructuras en la nube eficientes y seguras. Tus responsabilidades incluirán:
  • Diseñar arquitecturas de software utilizando microservicios y asegurar la escalabilidad.
  • Optimizar y crear imágenes Docker para diversos entornos.
  • Asegurar la configuración, seguridad y despliegue eficiente en AWS.
  • Integrar y gestionar herramientas de CI/CD como Jenkins, GitLab CI y GitHub Actions.
  • Colaborar con equipos multidisciplinarios para la implementación de soluciones en la nube.
  • Manejar herramientas como Kubernetes y Terraform para facilitar la orquestación y automatización.

Perfil Buscado

Buscamos a un profesional con al menos 2 a 3 años de experiencia en arquitecturas en la nube. El candidato ideal deberá contar con un sólido conocimiento en:
  • Docker - Creación y optimización de imágenes.
  • AWS - Despliegue, configuración y seguridad avanzada.
  • Arquitectura de software - Microservicios y escalabilidad.
  • CI/CD - Familiaridad con herramientas como Jenkins, GitLab CI, y GitHub Actions.
  • Kubernetes y Terraform son altamente valorados.
Además, es esencial poseer habilidades de trabajo en equipo, buena comunicación y la capacidad para resolver problemas de manera creativa.

Conocimientos Deseables

Si bien no son requisitos obligatorios, se valorarán habilidades adicionales en la gestión de proyectos, así como certificaciones en tecnologías de la nube que demuestren tu compromiso con la formación continua. La experiencia previa trabajando en entornos ágiles será una ventaja y permitirá integrarse de manera efectiva en nuestro equipo colaborativo.

Beneficios de Trabajar con Nosotros

Ofrecemos un entorno laboral dinámico y colaborativo, donde el crecimiento profesional es una prioridad. Nuestro modelo de trabajo híbrido te permite disfrutar de un equilibrio óptimo entre el trabajo remoto y presencial. Además, tendrás acceso a oportunidades de capacitación continua y un ambiente que fomenta la innovación.

Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB
Gross salary $2800 - 3000 Full time
DevOps Semi Senior
  • BC Tecnología
  • Santiago (Hybrid)
Ruby Python Git Linux
En BC Tecnología, somos una consultora de TI con más de 6 años de experiencia ofreciendo soluciones adaptadas a las necesidades de nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestra especialidad incluye la formación de equipos ágiles para distintas áreas de tecnología, incluyendo Infraestructura TI y Desarrollo de Software. Nos enfocamos en la creación de productos innovadores y en el apoyo organizacional mediante metodologías ágiles.

This job is available on Get on Board.

Funciones del Rol

Como Devops Semi Senior, tus responsabilidades incluyen:
  • Implementar y gestionar infraestructuras en la nube utilizando herramientas de primeros niveles como AWS, GCP o Azure.
  • Desarrollar y mantener pipelines de CI/CD utilizando lenguajes de programación como Python, Ruby y Bash.
  • Colaborar en el uso de Infraestructura como Código mediante herramientas como Terraform y Ansible.
  • Monitorear y optimizar clústeres de producción en entornos de Linux, utilizando herramientas como Docker y Kubernetes.
  • Participar activamente en sesiones de migración de infraestructura, asesorando en el proceso de transición de on-premise a Cloud.
  • Soporte técnico continuo para el equipo en prácticas DevOps, asegurando la implementación de mejores prácticas y principios de calidad en el desarrollo.
  • Utilizar y optimizar herramientas de monitoreo y trazabilidad como Prometheus, ELK y Grafana para garantizar el rendimiento efectivo de las aplicaciones.

Descripción del Perfil

Buscamos un profesional con al menos 3 años de experiencia en roles de Ingeniero DevOps o en Infraestructura Cloud, que demuestre un profundo conocimiento en prácticas DevOps. Buscamos habilidades tanto técnicas como interpersonales, incluyendo:
  • Salto de experiencia demostrado en sistemas Linux, control de versiones con Git y implementación de contenedores con Docker y Kubernetes.
  • Conocimientos sólidos en servicios en la nube (AWS, GCP, Azure) y sus respectivas herramientas de monitoreo.
  • Capacidad para trabajar en un entorno híbrido, manteniendo una comunicación efectiva tanto en ambientes remotos como presenciales.
  • Iniciativa propia y aptitud para resolver problemas, así como la capacidad de colaborar colaborativamente dentro de equipos multidisciplinarios.

Habilidades Deseables

Además de los requisitos mencionados, serán valoradas las siguientes habilidades:
  • Experiencia previa con herramientas de Infraestructura como Código como Terraform y Ansible.
  • Certificaciones en plataformas de nube como AWS o Azure.
  • Conocimientos en metodologías ágiles de gestión y desarrollo de software.
  • Capacidades en sistemas de logging y trazabilidad, aumentando la visibilidad del rendimiento de las aplicaciones.

Beneficios de Trabajar en BC Tecnología

En BC Tecnología, cuidamos el bienestar de nuestro equipo. Ofrecemos:
  • Seguro Complementario de Salud y Seguro de Vida para todos los empleados.
  • Bonos de rendimiento y aguinaldos durante festividades importantes.
  • Flexibilidad de horarios con múltiples turnos y una jornada laboral adaptable.
  • Acceso a certificaciones y cursos en AWS, Azure y otras tecnologías relevantes.
  • Convenios con instituciones de salud y acceso a un gimnasio cercano.
  • Oportunidades para participar en actividades externas y enriquecedoras.
¡Únete a un equipo donde tu talento hará la diferencia! 🌟

Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB
$$$ Full time
Ingeniero de Operaciones TI
  • Usercode SpA
Python Node.js Linux DevOps

Usercode es una empresa tecnológica especializada en el desarrollo de software para instituciones públicas y organizaciones privadas. Nuestro foco son las tecnologías Cloud, la automatización y digitalización de procesos.

Trabajamos 100% remoto, nuestro equipo está en distintas regiones de Chile, México y Perú. Para comunicarnos y trabajar utilizamos Slack, Meet Hangout y Monday.

La necesidad actual:

El volumen del negocio de Usercode está creciendo por la vía de incorporar una mayor cantidad y tipo de proyectos de desarrollo, por un lado, y por otro lado, abriendo líneas de negocio relacionadas, como mantenimiento de infraestructura, y ampliando la cartera de clientes hacia el mercado privado.

Para lograr el éxito en este proceso es clave contar con un equipo de desarrollo capaz, autónomo, responsable, con experiencia, preparado técnicamente, con profundos conocimientos en una serie de herramientas específica, capaz de aprender y adquirir el uso herramientas nuevas.

Apply at the original job on getonbrd.com.

Funciones del cargo

Para el puesto de Ingeniero de Operaciones TI con un enfoque en servicios cloud y DevOps, debe tener conocimiento en las siguientes características técnicas:

Configuración de máquinas virtuales en entornos Linux (obligatorio): Habilidad para instalar, configurar y mantener sistemas basados en Linux. Experiencia en la administración de servidores, optimización de rendimiento y seguridad de sistemas Linux.

Configuración de servicios web y de aplicaciones (obligatorio): Experiencia en la configuración y administración de servidores web y aplicaciones como Apache, Nginx, y Tomcat. Capacidad para implementar y gestionar procesos con gestores como PM2 para aplicaciones Node.js.

Seguridad de sistemas y redes (obligatorio): Conocimiento en la implementación de políticas de seguridad, gestión de accesos y configuración de firewalls y otros mecanismos de seguridad en entornos cloud y on-premise.

Monitoreo y logística (obligatorio): Experiencia en la configuración de herramientas de monitoreo y logística para garantizar la visibilidad y el rendimiento operativo, utilizando herramientas como Prometheus, Grafana, ELK Stack, etc.

Creación, mantención e implementación de productos digitales como plataformas web, aplicaciones móviles y/o sitios web.

El ingeniero de operaciones TI trabajará en el área de desarrollo de software junto con los demás desarrolladores, arquitecto de software, líder técnico y jefe de proyecto. Los proyectos serán mayoritariamente plataformas web para instituciones públicas o privadas donde debe levantar los diferentes ambientes, configurarlos, asegurar la seguridad, levantar y configurar los servicios necesarios para el correcto funcionamiento de las plataformas web y/o APIs.

Requerimientos del cargo

Requisitos técnicos:

Estamos en búsqueda de un Ingeniero de Operaciones TI, con un enfoque decidido hacia la gestión y optimización de servicios en la nube y prácticas DevOps. Esperamos que el candidato ideal tenga experiencia robusta en la implementación y manejo de ambientes cloud, utilizando herramientas modernas de CI/CD como Jenkins, y que posea habilidades sólidas en la configuración y administración de ambientes de desarrollo, prueba y producción.

El rol implica responsabilidades clave como la configuración de bases de datos y la garantía de su rendimiento óptimo, la implementación de soluciones escalables y la administración de infraestructura como código. Es fundamental que el candidato tenga la capacidad de colaborar estrechamente con equipos de desarrollo para facilitar despliegues rápidos y seguros, y asegurar la alta disponibilidad y resiliencia de los sistemas.

Buscamos a alguien que no solo se encargue de mantener la infraestructura existente, sino que también proponga y ejecute mejoras continuas, aplicando las mejores prácticas de seguridad y optimización de costos en entornos cloud.

Experiencia excluyente:

  • Configuración de máquinas virtuales en entornos Linux.
  • Configuración de servicios web y de aplicaciones.
  • Seguridad de sistemas y redes.
  • Monitoreo y logística.

Comportamiento esperado:

Lo que buscamos en ti:

  • Proactividad
  • Trabajo en equipo
  • Autonomía
  • Orientado a objetivos y resultados

Características personales:

  • Autonomía
  • Cumplimiento
  • Buenas habilidades de comunicación oral y escrita incluyendo comprensión lectora
  • Saber escuchar, atención
  • Ser respetuoso
  • Disposición a colaborar con el equipo
  • Responsable de sus tareas proyectos trabajos

Conocimientos deseables

Conocimiento en servicios AWS: Configuración y gestión de servicios clave de AWS como EC2, S3, RDS, ECS, Lambda, y VPC. Familiaridad con AWS CloudFormation o Terraform.

Gestión de bases de datos: Configuración, optimización y mantenimiento de sistemas de bases de datos. Experiencia en tareas como la configuración de replicación, backups automatizados y tuning de rendimiento.

Configuración y manejo de contenedores: Experiencia en uso de Docker para la creación y gestión de contenedores.

Orquestación con Kubernetes: Capacidad para implementar, configurar y manejar clústeres de Kubernetes.

Implementación y configuración de herramientas de CI/CD: Experiencia en la configuración y uso de Jenkins para la integración y entrega continua. Capacidad para diseñar pipelines de CI/CD.

Automatización y scripting: Habilidad en scripting con Bash, Python, o similar para la automatización de tareas administrativas y de despliegue.

Condiciones

Este puesto ofrece la flexibilidad de un entorno de trabajo remoto, sin embargo, según las necesidades específicas de nuestros clientes, puede haber ocasiones en las que se requiera tu presencia en un lugar de trabajo presencial.

  • Días extra de vacaciones.
  • Días libres 3x5, día libre por cumpleaños, cambio de domicilio, muerte de mascota
  • Pago de certificaciones seleccionadas
  • Pausa activa colaborativa
  • Aguinaldo

APPLY VIA WEB
$$$ Full time
Ingeniero de Operaciones TI
  • Usercode SpA
Python MySQL Linux DevOps

Usercode es una empresa tecnológica especializada en el desarrollo de software para instituciones públicas y organizaciones privadas. Nuestro foco son las tecnologías Cloud, la automatización y digitalización de procesos.

Trabajamos 100% remoto, nuestro equipo está en distintas regiones de Chile, México y Perú. Para comunicarnos y trabajar utilizamos Slack, Meet Hangout y Monday.

La necesidad actual:
El volumen del negocio de Usercode está creciendo por la vía de incorporar una mayor cantidad y tipo de proyectos de desarrollo, por un lado, y por otro lado, abriendo líneas de negocio relacionadas, como mantenimiento de infraestructura, y ampliando la cartera de clientes hacia el mercado privado.

Para lograr el éxito en este proceso es clave contar con un equipo de desarrollo capaz, autónomo, responsable, con experiencia, preparado técnicamente, con profundos conocimientos en una serie de herramientas específica, capaz de aprender y adquirir el uso herramientas nuevas.

Applications: getonbrd.com.

Funciones del cargo

Configuración de máquinas virtuales en entornos Linux (obligatorio): Habilidad para instalar, configurar y mantener sistemas basados en Linux. Experiencia en la administración de servidores, optimización de rendimiento y seguridad de sistemas Linux.

Configuración de servicios web y de aplicaciones (obligatorio): Experiencia en la configuración y administración de servidores web y aplicaciones como Apache, Nginx, y Tomcat. Capacidad para implementar y gestionar procesos con gestores como PM2 para aplicaciones Node.js.

Seguridad de sistemas y redes (obligatorio): Conocimiento en la implementación de políticas de seguridad, gestión de accesos y configuración de firewalls y otros mecanismos de seguridad en entornos cloud y on-premise.

Monitoreo y logística (obligatorio): Experiencia en la configuración de herramientas de monitoreo y logística para garantizar la visibilidad y el rendimiento operativo, utilizando herramientas como Prometheus, Grafana, ELK Stack, etc.

Requerimientos del cargo

Enfoque decidido hacia la gestión y optimización de servicios en la nube y prácticas DevOps. Esperamos que el candidato ideal tenga experiencia robusta en la implementación y manejo de ambientes cloud, utilizando herramientas modernas de CI/CD como Jenkins, y que posea habilidades sólidas en la configuración y administración de ambientes de desarrollo, prueba y producción.

El rol implica responsabilidades clave como la configuración de bases de datos y la garantía de su rendimiento óptimo, la implementación de soluciones escalables y la administración de infraestructura como código. Es fundamental que el candidato tenga la capacidad de colaborar estrechamente con equipos de desarrollo para facilitar despliegues rápidos y seguros, y asegurar la alta disponibilidad y resiliencia de los sistemas.

Buscamos a alguien que no solo se encargue de mantener la infraestructura existente, sino que también proponga y ejecute mejoras continuas, aplicando las mejores prácticas de seguridad y optimización de costos en entornos cloud.

El candidato ideal debe ser proactivo, trabajar bien en equipo, y manejar habilidades de comunicación efectivas. Se valoran personas con orientación a resultados, autonomía, y un enfoque en la mejora continua.

Experiencia excluyente:

  • Configuración de máquinas virtuales en entornos Linux.
  • Configuración de servicios web y de aplicaciones.
  • Seguridad de sistemas y redes.
  • Monitoreo y logística.

Comportamiento esperado:

Lo que buscamos en ti:

  • Proactividad
  • Trabajo en equipo
  • Autonomía
  • Orientado a objetivos y resultados

Características personales:

  • Autonomía
  • Cumplimiento
  • Buenas habilidades de comunicación oral y escrita incluyendo comprensión lectora
  • Saber escuchar, atención
  • Ser respetuoso
  • Disposición a colaborar con el equipo
  • Responsable de sus tareas proyectos trabajos

Opcionales

Conocimiento en servicios AWS: Experiencia en la configuración y gestión de servicios clave de AWS como EC2, S3, RDS, ECS, Lambda, y VPC. Familiaridad con AWS CloudFormation o Terraform.

Gestión de bases de datos: Sólidos conocimientos en la configuración, optimización y mantenimiento de sistemas de bases de datos como MySQL y SQL Server. Experiencia en tareas como la configuración de replicación, backups automatizados y tuning de rendimiento.

Configuración y manejo de contenedores: Experiencia en el uso de Docker para la creación y gestión de contenedores.

Orquestación con Kubernetes : Capacidad para implementar, configurar y manejar clústeres de Kubernetes, optimizando la automatización y escalabilidad de aplicaciones en producción.

Implementación y configuración de herramientas de CI/CD: Experiencia en la configuración y uso de Jenkins para la integración y entrega continua.

Automatización y scripting: Habilidad en scripting con Bash, Python, o similar.

Beneficios

Este puesto ofrece la flexibilidad de un entorno de trabajo remoto, sin embargo, según las necesidades específicas de nuestros clientes, puede haber ocasiones en las que se requiera tu presencia en un lugar de trabajo presencial.

  • Días extra de vacaciones.
  • Días libres 3x5, día libre por cumpleaños, cambio de domicilio, muerte de mascota
  • Pago de certificaciones seleccionadas
  • Pausa activa colaborativa
  • Aguinaldo

APPLY VIA WEB
Gross salary $2000 - 2500 Full time
Systems Engineer
  • Mediastream
  • Bogotá &nbsp Santiago &nbsp São Paulo (Hybrid)
Ruby Python Linux Web server
Company Description
Mediastream is a leading streaming technology company that has been in business for over 16 years. We collaborate with major companies and broadcasters around the world to offer a quality end-to-end solution for content administration, distribution, audiovisual production, and user experience. Our goal is to connect our customers with their audience in a simple and effective way, creating new revenue streams for their businesses.
Role Description
This is a hybrid role for a Systems Engineer. This role will be responsible for designing, implementing and maintaining Mediastream's content delivery network (CDN) infrastructure and services, ensuring fast, secure, robust and scalable access to our digital services for our customers. customers. users around the world, with a focus on video encoding and transcoding.

Apply exclusively at getonbrd.com.

Responsibilities

  • Design, configure, and optimize the CDN infrastructure to enhance content delivery speed and security.
  • Continuously monitor CDN performance, identify bottlenecks, and make adjustments to ensure operational continuity and speed.
  • Rotate on-call shifts and synchronously monitor high-concurrency streaming events.
  • Implement robust security measures to safeguard the CDN against threats, including DDoS attacks or others.
  • Collaborate closely with application development and cybersecurity teams to ensure efficient integration of the CDN and the implementation of security policies.
  • Work collaboratively with development and content teams to ensure that content is optimized for delivery through the CDN.
  • Research and evaluate new technologies, trends, and best practices in the CDN solutions domain, and subsequently propose, agree upon, implement, document, and provide training as necessary.

Minimum requirements

  • Operating Systems Linux Server (Ubuntu, Debian, CentOS, etc.): Exceptional
  • Network Infrastructure Management and Support (BGP, HTTP, DNS, DHCP, NTP, TCP/IP, FTP, Firewalls, among others): Advanced
  • Application and Network Monitoring Tools (Desirable: Datadog): Intermediate
  • Scripting Programming in BASH, RUBY, PYTHON, or others: Intermediate
  • Webserver Administration (Nginx): Exceptional
  • AWS Amazon CloudFront & Route 53: Intermediate
  • Video encoding and transcoding: Exceptional
  • Bachelor's degree in Computer Engineering, Systems, Networks, or related field
  • Additional Certifications: Cloud, Cisco, Linux, Networking, Nginx, Docker
  • Other: Streaming Technologies

APPLY VIA WEB
Gross salary $3000 - 4000 Full time
Senior Data Scientist
  • Niuro
BigQuery Docker Kubernetes Google Cloud Platform
Niuro connects projects with elite tech teams, specializing in collaboration with leading U.S. companies. The position is part of Niuro's international team focused on delivering impactful, data-driven solutions. These projects leverage advanced industrial data science techniques such as predictive maintenance, causal modeling, time series analysis, forecasting, classification, regression, and recommender systems. Niuro empowers tech teams with continuous growth opportunities and handles all administrative tasks, enabling team members to focus on cutting-edge innovation within global client projects.

Originally published on getonbrd.com.

Responsibilities

As a Senior Data Scientist at Niuro, you will be a key contributor to diverse data science projects across various industries. Your main responsibilities include designing and implementing models for predictive maintenance, causal inference, time series forecasting, classification and regression tasks, and recommender systems. You will collaborate with cross-functional teams to develop robust solutions that generate actionable insights for global clients.
You will also be expected to apply your deep knowledge of mathematical engineering and AI to solve complex problems, mentor junior data scientists, and ensure best practices in data preparation, modeling, and deployment, primarily using technologies like Google Cloud Platform (GCP) and BigQuery.
This role requires strong communication skills to translate technical findings into business value and participate in strategic decision-making.

Requirements

We are seeking candidates with a degree in Mathematical Engineering or related fields in Artificial Intelligence. You should have extensive experience working on a variety of data science projects, including but not limited to predictive maintenance, causal modeling, time series analysis, forecasting, classification and regression, causality analysis, and recommender systems.
Proficiency in Google Cloud Platform (GCP) and BigQuery is essential for this role. Experience with cloud-based data infrastructure and scalable data processing pipelines is required.
We value candidates with a strong analytical mindset, problem-solving skills, and a collaborative approach. Ability to work fully remotely with global teams while maintaining high engagement and communication standards is important.
Bonus experience includes working in sectors such as mining, mechanical systems, or finance, where domain-specific knowledge can enhance project impact.

Preferred Qualifications

Experience with additional cloud platforms, advanced causal inference frameworks, and big data technologies is highly desirable. Familiarity with containerization and orchestration tools like Docker and Kubernetes can be a plus.
Prior work in industrial or mechanical sectors, especially mining and finance, is beneficial to understand domain-specific challenges and tailor data solutions accordingly.
Strong leadership skills and experience mentoring junior data scientists will be considered valuable.

What We Offer

We offer the opportunity to engage in technically rigorous, impactful industrial data projects fostering professional growth and innovation. Our environment promotes technical excellence and continual learning.
Niuro supports a 100% remote work model, allowing you to work flexibly from anywhere around the globe.
Continuous career development is encouraged through training programs and leadership growth opportunities.
Following successful initial collaboration, there is the possibility of transitioning into a stable, long-term full-time position.
Joining Niuro means becoming part of a global tech community backed by strong administrative support that allows you to focus on delivering exceptional results.

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
APPLY VIA WEB
$$$ Full time
Data Scientist
  • NeuralWorks
  • Santiago (Hybrid)
Python Data Analysis SQL Amazon Web Services

NeuralWorks es una compañía de alto crecimiento fundada hace 3 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

Apply exclusively at getonbrd.com.

Descripción del trabajo

El equipo de Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.

Como Data Scientist, trabajarás en conjunto con Machine Learning Engineers,Translators, Data Engineers entre otros perfiles, construyendo productos basados en datos que permitan llevar las prácticas de negocio al siguiente nivel.

El equipo de Analítica no opera como un equipo de Research separado, sino que está profundamente integrado con nuestros clientes y sus unidades de negocio, esto permite un feedback loop rápido para iterar, corregir y perfeccionar para finalmente conseguir el impacto de negocio.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, una pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Tu trabajo variará de proyecto a proyecto, pero siguiendo una estructura similar:

  • Identificar problemas de analítica que tengan un mayor impacto para la organización.
  • Familiarizarte con el problema junto a expertos, recabar información, opiniones y facts
  • Investigar las mejores prácticas de la industria.
  • Definir hipótesis de trabajo y approach técnico para resolver el problema, incluyendo el set de datos a utilizar, variables, periodo de tiempo, etc.
  • Recopilar datasets estructurados y no estructurados desde múltiples fuentes.
  • Realizar limpieza de datos y validar correctitud.
  • Aplicar modelos y algoritmos para minería de datos.
  • Analizar resultados e identificar patrones y tendencias.
  • Diseñar junto a Machine Learning Engineers soluciones que permitan capturar oportunidades.
  • Comunicar los resultados y discutirlos junto a expertos o tomadores de decisiones.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia previa en roles de Data Scientist, Data Engineer o similar.
  • Experiencia con Python.
  • Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida la optimización de consultas.
  • Entendimiento de flujo de vida completo modelos de Machine Learning y productos de datos.
  • Habilidades analíticas, de diseño y resolución de problemas.
  • Habilidades de colaboración y comunicación.
  • Buen manejo comunicacional y skills colaborativos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” D. Gaucher , J. Friesen and A. C. Kay, Journal of Personality and Social Psychology, 2011.

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Experiencia con servidores cloud (GCP, AWS o Azure), especialmente el conjunto de servicios de procesamiento de datos.
  • Experiencia usando pipelines de CI/CD y Docker.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Vestimenta informal
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
APPLY VIA WEB
Gross salary $1700 - 2100 Full time
Data Scientist
  • Kunzapp
  • Santiago &nbsp Ciudad de México (Hybrid)
Python Git Data Analysis SQL

En Kunzapp buscamos un Data Scientist con fuerte ambición y deseo de aprender para desarrollar e implementar modelos de machine learning, análisis de datos, y colaborar con visualizaciones de los KPIs que miden nuestros productos. Esta persona será parte de un equipo de desarrollo pequeño pero poderoso, en un entorno de startup donde la velocidad y la ejecución son clave. Buscamos a alguien que ame el análisis de datos, la experimentación, y construir cultura mientras escalamos.

Apply without intermediaries through Get on Board.

🚀 Responsabilidades

  • Desarrollar e implementar modelos de machine learning y análisis estadístico.
  • Diseñar y mantener pipelines de datos eficientes y escalables.
  • Participar activamente en el proceso de Scrum: grooming, sprint planning, dailies.
  • Colaborar con producto para traducir iniciativas de negocio en soluciones basadas en datos.
  • Promover un ambiente de trabajo transparente, donde se pueda aprender, compartir y crecer.
  • Implementar y mantener sistemas de monitoreo de modelos y métricas clave.
  • Desarrollar experimentos A/B y análisis estadísticos para validar hipótesis.
  • Comunicar hallazgos y recomendaciones basadas en datos al equipo y stakeholders.

🛠 Stack tecnológico actual:

Backend: Go (Gin+Gorm), Python

Análisis de datos: Python, Jupyter Notebooks

Data Engineering: SQL, DynamoDB, SQS, EventBridge

Otros: Git, Docker, AWS Sagemaker, AWS Bedrock, Datadog, Elasticsearch

¿ Qué necesitamos de ti ? 🕵🏻

  • Experiencia en data science y machine learning en entornos productivos.
  • Sólidos conocimientos en estadística y matemáticas.
  • Dominio de Python y sus principales librerías de data science.
  • Mentalidad de "ship fast, fix fast", con enfoque en resultados medibles.
  • Experiencia en implementación y monitoreo de modelos en producción.
  • Ambición, ganas de crecer, y mucho deseo de aprender y mejorar habilidades técnicas.
  • Capacidad para comunicar efectivamente hallazgos técnicos a audiencias no técnicas.
  • Inglés intermedio-avanzado (nuestra documentación se escribe en inglés).

✅ Beneficios

  • Aguinaldo 15 días en Diciembre
  • Bono anual de hasta 1 mes de sueldo basado en performance.
  • Crecimiento constante y acelerado, basado en el crecimiento de Kunzapp.
  • Stock options: Posibilidad a obtener stock optionsOtros beneficios

Wellness program Kunzapp offers or subsidies mental and/or physical health activities.
Equity offered This position includes equity compensation (in the form of stock options or another mechanism).
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Company retreats Team-building activities outside the premises.
Computer provided Kunzapp provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Vacation over legal Kunzapp gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
Gross salary $3000 - 4000 Full time
Senior Data Engineer (Rag)
  • Niuro
Python MySQL PostgreSQL SQL
Niuro is a company dedicated to connecting projects with elite technology teams specializing in partnerships with leading U.S. companies. Our mission focuses on simplifying global talent acquisition through innovative and efficient solutions that emphasize maximizing quality and performance. We empower autonomous, high-performance tech teams by offering a collaborative environment enriched with continuous professional growth, training in both technical and soft skills, and leadership development. Through managing all administrative tasks, including hiring, payments, and training, Niuro allows teams to concentrate fully on delivering excellent and innovative outcomes aligned with cutting-edge technology and client needs.

Exclusive to Get on Board.

Responsibilities

  • Design, implement, and maintain scalable, reliable, and efficient data pipelines tailored to Retrieval-Augmented Generation (RAG) based applications, ensuring seamless automation of intelligent query processes.
  • Configure, manage, and optimize vector databases and advanced search engines to support high-performance embedding and retrieval functionalities.
  • Collaborate closely with Data Scientists and AI Engineers to deploy embedding models and generative AI solutions, fostering integration across teams.
  • Develop and fine-tune ETL/ELT processes to guarantee outstanding data quality, pipeline performance, and resilience within production environments.
  • Ensure system scalability, stability, and operational efficiency to support high-demand data workloads and AI-powered services.

Requirements & Professional Profile

We require candidates with a minimum of 4 to 5 years of experience as a Data Engineer, demonstrating a proven track record managing data-intensive projects and environments. Expertise in Retrieval-Augmented Generation (RAG) methodologies is essential as you will lead innovative data pipeline development.
Technical proficiency must include deep experience with at least one tool or technology from each of the following categories:
  • Vector Databases: Experience with Pinecone, Milvus, Qdrant, Weaviate, or equivalent solutions to manage embedding data effectively.
  • Databases: Proficiency in SQL databases such as PostgreSQL and MySQL, plus NoSQL databases including MongoDB and Cassandra.
  • Data Warehousing: Knowledge of warehouse platforms such as Redshift, BigQuery, or Snowflake to support analytical processing.
  • ETL/ELT Tools: Skilled in dbt, Apache NiFi, Talend, or Informatica for robust data transformation workflows.
  • Big Data Frameworks: Experience with Apache Spark and Kafka for handling large-scale data streams.
  • Search Engines: Familiarity with Elasticsearch, Solr, or OpenSearch to implement advanced search capabilities.
  • Cloud Platforms: Working knowledge of AWS, Google Cloud Platform, or Azure for scalable cloud infrastructure.
  • Containers: Proficient with Docker to containerize and deploy applications reliably.
  • Programming: Advanced skills in Python for scripting, automation, and integration.
Strong analytical aptitude and problem-solving capabilities are vital to address complex data challenges. We seek candidates who thrive in agile, cross-functional teams and possess excellent communication and collaboration skills to work effectively across different roles and disciplines.

Nice-to-have Skills

  • Experience with machine learning frameworks including TensorFlow, PyTorch, and Scikit-learn to support advanced model deployment.
  • Familiarity with natural language processing tools such as spaCy, NLTK, and Hugging Face Transformers to enhance text and language-related functionalities.
  • Knowledge of generative AI models like OpenAI, Azure GPT, and Amazon Bedrock is beneficial for working on cutting-edge AI augmentation projects.
  • Competence in container orchestration using Kubernetes to manage containerized applications at scale.

What We Offer

  • 🌍 100% Remote – Embrace full flexibility by working from anywhere around the world, enabling an optimal work-life balance.
  • 📈 Career Growth – Become part of a tech-forward, innovative, and collaborative team committed to your ongoing professional development and success.
  • 📝 Full-time employment contract with an initial 3-month trial period followed by an indefinite contract, ensuring job stability and continuous collaboration.

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
APPLY VIA WEB