We didn't find any results.

Try with another group of words.

If you think this is a problem, please contact us.

$$$ Full time
Arquitecto/a de Soluciones Cloud & Datos
  • Factor IT
  • Lima (Hybrid)
Virtualization Azure Amazon Web Services Google Cloud Platform

FactorIT es un líder en tecnología con presencia en 8 países y enfocado en ofrecer soluciones innovadoras en Data y Analytics, Transformación Digital e Inteligencia Artificial. Estamos buscando un Arquitecto/a de Soluciones Cloud & Datos que se una a nuestro equipo para trabajar en proyectos diversos con grandes empresas, impactando en múltiples industrias. El candidato tendrá la oportunidad de participar en proyectos estratégicos que transforman el panorama tecnológico y mejoran la eficiencia operativa de nuestros clientes.

Funciones del Rol

El Arquitecto/a de Soluciones Cloud & Datos tendrá como objetivo principal diseñar e implementar arquitecturas robustas y escalables que permitan a nuestros clientes aprovechar al máximo las capacidades de la nube y los datos. Algunas de las responsabilidades clave incluirán:

  • Colaborar con equipos multifuncionales para analizar las necesidades de los clientes y diseñar soluciones personalizadas.
  • Desarrollar y presentar propuestas técnicas y comerciales, actuando como el enlace entre el equipo técnico y los clientes.
  • Realizar análisis de viabilidad y recomendaciones sobre arquitecturas cloud y datos, asegurando escalabilidad y seguridad.
  • Ofrecer soporte técnico durante la implementación y asegurar que las soluciones cumplen con los estándares de calidad.
  • Participar en actividades de preventa y brindar capacitación sobre las soluciones propuestas.

Descripción del Rol

Buscamos a un profesional con experiencia en arquitecturas de soluciones en la nube y habilidades en áreas como inteligencia artificial y análisis de datos. Los candidatos ideales deben tener un fuerte enfoque consultivo y ser capaces de comunicar conceptos técnicos complejos de manera efectiva.

Entre los requisitos habilitantes se incluyen:

  • Título universitario en Ingeniería en Sistemas, Ciencias de la Computación o campo relacionado.
  • Experiencia previa en el diseño e implementación de soluciones en la nube.
  • Conocimiento profundo de plataformas cloud (AWS, Azure, Google Cloud) y tecnologías de datos.
  • Habilidades interpersonales excepcionales y capacidad para trabajar en un entorno de equipo colaborativo.
  • Capacidad para entender las necesidades del cliente y traducirlas en soluciones efectivas.

Habilidades y Experiencia Deseadas

Es deseable contar con alguna experiencia o certificaciones en inteligencia artificial, así como en estrategias de automatización de procesos. También valoramos un pensamiento creativo que permita proponer soluciones innovadoras. Otros aspectos preferibles incluyen:

  • Certificaciones en tecnologías de nube.
  • Experiencia en metodologías ágiles.
  • Conocimientos en herramientas de data analytics y visualización.

Beneficios de Unirte a Factor IT

En FactorIT creemos en el continuo crecimiento de nuestros colaboradores. Ofrecemos un entorno laboral híbrido, permitiendo un equilibrio entre trabajo en oficina y remoto. Además de un salario competitivo basado en tu experiencia, también contamos con:

  • Flexibilidad laboral para adaptarse a tus necesidades.
  • Capacitación continua en tecnologías emergentes, con un énfasis en inteligencia artificial y automatización.
  • Cultura inclusiva y un ambiente que fomenta la creatividad y la innovación.

Si te apasiona la tecnología y quieres unirte a un equipo innovador y en expansión, ¡esta es tu oportunidad!

Partially remote You can work from your home some days a week.
Computer provided Factor IT provides a computer for your work.
APPLY VIA WEB
$$$ Full time
DevOps Engineer
  • Softserve
DevOps Virtualization Routing Docker
WE ARE
SoftServe is an IT & global digital solutions company with headquarters in Austin, Texas, founded in 1993 in Ukraine. Our associates work on 2,000+ projects with clients in the USA, Europe, and APAC region. We are about people who create bold things, who make a difference, who have fun, and who love their work. In January 2022, we started our operations in Latin America. We committed to grow our local community to 3,500 associates by 2025 and invest in the market.

Funciones del cargo

AND YOU WANT TO
  • Collaborate with the LATAM DevOps Practice to contribute to cloud platforms for globally innovative companies
  • Engage in diverse private and public cloud-oriented projects of various scales
  • Participate in enterprise-scale migrations, cloud-native application development, and trending technology initiatives
  • Build, maintain, and optimize CI/CD pipelines for automated deployment and updates
  • Configure and manage scalable, secure, and high-performing cloud environments
  • Use tools like Terraform for infrastructure as code (IaC) to enhance deployment consistency and minimize manual interventions

Requerimientos del cargo

IF YOU ARE
  • Experienced with SRE/DevOps best practices
  • Proficient in AWS core IaaS and PaaS services, including IAM, VPC, Internet Gateway, NAT Gateway, ELB, RDS, EC2, S3, Security Groups, ACLs, and Routing Tables
  • Skilled in Docker, Kubernetes, and EKS
  • Adept in HELM charts and troubleshooting workloads in K8s clusters
  • Knowledgeable in Infrastructure as Code using Terraform or CloudFormation
  • Skilled in scripting languages such as Shell or Bash
  • Proficient in Linux, including administration, command-line expertise, and service debugging
  • Experienced in configuring log collectors and using observability platforms for containerized workloads

Opcionales

  • Good at maintaining existing CI/CD pipelines with tools like Jenkins, GitHub, GitLab, or CircleCI (as a plus)
  • Familiar with Python and tools like Prometheus and Grafana (would be a plus)
  • Knowledgeable in AFT Control Tower and Landing Zone (optional)

Condiciones

SoftServe is an Equal Opportunity Employer. All qualified applicants will receive consideration for employment regardless of race, color, religion, age, sex, nationality, disability, sexual orientation, gender identity and expression, veteran status, and other protected characteristics under applicable law. Let’s put your talents and experience in motion with SoftServe.

Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Softserve pays or copays health insurance for employees.
Computer provided Softserve provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Softserve gives you paid vacations over the legal minimum.
Beverages and snacks Softserve offers beverages and snacks for free consumption.
APPLY VIA WEB
Gross salary $1500 - 1700 Full time
Desarrollador/a DevOps
  • rFlex.io
  • Santiago (In-office)
Redis DevOps Virtualization Docker

rFlex.io es una empresa SaaS joven y en crecimiento, dedicada a ofrecer soluciones para la gestión de turnos y asistencia en salud. Somos un equipo compuesto actualmente por 40 personas, que ha logrado un crecimiento explosivo en el ultimo tiempo y estamos en proceso de escalamiento que requiere agrandar el equipo. Somos un equipo joven, con mucha energía, flexible y queremos ir a la vanguardia. Valoramos la innovación, honestidad, pro actividad y el constante aprendizaje.

Funciones del cargo

Como Desarrollador/a DevOps, tendrás un rol clave en la estabilidad, escalabilidad y eficiencia de nuestra infraestructura. Serás responsable del monitoreo, optimización y automatización de nuestros servidores y procesos, asegurando el máximo rendimiento de nuestras aplicaciones. Trabajarás en estrecha colaboración con nuestro CTO y Tech Lead para garantizar una infraestructura ágil y robusta.

Responsabilidades:

  • Monitorización proactiva de los servidores y sistemas mediante herramientas como DataDog y Sentry
  • Gestión y optimización de recursos en nuestra infraestructura (AWS) para mejorar la eficiencia y escalabilidad
  • Actualización y mantenimiento de dependencias en nuestros softwares en Laravel, React y AngularJS
  • Identificación de procesos o lógicas que generen un uso excesivo de recursos
  • Optimización de colas de trabajo para mejorar el rendimiento de procesos asíncronos
  • Optimización de nuestros procesos de integración y despliegue continuo (CI/CD)
  • Gestión de contenedores con Docker

Requerimientos del cargo

Buscamos a alguien con experiencia en:

  • CI/CD (agilizando ciclos de vida del desarrollo del software)
  • Monitorización con DataDog, Sentry o herramientas similares
  • Administración de servidores y optimización de recursos
  • AWS (EC2, RDS, S3, Load Balancers, etc.)
  • Docker y gestión de contenedores
  • Colas de trabajo (Laravel Queues, Redis o similares)
  • Ownership

Opcionales

  • Conocimientos en Terraform o Ansible para infraestructura como código
  • Optimización de bases de datos en MySQL o MariaDB
  • Scripting en Bash para automatización de tareas

Condiciones

  • Horario de trabajo de 09:00 a 18:00 horas
  • Ofrecemos 3 meses de contrato fijo a prueba y luego indefinido
  • Modalidad de trabajo presencial. Una vez pasado el período de prueba, podemos coordinar una modalidad de trabajo híbrida, con un mínimo de 3 días presenciales
  • Seguro de salud complementario
  • Presupuesto para capacitación

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage rFlex.io pays or copays health insurance for employees.
Computer provided rFlex.io provides a computer for your work.
Informal dress code No dress code is enforced.
APPLY VIA WEB
$$$ Full time
Mambu Operations Specialist
  • TCIT
SQL Splunk ITIL REST API

Una de nuestras misiones en TCIT es descubrir y potenciar a los mejores talentos, por lo que te invitamos a ser parte de nuestro team!

Nuestro propósito es transformar digitalmente a distintas organizaciones a través de soluciones de calidad, sostenibles e innovadoras. Trabajamos con metodologías ágiles, utilizamos tecnologías de última generación y somos expertos en desarrollo de software en tecnologías Cloud.

Algunos de nuestros desarrollos son un sistema de gestión agrícola, un sistema de remates en línea, un sistema de gestión de las causas para los tribunales judiciales, un sistema para monitoreo de certificaciones para trabajadores mineros, un sistema de liquidaciones de sueldo y otras soluciones de gestión de empresas en ámbitos como transporte de carga y bodegaje, entre muchos otros.

Además, trabajamos en países como Canadá en ambiciosos proyectos con nuestros partners tecnológicos.

¡Súmate a la revolución digital TCIT!

¿Qué harás?

  • Monitorear y mantener la estabilidad de la plataforma Mambu en entornos productivos y de prueba.
  • Administrar configuraciones, permisos de usuario y parámetros operativos según los lineamientos del negocio.
  • Actuar como primer punto de contacto para problemas relacionados con Mambu, garantizando la rápida identificación, escalación y resolución de incidentes.
  • Proveer soporte técnico y funcional a los usuarios internos y externos.
  • Implementar y gestionar herramientas de monitoreo para asegurar la disponibilidad y el rendimiento de la plataforma.
  • Generar reportes regulares sobre el estado de la plataforma, métricas clave y mejoras implementadas.
  • Coordinar con los equipos técnicos para implementar actualizaciones, nuevos módulos y cambios en la plataforma.
  • Realizar pruebas en entornos controlados antes de implementar cambios en producción.
  • Asegurar el correcto funcionamiento de las integraciones de Mambu con otras plataformas empresariales.
  • Colaborar con desarrolladores y equipos externos para resolver problemas de integración.

¿Cómo nos gustaría que fueras?

  • Título profesional en Ingeniería en Sistemas, Informática, Computación, o carrera afín.
  • Experiencia mínima de 3 años en operaciones, soporte o administración de plataformas Mambu
  • Experiencia en manejo de incidentes críticos y análisis de problemas en entornos productivos.
  • Familiaridad con metodologías de trabajo ITIL o similares.
  • Experiencia en administración y configuración de Mambu.
  • Conocimientos sólidos en APIs RESTful y gestión de integraciones.
  • Familiaridad con herramientas de monitoreo (como Splunk, Grafana o similares).
  • Conocimientos básicos en SQL para consultas y análisis de datos.
  • Capacidad para gestionar múltiples prioridades bajo presión.
  • Orientación al cliente interno y habilidades para resolver problemas de forma proactiva.
  • Excelentes habilidades de comunicación y trabajo en equipo.
  • Atención al detalle y enfoque en la mejora continua.

Te amaríamos más si tuvieras/fueras:

  • Experiencia en plataformas de servicios en la nube (AWS, Azure o Google Cloud).

Beneficios TCIT

🚇 Trabajarás 100% remoto: puedes trabajar 100% online, pero si quieres conocer a tu team, eres bienvenido en nuestras oficinas ubicadas a pasos del metro
🕒 Flexibilidad que se adapta a ti: Contamos con permisos flexibles para que tengas el equilibrio que necesitas.
🌴 ¡Más días de descanso! Disfruta de más días de vacaciones y recarga energías.
🎁 Beneficios increíbles: Accede a cientos de convenios y oportunidades con Caja de Compensación Los Andes y ACHS.
🎓 ¡Certifícate gratis! Somos Google Partners, y te damos acceso gratuito a certificaciones para que sigas creciendo.
🔧 Equipos y soporte técnico: ¡No te preocupes por las herramientas! Te entregamos un computador y cubrimos cualquier falla técnica.
Recarga energías: Contamos con una estación de cafetería para que siempre estés a gusto.
🎉 ¡Ven a compartir! Los asados y reuniones son parte de nuestra cultura; cualquier excusa es buena para celebrar.

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
Gross salary $1400 - 2000 Full time
Administrador de Sistemas
  • RiskAmerica
  • Santiago (Hybrid)
Sysadmin Python Virtualization Docker
RiskAmerica es una empresa consolidada en la industria FinTech, proveemos servicios de gestión e información a todas las empresas de inversiones de Chile. Nos caracterizamos por ser un agente de innovación y transformación digital estando siempre a la vanguardia en las tecnologías y metodologías que usamos.
Hoy en día nos encontramos en un proceso de expansión y buscamos un nuevo Administrador de Sistemas para ayudar a gestionar múltiples soluciones hospedadas en la nube de Google Cloud Platform con Kubernetes Engine.
¿Te atrae el rol de Solution Architect, Cloud Engineer, DevOps o Administrar Sistemas? Acá podrás aprender mucho de gente muy talentosa y podrás contribuir de manera significativa en toda la cadena de vida de los servicios de la empresa.

Que necesitamos de ti

  • Diseño, desarrollo, mantención y actualización de infraestructura para soluciones multi-tennant de alta disponibilidad.
  • Construir y administrar herramientas de monitoring de los servicios e infraestructura.
  • Ayudar a diseñar, mantener y probar la seguridad de la infraestructura de red y diversas plataformas.
  • Construir utilidades para apoyar las labores de los ingenieros de software del área.
  • Mejorar la cadena de Integración Continua de los servicios administrados.
  • Administrar la generación, almacenamiento y uso de respaldos de los distintos servicios.
  • Ayudar a diseñar, mantener y probar los planes de continuidad de negocio de los distintos servicios.

Que necesitamos de ti

  • Experiencia en seguridad de Redes
  • Experiencia Bash scripting.
  • Experiencia programando en Python.
  • Experiencia básica usando containers (Docker y/o Kubernetes) tanto en Build como Deploy.
  • Experiencia de al menos 1 año administrando cargas productivas de algún servicio
  • Interés y entusiasmo por aprender de nuevas tecnologías, con el fin de crear soluciones robustas y automáticas que requieran mínima mantención.
  • Versatilidad para aprender de diversas tecnologías y lenguajes para apoyar al equipo de Ingenieros de Software en sus diversas necesidades
  • Experiencia en sistemas Linux
  • Manejo de inglés leído técnico.

Sumas puntos si

  • Certificado de Solution Architect de AWS o GCP
  • Experiencia trabajando con Kubernetes
  • Experiencia trabajando sobre Google Cloud Platform (especialmente GKE, GCS y Compute)
  • Conocimientos teóricos de Kubernetes
  • Experiencia usando Ansible
  • Experiencia con Prometheus & Graphana
  • Experiencia con Bases de Datos MariaDB trabajando en esquemas master-slave o master-master
  • Experiencia implementando cadenas de integración continua (CI)

Que tenemos para ti

  • Excelente clima laboral junto a un gran equipo.
  • Seguro complementario de salud, incluyendo dental, catastrófico y vida.
  • Amplias posibilidades para aprender del rubro de inversiones.
  • Incentivo al ahorro previsional voluntario (APV).
  • Buena relación vida/trabajo.
Si vienes a la oficina:
  • Vestimenta casual
  • Estacionamiento para bicicletas
  • Y un buen café!

Life insurance RiskAmerica pays or copays life insurance for employees.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage RiskAmerica pays or copays health insurance for employees.
Dental insurance RiskAmerica pays or copays dental insurance for employees.
Computer provided RiskAmerica provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Beverages and snacks RiskAmerica offers beverages and snacks for free consumption.
APPLY VIA WEB
Gross salary $2300 - 2500 Full time
Especialista Cloud
  • BC Tecnología
  • Santiago (In-office)
SQL Node.js AngularJS .Net

En BC Tecnología, somos una consultora de TI comprometida con la excelencia en la creación de soluciones tecnológicas personalizadas. Nuestro equipo especializado ofrece servicios de outsourcing, desarrollo de proyectos y consultoría para clientes en servicios financieros, seguros, retail y el ámbito gubernamental. Actualmente, estamos buscando un Especialista Cloud para un proyecto de 12 meses que nos ayudará a seguir innovando y aportando valor a nuestros clientes.

Responsabilidades del Especialista Cloud

Como Especialista Cloud, tus responsabilidades incluirán:

  • Desarrollar, implementar y gestionar soluciones en la nube utilizando Amazon AWS.
  • Mantener y optimizar aplicaciones en .NET Framework y otros proyectos relacionados.
  • Colaborar con equipos multifuncionales utilizando metodologías ágiles como Scrum.
  • Proveer soporte técnico y formación a los miembros del equipo sobre tecnologías relacionadas.

Requisitos del Puesto

Buscamos un candidato con al menos 2 a 3 años de experiencia en:

  • SQL, MVC con Angular, Node.js y manejo de .NET Framework 4.0 o superior.
  • Conocimiento avanzado de Amazon AWS y sus herramientas asociadas.
  • Capacidad de trabajar en un entorno ágil, adaptándose a las necesidades del cliente.

Es deseable contar con certificaciones en metodologías Scrum, así como en la plataforma AWS (Developer Associate) o similares. Buscamos a alguien proactivo, con buenas habilidades de comunicación y un enfoque orientado a resultados.

Competencias Deseables

Si cuentas con certificaciones relacionadas en .NET Framework o similar, tu perfil será altamente valorado. También se apreciará experiencia previa en agencias de consultoría que hayan trabajado con clientes en el sector financiero o gubernamental.

Beneficios de Unirte a Nuestro Equipo

Ofrecemos un entorno de trabajo dinámico, donde valoramos la formación continua y el desarrollo profesional. Además, disfrutas de:

  • Modalidad híbrida con 4 días de trabajo remoto y 1 día en la oficina.
  • Seguro complementario de salud.
  • Acceso a Amipass.
  • Aguinaldos en fiestas patrias y Navidad.

¡Si te apasiona la tecnología y deseas unirte a un equipo altamente cualificado, esta es tu oportunidad!

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB
$$$ Full time
DevOps Junior
  • Caligrafix
DevOps Virtualization Docker Amazon Web Services

Caligrafix es la editorial de material educativo favorita de miles de niñ@s, profesores y padres. Nuestros proyectos se centran en crear y distribuir contenido de alta calidad que apoye el aprendizaje y desarrollo de los más jóvenes. Buscamos un DevOps Junior que se una a nuestro comprometido y apasionado equipo, ayudando a gestionar nuestros servidores y optimizar el rendimiento de nuestras aplicaciones.

Funciones principales:

  • Infraestructura: Administrar y mantener los servidores Linux, tanto físicos como en la nube (AWS), así como la infraestructura de red incluyendo la configuración de routers, switches y firewalls.
  • Seguridad: Garantizar la seguridad de la información y la disponibilidad de los sistemas mediante la implementación de medidas de seguridad y planes de contingencia.
  • Disponibilidad y Recuperación: Gestionar los respaldos y la recuperación de datos, asegurando la integridad y continuidad del negocio.
  • Despliegue y Automatización: Automatizar los procesos de despliegue de aplicaciones utilizando herramientas como Docker y Kubernetes.
  • Rendimiento y Monitoreo: Monitorear el rendimiento de las aplicaciones e identificar y resolver problemas de forma proactiva, colaborando con el equipo de desarrollo para optimizar la infraestructura.
  • Mejora Continua: Investigar y mantenerse al día en nuevas tecnologías y tendencias en administración de sistemas y DevOps, documentando la infraestructura y procesos.
  • Soporte técnico a usuarios internos: Brindar soporte técnico a colaboradores de forma remota o in situ, resolver incidentes de hardware y software, asegurar la satisfacción de los usuarios y gestionar el inventario de equipos.

Descripción del puesto:

Estamos buscando una persona con sólidos conocimientos en administración de sistemas Linux, redes y seguridad informática. Es esencial tener familiaridad con cloud computing, preferentemente AWS, y dominar herramientas de virtualización y contenerización como Docker y Kubernetes. Buscamos a alguien con excelentes habilidades analíticas, capacidad de resolución de problemas y fuertes habilidades de comunicación oral y escrita. La persona ideal debe ser orientada al detalle, tener pasión por el aprendizaje continuo y la capacidad de trabajar de forma independiente o como parte de un equipo.

Habilidades y experiencia deseables:

Se valorará experiencia en automatización y CI/CD, así como conocimientos adicionales en nuevas tecnologías relacionadas con la administración de sistemas. Un enfoque proactivo en la investigación de nuevas tendencias en el campo de DevOps también es altamente apreciado.

Beneficios adicionales:

Ofrecemos un paquete de beneficios atractivo que incluye: bono de escolaridad, una semana adicional de vacaciones anuales, seguro complementario de vida, salud y dental, 4 días administrativos al año, bono por recién nacido, aguinaldo, y descuentos en productos de la empresa. La jornada laboral es de 40 horas semanales, de lunes a viernes, de 10:00 a 19:00 hrs, con modalidad remota y posibilidad de asistir a la oficina si es necesario. ¡Te esperamos para ser parte de nuestro equipo!

Life insurance Caligrafix pays or copays life insurance for employees.
Health coverage Caligrafix pays or copays health insurance for employees.
Dental insurance Caligrafix pays or copays dental insurance for employees.
Informal dress code No dress code is enforced.
Shopping discounts Caligrafix provides some discounts or deals in certain stores.
Vacation over legal Caligrafix gives you paid vacations over the legal minimum.
APPLY VIA WEB
$$$ Full time
DevOps Engineer II
  • ZeroFox
  • Santiago (Hybrid)
DevOps Virtualization Docker Amazon Web Services

Opportunity Overview

At ZeroFox, we are passionate about bringing world-class protection to the digital-first world. Together, we have built a system capable of collecting and analyzing data from all over the internet, creating a paradigm-shifting cybersecurity product that helps secure and protect our customers and improves the global threat landscape.

We are a team of software engineers, cybersecurity experts, and data scientists who continue to develop unparalleled solutions for the cyber security industry by providing the best Digital Risk Protection SaaS in the global market. Our company, services, and user base are growing faster than ever and we’d like you to help us innovate. We believe the greatest solutions in the Digital Risk Protection space come from composing teams with varied backgrounds and experiences that can use their complementary skill sets to come up with the best market-defining solutions.

Role and responsibilities

  • Collaborate with product teams and software engineers across security, machine learning, digital risk protection, and cyber threat intelligence to develop the next generation of solutions for the ZeroFox platform
  • Gain in-depth knowledge of our microservices architecture and stack; leverage this knowledge to improve system stability, performance, scalability, and security
  • Own and maintain multiple components of our DevOps infrastructure, including CI/CD pipelines, monitoring solutions, and container orchestration platforms, with a focus on embedding security controls and checks
  • Begin to take on a leadership role within projects, guiding best practices around deployment automation, infrastructure as code, and secure configuration management
  • Research, evaluate, and implement new tooling or capabilities to ensure our systems meet or exceed production security requirements (e.g., scanning, patching, vulnerability management)
  • Coordinate with security stakeholders to review engineering milestones and third-party systems for compliance with security standards

Required qualifications and skills

  • Motivated, communicative, teamwork-oriented professionals comfortable working in agile environments
  • Bachelor’s degree in computer science or a related field, OR equivalent education or experience
  • DevOps experience, typically obtained in 3+ years
  • Good understanding of the software development lifecycle, automation, and CI/CD practices
  • Familiarity with cloud services like AWS for building and scaling web architecture, including basic security considerations and standards
  • Experience working with containerization and orchestration technologies such as Docker, Nomad, or Kubernetes
  • Ability to write and maintain infrastructure as code (e.g., Terraform or AWS CloudFormation), integrating security into IaC workflows
  • Good communication, collaboration, and presentation skills in English
  • Ability to work effectively in a fast-paced, agile environment

Desirable skills

  • Proficiency in scripting languages such as Python, Go, or a similar language
  • Experience troubleshooting networking issues in a cloud environment, including basic network security principles
  • Familiarity with monitoring and alerting tools (e.g., Prometheus, Grafana, Datadog)
  • Solid knowledge of infrastructure best practices, security considerations, and automation tools
  • Understanding of or exposure to security scanning tools (e.g., SAST, DAST, or container image scanners)
  • We also value equivalent experience to these languages and frameworks. If you think you might be a fit, apply!

Benefits

  • Opportunities to learn and contribute your knowledge to our Digital Risk Protection platform
  • Competitive compensation
  • Competitive PTO
  • Complementary health insurance
  • Daily catered lunches for in-office work
  • Respectful and nourishing work environment, where every opinion is heard and everyone is encouraged to be an active part of the organizational culture.
  • Regular team bonding activities like cooking and cocktails classes, bingos, stand up comedy, magic shows, virtual happy hour, lunch and learns, etc.
  • Additional Parental Leave
  • Excellent communication: between teams, people, organizations and leaders

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance ZeroFox pays or copays life insurance for employees.
Meals provided ZeroFox provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage ZeroFox pays or copays health insurance for employees.
Dental insurance ZeroFox pays or copays dental insurance for employees.
Computer provided ZeroFox provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal ZeroFox gives you paid vacations over the legal minimum.
Beverages and snacks ZeroFox offers beverages and snacks for free consumption.
Parental leave over legal ZeroFox offers paid parental leave over the legal minimum.
APPLY VIA WEB
$$$ Full time
Energy Legal Counsel
  • Bright
  • Remoto 🌎
Full Time Law business strategy

️ About Bright:

Hey there! We’re Bright, a fintech solar energy startup on a mission to reverse climate change—starting in Mexico. As Mexico's leading rooftop solar platform, we simplify the process of solar adoption through automation, overseeing everything from financial solutions to installation. Backed by top investors like First Round Capital, Y Combinator, and Leonardo DiCaprio, we’re scaling rapidly while keeping a fun, rewarding, and purpose-driven work environment. At Bright, our values shape everything we do—check them out here and join us in making a real impact!

About the Position:

Join us as an Energy Legal Counsel and play a key role in expanding solar energy in Mexico. You will provide legal guidance on compliance, contracts, project finance, and energy transactions, ensuring Bright’s solar projects align with Mexico’s energy laws and financial structures. You will work closely with executive leadership, project developers, financiers, and government agencies, advising on permitting, regulatory filings, public-private partnerships, and strategic transactions. You will also engage with policymakers and advocacy groups to shape Mexico’s renewable energy market. Success in this role requires a detail-oriented legal expert with proven experience in renewable energy law, infrastructure projects, government procurement, and M&A transactions. You must be skilled at mitigating risks, structuring deals, and aligning legal frameworks with business growth.

Tasks

Your Responsibilities:

As an Energy Legal Counsel, you will provide strategic legal guidance on regulatory compliance, contract negotiations, and financial structuring to support renewable energy projects. This role demands a detail-oriented legal expert with deep knowledge of energy laws, financing mechanisms, and stakeholder negotiations, as well as proven experience in managing complex renewable energy transactions and mitigating legal risks. Your responsibilities will include:

  • Ensuring Regulatory Compliance: Securing permits, managing filings, and navigating Mexico’s energy framework (SENER, CNH, CENACE, CFE) to maintain compliance and mitigate risks.
  • Drafting and Negotiating Contracts: Structuring and finalizing PPAs, EPC agreements, joint ventures, and reserve-based loans, ensuring enforceability and optimal risk allocation.
  • Advising on Renewable Energy Financing: Structuring tax equity investments, debt financing, acquisitions, and cross-border transactions, aligning legal and financial strategies for business growth.
  • Monitoring Legislative Changes and Advocacy: Engaging with regulators, policymakers, and industry groups to shape Mexico’s renewable energy policies and ensure business alignment.
  • Managing Disputes and Litigation: Implementing risk mitigation strategies, defending against sanctions, and overseeing arbitration and administrative litigation for energy projects.
  • Leading Public Procurement and Bidding Strategies: Handling tenders, public-private contracts, and government negotiations to secure new energy projects and strategic partnerships.
  • Advising Cross-Functional Teams: Aligning legal frameworks with business strategy, optimizing contracts, and ensuring compliance across project development, finance, and operations.
Requirements

Who You Are

  • A Passionate “Builder”: You are committed to creating impactful solutions that align with our mission to bring clean solar energy to Mexico. Your problem-solving mindset drives you to actively engage in building scalable solutions from the ground up.
  • A Solution-Oriented and Value-Driven Leader: You bring energy and determination to every challenge, focusing on delivering solutions and creating value that drives meaningful change and long-term success.
  • A Passionate Legal Innovator: Committed to driving clean energy adoption, using energy law and finance expertise to build impactful solutions.
  • A Sharp Legal Strategist: Bringing 5+ years of legal experience in energy, infrastructure, and project finance, with deep expertise in contract law and investment strategies.
  • An Expert in Mexico’s Energy Law: Experienced in SENER, CNH, CFE, and CENACE regulations, securing public-private partnerships and government permits.
  • A Solution-Oriented Negotiator: Skilled in structuring and negotiating PPAs, EPC agreements, joint ventures, and reserve-based loans, balancing risk and opportunity.
  • A Cross-Border & Public Procurement Expert: Experienced in international bids, M&A transactions, and large-scale infrastructure deals, ensuring compliance with local and global regulations.
  • A Risk Management Champion: Proactively identifying and mitigating legal risks in project development, energy finance, and compliance, protecting business growth.
  • A Policy & Advocacy Leader: Engaging with regulators and industry groups to influence policies that support renewable energy expansion in Mexico.
Benefits

Benefits

  • The opportunity to learn firsthand about the distributed generation regulatory scheme in México while being a part of the fastest-growing startup in the country.
  • A fun, high-caliber team that trusts you and gives you the freedom to be brilliant.
  • Possibility to earn equity at Bright.
  • Private health insurance.
  • Access to cost-free mental health care.
  • Parental leave.
  • Access to top-tier mentorship programs.
  • Remote work (48 hrs per week)

️Equal Opportunity Employer:

Bright is an Equal Opportunity Employer. We celebrate diversity and are committed to creating an inclusive environment for all employees. All qualified applicants will receive consideration for employment without regard to race, color, religion, gender, gender identity or expression, sexual orientation, national origin, genetics, disability, age, or veteran status.

#J-18808-Ljbffr
APPLY VIA WEB
$$$ Full time
Senior DevOps Engineer II
  • ZeroFox
  • Santiago (Hybrid)
DevOps Virtualization Amazon Web Services Kubernetes

Opportunity Overview

At ZeroFox, we are passionate about bringing world-class protection to the digital-first world. Together, we have built a system capable of collecting and analyzing data from all over the internet, creating a paradigm-shifting cybersecurity product that helps secure and protect our customers and improves the global threat landscape.

We are a team of software engineers, cybersecurity experts, and data scientists who continue to develop unparalleled solutions for the cyber security industry by providing the best Digital Risk Protection SaaS in the global market. Our company, services, and user base are growing faster than ever and we’d like you to help us innovate. We believe the greatest solutions in the Digital Risk Protection space come from composing teams with varied backgrounds and experiences that can use their complementary skill sets to come up with the best market-defining solutions.

Role and responsibilities

  • Work with industry experts across security, machine learning, digital risk protection, and cyber threat intelligence to develop the next generation of solutions for the ZeroFox platform
  • Gain in-depth knowledge of our microservices architecture and stack
  • Research and build cutting-edge products to improve the lives of our customers and our developers while making the internet a safer place
  • Become a technical leader on your team, helping to make key technical decisions and mentoring other team members
  • Work closely with product and our software engineers to increase speed and safety of delivery
  • Continuously improve our always-on systems to achieve near complete resiliency with everything we do - this means no user downtime during deploys and seamless infrastructure upgrades
  • Maintain and contribute to our internal tooling, written in Python and Go

Required qualifications and skills

  • Motivated, communicative, teamwork-oriented professionals that feel comfortable working in agile environments
  • Bachelor’s degree in computer science or a related field, OR equivalent education or experience
  • DevOps experience, typically obtained in 5+ years
  • Strong understanding of the software development lifecycle
  • Experience building and scaling web architecture using cloud services like AWS
  • Understanding of packaging, deployment, and support of containerized applications
  • Experience operating and owning containerization technologies such as Nomad and Kubernetes
  • Good communication, collaboration, and presentation skills in English
  • Ability to work effectively in a fast-paced, agile environment.

Desirable skills

  • Exceptional scripting skills
  • Experience in Python, JavaScript, OR Go
  • Strong knowledge of infrastructure as code tools, such as Terraform (preferred) or AWS CloudFormation
  • Ability to troubleshoot complex networking issues in a cloud environment

Benefits

  • Opportunities to learn and contribute your knowledge to our Digital Risk Protection platform
  • Competitive compensation
  • Competitive PTO
  • Complementary health insurance
  • Daily catered lunches for in-office work
  • Respectful and nourishing work environment, where every opinion is heard and everyone is encouraged to be an active part of the organizational culture.
  • Regular team bonding activities like cooking and cocktails classes, bingos, stand up comedy, magic shows, virtual happy hour, lunch and learns, etc.
  • Additional Parental Leave
  • Excellent communication: between teams, people, organizations and leaders

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance ZeroFox pays or copays life insurance for employees.
Meals provided ZeroFox provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage ZeroFox pays or copays health insurance for employees.
Dental insurance ZeroFox pays or copays dental insurance for employees.
Computer provided ZeroFox provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal ZeroFox gives you paid vacations over the legal minimum.
Beverages and snacks ZeroFox offers beverages and snacks for free consumption.
Parental leave over legal ZeroFox offers paid parental leave over the legal minimum.
APPLY VIA WEB
$$$ Full time
Ingeniero Cloud / Sector Bancario
  • Devsu
  • Quito (In-office)
DevOps Virtualization Docker Azure

Con más de 10 años de experiencia, en Devsu te encontrarás trabajando con los mejores profesionales de los que podrás aprender constantemente y participar en proyectos emocionantes y desafiantes para clientes globales. Nuestro equipo trabaja desde más de 18 países del mundo en diversos productos de software y áreas de trabajo.

Tendrás la oportunidad de estar en un ambiente multicultural y con una estructura horizontal, en donde el trabajo en equipo y aprendizaje continuo serán elementos muy presentes.

Estamos en la búsqueda de un Ingeniero Cloud para unirse a nuestro equipo dinámico y altamente calificado. Este rol es crucial para el diseño, implementación y gestión de soluciones en la nube para nuestros clientes en el sector financiero/bancario. Esta posición es presencial en la ciudad de Quito, Ecuador.

Tu trabajo se centrará en asegurar que nuestras arquitecturas en la nube sean robustas, escalables y seguras.

Funciones del cargo

  • Configura, despliega y soporta la infraestructura en la nube, asegurando que se ajuste a las especificaciones de diseño.
  • Utiliza herramientas de automatización y scripts para la creación y gestión de la infraestructura.
  • Trabaja estrechamente con el equipo de DevOps para integrar pipelines de CI/CD que permitan una entrega más ágil de la infraestructura.
  • Implementa políticas y soluciones de seguridad para proteger los datos y recursos en la nube. También supervisa el cumplimiento de normativas y mejores prácticas de seguridad.
  • Mantiene documentación clara y detallada sobre la arquitectura, configuraciones y procesos para facilitar su comprensión y mantenimiento.
  • Colabora en la creación de arquitecturas de referencia que incluyan servicios de almacenamiento, redes, bases de datos, computación entre otros

Requerimientos del cargo

  • Experiencia de 3+ años trabajando con arquitecturas en la nube (preferiblemente AWS o Azure).
  • Experiencia Plataformas Cloud: Familiaridad con AWS, Azure, Google Cloud, etc.
  • Servicios Cloud: Comprensión de IaaS, PaaS y SaaS.
  • Familiaridad con herramientas de automatización y scripts (por ejemplo, Terraform, CloudFormation, Azure ARM).
  • Comprensión de las mejores prácticas de seguridad y compliance.
  • Conocimiento en redes virtuales, VPNs y conectividad entre nubes.
  • Experiencia en herramientas de integración y entrega continua (Azure DevOps).
  • Comprensión de contenedores y orquestación (Docker, Kubernetes).
  • Experiencia en el uso de herramientas de monitoreo y gestión de entornos cloud como CloudWatch (AWS), Azure Monitor, o Stackdriver (GCP).
  • Experiencia de al menos un año con empresas del sector financiero.

Deseable:

  • Certificaciones de proveedores de nube (AWS Certified Solutions Architect, Azure Administrator, etc.).

Condiciones

Un contrato estable a largo plazo. Entrenamiento contínuo. Seguro de Salud Privado. Trabajarás con algunos de los ingenieros de software más talentosos de América Latina y los EEUU, haciendo un trabajo desafiante y software de clase mundial.

Wellness program Devsu offers or subsidies mental and/or physical health activities.
Internal talks Devsu offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Digital library Access to digital books or subscriptions.
Health coverage Devsu pays or copays health insurance for employees.
Computer provided Devsu provides a computer for your work.
Education stipend Devsu covers some educational expenses related to the position.
Personal coaching Devsu offers counseling or personal coaching to employees.
APPLY VIA WEB
$$$ Full time
Asesor Comercial de Tecnologías Cloud Freelance en Lamarr Tech
  • Emma de Torre
  • 🇨🇴 Colombia - Remoto 🌎
Full Time Búsqueda Services Clientes
Estoy ayudando a Lamarr Tech a encontrar al mejor candidato para unirse a su equipo flexible para el rol de Asesor Comercial de Tecnologías Cloud Freelance. Este es un trabajo genial porque tendrás la oportunidad de desarrollar estrategias comerciales para liderar la migración a la nube en empresas de LATAM. Compensación: USD 1.5k - 15k/mes. Ubicación: Remoto (cualquier lugar). Misión de Lamarr Tech: "Nuestro compromiso es facilitar una transición fluida y eficiente hacia la nube, asegurando un gobierno tecnológico sostenible y alineado con las innovaciones más recientes.​" ¿Qué te hace un candidato ideal? - Eres competente en AWS, gestión de cartera de clientes, negociación y venta de proyectos de migración de servidores. - Español - Completamente fluido. Responsabilidades y más: En Lamarr Tech, expertos en tecnologías SAP con más de 20 años de experiencia en LATAM y recientemente socios de Amazon Web Services (AWS) y otras nubes líderes, estamos en la búsqueda de un Asesor Comercial de Tecnologías Cloud freelance con amplia experiencia en la venta de soluciones tecnológicas, especialmente en migraciones de infraestructura a la nube, para unirse a nuestro equipo en LATAM. Requisitos: - Experiencia comprobable en la venta de proyectos de migración de servidores, SAP y bases de datos a la nube. - Cartera sólida de clientes corporativos, principalmente en medianas y grandes empresas de la región. - Capacidad para liderar el ciclo completo de ventas, desde la prospección hasta el cierre de contratos de migración a la nube. - Conocimiento profundo del ecosistema de Amazon Web Services (AWS) y las soluciones de migración de infraestructura. - Habilidad para identificar y capitalizar oportunidades de negocio en la región. - Fuerte capacidad de negociación y comunicación con ejecutivos de alto nivel. Responsabilidades: - Desarrollar y ejecutar estrategias comerciales para vender proyectos de migración de infraestructura en la nube. - Gestionar relaciones a largo plazo con clientes y socios estratégicos en LATAM. - Cumplir con los objetivos de ventas y KPIs definidos. - Colaborar con los equipos técnicos y de marketing para ofrecer soluciones personalizadas que se alineen con las necesidades del cliente. - Promover la adopción de AWS como plataforma de migración en medianas y grandes empresas.
APPLY VIA WEB
$$$ Full time
Site Reliability Engineer (SRE)
  • BC Tecnología
  • Santiago (Hybrid)
Python Go Virtualization Golang
En BC Tecnología, somos una consultora de TI dedicada a ofrecer soluciones innovadoras en diversas áreas de la tecnología. Contamos con un equipo de expertos diseñando y ejecutando proyectos en la nube para sectores como servicios financieros, seguros y retail. Nuestras metodologías ágiles y enfoque centrado en el cliente nos permiten garantizar la confiabilidad y escalabilidad de las infraestructuras de nuestros clientes, dándoles un valor añadido significativo.

Responsabilidades

  • Implementar y gestionar infraestructura utilizando Terraform en plataformas como AWS, GCP y Azure.
  • Implementar New Relic para garantizar monitoreo efectivo de plataformas y servicios.
  • Asegurar la disponibilidad continua y tiempos de respuesta óptimos en entornos críticos.
  • Automatizar pipelines CI/CD para mejorar el flujo de trabajo y la eficiencia operativa.
  • Aplicar prácticas de DevOps y Site Reliability Engineering para optimizar el rendimiento.

Requisitos Técnicos

  • Experiencia comprobada en AWS, GCP y Azure.
  • Dominio de Terraform para la gestión eficiente de infraestructura.
  • Conocimientos en New Relic para monitoreo y observabilidad de sistemas.
  • Fuerte experiencia en gestión de incidentes, alta disponibilidad y optimización de costos en entornos en la nube.
  • Habilidades en automatización y scripting, preferiblemente en Python, Bash o Go.
  • Conocimientos en seguridad, redes y arquitectura en la nube para implementar soluciones seguras y eficientes.

Habilidades Deseables

Un enfoque proactivo hacia la solución de problemas, habilidad para trabajar en equipo y excelente comunicación son altamente valorados. La experiencia previa en entornos de alta carga de trabajo y habilidades adicionales en otros sistemas de supervisión será un plus.

Que Ofrecemos

Ofrecemos un contrato a plazo fijo que se puede convertir en indefinido, modalidad de trabajo híbrida, y beneficios como seguro complementario de salud, aguinaldo por fiestas patrias y navidad, así como tarjeta de alimentación. En BC Tecnología, valoramos a nuestro personal y buscamos crear un ambiente laboral positivo y colaborativo. 🌟

APPLY VIA WEB
$$$ Full time
Senior Mobile QA Engineer
  • Softserve
iOS Jira Automation User Testing

WE ARE

SoftServe is a global digital solutions company, headquartered in Austin, Texas, founded in 1993 in Ukraine. Our associates work on 2,000+ projects with clients in the USA, Europe, and APAC region. We are about people who create bold things, make a difference, have fun, and love their work.

In January 2022, we started our operations in Latin America and committed to growing our local community and investing in the market.

Our client is a leading smart home technology provider that offers home security, energy management, home automation, local cloud storage, and high-speed Internet solutions to more than two million customers throughout the United States. The result is a smart home solution that saves time and money and simplifies your life.

YOU WANT TO

  • Perform manual testing of iOS and Android applications, identifying defects and quality issues
  • Write and execute comprehensive test plans and test cases for new product features
  • Execute regression test suites to validate application stability across releases
  • Assess manual test cases to determine automation potential
  • Maintain testing environments, including mobile hardware devices and software tools
  • Serve as a strong advocate for user experience and product quality
  • Identify quality gaps and contribute ideas to enhance testing processes
  • Work in a fast-paced, self-directed, agile environment
  • Research and evaluate new technologies and tools
  • Contribute to new feature development, maintenance, and architectural activities
  • Actively participate in the iOS guild with fellow engineers to develop better organization-wide development practices and solve hard problems
  • Collaborate with product management, program management, QA, UX designers, and others

AND IF YOU ARE

  • A professional with 2-3 years of experience testing mobile applications (iOS and Android)
  • Proficient in software testing fundamentals and methodologies
  • Skilled in prioritizing test coverage based on risk and time constraints
  • Confident in writing detailed test plans and test cases
  • Highly accurate and precise in testing and documentation
  • Adept at creating native app automation scripts
  • Experienced working with tools like Android Studio, and Jira or similar issue-tracking tools
  • Accustomed to agile development methodologies and processes
  • A strong analyst, an independent contributor, and a decision-maker
  • Demonstrating an upper-intermediate English level (written and spoken) to cover daily communication with the team

OPTIONAL SKILLS

  • Well-versed in API testing (Postman or SoapUI)
  • Familiar with Python scripting
  • Familiar with Xcode is a bonus

TOGETHER WE WILL

  • Put smart home products in your own home and experience your work product firsthand
  • Gain certifications from leading providers (Google, AWS and others)
  • Participate in a quarterly 'Innovation Week' and work on innovative projects of your choice
  • Empower you to scale your expertise with others by joining the Mentoring Program
  • Excel business of our clients from startups and ISVs to Enterprise and Fortune 500 companies
  • Create an exceptional customer experience and impact the company's global success and be recognized by the Customer Hero Program
  • Care for your wellness with a health insurance package

SoftServe is an Equal Opportunity Employer. All qualified applicants will receive consideration for employment regardless of race, color, religion, age, sex, nationality, disability, sexual orientation, gender identity and expression, veteran status, and other protected characteristics under applicable law. Let’s put your talents and experience in motion with SoftServe.

APPLY VIA WEB
$$$ Full time
DevOps Engineer
  • Leniolabs_
DevOps Virtualization Docker Scrum

Leniolabs_ es una empresa internacional de desarrollo de software con una sólida presencia en Argentina, Chile, España y USA. Cobrimos un espectro diverso de clientes, mayoritariamente en San Francisco, ofreciendo soluciones innovadoras en el desarrollo de software. Nuestro enfoque se centra en trabajar codo a codo con nuestros clientes, integrando equipos y asegurando que las soluciones sean totalmente adaptadas a sus necesidades específicas.

Actualmente nos encontramos en busqueda de un DevOps Engineer para sumarse y laborar con nuestros equipos quienes se encuentran laborando en uno de los proyectos relacionados con el almacenamiento de energía a escala global.

Funciones del cargo

  • Implementar y administrar servicios AWS: S3, Lambdas, IAM, ECS, EC2, Networking, RDS.
  • Optimizar recursos en la nube para un rendimiento eficiente y seguro.
  • Implementar aplicaciones usando Docker para portabilidad y consistencia.
  • Automatizar despliegues con Terraform (IaC).
  • Gestionar permisos y roles en AWS IAM para garantizar la seguridad.
  • Aplicar mejores prácticas de seguridad para proteger infraestructura y datos.
  • Desarrollar soluciones de monitoreo y análisis en AWS.
  • Identificar y resolver problemas en sistemas productivos de forma proactiva.
  • Colaborar con equipos multidisciplinarios para alcanzar objetivos de negocio.
  • Documentar procesos y crear guías técnicas para transferencia de conocimiento.
  • (Plus) Experiencia con Node + Nest, Python, AWS Timestream, AWS Quicksight.

Requerimientos del cargo

Buscamos un profesional con al menos 5 años de experiencia como DevOps con experiencia en:

  • AWS ( S3, Lambdas, IAM, ECS, EC2, networking, RDS)
  • Docker
  • Terraform
  • Experiencia en metodologías ágiles, preferentemente Scrum.
  • Habilidades de resolución de problemas y capacidad para trabajar de forma independiente y en equipo.
  • Nivel intermedio/avanzado o avanzado de inglés es esencial para colaborar en un entorno global.

Opcionales

  • Node+Nest
  • Python
  • AWS Timestream
  • AWS Quicksight

Beneficios

  • Metlife (Chile)
  • 100% Remoto. En Buenos Aires existe un espacio para asistir dos veces por semana. En Santiago tenemos un espacio para asistir los días que se desee.
  • Posibilidad de recibir 2 bonos al año
  • 2 revisiones salariales al año
  • Clases de inglés
  • Equipamiento Apple
  • Cursos UDEMY
  • Budget para compra de libros
  • Budget para compra de materiales de trabajo

APPLY VIA WEB
Gross salary $2,000 Full time
QA Automation
  • Interfell
QA Virtualization QA-Automation Scrum
Interfell conecta a empresas con el mejor talento IT de Latinoamérica para impulsar proyectos globales a través del trabajo remoto.
Nos especializamos en el reclutamiento y gestión de talento remoto, adaptándonos a las necesidades específicas de cada cliente.
Buscamos un QA Automation para unirse a nuestro equipo responsable de garantizar la calidad del software mediante la implementación y automatización de pruebas. Su objetivo es detectar defectos de manera temprana e integrar procesos de control de calidad dentro del ciclo de desarrollo del software
Ubicación: 100% remoto.
Remuneración: 2.000 (USD) Mensual.
Jornada de trabajo: 9:00am - 6:00pm Costa Rica
Contratación: Indefinido

Funciones del cargo

  • Analizar los requerimientos de proyectos de mediana complejidad y alto impacto.
  • Estimar el esfuerzo necesario para implementar pruebas automatizadas.
  • Diseñar y desarrollar un plan de pruebas automatizadas basado en los requisitos.
  • Implementar y mantener frameworks de automatización para pruebas funcionales y no funcionales.
  • Desarrollar y ejecutar pruebas de carga y estrés con herramientas especializadas.
  • Asegurar la actualización y mantenimiento de la cobertura de pruebas automatizadas conforme a los cambios en el sistema.
  • Implementar y gestionar la ejecución de pruebas automatizadas en entornos de CI/CD.

Requerimientos del cargo

  • 3 años de experiencia en QA.
  • Experiencia en automatización de pruebas utilizando frameworks como Appium, WebdriverIO, Cypress, entre otros.
  • Conocimientos en programación orientada a objetos, funcional, procedural y asíncrona.
  • Comprensión de los procesos de ingeniería de software, ciclo de desarrollo y control de calidad.
  • Experiencia en pruebas unitarias, de integración, de sistema y de regresión.
  • Conocimientos en pruebas de rendimiento, carga, estrés y API.
  • Experiencia en diseño y desarrollo de pruebas automatizadas.
  • Capacidad para documentar pruebas, incluyendo casos de prueba, diagramas de diseño y README.md.
  • Familiaridad con metodologías ágiles como SCRUM y Kanban.
  • Conocimientos en bases de datos relacionales y no relacionales.
  • Conocimientos básicos de computación en la nube (AWS).

Condiciones

  • Contrato a largo plazo
  • Pago USD
  • 100% remoto
  • Oportunidad de crecimiento
  • Vacaciones y feriados

APPLY VIA WEB
$$$ Full time
DevOps Senior
  • Lemontech
DevOps Analytics Virtualization BigQuery
En Lemontech, somos una empresa SaaS líder en Latinoamérica en el área Legaltech, comprometidos con modernizar procesos legales a través de tecnología innovadora. Nos especializamos en desarrollar softwares eficaces para el sector jurídico, simplificando y digitalizando lo que anteriormente era burocrático. Nuestro equipo está compuesto por talentos internacionales, cada uno aportando sus habilidades únicas para crear un ambiente colaborativo y creativo. Buscamos a un DevOps Senior que comparta nuestra visión y pasión por transformar el sistema judicial.

Funciones del cargo

Como DevOps Senior, serás responsable de:
  • Manejar e implementar Kubernetes a nivel intermedio-avanzado, asegurando su optimización y rendimiento.
  • Realizar debugeo de infraestructura y aplicativos instalados en Kubernetes.
  • Administrar nuestros servicios en AWS, aplicando tu conocimiento avanzado en la plataforma.
  • Utilizar Helm o herramientas similares para charting, facilitando despliegues eficientes.
  • Implementar y mantener infraestructura como código utilizando Terraform.
  • Trabajar con herramientas GitOps como ArgoCD para integraciones continuas y flujos de trabajo de entrega.
  • Desarrollar y ejecutar pipelines de CI/CD utilizando GitHub Actions.
  • Implementar herramientas de monitoreo como New Relic y Datadog, desde su instalación hasta la creación de dashboards significativos.
  • Programar en lenguajes como Python o Golang para resolver problemas complejos.

Descripción del puesto

Buscamos un DevOps Senior que cuente con las siguientes habilidades y características:
  • Experiencia sólida en la administración de Kubernetes, con un enfoque en la optimización y escabilidad.
  • Haven un dominio intermedio-avanzado en debugeo de infraestructuras.
  • Experiencia avanzada con AWS, incluyendo la gestión de servicios y networking.
  • Habilidad en herramientas de charting como Helm, y en la implementación de infraestructura como código mediante Terraform.
  • Conocimientos en herramientas de CI/CD como GitHub Actions y su aplicación en procesos de desarrollo.
  • Un enfoque proactivo hacia el monitoreo de sistemas, utilizando herramientas de visualización y procesamiento de datos como New Relic y Datadog.
  • Deseable contar con conocimiento de GCP y Azure, así como experiencia usando herramientas de monitoreo con eBPF.
  • Habilidad en el manejo de herramientas de data analytics como BigQuery, dbt y Dagster.

Habilidades deseables

Además de los requisitos mencionados, se valorará:
  • Conocimiento en plataformas de GCP y/o Azure para diversificar nuestra infraestructura.
  • Experiencia con herramientas de monitoreo que utilizan eBPF, para optimizar el rendimiento del sistema.
  • Familiaridad con herramientas de data como BigQuery, dbt, y Dagster que pueden añadir valor a nuestros proyectos en el manejo y análisis de datos.

Beneficios de trabajar en Lemontech

En Lemontech, valoramos a nuestro equipo y ofrecemos una serie de beneficios atractivos:
  • Horarios flexibles que se adaptan a tu estilo de vida.
  • Trabajo remoto y una cultura basada en la colaboración.
  • Seguros de salud complementarios para tu tranquilidad.
  • Un ambiente laboral excepcional donde la buena onda es parte de la rutina, ¡nos encanta fomentar la diversión en el trabajo!
  • Oportunidades de desarrollo profesional, un excelente ambiente de trabajo y eventos sociales regulares que facilitan la creación de lazos entre colegas.
¿Estás listo para unirte a nosotros y hacer un impacto positivo en el sistema judicial? 🌍

Wellness program Lemontech offers or subsidies mental and/or physical health activities.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance Lemontech pays or copays life insurance for employees.
Paid sick days Sick leave is compensated (limits might apply).
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Lemontech pays or copays health insurance for employees.
Dental insurance Lemontech pays or copays dental insurance for employees.
Free car parking You can park your car for free at the premises.
Commuting stipend Lemontech offers a stipend to cover some commuting costs.
Computer provided Lemontech provides a computer for your work.
Education stipend Lemontech covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts Lemontech provides some discounts or deals in certain stores.
Vacation over legal Lemontech gives you paid vacations over the legal minimum.
Beverages and snacks Lemontech offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Parental leave over legal Lemontech offers paid parental leave over the legal minimum.
APPLY VIA WEB
Gross salary $2700 - 3300 Full time
Especialista DevOps
  • coderslab.io
Redis NoSQL SQL Node.js

En CodersLab actualmente nos encontramos apuntando al crecimiento de nuestros equipos de manera global con el objetivo de posicionarnos con nuestros productos en más países de Latinoamérica, es por ello que estamos en búsqueda de un Especialista DevOps quien deberá ser una persona motivada y orientada al cumplimiento de objetivos.

Te sumarás a un equipo desafiante y ambicioso con ganas de renovar el mercado, por lo que tus propuestas serán de mucho valor para el negocio.

¡Postula para este tremendo desafío!

Funciones del cargo

  • Diseñar, implementar y mantener pipelines de integración continua y entrega continua (CI/CD).
  • Colaborar con equipos de desarrollo para integrar prácticas DevOps en el ciclo de vida del desarrollo de software.
  • Automatizar procesos de infraestructura y despliegue de aplicaciones.
  • Administrar y mantener la infraestructura en la nube y servidores.
  • Monitorear y mejorar la disponibilidad, rendimiento y seguridad de los sistemas.

Requerimientos del cargo

  • Dominio en administración de servicios en la plataforma AWS, incluyendo:
    • Lambda
    • RDS
    • EventBridge
    • SNS
    • SQS
    • SES
    • IAM, IAM Role
    • S3
    • EC2
    • ECS
    • Secret Manager
    • GuardDuty
    • Security Hub
    • CloudTrail
    • Cloudfront
    • CloudWatch
    • API Gateway
    • WAF
    • OpenSearch
    • DynamoDB
    • Redis
    • Route53
    • Step Functions
  • Experiencia en construcción de infraestructura como código (IaC) con Terraform.
  • Experiencia con GitHub como gestor de código fuente y GitHub Actions como herramienta de despliegue.
  • Experiencia en análisis de código estático con SonarCloud.
  • Experiencia en desarrollo de código con Python y Node.js.
  • Conocimiento en lenguaje SQL y gestión de bases de datos transaccionales.
  • Habilidades de trabajo en equipo, autogestión, proactividad y comunicación efectiva.
  • Conocimientos en bases de datos NoSQL.

Conditions

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided coderslab.io provides a computer for your work.
APPLY VIA WEB
$$$ Full time
Solutions Architect/Presales
  • ARKHO
  • Santiago (Hybrid)

ARKHO es una consultora experta en tecnologías de la información, que ofrece servicios expertos de TI en el marco de modernización de aplicaciones, analítica de datos, IA, GEN IA y migración a la nube. Nuestro trabajo facilita y acelera la adopción de la cloud en múltiples industrias.

Nos destacamos por ser Partner Advanced de Amazon Web Services con foco estratégico en la generación de soluciones usando tecnología en la nube, somos obsesionados por lograr los objetivos propuestos y tenemos especial énfasis en el grupo humano que compone ARKHO (nuestros Archers), reconociendo a nuestro equipo como un componente vital para el logro de los resultados.

¿Te motivas? ¡Te esperamos!

Funciones del cargo

La vacante considera que el Archer sea el referente orientando a la mejora continua y el cumplimiento de los objetivos. Para ello, la experiencia en el uso de diversas herramientas, lenguajes de programación, infraestructura y otros, son la base para apoyar desde el conocimiento al equipo de desarrollo, gestionando entregables de alto impacto. Se busca alguien con gran responsabilidad y calidad en la entrega. Este perfil debe tener excelentes habilidades de comunicación y trabajo en equipo. Buscamos personas que les guste aprender siempre y se sientan responsables de su crecimiento profesional.
El objetivo del cargo es entender las necesidades del cliente y traducirlas en soluciones técnicas escalables y alineadas con los objetivos del negocio. El cargo debe combinar expertise técnico en arquitecturas AWS con un enfoque consultivo, actuando como nexo entre los equipos comercial y operativo para garantizar propuestas precisas, viables y diferenciadoras.

Responsabilidades Principales

  • Liderar el diseño de arquitecturas cloud, asegurando soluciones optimizadas en costos, rendimiento y seguridad.
  • Desarrollar propuestas técnico-comerciales y presentarlas efectivamente a stakeholders de diferentes niveles.
  • Crear demostraciones técnicas que evidencien el valor diferencial de las soluciones.
  • Colaborar con equipos comerciales para entender requerimientos y traducirlos en soluciones viables.
  • Documentar arquitecturas, estimaciones y recomendaciones técnicas con alto nivel de detalle.
  • Mantenerse actualizado en nuevos servicios AWS y mejores prácticas cloud.

Requerimientos del cargo

Arquitectura Cloud

  • Diseño de arquitecturas serverless y microservicios.
  • Optimización para alta disponibilidad, escalabilidad y segurida.
  • Modelado de datos e integración de plataformas analíticas en la nube.

Servicios AWS Clave

  • Computación y Contenedores: EC2, Lambda, ECS, EKS, Fargate.
  • Bases de Datos: RDS, DynamoDB, Aurora, Redshift.
  • Analítica y BI: Glue, Athena, EMR, QuickSight.
  • Integración y Orquestación: Step Functions, API Gateway, EventBridge.
  • Seguridad y Cumplimiento: IAM, KMS, Security hub.
  • Automatización e Infraestructura como Código: CloudFormation, AWS CDK.
  • Monitoreo y Observabilidad: CloudWatch, CloudTrail.

Lenguajes de Programación y Frameworks

  • Python para desarrollo de soluciones backend.
  • Experiencia en desarrollo de ETL con Glue y PySpark.
  • Integraciones con bases de datos SQL y NoSQL.
  • Familiaridad con conceptos de CI/CD y DevOps.

Habilidades no Técnicas

  • Excelente capacidad de comunicación técnica a diferentes audiencias.
  • Mentalidad consultiva y orientación al cliente.
  • Capacidad analítica y resolución estructurada de problemas.
  • Habilidad para liderar discusiones técnicas y workshops.
  • Gestión efectiva de múltiples proyectos y stakeholders.

Habilidades opcionales

  • Certificaciones AWS (preferentemente Solutions Architect).
  • Experiencia previa en roles de PreSales o Arquitectura de Soluciones.
  • Conocimiento del mercado cloud y tendencias tecnológicas.
  • Disponibilidad para ir reuniones presenciales ocasionalmente.

Beneficios del Archer

📆 Día administrativo semestral hasta los 12 meses
🏖️ Week off: 5 días de vacaciones extra
🎉 ¡Celebra tu cumpleaños!
📚 Path de entrenamiento
☁️ Certificaciones AWS
🏡 Flexibilidad (trabajo híbrido)
💍 Regalo por casamiento + 5 días hábiles libres
👶 Regalo por nacimiento de hijos
✏️ Kit escolar
🤱 Beneficio paternidad
❤️ Bonda (plataforma de descuentos y bienestar)

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage ARKHO pays or copays health insurance for employees.
Computer provided ARKHO provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal ARKHO gives you paid vacations over the legal minimum.
APPLY VIA WEB
Gross salary $2000 - 3000 Full time
Experto en Infraestructura AWS &Amp; CI/CD
  • OlaClick
Git Linux Docker CI/CD
OlaClick es una innovadora plataforma digital enfocada en la gestión y digitalización de restaurantes en América Latina, con presencia en más de 20 países y más de 20,000 clientes activos. OlaClick ofrece menús digitales interactivos, herramientas integradas de pago y campañas automatizadas para que los restaurantes puedan comenzar a vender en línea rápidamente, sin necesidad de conocimientos técnicos ni comisiones ocultas. El proyecto se centra en automatizar la gestión de pedidos y aumentar significativamente el volumen de ventas, transformando la experiencia operativa y comercial de los establecimientos gastronómicos.

¿Qué harás en OlaClick?

Como Experto en Infraestructura AWS e Integración Continua, tu principal objetivo será diseñar, mantener y optimizar la infraestructura cloud sobre AWS, asegurando alta disponibilidad, seguridad y rendimiento óptimo de los sistemas backend de OlaClick. Gestionarás pipelines de CI/CD que permitan acelerar la entrega continua con calidad, así como la automatización de tareas operativas para los entornos de staging y producción. Colaborarás estrechamente con otros ingenieros y equipos de producto en un entorno de trabajo ágil, aplicando metodologías modernas para garantizar despliegues eficientes y la estabilidad de la plataforma.
  • Diseñar y mantener la infraestructura cloud en AWS.
  • Implementar pipelines de integración y despliegue continuo (CI/CD) para optimizar la velocidad y calidad de entrega.
  • Monitorear, analizar y optimizar el rendimiento, la disponibilidad y la seguridad de los sistemas backend.
  • Automatizar la gestión operativa de entornos staging y producción.
  • Colaborar con los equipos de ingeniería y producto para asegurar alineación y éxito en entregables.

¿Qué esperamos de ti?

Buscamos un profesional con mínimo 3 años de experiencia sólida y comprobable en AWS, habiendo trabajado con servicios como EC2, RDS, S3, Lambda y API Gateway. Es fundamental contar con dominio en herramientas de integración y despliegue continuo, especialmente GitLab CI, que permitan construir pipelines robustos y eficientes. Se requiere conocimiento profundo en sistemas Linux, incluyendo scripting para automatización, manejo de contenedores con Docker y control de versiones usando Git.
Además, es deseable experiencia en Infrastructure as Code (IaC), preferentemente con Terraform, para facilitar la reproducibilidad y escalabilidad de la infraestructura. La habilidad para diagnosticar y resolver problemas complejos es fundamental, junto con una comunicación efectiva para colaborar dentro de equipos multifuncionales y dinámicos. La experiencia en ambientes altamente transaccionales y la orientación al detalle completan el perfil técnico ideal.
Se valorarán especialmente las certificaciones oficiales de AWS, conocimientos en herramientas de monitoreo como Grafana y experiencia previa en startups o entornos con altos volúmenes de tráfico.

✔️Puntos a favor

Contar con certificaciones oficiales AWS que certifiquen tu conocimiento avanzado en sus servicios y buenas prácticas en la nube será un gran diferencial. También valoramos la experiencia implementando soluciones de monitoreo y observabilidad con Grafana para mantener un control riguroso sobre la salud y desempeño de los sistemas. Haber trabajado en entornos altamente transaccionales y dinámicos demuestra tu capacidad para manejar infraestructuras críticas con cargas variables y elevados niveles de concurrencia.

🚀¿Qué te ofrecemos?

En OlaClick ofrecemos una relación laboral estable con una modalidad de trabajo 100% remota, que te permite desempeñarte desde cualquier país de América Latina o Brasil. Nuestra cultura se caracteriza por un ambiente laboral positivo, retador y colaborativo, compuesto por un equipo talentoso y con buena disposición para compartir conocimiento y crecer juntos.
Adicionalmente, facilitamos clases de idiomas gratuitas (inglés o portugués) dos veces por semana a través de Políglota.org para tu desarrollo personal y profesional. Dispondrás de un día libre por tu cumpleaños y un día off extra cada trimestre trabajado, fomentando el equilibrio entre vida laboral y personal. También promovemos capacitaciones continuas tanto en el área técnica como en habilidades blandas, brindándote oportunidades reales de crecimiento dentro de una startup global en expansión.

APPLY VIA WEB
$$$ Full time
Software Engineer AWS Cloud / Santiago Chile
  • Dynamic Devs
  • Santiago (Hybrid)
C# Back-end

Somos una empresa de servicios de tecnología que busca proyectos de alto impacto haciendo de la innovación y transformación digital parte de diferentes empresas principalmente transnacionales latinoamericanas de diversos sectores económicos como retail, seguros, distribución de equipos médicos, banca y productos digitales masivos utilizados por los consumidores. en todo el continente

Somos partidarios de la excelencia técnica, DevOps, Entrega Continua e Integración Continua, conformando equipos de alto desempeño en proyectos desafiantes, orientados al crecimiento e implementación de nuevas tecnologías. Más importante aún, ofrecemos un entorno colaborativo y multicultural donde puedes aprender, disfrutar y crecer como profesional.

📢 En Dynamic Devs, estamos en la búsqueda de un Software Engineer con experiencia sólida en AWS y en la creación de soluciones basadas en la nube y enfoque orientado a la innovación y la eficiencia,

Funciones del cargo

✅ Desarrollar y administrar aplicaciones utilizando servicios de AWS como DMS, Lambda, PostgreSQL, DynamoDB, Glue, SES, SNS.
✅ Diseñar e implementar soluciones escalables y seguras en la nube.
✅ Colaborar con equipos de DevOps para crear pipelines CI/CD y automatizar procesos.
✅ Monitorear el rendimiento y la seguridad 🔐 de las soluciones implementadas.
✅ Integrar soluciones con otros equipos y mejorar la arquitectura tecnológica.
✅ Implementar soluciones en Python y/o C# 🐍💻 para desarrollo y automatización.
✅ Arquitectura: Microservicios, DDD, EDA o afines.

Requerimientos del cargo

🎓 Experiencia mínima de 2 años trabajando con AWS (DMS, Lambda, PostgreSQL, DynamoDB, Glue, SES, SNS).
⚙️ Conocimiento en arquitecturas de microservicios, DDD y EDA.
🖥️ Experiencia en Python y/o C# para desarrollo en la nube y automatización.
🔗 Experiencia en GitHub y DevSecOps.
🛡️ Conocimientos en seguridad en la nube.
📍Disponibilidad para asistir 3 días a la semana de forma presencial a la oficina del cliente ubicada en Santiago-Chile (modalidad híbrida, requisito excluyente).

Opcionales

🏅 Certificación AWS (deseable, pero no obligatoria).

Condiciones

💻 Beneficio Bring Your Own Device (A partir del 4to mes trabajando con nosotros, podrás adquirir un computador propio)
⌚ Horario flexible 🕒
🚀 Haz un impacto. Trabaja en proyectos desafiantes
📚 IT Training: acceso a más de 500 cursos actualizados cada semana 📖
🎤 Dev Talks: conferencias exclusivas con expertos del sector
🎉 Día especial: 🎂 ¡Día libre por cumpleaños!
👥 Trabaja en un equipo talentoso y multicultural usando tecnología increíble
🎙️ Escucha nuestro podcast aquí: 🔗 Escuchar Podcast
🌐 Visítanos en nuestra web: 🔗 Dynamic Devs

Internal talks Dynamic Devs offers space for internal talks or presentations during working hours.
Partially remote You can work from your home some days a week.
Computer provided Dynamic Devs provides a computer for your work.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
Gross salary $1800 - 2000 Full time
QA Engineer
  • getxerpa

En getxerpa trabajamos para transformar el sector financiero en América Latina, ayudando a bancos e instituciones financieras a modernizar su propuesta digital y fortalecer su vinculación con los clientes mediante el uso de herramientas que promueven la salud financiera y la personalización basada en datos. Nuestra plataforma está diseñada para entregar experiencias digitales mejores y más rápidas, a través de soluciones integrables que apoyan a los usuarios a alcanzar sus metas financieras mientras incrementan la interacción con productos y canales bancarios.

Con presencia en México, Ecuador, Colombia y Chile, colaboramos con grandes actores como Santander, Banco del Pacífico, Scotiabank y Sura, contando actualmente con más de 700 mil usuarios activos que han logrado ahorrar más de USD 1 billón gracias a nuestras herramientas innovadoras y adaptadas a las necesidades regionales.

Responsabilidades del puesto

El/La QA Engineer será responsable de garantizar la calidad y el correcto funcionamiento de las soluciones digitales que ofrecemos a nuestros clientes en el sector financiero.

  • Colaborar con el equipo de desarrollo para identificar los requisitos de prueba, diseñar y crear casos de prueba exhaustivos.
  • Identificar la data clave para poder probar la funcionalidad esperada.
  • Detectar riesgos y dependencias de los requerimientos.
  • Generar Plan de pruebas, Matriz de Escenarios y Casos de Prueba que garanticen la funcionalidad de la solución.
  • Definir la estrategia de pruebas y asegurar la cobertura adecuada de pruebas funcionales, de regresión y de rendimiento.
  • Realizar pruebas automatizadas o manuales de acuerdo al plan y las necesidades del desarrollo.
  • Realizar diversos tipos de pruebas, incluidas pruebas funcionales, de integración, intromisión. regresión y de rendimiento, para garantizar la calidad y estabilidad de nuestras soluciones de identidad.
  • Identificar y gestionar riesgos asociados a la calidad del software y presentar informes de progreso.
  • Colaborar con equipos de desarrollo, Product Owners y otros interesados para alinear los objetivos de calidad con los requisitos del negocio.
  • Realizar análisis de resultados de pruebas y preparar informes detallados sobre la calidad del software, destacando defectos y sugerencias de mejoras.
  • Mantenerse actualizado con las últimas herramientas, tendencias y mejores prácticas de la industria en pruebas automatizadas y aseguramiento de calidad.
  • Conocer el valor que aporta al negocio la funcionalidad que se dará con la solución que se requiere.
  • Dar seguimiento a la liberación en producción, así como a los criterios mínimos de aceptación para poder comenzar con la ejecución de los casos de prueba previstos.

Requisitos y habilidades necesarias

Buscamos profesionales con experiencia comprobable en aseguramiento de calidad para plataformas digitales, preferentemente en entornos fintech o productos digitales orientados al consumidor financiero. Es fundamental contar con fuertes conocimientos técnicos y una mentalidad proactiva para identificar y resolver problemas de manera ágil.

Los requisitos clave incluyen:

  • +2 años Banco o fintech o grandes volúmenes de datos
  • +3 años experiencia QA Engineer
  • +3 años metodologías ágiles
  • +3 años CI/CD
  • Experiencia utilizando herramientas de IA para procesos de testing

Tech

  • +2 años Cypress, Selenium o Playwright o similar (automatización)
  • +2 años CircleCI, Jenkins, GitHub Actions o similar (integración)
  • +2 años Jest, Mocha, Karma o similar (unitarias)
  • +2 años REST Assured, Postman o Supertest o similar (API’s)
  • +2 años Github
  • +2 años AWS
  • +2 años Docker
  • +2 años SQL (Postgres)

Skills

  • Análisis y diseño de requerimientos
  • Ingeniería de Software
  • Arquitectura de Software
  • Arquitectura de componentes en la Nube
  • Patrones de Diseño
  • Seguridad Informática
  • Autonomía - autodidacta
  • Análisis y resolución de problemas
  • Trabajo por objetivos
  • Trabajo en equipo
  • Pensamiento crítico

Se valorarán también habilidades blandas como trabajo en equipo, adaptabilidad a ambientes dinámicos, y enfoque en resultados orientados al cliente final.

Competencias y conocimientos adicionales deseables

Serán altamente valorados aquellos candidatos/as que cuenten con experiencia previa en proyectos fintech o bancarios, así como conocimiento de normativas de seguridad y privacidad en el sector financiero. También recomendamos tener familiaridad con:

    • Excelentes habilidades de organización y comunicación.
    • Experiencia en proyectos complejos.
    • +2 años experiencia Javascript, Python, .NET como BackEnd Developer.
    • +2 años experiencia en programación orientada a objetos, patrones de programación asíncronos
    • +1 año Lighthouse, QebPageTest, Sitespeed.io (rendimiento)
    • +1 año OWASP ZAP, Burp suite o similar (seguridad)

Beneficios y cultura laboral

  • 🧑🏽‍💻 Modalidad de trabajo 100% remoto
  • 🌎 Oportunidad de integrarte a un equipo multicultural e innovador.
  • 🏝️ Días xerpa adicionales a los días normales de vacaciones para un mejor balance vida-personal.
  • 💸 Bono de vacaciones por tomar 10 días hábiles consecutivos.
  • 🎂 Medio día libre en tu cumpleaños para celebrar contigo mismo.
  • 🕰️ Flexibilidad horaria para una gestión óptima de tu tiempo laboral.
  • 🤸🏽‍♀️ Trabajo bajo metodologías ágiles con equipos multidisciplinarios que fomentan la colaboración y el aprendizaje continuo.
  • 💻 Bono mensual para mejorar tu espacio de home office y llevar tu lugar de trabajo a otro nivel.
  • ✈️ Viaje Offsite anual para fortalecer vínculos y motivación de equipo.
  • Muchos otros beneficios que revelaremos al conocernos personalmente.

APPLY VIA WEB
$$$ Full time
Ingeniero de Procesos Especialista AWS
  • BC Tecnología
  • Santiago (In-office)

BC Tecnología es una consultora especializada en servicios IT, con más de 6 años diseñando soluciones tecnológicas adaptadas a diversos sectores como servicios financieros, seguros, retail y gobierno. La empresa se enfoca en la consultoría, desarrollo de proyectos, outsourcing y soporte IT, apoyándose en metodologías ágiles y un fuerte compromiso con el cliente. El equipo está compuesto por expertos en áreas de infraestructura tecnológica y desarrollo de software, trabajando en la conformación de equipos ágiles que entregan soluciones innovadoras. El proyecto relacionado con esta oferta implica la implementación, optimización y mantenimiento de soluciones cloud enfocadas en AWS, con el objetivo de mejorar la eficiencia, seguridad y adaptabilidad de los procesos de negocio mediante tecnologías avanzadas como AWS Glue, Lambda y EKS.

Funciones

Como Ingeniero de Procesos Especialista AWS, serás responsable de implementar, configurar y mantener procesos y plataformas en la nube, especialmente asociados a flujos ETL, AWS Lambda, Elastic Kubernetes Service (EKS) y otras herramientas cloud disponibles.

Deberás responder con rapidez y efectividad ante requerimientos y problemas específicos, brindando soluciones oportunas que aseguren el funcionamiento continuo y eficiente de los servicios.

Además, colaborarás estrechamente con diferentes equipos y stakeholders para entender sus necesidades, coordinar soluciones técnicas y garantizar el cumplimiento de las expectativas establecidas.

Serás responsable de aplicar estrictos procedimientos de seguridad, metodologías y controles existentes para resguardar la integridad y seguridad de los datos, asegurando una entrega confiable y protegida de la información.

Requisitos

Buscamos profesionales con título en Ingeniería en Informática o Telecomunicaciones, que cuenten con al menos 4 años de experiencia trabajando en soluciones cloud.

Es imprescindible que tengas experiencia sólida en Amazon Web Services (AWS), manejo de microservicios y Kubernetes para la orquestación de contenedores. Asimismo, debes contar con conocimientos robustos en integración y entrega continua (CI/CD), así como en prácticas de seguridad en la nube para garantizar ambientes seguros y confiables.

Se valorará experiencia previa en el sector bancario, debido a la sensibilidad y tipos de procesos involucrados. El manejo de metodologías ágiles también es deseable, para facilitar un trabajo colaborativo y flexible dentro de los equipos.

Además de las habilidades técnicas, buscamos a alguien con capacidad de respuesta rápida, orientado a la solución de problemas, con buen manejo comunicacional para interactuar con diferentes áreas y que tenga responsabilidad en el cumplimiento de las normas y estándares de seguridad.

Deseable

Es altamente valorable contar con experiencia en el ámbito bancario, lo que aportaría un conocimiento profundo sobre los procesos y regulaciones propias de este sector.

Además, el dominio de metodologías ágiles permitirá integrarte de manera efectiva en equipos dinámicos y en proyectos que requieren adaptabilidad constante.

Se considerará positivamente quien tenga experiencia adicional en otras herramientas de AWS relacionadas con procesamiento de datos y automatización, así como habilidades en monitorización y optimización de sistemas en la nube.

¿Qué ofrecemos?

Ofrecemos un tipo de contrato basado en proyectos con posibilidad de continuidad según desempeño, en un ambiente laboral presencial ubicado en Santiago, Chile.

Formarás parte de BC Tecnología, una organización que apuesta por la innovación en tecnología cloud e inteligencia artificial, con un equipo profesional que se dedica a construir soluciones de vanguardia.

Esta oportunidad brinda la posibilidad de integrarte en una consultora con enfoque en metodologías ágiles, desarrollo organizacional y con clientes de alto nivel en diversos sectores, brindándote un entorno de crecimiento profesional significativo.

APPLY VIA WEB
$$$ Full time
DevOps Engineer con Conocimientos en Back-end y AWS
  • coderslab.io
En CodersLab es una empresa dedicada al desarrollo de soluciones para empresas y actualmente estamos enfocados en el crecimiento global de nuestros equipos con el objetivo de posicionar nuestros productos en más países de Latinoamérica. Por esta razón, estamos buscando un DevOps Engineer con conocimientos en Backend y AWS

Te sumarás a un equipo desafiante y ambicioso con ganas de innovar en el mercado, haciendo que tus propuestas sean altamente valiosas para el negocio.
¡Aplica ahora para este increíble reto!

Funciones del cargo

  • Diseñar, implementar y mantener pipelines CI/CD para aplicaciones backend.
  • Automatizar despliegues y configuraciones en entornos AWS (EC2, Lambda, ECS, EKS, S3, RDS, etc.).
  • Gestionar infraestructura como código usando herramientas como Terraform, CloudFormation o similares.
  • Monitorizar y optimizar el rendimiento de sistemas y aplicaciones.
  • Colaborar con desarrolladores backend para integrar y mejorar procesos de desarrollo y despliegue.
  • Implementar prácticas de seguridad en la infraestructura y aplicaciones.
  • Gestionar la escalabilidad, alta disponibilidad y recuperación ante desastres.
  • Documentar procesos y arquitecturas implementadas.

Requerimientos del cargo

  • Experiencia mínima de 2 años como DevOps Engineer o en roles similares.
  • Conocimientos sólidos en AWS y sus servicios principales.
  • Experiencia en desarrollo backend con lenguajes como Python, Node.js, Java o Go.
  • Dominio de herramientas CI/CD (Jenkins, GitLab CI, GitHub Actions, etc.).
  • Conocimientos en infraestructura como código (Terraform, CloudFormation).
  • Experiencia con contenedores y orquestadores (Docker, Kubernetes).
  • Familiaridad con monitoreo y logging (Prometheus, Grafana, ELK, CloudWatch).
  • Buenas prácticas de seguridad en la nube.
  • Capacidad para trabajar en equipo y comunicar efectivamente.
Deseables:
  • Certificaciones AWS (AWS Certified DevOps Engineer, AWS Solutions Architect).
  • Experiencia con microservicios y arquitecturas serverless.
  • Conocimiento en bases de datos SQL y NoSQL.
  • Experiencia en metodologías ágiles.

APPLY VIA WEB
Gross salary $2100 - 2400 Full time
Administrador de Base de Datos
  • Genesys Tecnologías de Inform. SpA
  • Concepción or Biobío (Hybrid)
PostgreSQL Oracle Linux Amazon Web Services
Genesys Tecnologías de Inform. SpA es una empresa consolidada en el mercado latinoamericano con más de 30 años de trayectoria, especializada en desarrollo de software y prestación de servicios TI a través de Outsourcing. Con sedes en Concepción y Santiago, Genesys se enfoca en acompañar a sus clientes en sus procesos de Transformación Digital, utilizando tecnologías actuales como Cloud, Data Analytics, Inteligencia Artificial y Automatización de Procesos.
El equipo de desarrollo y soporte se encarga de múltiples proyectos relacionados con la modernización tecnológica de empresas de la región, manteniendo servicios de soporte, mantenimiento de aplicaciones y desarrollo, para asegurar la continuidad operacional y la innovación constante en los negocios de sus clientes.

Funciones del Cargo

Como Administrador de Base de Datos, serás responsable de la gestión integral de las bases de datos, garantizando su disponibilidad, rendimiento y seguridad. Deberás mantener la plataforma operativa para asegurar la continuidad y la integridad de la información crítica para la operación de la empresa.
  • Administrar, configurar y monitorear bases de datos Oracle, SQL Server, PostgreSQL y MongoDB.
  • Asegurar la seguridad y el control de accesos a la información almacenada.
  • Implementar y mantener soluciones de respaldo y recuperación ante desastres.
  • Supervisar el rendimiento y optimizar consultas y procesos dentro de los sistemas de base de datos.
  • Interactuar eficientemente con usuarios y equipos técnicos para resolver incidencias y requerimientos vinculados a las bases de datos.
  • Trabajar con sistemas operativos Windows Server y Linux, asegurando un entorno estable y seguro para las bases de datos.
  • Colaborar en entornos Cloud como Azure, AWS o Google Cloud, integrando y gestionando bases de datos en la nube cuando corresponda.
Tu enfoque estará puesto en anticipar y resolver problemas, aplicar pensamiento analítico y comunicarte de forma efectiva con diferentes áreas de la organización.

Descripción del Cargo y Requisitos

Estamos buscando un profesional con un mínimo de 3 años de experiencia comprobada en administración de bases de datos, especialmente en entornos Oracle, SQL Server, PostgreSQL y MongoDB. Buscamos alguien con sólidos conocimientos técnicos en sistemas operativos Windows Server y Linux, capaz de desempeñarse en ambientes híbridos que integren tecnología on-premise y en la nube.
El candidato ideal deberá contar con habilidades avanzadas para la resolución de problemas y pensamiento analítico orientado al diagnóstico rápido y solución eficiente. Además, tendrá una gran capacidad de comunicación para interactuar con usuarios y stakeholders, comprendiendo sus necesidades y traduciéndolas en soluciones técnicas efectivas.
Es deseable poseer certificaciones en administración de bases de datos que avalen los conocimientos técnicos y la experiencia práctica en el área.
Buscamos profesionales comprometidos, organizados, con iniciativa y que tengan facilidad para trabajar en equipo, promoviendo un ambiente colaborativo que permita el crecimiento conjunto.

Requisitos Deseables

Se valorará especialmente la experiencia previa en entornos Cloud como Microsoft Azure, Amazon Web Services o Google Cloud Platform, tanto en implementación como en administración de bases de datos en dichas plataformas. Las certificaciones oficiales en gestión de bases de datos, tales como Oracle Certified Professional, Microsoft Certified: Azure Database Administrator Associate o similares, serán consideradas un plus significativo.
Además, se apreciará el conocimiento en automatización de tareas mediante scripts, familiaridad con herramientas de monitoreo y respaldo avanzadas, y la capacidad para integrarse en equipos multifuncionales de proyectos de transformación digital.

Condiciones y Beneficios

Ofrecemos un contrato a plazo fijo dentro de un ambiente laboral dinámico, colaborativo y orientado al desarrollo profesional y aprendizaje constante. Nuestro horario laboral es de lunes a viernes de 08:30 a 18:30 hrs, bajo modalidad híbrida que combina trabajo presencial en la oficina de Concepción y trabajo remoto.
Formarás parte de una empresa con más de tres décadas de experiencia en el sector tecnológico latinoamericano, con presencia en Concepción y Santiago. Valoramos el talento y fomentamos el crecimiento y la innovación continua dentro de un entorno que impulsa la excelencia técnica y la transformación digital.
Únete a Genesys Tecnologías de Inform. SpA y sé parte de un equipo comprometido con mantener los negocios en movimiento y elevar el estándar tecnológico en las empresas de la región. ¡Esperamos crecer juntos contigo! 😊

APPLY VIA WEB
$$$ Full time
DevOps Engineer II
  • ZeroFox
  • Santiago (Hybrid)
Python Agile Go DevOps

Opportunity Overview

At ZeroFox, we are passionate about bringing world-class protection to the digital-first world. Together, we have built a system capable of collecting and analyzing data from all over the internet, creating a paradigm-shifting cybersecurity product that helps secure and protect our customers and improves the global threat landscape.

We are a team of software engineers, cybersecurity experts, and data scientists who continue to develop unparalleled solutions for the cyber security industry by providing the best Digital Risk Protection SaaS in the global market. Our company, services, and user base are growing faster than ever and we’d like you to help us innovate. We believe the greatest solutions in the Digital Risk Protection space come from composing teams with varied backgrounds and experiences that can use their complementary skill sets to come up with the best market-defining solutions.

Role and responsibilities

  • Collaborate with product teams and software engineers across security, machine learning, digital risk protection, and cyber threat intelligence to develop the next generation of solutions for the ZeroFox platform
  • Gain in-depth knowledge of our microservices architecture and stack; leverage this knowledge to improve system stability, performance, scalability, and security
  • Own and maintain multiple components of our DevOps infrastructure, including CI/CD pipelines, monitoring solutions, and container orchestration platforms, with a focus on embedding security controls and checks
  • Begin to take on a leadership role within projects, guiding best practices around deployment automation, infrastructure as code, and secure configuration management
  • Research, evaluate, and implement new tooling or capabilities to ensure our systems meet or exceed production security requirements (e.g., scanning, patching, vulnerability management)
  • Coordinate with security stakeholders to review engineering milestones and third-party systems for compliance with security standards

Required qualifications and skills

  • Motivated, communicative, teamwork-oriented professionals comfortable working in agile environments
  • Bachelor’s degree in computer science or a related field, OR equivalent education or experience
  • DevOps experience, typically obtained in 3+ years
  • Good understanding of the software development lifecycle, automation, and CI/CD practices
  • Familiarity with cloud services like AWS for building and scaling web architecture, including basic security considerations and standards
  • Experience working with containerization and orchestration technologies such as Docker, Nomad, or Kubernetes
  • Ability to write and maintain infrastructure as code (e.g., Terraform or AWS CloudFormation), integrating security into IaC workflows
  • Good communication, collaboration, and presentation skills in English
  • Ability to work effectively in a fast-paced, agile environment

Desirable skills

  • Proficiency in scripting languages such as Python, Go, or a similar language
  • Experience troubleshooting networking issues in a cloud environment, including basic network security principles
  • Familiarity with monitoring and alerting tools (e.g., Prometheus, Grafana, Datadog)
  • Solid knowledge of infrastructure best practices, security considerations, and automation tools
  • Understanding of or exposure to security scanning tools (e.g., SAST, DAST, or container image scanners)
  • We also value equivalent experience to these languages and frameworks. If you think you might be a fit, apply!

Benefits

  • Opportunities to learn and contribute your knowledge to our Digital Risk Protection platform
  • Competitive compensation
  • Competitive PTO
  • Complementary health insurance
  • Daily catered lunches for in-office work
  • Respectful and nourishing work environment, where every opinion is heard and everyone is encouraged to be an active part of the organizational culture.
  • Regular team bonding activities like cooking and cocktails classes, bingos, stand up comedy, magic shows, virtual happy hour, lunch and learns, etc.
  • Additional Parental Leave
  • Excellent communication: between teams, people, organizations and leaders

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance ZeroFox pays or copays life insurance for employees.
Meals provided ZeroFox provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage ZeroFox pays or copays health insurance for employees.
Dental insurance ZeroFox pays or copays dental insurance for employees.
Computer provided ZeroFox provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal ZeroFox gives you paid vacations over the legal minimum.
Beverages and snacks ZeroFox offers beverages and snacks for free consumption.
Parental leave over legal ZeroFox offers paid parental leave over the legal minimum.
APPLY VIA WEB
$$$ Full time
Data Cloud Architect
  • Moventi
Lean REST API Virtualization Amazon Web Services
Moventi is at the forefront of leveraging technology to transform the regulatory strategies within the pharmaceutical industry. Our dedicated Regulatory Strategy team focuses on using innovative technical solutions to enhance operational efficiencies and create synergistic effects throughout our processes. As a Data Cloud Architect, you will collaborate with diverse teams and professionals, driving significant business value through the development of comprehensive technical architectures.

Roles and Responsibilities:

As a Data Cloud Architect, your primary responsibility is to partner with J&J Technology Services and various stakeholders in designing scalable and supportable technical systems to bolster Regulatory Strategy and Intelligence. You will:
  • Develop architecture artifacts in concert with product owners, engineers, and other stakeholders, ensuring alignment with business objectives.
  • Create a range of architecture documentation including business context diagrams, data models, and integration architectures.
  • Ensure architecture compliance with Regulatory, Enterprise, and R&D technology strategies.
  • Utilize standard tools such as Lean IX and Confluence to capture design decisions and architectural information.
  • Foster scalable technologies through reusable integration patterns and intelligent automation.

Education and Experience Required:

The ideal candidate will possess a strong educational background with a BA/BS degree in a technical, engineering, or scientific field. Furthermore, you must have:
  • At least 5 years of experience as a Solution Architect within the Pharmaceutical development landscape.
  • Proficiency in designing and operationalizing integrations using methods such as REST APIs and data pipelines.
  • Extensive experience working with structured RDBMS and content management platforms.
  • A well-rounded understanding of cloud-native solution engineering on platforms such as AWS, GCP, or Azure.
  • Expertise in architecting regulated systems, ensuring compliance with GxP, HIPAA, GDPR, etc.
  • Proficiency in deep learning frameworks like TensorFlow or PyTorch, alongside a solid grasp of NLP techniques.
  • Strong communication skills that enable the translation of complex topics into clear architectural diagrams and presentations.

Desirable Skills and Experience:

While not mandatory, the following certifications and experiences are highly desirable:
  • AWS Well-Architected Framework certification.
  • AWS Certified Machine Learning Specialty certification.
  • Experience leading technical discussions and steering technical consensus among stakeholders.
  • Ability to design robust, scalable, and flexible solutions that cater to multi-national users and Health Authority communities.

Conditions

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
APPLY VIA WEB
$$$ Full time
Soporte y Mantenimiento de Infraestructura TI
  • coderslab.io
  • Lima (Hybrid)
Virtualization Amazon Web Services Switching Routing

En CodersLab actualmente nos encontramos apuntando al crecimiento de nuestros equipos de manera global con el objetivo de posicionarnos con nuestros productos en más países de Latinoamérica, es por ello que estamos en búsqueda de un Soporte y Mantenimiento de Infraestructura TI quien deberá ser una persona motivada y orientada al cumplimiento de objetivos.

Te sumarás a un equipo desafiante y ambicioso con ganas de renovar el mercado, por lo que tus propuestas serán de mucho valor para el negocio.

¡Postula para este tremendo desafío!

Funciones del cargo

La posición está orientada a brindar mantenimiento a la infraestructura y comunicaciones entre las sedes, entre tus funciones estaría:

-Gestionar los incidentes y problemas de la infraestructura y comunicaciones, brindar asistencia de primer nivel y dar solución a las áreas de cliente interno en los SLAs establecidos y según las políticas de TIC.
-Ejecutar las actividades de configuración, respaldo e inventario del parque informático de Infraestructura y Comunicaciones.
-Verificar periódicamente el estado físico del parque informático de Infraestructura y
Comunicaciones.
-Coordinar los mantenimientos preventivos y correctivos de la infraestructura OnPremise / Cloud.
-Gestionar con los proveedores y/o fabricantes para la solución efectiva de incidentes,
garantías y soportes de los equipos/servicios en coordinación con el líder técnico de infraestructura TIC.
-Presentar informes mensuales y semanales del estado de la infraestructura y
comunicaciones, asegurando su disponibilidad y calidad de los servicios.
-Dar atención de primer nivel a los incidentes y requerimientos generados por mesa de
ayuda, así como realizar el registro y seguimiento de las atenciones en la herramienta
FreshService.
-Proponer oportunamente mejoras a la infraestructura y comunicaciones.
-Acompañar al área de TIC en el despliegue de nuevos proyectos tecnológicos en coordinación con el líder técnico de Infraestructura TIC.
-Hacer análisis de causa raíz para incidentes recurrentes y proponer oportunamente
mejoras para la Infraestructura y Comunicaciones.
-Respetar los lineamientos del sistema integrado de gestión de calidad, seguridad, salud
ocupacional y medio ambiente.

Requerimientos del cargo

Nos orientamos a perfiles con experiencia en el sector de minería, industrias, construcción o a fin con un minimo de experiencia de 2 años en puestos similares.

Requerimientos específicos:

• Soporte de administración de servidores
o Monitoreo de servidores 24/7*
o Atención de incidentes de servidores físicos y virtuales onpremise/cloud
o Despliegue de actualizaciones y parches de seguridad
o Gestión de garantía de software y hardware
o Mantenimiento y optimizaciones de servidores físicos y virtuales
o Soporte de servicios Infraestructura (AD, DHCP, entre otros)
o Preparación, instalación y configuración de servidores físicos y virtuales
o Altas y baja de servidores físicos y virtuales
o Coordinación con proveedor de Hosting sobre los servidores alojados.
o Coordinación con proveedor de Servicio AWS y Azure
o Gestión de inventario de servidores
• Soporte y mantenimiento de redes y comunicaciones
o Monitoreo de equipos de redes y comunicaciones 24/7*
o Atención de requerimientos e incidentes de redes y comunicaciones
o Gestión de la telefónica IP
o Soporte y mantenimiento de enlaces WAN y satelitales
o Soporte y mantenimiento de Switch y AP. Soporte de Routing & Switching L2/L3 de
equipos CISCO y ARUBA para garantizar la conectividad en las sedes remotas en Perú y
México. Soporte de Wireless Lan Controller y AP's para mantener la conectividad
inalámbrica en las instalaciones mineras
o Supervisión de proveedores (en coordinación con el administrador de infraestructura
TI)
o Despliegue de parches y actualizaciones de firmware sobre equipos
o Gestión de garantía
o Gestión de inventario de equipos de redes y comunicaciones
• Soporte de seguridad de infraestructura
o Soporte y mantenimiento de la plataforma de Antivirus GDATA
o Soporte y mantenimiento de seguridad perimetral (Firewall Fortinet)
o Sincronización de AD para gestión de accesos
o Resolución a incidentes de seguridad de la información
o Soporte de servicios VPN y de acceso remoto
• Soporte y Mantenimiento de Radios de Comunicación
o Configuración en las radios
o Mantenimiento Preventivo de Radios
o Gestión de garantías
o Supervisión de proveedores para el servicio de reparación y cambio de partes (en
coordinación con el administrador de infraestructura TI)
o Gestión de envíos a proyectos
o Gestión de almacén de tránsito antes de enviar a su proyecto
o Asesoramiento y apoyo en la compra de radios
o Inventario y control de los equipos de radios
o Elaboración de informes de estado de las radios

Se valora contar con:
• Estudios en CCNA (Cisco Certified Network Associate).
• Conocimientos de ITIL (Information Technology Infrastructure Library)
• Ciberseguridad (NIIST o ISO 27001).
• Herramienta de gestión de tickets de atención (Freshservice u otra).
• Soporte de administración de servidores
• Soporte y mantenimiento de redes y comunicaciones
• Soporte de seguridad de infraestructura
• soporte y mantenimiento de radios de comunicación.

Condiciones

Se debe contar con disponibilidad para viajar a las operaciones en sedes mineras del cliente (Pasco, La Libertad y sierra de Lima) al menos 50% del tiempo como parte de las actividades de inspecciones, mantenimientos y atención de incidentes.

Horario de trabajo: Lu a Vi de 8:00am a 6:00pm
Contratación: Recibo por honorarios.

Sólo en caso de alertas que deriven de incidentes la atención será 24/07 y se atenderá según la criticidad o se programará en el plazo más breve. En el caso de viajes a sede minera el horario podría ser diferente y se manejaría una compensación de horas en el horario de trabajo.

APPLY VIA WEB
$$$ Full time
Ingeniero Cloud / Sector Bancario
  • Devsu
  • Quito (In-office)
DevOps Virtualization Amazon Web Services Docker

Con más de 10 años de experiencia, en Devsu te encontrarás trabajando con los mejores profesionales de los que podrás aprender constantemente y participar en proyectos emocionantes y desafiantes para clientes globales. Nuestro equipo trabaja desde más de 18 países del mundo en diversos productos de software y áreas de trabajo.

Tendrás la oportunidad de estar en un ambiente multicultural y con una estructura horizontal, en donde el trabajo en equipo y aprendizaje continuo serán elementos muy presentes.

Estamos en la búsqueda de un Ingeniero Cloud para unirse a nuestro equipo dinámico y altamente calificado. Este rol es crucial para el diseño, implementación y gestión de soluciones en la nube para nuestros clientes en el sector financiero/bancario. Esta posición es presencial en la ciudad de Quito, Ecuador.

Tu trabajo se centrará en asegurar que nuestras arquitecturas en la nube sean robustas, escalables y seguras.

Funciones del cargo

  • Configura, despliega y soporta la infraestructura en la nube, asegurando que se ajuste a las especificaciones de diseño.
  • Utiliza herramientas de automatización y scripts para la creación y gestión de la infraestructura.
  • Trabaja estrechamente con el equipo de DevOps para integrar pipelines de CI/CD que permitan una entrega más ágil de la infraestructura.
  • Implementa políticas y soluciones de seguridad para proteger los datos y recursos en la nube. También supervisa el cumplimiento de normativas y mejores prácticas de seguridad.
  • Mantiene documentación clara y detallada sobre la arquitectura, configuraciones y procesos para facilitar su comprensión y mantenimiento.
  • Colabora en la creación de arquitecturas de referencia que incluyan servicios de almacenamiento, redes, bases de datos, computación entre otros

Requerimientos del cargo

  • Experiencia de 3+ años trabajando con arquitecturas en la nube (preferiblemente AWS o Azure).
  • Experiencia Plataformas Cloud: Familiaridad con AWS, Azure, Google Cloud, etc.
  • Servicios Cloud: Comprensión de IaaS, PaaS y SaaS.
  • Familiaridad con herramientas de automatización y scripts (por ejemplo, Terraform, CloudFormation, Azure ARM).
  • Comprensión de las mejores prácticas de seguridad y compliance.
  • Conocimiento en redes virtuales, VPNs y conectividad entre nubes.
  • Experiencia en herramientas de integración y entrega continua (Azure DevOps).
  • Comprensión de contenedores y orquestación (Docker, Kubernetes).
  • Experiencia en el uso de herramientas de monitoreo y gestión de entornos cloud como CloudWatch (AWS), Azure Monitor, o Stackdriver (GCP).
  • Experiencia de al menos un año con empresas del sector financiero.

Deseable:

  • Certificaciones de proveedores de nube (AWS Certified Solutions Architect, Azure Administrator, etc.).

Condiciones

Un contrato estable a largo plazo. Entrenamiento contínuo. Seguro de Salud Privado. Trabajarás con algunos de los ingenieros de software más talentosos de América Latina y los EEUU, haciendo un trabajo desafiante y software de clase mundial.

Wellness program Devsu offers or subsidies mental and/or physical health activities.
Internal talks Devsu offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Digital library Access to digital books or subscriptions.
Health coverage Devsu pays or copays health insurance for employees.
Computer provided Devsu provides a computer for your work.
Education stipend Devsu covers some educational expenses related to the position.
Personal coaching Devsu offers counseling or personal coaching to employees.
APPLY VIA WEB
$$$ Full time
Arquitecto/a de Soluciones Cloud & Datos
  • Factor IT
  • Lima (Hybrid)
Data Analysis Virtualization Amazon Web Services Azure

FactorIT es un líder en tecnología con presencia en 8 países y enfocado en ofrecer soluciones innovadoras en Data y Analytics, Transformación Digital e Inteligencia Artificial. Estamos buscando un Arquitecto/a de Soluciones Cloud & Datos que se una a nuestro equipo para trabajar en proyectos diversos con grandes empresas, impactando en múltiples industrias. El candidato tendrá la oportunidad de participar en proyectos estratégicos que transforman el panorama tecnológico y mejoran la eficiencia operativa de nuestros clientes.

Funciones del Rol

El Arquitecto/a de Soluciones Cloud & Datos tendrá como objetivo principal diseñar e implementar arquitecturas robustas y escalables que permitan a nuestros clientes aprovechar al máximo las capacidades de la nube y los datos. Algunas de las responsabilidades clave incluirán:

  • Colaborar con equipos multifuncionales para analizar las necesidades de los clientes y diseñar soluciones personalizadas.
  • Desarrollar y presentar propuestas técnicas y comerciales, actuando como el enlace entre el equipo técnico y los clientes.
  • Realizar análisis de viabilidad y recomendaciones sobre arquitecturas cloud y datos, asegurando escalabilidad y seguridad.
  • Ofrecer soporte técnico durante la implementación y asegurar que las soluciones cumplen con los estándares de calidad.
  • Participar en actividades de preventa y brindar capacitación sobre las soluciones propuestas.

Descripción del Rol

Buscamos a un profesional con experiencia en arquitecturas de soluciones en la nube y habilidades en áreas como inteligencia artificial y análisis de datos. Los candidatos ideales deben tener un fuerte enfoque consultivo y ser capaces de comunicar conceptos técnicos complejos de manera efectiva.

Entre los requisitos habilitantes se incluyen:

  • Título universitario en Ingeniería en Sistemas, Ciencias de la Computación o campo relacionado.
  • Experiencia previa en el diseño e implementación de soluciones en la nube.
  • Conocimiento profundo de plataformas cloud (AWS, Azure, Google Cloud) y tecnologías de datos.
  • Habilidades interpersonales excepcionales y capacidad para trabajar en un entorno de equipo colaborativo.
  • Capacidad para entender las necesidades del cliente y traducirlas en soluciones efectivas.

Habilidades y Experiencia Deseadas

Es deseable contar con alguna experiencia o certificaciones en inteligencia artificial, así como en estrategias de automatización de procesos. También valoramos un pensamiento creativo que permita proponer soluciones innovadoras. Otros aspectos preferibles incluyen:

  • Certificaciones en tecnologías de nube.
  • Experiencia en metodologías ágiles.
  • Conocimientos en herramientas de data analytics y visualización.

Beneficios de Unirte a Factor IT

En FactorIT creemos en el continuo crecimiento de nuestros colaboradores. Ofrecemos un entorno laboral híbrido, permitiendo un equilibrio entre trabajo en oficina y remoto. Además de un salario competitivo basado en tu experiencia, también contamos con:

  • Flexibilidad laboral para adaptarse a tus necesidades.
  • Capacitación continua en tecnologías emergentes, con un énfasis en inteligencia artificial y automatización.
  • Cultura inclusiva y un ambiente que fomenta la creatividad y la innovación.

Si te apasiona la tecnología y quieres unirte a un equipo innovador y en expansión, ¡esta es tu oportunidad!

Partially remote You can work from your home some days a week.
Computer provided Factor IT provides a computer for your work.
APPLY VIA WEB
$$$ Full time
DevOps Engineer
  • Softserve
Python Linux DevOps Virtualization
WE ARE
SoftServe is an IT & global digital solutions company with headquarters in Austin, Texas, founded in 1993 in Ukraine. Our associates work on 2,000+ projects with clients in the USA, Europe, and APAC region. We are about people who create bold things, who make a difference, who have fun, and who love their work. In January 2022, we started our operations in Latin America. We committed to grow our local community to 3,500 associates by 2025 and invest in the market.

Funciones del cargo

AND YOU WANT TO
  • Collaborate with the LATAM DevOps Practice to contribute to cloud platforms for globally innovative companies
  • Engage in diverse private and public cloud-oriented projects of various scales
  • Participate in enterprise-scale migrations, cloud-native application development, and trending technology initiatives
  • Build, maintain, and optimize CI/CD pipelines for automated deployment and updates
  • Configure and manage scalable, secure, and high-performing cloud environments
  • Use tools like Terraform for infrastructure as code (IaC) to enhance deployment consistency and minimize manual interventions

Requerimientos del cargo

IF YOU ARE
  • Experienced with SRE/DevOps best practices
  • Proficient in AWS core IaaS and PaaS services, including IAM, VPC, Internet Gateway, NAT Gateway, ELB, RDS, EC2, S3, Security Groups, ACLs, and Routing Tables
  • Skilled in Docker, Kubernetes, and EKS
  • Adept in HELM charts and troubleshooting workloads in K8s clusters
  • Knowledgeable in Infrastructure as Code using Terraform or CloudFormation
  • Skilled in scripting languages such as Shell or Bash
  • Proficient in Linux, including administration, command-line expertise, and service debugging
  • Experienced in configuring log collectors and using observability platforms for containerized workloads

Opcionales

  • Good at maintaining existing CI/CD pipelines with tools like Jenkins, GitHub, GitLab, or CircleCI (as a plus)
  • Familiar with Python and tools like Prometheus and Grafana (would be a plus)
  • Knowledgeable in AFT Control Tower and Landing Zone (optional)

Condiciones

SoftServe is an Equal Opportunity Employer. All qualified applicants will receive consideration for employment regardless of race, color, religion, age, sex, nationality, disability, sexual orientation, gender identity and expression, veteran status, and other protected characteristics under applicable law. Let’s put your talents and experience in motion with SoftServe.

Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Softserve pays or copays health insurance for employees.
Computer provided Softserve provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Softserve gives you paid vacations over the legal minimum.
Beverages and snacks Softserve offers beverages and snacks for free consumption.
APPLY VIA WEB
Gross salary $2400 - 3000 Full time
DevOps
  • coderslab.io
  • Santiago (Hybrid)
Ruby Python Git Linux
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente nos encontramos apuntando al crecimiento de nuestros equipos de manera global con el objetivo de posicionarnos con nuestros productos en más países de Latinoamérica, es por ello que estamos en búsqueda de un DEVOPSpara sumarse a nuestro equipo.
Te sumarás a un equipo desafiante y ambicioso con ganas de renovar el mercado, por lo que tus propuestas serán de mucho valor para el negocio.
¡Postula para este tremendo desafío!

Funciones del cargo

  1. Diseño e Implementación de Infraestructura:
    • Diseñar e implementar soluciones de infraestructura que cumplan con los estándares de alta disponibilidad, escalabilidad y observabilidad.
    • Automatizar la configuración y el despliegue de los componentes de la infraestructura utilizando herramientas de Infraestructura como Código (IaC), como Terraform.
  2. Mantenimiento y Monitoreo:
    • Tomar posesión de los componentes de la infraestructura, asegurando su confiabilidad y rendimiento a través de revisiones de código y pruebas.
    • Implementar y gestionar herramientas de monitoreo y observabilidad, incluyendo ELK stack y Datadog, para garantizar la integridad y el rendimiento de los sistemas.
  3. Colaboración y Gestión de Proyectos:
    • Colaborar con otros ingenieros, partes interesadas y equipos de operaciones para comprender los requisitos comerciales y brindar soluciones técnicas efectivas.
    • Trabajar en un entorno de desarrollo ágil, utilizando herramientas como Jira y Confluence para gestionar el trabajo y realizar un seguimiento del progreso.
  4. Optimización y Mejora Continua:
    • Identificar y abordar los puntos débiles en los sistemas de la empresa a través de la automatización y la optimización.
    • Mantenerse actualizado con las tecnologías emergentes y las tendencias de la industria en el espacio DevOps/SRE para impulsar la innovación.
  5. Desarrollo y Scripting:
    • Programar en lenguajes como Python, Ruby y Bash para optimizar procesos y herramientas de infraestructura.

Requerimientos del cargo

  • Experiencia: Mínimo 3 años de experiencia como ingeniero DevOps o en roles relacionados con infraestructura cloud, incluyendo migración de infraestructura.
  • Conocimientos Técnicos:
    • Competencia en lenguajes de programación desde una perspectiva de infraestructura (Python, Ruby, Bash).
    • Familiaridad con servicios Cloud (AWS, Azure, GCP, etc.).
    • Experiencia con herramientas de monitoreo y logs, como ELK stack y Datadog.
    • Conocimiento avanzado de herramientas de infraestructura como código (IaC), específicamente Terraform.
    • Gran comprensión de los principios y prácticas de DevOps.
    • Experiencia en administración de sistemas Linux, control de versiones (Git), y tecnologías de contenedorización (Docker, Kubernetes).
  • Habilidades Personales:
    • Fuertes habilidades de comunicación y colaboración.
    • Capacidad para trabajar en un entorno ágil y adaptarse a cambios.
    • Pensamiento analítico y orientación a resultados.
    • Compromiso con la mejora continua y la innovación.

APPLY VIA WEB
Gross salary $1400 - 2000 Full time
Administrador de Sistemas
  • RiskAmerica
  • Santiago (Hybrid)
Python Linux Sysadmin Virtualization
RiskAmerica es una empresa consolidada en la industria FinTech, proveemos servicios de gestión e información a todas las empresas de inversiones de Chile. Nos caracterizamos por ser un agente de innovación y transformación digital estando siempre a la vanguardia en las tecnologías y metodologías que usamos.
Hoy en día nos encontramos en un proceso de expansión y buscamos un nuevo Administrador de Sistemas para ayudar a gestionar múltiples soluciones hospedadas en la nube de Google Cloud Platform con Kubernetes Engine.
¿Te atrae el rol de Solution Architect, Cloud Engineer, DevOps o Administrar Sistemas? Acá podrás aprender mucho de gente muy talentosa y podrás contribuir de manera significativa en toda la cadena de vida de los servicios de la empresa.

Que necesitamos de ti

  • Diseño, desarrollo, mantención y actualización de infraestructura para soluciones multi-tennant de alta disponibilidad.
  • Construir y administrar herramientas de monitoring de los servicios e infraestructura.
  • Ayudar a diseñar, mantener y probar la seguridad de la infraestructura de red y diversas plataformas.
  • Construir utilidades para apoyar las labores de los ingenieros de software del área.
  • Mejorar la cadena de Integración Continua de los servicios administrados.
  • Administrar la generación, almacenamiento y uso de respaldos de los distintos servicios.
  • Ayudar a diseñar, mantener y probar los planes de continuidad de negocio de los distintos servicios.

Que necesitamos de ti

  • Experiencia en seguridad de Redes
  • Experiencia Bash scripting.
  • Experiencia programando en Python.
  • Experiencia básica usando containers (Docker y/o Kubernetes) tanto en Build como Deploy.
  • Experiencia de al menos 1 año administrando cargas productivas de algún servicio
  • Interés y entusiasmo por aprender de nuevas tecnologías, con el fin de crear soluciones robustas y automáticas que requieran mínima mantención.
  • Versatilidad para aprender de diversas tecnologías y lenguajes para apoyar al equipo de Ingenieros de Software en sus diversas necesidades
  • Experiencia en sistemas Linux
  • Manejo de inglés leído técnico.

Sumas puntos si

  • Certificado de Solution Architect de AWS o GCP
  • Experiencia trabajando con Kubernetes
  • Experiencia trabajando sobre Google Cloud Platform (especialmente GKE, GCS y Compute)
  • Conocimientos teóricos de Kubernetes
  • Experiencia usando Ansible
  • Experiencia con Prometheus & Graphana
  • Experiencia con Bases de Datos MariaDB trabajando en esquemas master-slave o master-master
  • Experiencia implementando cadenas de integración continua (CI)

Que tenemos para ti

  • Excelente clima laboral junto a un gran equipo.
  • Seguro complementario de salud, incluyendo dental, catastrófico y vida.
  • Amplias posibilidades para aprender del rubro de inversiones.
  • Incentivo al ahorro previsional voluntario (APV).
  • Buena relación vida/trabajo.
Si vienes a la oficina:
  • Vestimenta casual
  • Estacionamiento para bicicletas
  • Y un buen café!

Life insurance RiskAmerica pays or copays life insurance for employees.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage RiskAmerica pays or copays health insurance for employees.
Dental insurance RiskAmerica pays or copays dental insurance for employees.
Computer provided RiskAmerica provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Beverages and snacks RiskAmerica offers beverages and snacks for free consumption.
APPLY VIA WEB
Gross salary $2300 - 2500 Full time
Especialista Cloud
  • BC Tecnología
  • Santiago (In-office)
JavaScript .Net Agile Front-end

En BC Tecnología, somos una consultora de TI comprometida con la excelencia en la creación de soluciones tecnológicas personalizadas. Nuestro equipo especializado ofrece servicios de outsourcing, desarrollo de proyectos y consultoría para clientes en servicios financieros, seguros, retail y el ámbito gubernamental. Actualmente, estamos buscando un Especialista Cloud para un proyecto de 12 meses que nos ayudará a seguir innovando y aportando valor a nuestros clientes.

Responsabilidades del Especialista Cloud

Como Especialista Cloud, tus responsabilidades incluirán:

  • Desarrollar, implementar y gestionar soluciones en la nube utilizando Amazon AWS.
  • Mantener y optimizar aplicaciones en .NET Framework y otros proyectos relacionados.
  • Colaborar con equipos multifuncionales utilizando metodologías ágiles como Scrum.
  • Proveer soporte técnico y formación a los miembros del equipo sobre tecnologías relacionadas.

Requisitos del Puesto

Buscamos un candidato con al menos 2 a 3 años de experiencia en:

  • SQL, MVC con Angular, Node.js y manejo de .NET Framework 4.0 o superior.
  • Conocimiento avanzado de Amazon AWS y sus herramientas asociadas.
  • Capacidad de trabajar en un entorno ágil, adaptándose a las necesidades del cliente.

Es deseable contar con certificaciones en metodologías Scrum, así como en la plataforma AWS (Developer Associate) o similares. Buscamos a alguien proactivo, con buenas habilidades de comunicación y un enfoque orientado a resultados.

Competencias Deseables

Si cuentas con certificaciones relacionadas en .NET Framework o similar, tu perfil será altamente valorado. También se apreciará experiencia previa en agencias de consultoría que hayan trabajado con clientes en el sector financiero o gubernamental.

Beneficios de Unirte a Nuestro Equipo

Ofrecemos un entorno de trabajo dinámico, donde valoramos la formación continua y el desarrollo profesional. Además, disfrutas de:

  • Modalidad híbrida con 4 días de trabajo remoto y 1 día en la oficina.
  • Seguro complementario de salud.
  • Acceso a Amipass.
  • Aguinaldos en fiestas patrias y Navidad.

¡Si te apasiona la tecnología y deseas unirte a un equipo altamente cualificado, esta es tu oportunidad!

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB
$$$ Full time
DevOps Lead
  • Moventi
Python Linux DevOps Virtualization

We are seeking an experienced DevOps Lead to join our team, who will be responsible for designing, implementing, and maintaining our cloud-based infrastructure on Amazon Web Services (AWS).
En este rol, tendrás la oportunidad de liderar proyectos relacionados con la innovación tecnológica, garantizando que cumplamos con los estándares más altos.

Funciones del cargo

As a DevOps Lead, you will be responsible for leading our DevOps team, ensuring the smooth operation of our cloud infrastructure, and driving the adoption of DevOps best practices across the organization.

  • Cloud Infrastructure: Design, implement, and maintain our cloud infrastructure on AWS, ensuring scalability, security, and high availability.
  • CI/CD Pipelines: Develop and maintain CI/CD pipelines using GitHub Actions, ensuring automated testing, building, and deployment of our applications.
  • Automation: Automate repetitive tasks, and implement infrastructure-as-code (IaC) using tools like Chef, CloudFormation, CDK.
  • Containerization: Implement and manage containerization using Docker, ensuring efficient and scalable deployment of our applications.
  • Security: Ensure the security and compliance of our cloud infrastructure, implementing best practices, and adhering to industry standards (e.g., HIPAA, PCI-DSS).
  • Collaboration: Work closely with cross-functional teams, including development, QA, and product, to ensure smooth operation of our applications and infrastructure.
  • Monitoring and Logging: Implement monitoring and logging tools (DataDog, CloudWatch), ensuring real-time visibility into our infrastructure and applications.
  • Troubleshooting: Identify and resolve issues, debugging complex problems, and optimizing system performance.

Requerimientos del cargo

  • Technical Skills:
  • AWS, including EC2, ECS, RDS, IAM
  • Expertise in IaC tools (preferably - AWS CDK)
  • Expertise in CI/CD pipelines using GitHub Actions
  • Proficiency in automation tools like Chef, Ansible, or Puppet
  • Experience with containerization using Docker, including Docker Compose and Docker Swarm
  • Strong understanding of security best practices, including network security, access control, and compliance
  • Strong knowledge of Python and Shell scripting
  • Familiarity with monitoring and logging tools (DataDog, AWS CloudWatch)
  • Soft Skills:
  • Excellent leadership and communication skills
  • Strong problem-solving skills, with the ability to break down complex issues into manageable parts
  • Ability to adapt to changing requirements and priorities
  • Passion for DevOps, automation, and security, with a focus on delivering high-quality solutions
  • Education
  • Bachelor's degree in Computer Science, Information Technology, or a related field
  • Experience
  • At least 5 years of experience in DevOps, with a focus on cloud infrastructure, CI/CD pipelines, and automation
  • Experience leading DevOps teams, with a proven track record of delivering high-quality solutions

Opcionales

Certifications:

  • AWS Certified DevOps Engineer - Professional
  • GitHub Actions Certified Developer
  • Chef Certified Developer
  • Docker Certified Associate

Conditions

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
APPLY VIA WEB
$$$ Full time
DevOps Engineer
  • Leniolabs_
Python Agile DevOps Virtualization

Leniolabs_ es una empresa internacional de desarrollo de software con una sólida presencia en Argentina, Chile, España y USA. Cobrimos un espectro diverso de clientes, mayoritariamente en San Francisco, ofreciendo soluciones innovadoras en el desarrollo de software. Nuestro enfoque se centra en trabajar codo a codo con nuestros clientes, integrando equipos y asegurando que las soluciones sean totalmente adaptadas a sus necesidades específicas.

Actualmente nos encontramos en busqueda de un DevOps Engineer para sumarse y laborar con nuestros equipos quienes se encuentran laborando en uno de los proyectos relacionados con el almacenamiento de energía a escala global.

Funciones del cargo

  • Implementar y administrar servicios AWS: S3, Lambdas, IAM, ECS, EC2, Networking, RDS.
  • Optimizar recursos en la nube para un rendimiento eficiente y seguro.
  • Implementar aplicaciones usando Docker para portabilidad y consistencia.
  • Automatizar despliegues con Terraform (IaC).
  • Gestionar permisos y roles en AWS IAM para garantizar la seguridad.
  • Aplicar mejores prácticas de seguridad para proteger infraestructura y datos.
  • Desarrollar soluciones de monitoreo y análisis en AWS.
  • Identificar y resolver problemas en sistemas productivos de forma proactiva.
  • Colaborar con equipos multidisciplinarios para alcanzar objetivos de negocio.
  • Documentar procesos y crear guías técnicas para transferencia de conocimiento.
  • (Plus) Experiencia con Node + Nest, Python, AWS Timestream, AWS Quicksight.

Requerimientos del cargo

Buscamos un profesional con al menos 5 años de experiencia como DevOps con experiencia en:

  • AWS ( S3, Lambdas, IAM, ECS, EC2, networking, RDS)
  • Docker
  • Terraform
  • Experiencia en metodologías ágiles, preferentemente Scrum.
  • Habilidades de resolución de problemas y capacidad para trabajar de forma independiente y en equipo.
  • Nivel intermedio/avanzado o avanzado de inglés es esencial para colaborar en un entorno global.

Opcionales

  • Node+Nest
  • Python
  • AWS Timestream
  • AWS Quicksight

Beneficios

  • Metlife (Chile)
  • 100% Remoto. En Buenos Aires existe un espacio para asistir dos veces por semana. En Santiago tenemos un espacio para asistir los días que se desee.
  • Posibilidad de recibir 2 bonos al año
  • 2 revisiones salariales al año
  • Clases de inglés
  • Equipamiento Apple
  • Cursos UDEMY
  • Budget para compra de libros
  • Budget para compra de materiales de trabajo

APPLY VIA WEB
Gross salary $2,000 Full time
QA Automation
  • Interfell
Agile QA Virtualization Amazon Web Services
Interfell conecta a empresas con el mejor talento IT de Latinoamérica para impulsar proyectos globales a través del trabajo remoto.
Nos especializamos en el reclutamiento y gestión de talento remoto, adaptándonos a las necesidades específicas de cada cliente.
Buscamos un QA Automation para unirse a nuestro equipo responsable de garantizar la calidad del software mediante la implementación y automatización de pruebas. Su objetivo es detectar defectos de manera temprana e integrar procesos de control de calidad dentro del ciclo de desarrollo del software
Ubicación: 100% remoto.
Remuneración: 2.000 (USD) Mensual.
Jornada de trabajo: 9:00am - 6:00pm Costa Rica
Contratación: Indefinido

Funciones del cargo

  • Analizar los requerimientos de proyectos de mediana complejidad y alto impacto.
  • Estimar el esfuerzo necesario para implementar pruebas automatizadas.
  • Diseñar y desarrollar un plan de pruebas automatizadas basado en los requisitos.
  • Implementar y mantener frameworks de automatización para pruebas funcionales y no funcionales.
  • Desarrollar y ejecutar pruebas de carga y estrés con herramientas especializadas.
  • Asegurar la actualización y mantenimiento de la cobertura de pruebas automatizadas conforme a los cambios en el sistema.
  • Implementar y gestionar la ejecución de pruebas automatizadas en entornos de CI/CD.

Requerimientos del cargo

  • 3 años de experiencia en QA.
  • Experiencia en automatización de pruebas utilizando frameworks como Appium, WebdriverIO, Cypress, entre otros.
  • Conocimientos en programación orientada a objetos, funcional, procedural y asíncrona.
  • Comprensión de los procesos de ingeniería de software, ciclo de desarrollo y control de calidad.
  • Experiencia en pruebas unitarias, de integración, de sistema y de regresión.
  • Conocimientos en pruebas de rendimiento, carga, estrés y API.
  • Experiencia en diseño y desarrollo de pruebas automatizadas.
  • Capacidad para documentar pruebas, incluyendo casos de prueba, diagramas de diseño y README.md.
  • Familiaridad con metodologías ágiles como SCRUM y Kanban.
  • Conocimientos en bases de datos relacionales y no relacionales.
  • Conocimientos básicos de computación en la nube (AWS).

Condiciones

  • Contrato a largo plazo
  • Pago USD
  • 100% remoto
  • Oportunidad de crecimiento
  • Vacaciones y feriados

APPLY VIA WEB
$$$ Full time
DevOps Senior
  • Lemontech
Python BigQuery Azure Golang
En Lemontech, somos una empresa SaaS líder en Latinoamérica en el área Legaltech, comprometidos con modernizar procesos legales a través de tecnología innovadora. Nos especializamos en desarrollar softwares eficaces para el sector jurídico, simplificando y digitalizando lo que anteriormente era burocrático. Nuestro equipo está compuesto por talentos internacionales, cada uno aportando sus habilidades únicas para crear un ambiente colaborativo y creativo. Buscamos a un DevOps Senior que comparta nuestra visión y pasión por transformar el sistema judicial.

Funciones del cargo

Como DevOps Senior, serás responsable de:
  • Manejar e implementar Kubernetes a nivel intermedio-avanzado, asegurando su optimización y rendimiento.
  • Realizar debugeo de infraestructura y aplicativos instalados en Kubernetes.
  • Administrar nuestros servicios en AWS, aplicando tu conocimiento avanzado en la plataforma.
  • Utilizar Helm o herramientas similares para charting, facilitando despliegues eficientes.
  • Implementar y mantener infraestructura como código utilizando Terraform.
  • Trabajar con herramientas GitOps como ArgoCD para integraciones continuas y flujos de trabajo de entrega.
  • Desarrollar y ejecutar pipelines de CI/CD utilizando GitHub Actions.
  • Implementar herramientas de monitoreo como New Relic y Datadog, desde su instalación hasta la creación de dashboards significativos.
  • Programar en lenguajes como Python o Golang para resolver problemas complejos.

Descripción del puesto

Buscamos un DevOps Senior que cuente con las siguientes habilidades y características:
  • Experiencia sólida en la administración de Kubernetes, con un enfoque en la optimización y escabilidad.
  • Haven un dominio intermedio-avanzado en debugeo de infraestructuras.
  • Experiencia avanzada con AWS, incluyendo la gestión de servicios y networking.
  • Habilidad en herramientas de charting como Helm, y en la implementación de infraestructura como código mediante Terraform.
  • Conocimientos en herramientas de CI/CD como GitHub Actions y su aplicación en procesos de desarrollo.
  • Un enfoque proactivo hacia el monitoreo de sistemas, utilizando herramientas de visualización y procesamiento de datos como New Relic y Datadog.
  • Deseable contar con conocimiento de GCP y Azure, así como experiencia usando herramientas de monitoreo con eBPF.
  • Habilidad en el manejo de herramientas de data analytics como BigQuery, dbt y Dagster.

Habilidades deseables

Además de los requisitos mencionados, se valorará:
  • Conocimiento en plataformas de GCP y/o Azure para diversificar nuestra infraestructura.
  • Experiencia con herramientas de monitoreo que utilizan eBPF, para optimizar el rendimiento del sistema.
  • Familiaridad con herramientas de data como BigQuery, dbt, y Dagster que pueden añadir valor a nuestros proyectos en el manejo y análisis de datos.

Beneficios de trabajar en Lemontech

En Lemontech, valoramos a nuestro equipo y ofrecemos una serie de beneficios atractivos:
  • Horarios flexibles que se adaptan a tu estilo de vida.
  • Trabajo remoto y una cultura basada en la colaboración.
  • Seguros de salud complementarios para tu tranquilidad.
  • Un ambiente laboral excepcional donde la buena onda es parte de la rutina, ¡nos encanta fomentar la diversión en el trabajo!
  • Oportunidades de desarrollo profesional, un excelente ambiente de trabajo y eventos sociales regulares que facilitan la creación de lazos entre colegas.

¿Estás listo para unirte a nosotros y hacer un impacto positivo en el sistema judicial? 🌍

Te compartimos nuestro aviso de Privacidad de Postulantes.

Wellness program Lemontech offers or subsidies mental and/or physical health activities.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance Lemontech pays or copays life insurance for employees.
Paid sick days Sick leave is compensated (limits might apply).
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Lemontech pays or copays health insurance for employees.
Dental insurance Lemontech pays or copays dental insurance for employees.
Free car parking You can park your car for free at the premises.
Commuting stipend Lemontech offers a stipend to cover some commuting costs.
Computer provided Lemontech provides a computer for your work.
Education stipend Lemontech covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts Lemontech provides some discounts or deals in certain stores.
Vacation over legal Lemontech gives you paid vacations over the legal minimum.
Beverages and snacks Lemontech offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Parental leave over legal Lemontech offers paid parental leave over the legal minimum.
APPLY VIA WEB
Gross salary $1200 - 1500 Full time
PL/SQL Database Administrator
  • OCUREL
  • Calama (In-office)
Python SQL Oracle ETL
Our mission is to revolutionize lead management by creating a seamless process for acquiring, nurturing, qualifying, and routing prospects for the mining industry. You will play a pivotal role in optimizing the data infrastructure that supports OCUREL's lead journey. We provide solutions and staff to different customers in the mining industry in Chile and beyond.

Responsibilities

  1. Database Architecture & Maintenance:
    • Design, implement, and maintain scalable PL/SQL databases to support OCUREL’s lead management system.
    • Optimize database schemas for performance and reliability.
  2. Data Integration & Quality Management:
    • Integrate data from multiple sources, including web forms, CRM tools, and marketing platforms.
    • Ensure data accuracy, consistency, and integrity across systems.
    • Develop processes to clean and standardize incoming data.
  3. Performance Optimization:
    • Monitor database performance and optimize queries, indexes, and configurations.
    • Proactively address bottlenecks and implement solutions to scale systems as data volume grows.
  4. Automation & Scripting:
    • Automate data workflows, including ETL (Extract, Transform, Load) processes.
    • Develop scripts to streamline routine database tasks and reporting.
  5. Security & Compliance:
    • Implement robust data security protocols to protect sensitive lead and customer data.
    • Ensure compliance with GDPR, CCPA, and other relevant data privacy regulations.
  6. Collaboration & Support:
    • Work closely with developers to integrate databases with front-end and back-end applications.
    • Support sales and marketing teams by ensuring they have timely access to accurate data.
    • Provide technical guidance and documentation to team members.

Requirements

Technical Skills:
  • Strong experience with PL/SQL and Oracle databases.
  • Proficiency in SQL and one scripting language (e.g., Python, Bash).
  • Hands-on experience with ETL tools and processes.
  • Familiarity with cloud database solutions (AWS RDS, Azure SQL, Google BigQuery, etc.).
  • Knowledge of performance tuning, query optimization, and database indexing.
Data Security & Compliance:
  • Understanding of data protection best practices.
  • Experience implementing GDPR, CCPA, or similar compliance measures.
Soft Skills:
  • C1 English level or higher
  • Excellent problem-solving skills and attention to detail.
  • Strong communication skills for cross-functional collaboration.
  • Ability to manage multiple tasks and prioritize effectively.
Proved experience working with lead magnets.

Conditions

  • 100% in-person in our offices in downtown Calama
  • Benefits as required by law
Te compartimos nuestro aviso de Privacidad de Postulantes.

Library Access to a library of physical books.
APPLY VIA WEB
Gross salary $5500 - 6500 Full time
DevOps Engineer
  • Monetech Servicios
Python Git SQL Linux

Somos una startup pionera en préstamos, especializada en ofrecer financiamiento accesible para poblaciones desatendidas. Nuestra misión es revolucionar el apoyo financiero para personas sin acceso a servicios bancarios tradicionales, centrándonos en áreas urbanas y semiurbanas para cubrir necesidades financieras inmediatas y a largo plazo.

📌 Dado que somos una startup con miembros de varios países, enviar tu CV en inglés ayudará a agilizar el proceso de selección.

Tu día a día

  • Colaborar estrechamente con los equipos de negocio, desarrolladores e ingenieros DevOps para diseñar e implementar soluciones para funciones empresariales.
  • Contribuir al diseño de la arquitectura de infraestructura para los objetivos comerciales a mediano plazo, asegurando su alineación con estrategias de crecimiento a largo plazo.
  • Automatizar la configuración y el mantenimiento de la infraestructura, implementando las mejores prácticas de monitoreo y alertas para reducir el tiempo de resolución de problemas y mejorar la satisfacción del cliente.
  • Mantenerse actualizado sobre las últimas características de la plataforma AWS y adaptarlas a los objetivos de la empresa y las necesidades del equipo.
  • Desarrollar continuamente sus propias habilidades mientras orienta y apoya el crecimiento de los miembros del equipo.

Habilidades Indispensables

  • Experiencia como Ingeniero DevOps o en un rol similar de ingeniería de software.
  • Experiencia práctica con AWS u otros proveedores de nube, incluyendo diseño e implementación de infraestructura (redes, autoescalado, registro de logs, monitoreo, etc.).
  • Experiencia en la implementación de prácticas de seguridad a nivel de infraestructura en la nube y aplicaciones (por ejemplo, PCI DSS, protección de datos, ISO 27001).
  • Dominio de Git y flujos de trabajo con GitHub.
  • Sólidos conocimientos de scripting en Bash y Python.
  • Conocimientos de bases de datos (estructuradas/no estructuradas) y SQL.
  • Nivel de inglés B1 para comunicarse eficazmente con equipos internacionales.
  • Mentalidad resolutiva y espíritu de trabajo en equipo.
  • Título universitario (o equivalente) en Informática, Ingeniería o un campo relevante.
  • Experiencia en el desarrollo o ingeniería de aplicaciones tanto para startups como para empresas de gran escala.

¿Qué Distingue a los Mejores Candidatos?

  • Certificación en AWS (gran ventaja).
  • Experiencia en diseño de arquitectura de infraestructura en una empresa de tamaño medio o grande.
    Habilidad para mentorear y desarrollar miembros del equipo en prácticas de DevOps y cultura empresarial.
  • Fuertes habilidades de comunicación para diseñar y articular principios de infraestructura a largo plazo y patrones de arquitectura que respalden los requisitos empresariales funcionales y no funcionales con una perspectiva de más de 3 años.

¿Por Qué Unirse a Nosotros?

  • Forma parte de una empresa fintech en rápido crecimiento, impulsando la innovación en soluciones de préstamos accesibles.
  • Oportunidad de trabajar en proyectos de alto impacto en un entorno dinámico e innovador.
  • Colabora con un equipo apasionado y comprometido con la inclusión financiera.

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
Gross salary $3300 - 5000 Full time
Lead Test Automator
  • Abstracta
C C# QA Virtualization

Nos encontramos en busca de un perfil de Lead en automation.
Se apuesta a una persona que muestre un nivel experto de herramientas y estrategias de automatización de pruebas y un entendimiento profundo y amplio del proceso de construcción y despliegue de software en entornos de nube y de escritorio.
En alianza con empresas amigas, al sumarte a este desafío podrás participar de un proyecto en el área TI con un cliente de US que se dedica a una solución de gestión de contenido empresarial basada en la nube.

Principales responsabilidades

  • Impulsar la estrategia de pruebas en toda la organización de las mismas.
  • Recomendar mejoras en procesos de prueba, tecnología e interfaces para optimizar la efectividad del equipo y reducir la deuda técnica.
  • Liderar iniciativas de calidad y ser mentor/a de los miembros del equipo.
  • Evaluar criterios de aceptación y determinar enfoques de prueba adecuados, escribiendo y ejecutando pruebas manuales y automatizadas según sea necesario.
  • Ser responsable de la estrategia de automatización de pruebas y la gestión de datos de prueba.
  • Mantener los marcos de automatización de pruebas existentes y proporcionar soporte en la creación, depuración y ejecución de código para pruebas automatizadas de API y UI.
  • Establecer y gestionar procesos y mejores prácticas en pruebas automatizadas.
  • Proporcionar métricas exhaustivas sobre procesos de negocio y cobertura de código.
  • Presentar resultados de pruebas a las partes interesadas.

Requisitos

  • Formación en Ciencias de la Computación, Ingeniería o un campo relacionado.
  • Más de 8 años de experiencia trabajando en un puesto de QA y Automatización de Pruebas.
  • Más de 5 años de experiencia trabajando con C#.
  • Al menos 1 año de experiencia trabajando con pruebas de carga y rendimiento (Jmeter, Blazemeter, etc.).
  • Experiencia trabajando con AWS o Azure con algo de experiencia en AWS
  • Nivel de inglés avanzado

Habilidades deseables

  • Experiencia trabajando con Azure DevOps
  • Experiencia con IA

¿Qué ofrecemos?

Ofrecemos un ambiente de trabajo dinámico y flexible.
Participación en proyectos innovadores y un equipo amigable son parte integral de tu experiencia con nosotros. Además, disfrutarás de horarios flexibles y la oportunidad de trabajar desde casa. Tu aporte será altamente valorizado en una empresa que promueve la calidad y la innovación.

APPLY VIA WEB
Gross salary $2800 - 3000 Full time
Site Reliability Engineer (SRE)
  • BC Tecnología
  • Santiago (Hybrid)
Python Virtualization Amazon Web Services Kubernetes
En *BC Tecnología*, somos una consultora de TI dedicada a ofrecer soluciones personalizadas en tecnología para diversas industrias como servicios financieros, seguros, retail y gobierno. En esta ocasión, buscamos un(a) Site Reliability Engineer (SRE) que se una a nuestro equipo para implementar y mantener soluciones de infraestructura y despliegue continuo en entornos críticos. Este profesional manejará tecnologías de vanguardia en plataformas multinube como AWS, GCP y Azure, desempeñándose en un ambiente dinámico que prioriza la eficiencia y la alta disponibilidad.

Funciones

  • Diseñar, implementar y gestionar pipelines de CI/CD utilizando GitLab y GitHub.
  • Monitorear, diagnosticar y optimizar sistemas para asegurar un alto rendimiento y disponibilidad.
  • Gestionar infraestructura como código (IaC) con Terraform.
  • Automatizar tareas repetitivas a través de scripting en Python y Bash.
  • Administrar clústeres de Kubernetes y servicios en AWS ECS.
  • Proveer soluciones robustas en entornos multinube (AWS, GCP, Azure).
  • Colaborar con equipos de desarrollo y operaciones para resolver incidentes y optimizar procesos.

Requerimientos

Experiencia:

  • Experiencia sólida en administración de infraestructura en AWS.
  • Dominio avanzado de GitLab y GitHub.
  • Experiencia comprobada en Terraform, Kubernetes y scripting con Python.
  • Habilidades en scripting con Bash.
  • Conocimiento de arquitecturas en la nube (IaaS, PaaS) y despliegue de contenedores.

Requisitos Deseables

Requisitos Deseables

  • Experiencia en entornos multinube (AWS, GCP, Azure).
  • Certificaciones relevantes en AWS, Kubernetes o Terraform.
  • Familiaridad con herramientas de monitoreo como Prometheus y Grafana.

Condiciones y Beneficios

Ofrecemos un contrato por proyecto estimado a 6 meses con posibilidad de extensión y una metodología de trabajo híbrida a demanda en Mall Florida / Las Condes, promediando 3 veces a la semana. El horario de trabajo es de lunes a viernes, y el salario es a convenir. Adicionalmente, proporcionamos beneficios como seguro complementario, Amipass de $4,500 por día laborado, convenios con actividades recreativas y bonos. ¡Esperamos tu interés y que te sumes a nuestro equipo en un entorno dinámico y colaborativo! 😊

APPLY VIA WEB
Gross salary $2200 - 2700 Full time
QA Automation
  • coderslab.io
Android iOS Python Agile

En CodersLab, actualmente estamos enfocados en el crecimiento global de nuestros equipos con el objetivo de posicionar nuestros productos en más países de Latinoamérica. Por esta razón, estamos buscando un QA AUTOMATION motivado y orientado a objetivos.

Te unirás a un equipo desafiante y ambicioso con ganas de innovar en el mercado, haciendo que tus propuestas sean altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Funciones del cargo

Responsabilidades Principales:

1. Desarrollo de Automatización de Pruebas:

o Diseñar e implementar scripts automatizados para pruebas de aplicaciones web, móviles y

APIs utilizando herramientas como Robot Framework y Appium (Android/iOS).

o Garantizar la cobertura de pruebas para servicios REST y GraphQL.

o Usar Python para desarrollar soluciones personalizadas y mejorar los frameworks de prueba existentes.

2. Pruebas de Bases de Datos:

o Realizar pruebas y validaciones en bases de datos relacionales (e.g., MySQL, PostgreSQL) y no relacionales (e.g., DynamoDB).

3. Gestión y Colaboración:

o Documentar procesos, resultados y estrategias de prueba en herramientas como Confluence.

o Trabajar en estrecha colaboración con desarrolladores y partes interesadas del negocio para garantizar que los requisitos de calidad se cumplan.

o Gestionar tareas, estimaciones de esfuerzo y prioridades en Jira.

4. Gestión de Infraestructura:

o Configurar pipelines de integración y despliegue continuo (CI/CD) utilizando GitHub Actions.

o Colaborar en entornos basados en la nube, como AWS, para la ejecución y el mantenimiento de pruebas automatizadas.

5. Capacitación y Transferencia de Conocimiento:

o Capacitar a los miembros del equipo en herramientas, procesos y mejores prácticas de automatización.

o Promover una cultura de mejora continua mediante la transferencia de conocimiento y la mentoría.

Requerimientos del cargo

• Experiencia mínima de 5 años en QAA.

• Experiencia sólida en automatización de pruebas utilizando Robot Framework y Appium (Android/iOS).

• Conocimiento avanzado en Python para desarrollo de scripts y frameworks.

• Experiencia en diseño y ejecución de pruebas de APIs (REST y GraphQL).

• Familiaridad con bases de datos relacionales y no relacionales (MySQL, PostgreSQL, DynamoDB).

• Conocimiento de herramientas de CI/CD como GitHub Actions.

• Experiencia trabajando con AWS.

• Manejo de herramientas de gestión como Jira y Confluence.

• Habilidades en documentación y colaboración con equipos técnicos y de negocio.

• Experiencia en entornos ágiles (Scrum)

• Capacidad para liderar iniciativas de automatización y fomentar un entorno de aprendizaje continuo.

• Excelentes habilidades de comunicación y proactividad

• Autonomía y capacidad para gestionar múltiples tareas simultáneamente.

Conditions

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
$$$ Full time
DevOps Engineer con Harness.IO
  • Leniolabs_
JavaScript Ruby .Net C

Leniolabs_ es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA.

Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.

Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.

Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Responsabilidades del Puesto

  • Diseñar, implementar y optimizar canalizaciones de integración y entrega continua (CI/CD) en Harness para facilitar la entrega ágil de software.
  • Crear y mantener canalizaciones de despliegue usando las funcionalidades de entrega continua de Harness, incluyendo canary releases, blue-green
  • Facilitar la migración de Jenkins a Harness, asegurando la mínima interrupción en las operaciones mientras aumentamos la eficiencia.
  • Colaborar con equipos operativos y de seguridad, ofreciendo orientación sobre cambios en la infraestructura.
  • Automatizar flujos de trabajo para construcción, pruebas y despliegue, alineándolos con las mejores prácticas del sector.
  • Documentar y gestionar el proceso de migración, asegurando una adecuada transferencia de conocimiento.
  • Utilizar métricas y reportes de Harness para monitorear el desempeño de las canalizaciones y mejorar la eficiencia en los despliegues.

Skill requerido

  • Experiencia práctica con Harness.io, Jenkins, GitHub y AWS, específicamente en la construcción y despliegue de microservicios.
  • Familiaridad con aplicaciones desarrolladas en frameworks como .NET y Node.js, utilizando lenguajes como C#, JavaScript, TypeScript, Python y Ruby.
  • Capacidad para trabajar en un entorno colaborativo y remoto, integrándose a equipos distribuidos.
  • Fuertes habilidades de documentación y proceso de migración, asegurando que el conocimiento se transfiera efectivamente entre los equipos.
  • Orientación hacia la automatización y mejora continua utilizando métricas operativas.
  • Experiencia previa en diseño de sistemas de integración y entrega continua (CI/CD).
  • Nivel de inglés intermedio-avanzado (b2) o avanzado (C1-C2)

Habilidades Deseables

  • Conocimientos en seguridad de infraestructura y protocolos relacionados.
  • Capacidad para adaptarse a nuevas tecnologías y mantener un enfoque proactivo hacia las soluciones que se implementan.
  • Habilidades de comunicación efectiva y trabajo en equipo en un entorno remoto.

Beneficios

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo

APPLY VIA WEB
$$$ Full time
Arquitecto y Administrador Cloud Senior (AWS/GCP)
  • Factor IT
SQL NoSQL Continuous Integration Virtualization
En FactorIT, somos líderes en tecnología y soluciones en Data y Analytics, Transformación Digital e Inteligencia Artificial. Con presencia en 8 países en Latinoamérica, brindamos la oportunidad de trabajar en proyectos regionales que transforman grandes empresas. Buscamos incorporar a un Arquitecto y Administrador Cloud Senior que juegue un rol clave en nuestros proyectos de infraestructura multi-nube, especialmente en AWS y GCP, asegurando soluciones de alta disponibilidad y optimización de costos.

Responsabilidades Principales:

  • Diseñar y desarrollar arquitecturas cloud escalables siguiendo mejores prácticas y patrones de diseño.
  • Implementar y mantener infraestructura como código (IaC) utilizando Terraform, CloudFormation o herramientas similares.
  • Gestionar y optimizar servicios cloud en AWS y GCP.
  • Desarrollar estrategias de seguridad, cumplimiento y gobernanza dentro de la nube.
  • Liderar la automatización de procesos de infraestructura y despliegue.
  • Supervisar costos y optimizar recursos cloud para garantizar eficiencia.

Requisitos Técnicos:

  • Certificaciones requeridas: AWS: Solutions Architect Professional o Advanced, GCP: Professional Cloud Architect.
  • Experiencia comprobable (2+ años) en: AWS (EC2, S3, RDS, Lambda, VPC, EKS) y GCP (Compute Engine, Cloud Storage, Cloud SQL, Cloud Functions, GKE).
  • Contenedores y orquestación: Docker, Kubernetes.
  • IaC y automatización: Terraform, Ansible, CloudFormation.
  • CI/CD: Jenkins, GitLab CI, GitHub Actions.
Habilidades Adicionales:
  • Sólida comprensión de redes, seguridad y protocolos de comunicación.
  • Experiencia en microservicios y arquitecturas distribuidas.
  • Conocimientos de bases de datos SQL y NoSQL.
  • Capacidad para estimar costos y optimizar gastos en la nube.
  • Inglés avanzado (lectura y escritura).
Competencias Blandas:
  • Excelentes habilidades de comunicación y documentación.
  • Capacidad de liderazgo técnico y mentoría.
  • Pensamiento analítico y resolución de problemas complejos.
  • Habilidad para trabajar con múltiples equipos y stakeholders.

Experiencia Deseable:

  • Participación en proyectos de migración a la nube a gran escala.
  • Experiencia en implementación de soluciones híbridas.
  • Conocimientos de metodologías ágiles.
  • Experiencia en arquitecturas serverless y event-driven.

Beneficios:

En FactorIT, promovemos un ambiente laboral colaborativo y orientado al aprendizaje continuo. Además de un contrato indefinido, brindamos flexibilidad laboral con opciones de trabajo remoto, híbrido o presencial. Valoramos el equilibrio entre la vida personal y laboral, ofreciendo oportunidades de crecimiento profesional en un entorno inclusivo y diverso. Únete a nuestro equipo y transforma el futuro de la tecnología con nosotros 🚀!

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Factor IT provides a computer for your work.
APPLY VIA WEB
$$$ Full time
Ingeniero de Operaciones TI
  • Usercode SpA
Python Node.js Linux DevOps

Usercode es una empresa tecnológica especializada en el desarrollo de software para instituciones públicas y organizaciones privadas. Nuestro foco son las tecnologías Cloud, la automatización y digitalización de procesos.

Trabajamos 100% remoto, nuestro equipo está en distintas regiones de Chile, México y Perú. Para comunicarnos y trabajar utilizamos Slack, Meet Hangout y Monday.

La necesidad actual:

El volumen del negocio de Usercode está creciendo por la vía de incorporar una mayor cantidad y tipo de proyectos de desarrollo, por un lado, y por otro lado, abriendo líneas de negocio relacionadas, como mantenimiento de infraestructura, y ampliando la cartera de clientes hacia el mercado privado.

Para lograr el éxito en este proceso es clave contar con un equipo de desarrollo capaz, autónomo, responsable, con experiencia, preparado técnicamente, con profundos conocimientos en una serie de herramientas específica, capaz de aprender y adquirir el uso herramientas nuevas.

Funciones del cargo

Para el puesto de Ingeniero de Operaciones TI con un enfoque en servicios cloud y DevOps, debe tener conocimiento en las siguientes características técnicas:

Configuración de máquinas virtuales en entornos Linux (obligatorio): Habilidad para instalar, configurar y mantener sistemas basados en Linux. Experiencia en la administración de servidores, optimización de rendimiento y seguridad de sistemas Linux.

Configuración de servicios web y de aplicaciones (obligatorio): Experiencia en la configuración y administración de servidores web y aplicaciones como Apache, Nginx, y Tomcat. Capacidad para implementar y gestionar procesos con gestores como PM2 para aplicaciones Node.js.

Seguridad de sistemas y redes (obligatorio): Conocimiento en la implementación de políticas de seguridad, gestión de accesos y configuración de firewalls y otros mecanismos de seguridad en entornos cloud y on-premise.

Monitoreo y logística (obligatorio): Experiencia en la configuración de herramientas de monitoreo y logística para garantizar la visibilidad y el rendimiento operativo, utilizando herramientas como Prometheus, Grafana, ELK Stack, etc.

Creación, mantención e implementación de productos digitales como plataformas web, aplicaciones móviles y/o sitios web.

El ingeniero de operaciones TI trabajará en el área de desarrollo de software junto con los demás desarrolladores, arquitecto de software, líder técnico y jefe de proyecto. Los proyectos serán mayoritariamente plataformas web para instituciones públicas o privadas donde debe levantar los diferentes ambientes, configurarlos, asegurar la seguridad, levantar y configurar los servicios necesarios para el correcto funcionamiento de las plataformas web y/o APIs.

Requerimientos del cargo

Requisitos técnicos:

Estamos en búsqueda de un Ingeniero de Operaciones TI, con un enfoque decidido hacia la gestión y optimización de servicios en la nube y prácticas DevOps. Esperamos que el candidato ideal tenga experiencia robusta en la implementación y manejo de ambientes cloud, utilizando herramientas modernas de CI/CD como Jenkins, y que posea habilidades sólidas en la configuración y administración de ambientes de desarrollo, prueba y producción.

El rol implica responsabilidades clave como la configuración de bases de datos y la garantía de su rendimiento óptimo, la implementación de soluciones escalables y la administración de infraestructura como código. Es fundamental que el candidato tenga la capacidad de colaborar estrechamente con equipos de desarrollo para facilitar despliegues rápidos y seguros, y asegurar la alta disponibilidad y resiliencia de los sistemas.

Buscamos a alguien que no solo se encargue de mantener la infraestructura existente, sino que también proponga y ejecute mejoras continuas, aplicando las mejores prácticas de seguridad y optimización de costos en entornos cloud.

Experiencia excluyente:

  • Configuración de máquinas virtuales en entornos Linux.
  • Configuración de servicios web y de aplicaciones.
  • Seguridad de sistemas y redes.
  • Monitoreo y logística.

Comportamiento esperado:

Lo que buscamos en ti:

  • Proactividad
  • Trabajo en equipo
  • Autonomía
  • Orientado a objetivos y resultados

Características personales:

  • Autonomía
  • Cumplimiento
  • Buenas habilidades de comunicación oral y escrita incluyendo comprensión lectora
  • Saber escuchar, atención
  • Ser respetuoso
  • Disposición a colaborar con el equipo
  • Responsable de sus tareas proyectos trabajos

Conocimientos deseables

Conocimiento en servicios AWS: Configuración y gestión de servicios clave de AWS como EC2, S3, RDS, ECS, Lambda, y VPC. Familiaridad con AWS CloudFormation o Terraform.

Gestión de bases de datos: Configuración, optimización y mantenimiento de sistemas de bases de datos. Experiencia en tareas como la configuración de replicación, backups automatizados y tuning de rendimiento.

Configuración y manejo de contenedores: Experiencia en uso de Docker para la creación y gestión de contenedores.

Orquestación con Kubernetes: Capacidad para implementar, configurar y manejar clústeres de Kubernetes.

Implementación y configuración de herramientas de CI/CD: Experiencia en la configuración y uso de Jenkins para la integración y entrega continua. Capacidad para diseñar pipelines de CI/CD.

Automatización y scripting: Habilidad en scripting con Bash, Python, o similar para la automatización de tareas administrativas y de despliegue.

Condiciones

Este puesto ofrece la flexibilidad de un entorno de trabajo remoto, sin embargo, según las necesidades específicas de nuestros clientes, puede haber ocasiones en las que se requiera tu presencia en un lugar de trabajo presencial.

  • Días extra de vacaciones.
  • Días libres 3x5, día libre por cumpleaños, cambio de domicilio, muerte de mascota
  • Pago de certificaciones seleccionadas
  • Pausa activa colaborativa
  • Aguinaldo

APPLY VIA WEB
$$$ Full time
Ingeniero de Operaciones TI
  • Usercode SpA
Python MySQL Linux DevOps

Usercode es una empresa tecnológica especializada en el desarrollo de software para instituciones públicas y organizaciones privadas. Nuestro foco son las tecnologías Cloud, la automatización y digitalización de procesos.

Trabajamos 100% remoto, nuestro equipo está en distintas regiones de Chile, México y Perú. Para comunicarnos y trabajar utilizamos Slack, Meet Hangout y Monday.

La necesidad actual:
El volumen del negocio de Usercode está creciendo por la vía de incorporar una mayor cantidad y tipo de proyectos de desarrollo, por un lado, y por otro lado, abriendo líneas de negocio relacionadas, como mantenimiento de infraestructura, y ampliando la cartera de clientes hacia el mercado privado.

Para lograr el éxito en este proceso es clave contar con un equipo de desarrollo capaz, autónomo, responsable, con experiencia, preparado técnicamente, con profundos conocimientos en una serie de herramientas específica, capaz de aprender y adquirir el uso herramientas nuevas.

Funciones del cargo

Configuración de máquinas virtuales en entornos Linux (obligatorio): Habilidad para instalar, configurar y mantener sistemas basados en Linux. Experiencia en la administración de servidores, optimización de rendimiento y seguridad de sistemas Linux.

Configuración de servicios web y de aplicaciones (obligatorio): Experiencia en la configuración y administración de servidores web y aplicaciones como Apache, Nginx, y Tomcat. Capacidad para implementar y gestionar procesos con gestores como PM2 para aplicaciones Node.js.

Seguridad de sistemas y redes (obligatorio): Conocimiento en la implementación de políticas de seguridad, gestión de accesos y configuración de firewalls y otros mecanismos de seguridad en entornos cloud y on-premise.

Monitoreo y logística (obligatorio): Experiencia en la configuración de herramientas de monitoreo y logística para garantizar la visibilidad y el rendimiento operativo, utilizando herramientas como Prometheus, Grafana, ELK Stack, etc.

Requerimientos del cargo

Enfoque decidido hacia la gestión y optimización de servicios en la nube y prácticas DevOps. Esperamos que el candidato ideal tenga experiencia robusta en la implementación y manejo de ambientes cloud, utilizando herramientas modernas de CI/CD como Jenkins, y que posea habilidades sólidas en la configuración y administración de ambientes de desarrollo, prueba y producción.

El rol implica responsabilidades clave como la configuración de bases de datos y la garantía de su rendimiento óptimo, la implementación de soluciones escalables y la administración de infraestructura como código. Es fundamental que el candidato tenga la capacidad de colaborar estrechamente con equipos de desarrollo para facilitar despliegues rápidos y seguros, y asegurar la alta disponibilidad y resiliencia de los sistemas.

Buscamos a alguien que no solo se encargue de mantener la infraestructura existente, sino que también proponga y ejecute mejoras continuas, aplicando las mejores prácticas de seguridad y optimización de costos en entornos cloud.

El candidato ideal debe ser proactivo, trabajar bien en equipo, y manejar habilidades de comunicación efectivas. Se valoran personas con orientación a resultados, autonomía, y un enfoque en la mejora continua.

Experiencia excluyente:

  • Configuración de máquinas virtuales en entornos Linux.
  • Configuración de servicios web y de aplicaciones.
  • Seguridad de sistemas y redes.
  • Monitoreo y logística.

Comportamiento esperado:

Lo que buscamos en ti:

  • Proactividad
  • Trabajo en equipo
  • Autonomía
  • Orientado a objetivos y resultados

Características personales:

  • Autonomía
  • Cumplimiento
  • Buenas habilidades de comunicación oral y escrita incluyendo comprensión lectora
  • Saber escuchar, atención
  • Ser respetuoso
  • Disposición a colaborar con el equipo
  • Responsable de sus tareas proyectos trabajos

Opcionales

Conocimiento en servicios AWS: Experiencia en la configuración y gestión de servicios clave de AWS como EC2, S3, RDS, ECS, Lambda, y VPC. Familiaridad con AWS CloudFormation o Terraform.

Gestión de bases de datos: Sólidos conocimientos en la configuración, optimización y mantenimiento de sistemas de bases de datos como MySQL y SQL Server. Experiencia en tareas como la configuración de replicación, backups automatizados y tuning de rendimiento.

Configuración y manejo de contenedores: Experiencia en el uso de Docker para la creación y gestión de contenedores.

Orquestación con Kubernetes : Capacidad para implementar, configurar y manejar clústeres de Kubernetes, optimizando la automatización y escalabilidad de aplicaciones en producción.

Implementación y configuración de herramientas de CI/CD: Experiencia en la configuración y uso de Jenkins para la integración y entrega continua.

Automatización y scripting: Habilidad en scripting con Bash, Python, o similar.

Beneficios

Este puesto ofrece la flexibilidad de un entorno de trabajo remoto, sin embargo, según las necesidades específicas de nuestros clientes, puede haber ocasiones en las que se requiera tu presencia en un lugar de trabajo presencial.

  • Días extra de vacaciones.
  • Días libres 3x5, día libre por cumpleaños, cambio de domicilio, muerte de mascota
  • Pago de certificaciones seleccionadas
  • Pausa activa colaborativa
  • Aguinaldo

APPLY VIA WEB
Gross salary $2000 - 2500 Full time
Systems Engineer
  • Mediastream
  • Bogotá &nbsp Santiago &nbsp São Paulo (Hybrid)
Ruby Python Linux Web server
Company Description
Mediastream is a leading streaming technology company that has been in business for over 16 years. We collaborate with major companies and broadcasters around the world to offer a quality end-to-end solution for content administration, distribution, audiovisual production, and user experience. Our goal is to connect our customers with their audience in a simple and effective way, creating new revenue streams for their businesses.
Role Description
This is a hybrid role for a Systems Engineer. This role will be responsible for designing, implementing and maintaining Mediastream's content delivery network (CDN) infrastructure and services, ensuring fast, secure, robust and scalable access to our digital services for our customers. customers. users around the world, with a focus on video encoding and transcoding.

Responsibilities

  • Design, configure, and optimize the CDN infrastructure to enhance content delivery speed and security.
  • Continuously monitor CDN performance, identify bottlenecks, and make adjustments to ensure operational continuity and speed.
  • Rotate on-call shifts and synchronously monitor high-concurrency streaming events.
  • Implement robust security measures to safeguard the CDN against threats, including DDoS attacks or others.
  • Collaborate closely with application development and cybersecurity teams to ensure efficient integration of the CDN and the implementation of security policies.
  • Work collaboratively with development and content teams to ensure that content is optimized for delivery through the CDN.
  • Research and evaluate new technologies, trends, and best practices in the CDN solutions domain, and subsequently propose, agree upon, implement, document, and provide training as necessary.

Minimum requirements

  • Operating Systems Linux Server (Ubuntu, Debian, CentOS, etc.): Exceptional
  • Network Infrastructure Management and Support (BGP, HTTP, DNS, DHCP, NTP, TCP/IP, FTP, Firewalls, among others): Advanced
  • Application and Network Monitoring Tools (Desirable: Datadog): Intermediate
  • Scripting Programming in BASH, RUBY, PYTHON, or others: Intermediate
  • Webserver Administration (Nginx): Exceptional
  • AWS Amazon CloudFront & Route 53: Intermediate
  • Video encoding and transcoding: Exceptional
  • Bachelor's degree in Computer Engineering, Systems, Networks, or related field
  • Additional Certifications: Cloud, Cisco, Linux, Networking, Nginx, Docker
  • Other: Streaming Technologies

APPLY VIA WEB
Gross salary $2500 - 2900 Full time
DevOps Latam
  • BC Tecnología
DevOps Virtualization Amazon Web Services Cloud Computing

Somos BC Tecnología, creamos equipos de trabajos y células ágiles para las principales empresas de Chile con presencia global en servicios financieros, seguros, retail y gobierno.

Buscamos profesionales con alta capacidad de Análisis y síntesis, proactivos, flexibles, ordenados, enfocados en el trabajo de equipo, comprometidos y responsables.

Somos una organización que ofrece una variedad de servicios financieros de excelencia con el fin de permitir a nuestros clientes satisfacer sus necesidades de prosperidad familiar y seguridad patrimonial. Nuestra misión es crear valor para nuestros accionistas, construyendo relaciones de confianza con quienes interactuamos día a día, cumpliendo así nuestro rol de ser un buen ciudadano empresarial.

Ofrecemos además las condiciones necesarias para que las personas en nuestra organización desarrollen todo su potencial en un ambiente laboral desafiante y de respeto a los valores que consideramos importantes y profesamos.

Funciones del cargo

DevOps especializado en la gestión de servicios en la nube, automatización, y mantenimiento de sistemas. Este profesional es responsable de la implementación, mantenimiento y optimización de infraestructuras basadas en la nube, asegurando la escalabilidad, seguridad y eficiencia de los entornos.
Buen entendimiento del contexto de red y seguridad en entornos en la nube.

Requerimientos del cargo

Buen manejo de la gestión y mantenimiento de servicios de AWS.

Experiencia sólida con AirFlow.

Experiencia con AWS EKS.

Gestión de instancias y tableros de Grafana.

Buen manejo de la infraestructura como código.

Experiencia con CI/CD en cualquier tecnología.

Buenas prácticas de control de versiones de código (cualquiera como GitLab, Bitbucket, GitHub,

Opcionales

Buen manejo de la gestión y mantenimiento de servicios en GCP.

Experiencia con pipelines de GitLab (GitLab pipeline + GitLab Runner + GitLab Ops + Flux CD).

Se busca un recurso a nivel SC, capaz de trabajar de manera independiente en despliegues y colaborar con el equipo de HIMS.

Condiciones

  • Contrato 3 a 6 meses, con posibilidad de extensión.
  • Modalidad trabajo: Home Office (LATAM)

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
Gross salary $1500 - 1900 Full time
DevOps AWS Junior
  • BC Tecnología
  • Santiago (Hybrid)
DevOps Virtualization Amazon Web Services Kubernetes

El Banco BICE es una entidad financiera bancaria chilena, fundada el 2 de mayo de 1979 por un grupo de empresas industriales chilenas, como CMPC S.A., Minera Valparaíso S.A., Compañía Industrial El Volcán S.A., y otras empresas de los sectores forestal, de generación eléctrica e inmobiliario.

Somos BC Tecnología, creamos equipos de trabajos y células ágiles para las principales empresas de Chile con presencia global en servicios financieros, seguros, retail y gobierno.

Buscamos profesionales con alta capacidad de Análisis y síntesis, proactivos, flexibles, ordenados, enfocados en el trabajo de equipo, comprometidos y responsables.

Funciones del cargo

1. Automatización de Despliegues**: Crear y mantener pipelines CI/CD en GitLab o GitHub para automatizar el build, pruebas y despliegue de aplicaciones en entornos Kubernetes.

2. Gestión de Clústeres Kubernetes**: Configurar, monitorear y escalar clústeres en Kubernetes para asegurar la alta disponibilidad y rendimiento de aplicaciones.

3. Monitoreo y Log Management**: Implementar y administrar ELK Stack para centralizar logs y crear dashboards que permitan detectar problemas en tiempo real.

4. Infraestructura como Código (IaC)**: Usar herramientas como Terraform o CloudFormation para definir, versionar y desplegar infraestructuras en AWS de manera automatizada y repetible.

5. Seguridad y Compliance**: Gestionar permisos, políticas de seguridad y acceso en AWS y Kubernetes, asegurando el cumplimiento de estándares de seguridad.

Requerimientos del cargo

Al menos 1 años de experiencia como Devops, utilizando las siguientes tecnologías / herramientas

  • Usar herramientas como Terraform o CloudFormation para definir, versionar y desplegar infraestructuras en AWS de manera automatizada y repetible.
  • Implementar y administrar ELK Stack
  • Gestión de Clústeres Kubernetes
  • Lambda
  • GitLab
  • GitHut ​​​​​​​

Opcionales

  • Contrato por proyecto estimado a 4 meses
  • Metodología de trabajo: Hibrido 2 días en la oficina (providencia)
  • Disponibilidad lunes a viernes 8:30 a 18:30h
  • Salario a convenir
  • Seguro complementario Salud (Gratis para el trabajador)
    Seguro de Vida
  • Amipass $4.500 diario

APPLY VIA WEB
Net salary $1000 - 1400 Full time
Analista QA
  • Defontana
  • Santiago (Hybrid)
QA ERP AWS

¿Te gusta trabajar con las últimas tecnologías? ¿Te consideras innovador y quieres participar proyectos de modernización de plataformas? Si tu respuesta es SÍ, este desafío es para ti. En Defontana buscamos nuevos talentos para formar parte de nuestros proyectos y construir en conjunto las mejores soluciones empresariales del mercado.

DEFONTANA ofrece soluciones empresariales 100% WEB, siendo la empresa líder del mercado latinoamericano en la implementación de software ERP.

Buscamos ofrecer grato ambiente laboral, compañerismo, conocimiento y desafíos, todos los ingredientes necesarios para hacer de tu día a día en Defontana algo interesante, algo diferente y que crezcas profesionalmente.

En el área de desarrollo de DEFONTANA estamos embarcados en una serie de proyectos que buscan expandir las funcionalidades disponibles para nuestros clientes, intentando generar un ecosistema que les entregue todo lo que necesitan para administrar con éxito sus empresas.

Funciones del cargo

Ser parte de la gestión de calidad de los productos asignados para realización de QA: diseño y ejecución integral de pruebas sobre el ERP Defontana según las necesidades de sus productos. Todas ellas creadas con el objetivo de detección temprana de errores durante el proceso de desarrollo.

Se busca en específico un analista QA que trabaje directamente con el equipo encargado de la Transformación Digital de la compañia, el cual esta compuesto por 2 celulas, siendo el responsable el Gerente del área misma (Gerencia de Transformación Digital), quien sera ademas jefatura directa de quien postule al cargo.
Alguna de las tareas que se deben desempeñar son las sgtes :

  • Realizar planes de pruebas
  • Ejecutar testing de productos
  • Simular ejecuciones de productos y su rendimiento
  • Evaluar exhaustivamente los resultados
  • Revisar especificaciones de servicios y productos
  • Asegurar un funcionamiento óptimo del software
  • Potenciar las estrategias de prueba

Requerimientos del cargo

Para este cargo se debe tener conocimiento o el perfil apropiado en algunos temas, tales como:

  • Tener y aplicar conocimiento sobre las distintas tipos de pruebas
  • Documentación de procesos.
  • Proponer soluciones a diferentes errores que se encuentren, de manera de no tan solo realizar pruebas, sino que aportar en las soluciones de las mismas.

Opcionales

Deseables:

  • Conocimiento en desarrollo de software: ciclos de vida, desarrollo ágil, etc.
  • Conocimientos básicos en AWS.

Condiciones

- Bono trimestral, según resultados de la empresa y antigüedad.
- Se entrega computador de trabajo.
- Trabajo remoto dos días a la semana.

APPLY VIA WEB
Gross salary $1400 - 1900 Full time
Consultor Data Engineer
  • MAS Analytics
  • Santiago (Hybrid)
SQL Azure ETL Power BI

MAS Analytics es una consultora de datos e inteligencia artificail que nos dedicamos a desarrollar proyectos de Data Science (DS), Inteligencia Artificial, Cloud Architecture y Business Intelligence (BI). Hoy en día tenemos muchos proyectos con clientes de muchos rubros distintos y necesitamos ingeniero/as apasionados que estén buscando aprender y desafiarse trabajando en equipo.

Si estás buscando profundizar y trabajar aplicando tus conocimientos día a día, dentro de un equipo de mucho talento, y alto rendimiento, este puesto es lo que estás buscando.

Funciones del cargo

Estamos buscando ingenier@s que sepan trabajar con datos, mover datos, interpretar datos y buscar datos. El cargo está orientado hacia la ingeniería de datos utilizando herramienta de ETL, Bases de datos y herramientas de reportería.

Si no manejas alguno de estos conceptos, no te preocupes, nos importa que tengas las bases para poder aprender y desafiarte día a día.

Tendrás que realizar las siguientes tareas (entre otras):

  1. Reuniones de negocio con clientes
  2. Creación de queries SQL
  3. Creación de pipelines ETL (on premise y cloud)
  4. Creación de visualizaciones en herramientas de BI

El éxito de tu trabajo se evaluará en el nivel de satisfacción de los modelos entregados a los clientes y en el cumplimiento de plazos.

Trabajarás dentro de los equipos de desarrollo de MAS Analytics teniendo reuniones de avance semanal con los clientes y otros miembros del equipo de MAS Analytics.

Requerimientos del cargo

Al ser consultoría en tecnología, necesitamos que tengas habilidades técnicas y habilidades blandas. Se privilegiarán perfiles de ingeniería civil TI o Computación.
En cuanto a las habilidades técnicas, se espera que puedas trabajar con las siguientes herramientas:
  1. Queries SQL (CRUD)
  2. Procesamiento: Dataflow (GCP, Azure), Lambda, Glue (AWS)
  3. Visualizaciones: Qlik, Tableau, Power BI
  4. Modelamiento de datos: modelos dimensionales OLAP
Con respecto a las habilidades blandas, necesitamos que estés preparada/o para:
  1. Llevar comunicación con los clientes
  2. Levantar requerimientos
  3. Trabajo en equipo
  4. Proactividad
  5. Pensamiento analítico

Opcionales

Conocimientos en herramientas Cloud (GCP, AWS, Azure)

Algunos beneficios

  1. Horario flexible
  2. Financiamiento de cursos y certificaciones 👨‍🎓👩‍🎓
  3. Ambiente laboral joven
  4. Viernes medio día
  5. Vacaciones extra 🌞🏝
  6. Celebraciones de cumpleaños 🎁🎊
  7. Actividades de empresa 🍻⚽
  8. Y muchos más que podrás conocer…

Wellness program MAS Analytics offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage MAS Analytics pays or copays health insurance for employees.
Dental insurance MAS Analytics pays or copays dental insurance for employees.
Computer provided MAS Analytics provides a computer for your work.
Education stipend MAS Analytics covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Vacation over legal MAS Analytics gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Data Engineer Spark y AWS / Santiago Chile
  • Dynamic Devs
  • Santiago (Hybrid)
Python Git SQL Big Data

Somos una empresa de servicios de tecnología que busca proyectos de alto impacto haciendo de la innovación y transformación digital parte de diferentes empresas principalmente transnacionales latinoamericanas de diversos sectores económicos como retail, seguros, distribución de equipos médicos, banca y productos digitales masivos utilizados por los consumidores. en todo el continente

Somos partidarios de la excelencia técnica, DevOps, Entrega Continua e Integración Continua, conformando equipos de alto desempeño en proyectos desafiantes, orientados al crecimiento e implementación de nuevas tecnologías. Más importante aún, ofrecemos un entorno colaborativo y multicultural donde puedes aprender, disfrutar y crecer como profesional.

📢 En Dynamic Devs, estamos en la búsqueda de un Data Engineer con experiencia en procesamiento de datos a gran escala y un sólido conocimiento en PySpark, AWS EMR y Glue.

Funciones del cargo

✅ Diseñar, desarrollar y optimizar pipelines de datos utilizando PySpark, AWS EMR y Glue.
✅ Procesar grandes volúmenes de datos en entornos distribuidos y escalables.
✅ Implementar y mantener soluciones de integración y transformación de datos en la nube ☁️.
✅ Monitorear y optimizar el rendimiento de las soluciones de datos.
✅ Garantizar la seguridad y gobernanza de los datos en el ecosistema AWS.
✅ Integrar datos desde múltiples fuentes y asegurar su correcta transformación y almacenamiento.

Requerimientos del cargo

🎓 Experiencia mínima de 2 años en Databricks o AWS EMR.
🛠️ Conocimientos sólidos en SQL y modelado de datos.
⚙️Conocimientos en otras herramientas de AWS como: S3, Redshift, Athena, Glue o Lambda.
🐍 Desarrollo en Python aplicado a procesamiento de datos.
📊 Conocimientos en frameworks de Big Data y optimización de rendimiento en entornos distribuidos.
🔗 Experiencia en Git.
📍 Disponibilidad para asistir 3 días a la semana de forma presencial a la oficina del cliente ubicada en Santiago - Chile (modalidad híbrida, requisito excluyente).

Condiciones

💻 Beneficio Bring Your Own Device (A partir del 4to mes trabajando con nosotros, podrás adquirir un computador propio)
⌚ Horario flexible 🕒
🚀 Haz un impacto. Trabaja en proyectos desafiantes
📚 IT Training: acceso a más de 500 cursos actualizados cada semana 📖
🎤 Dev Talks: conferencias exclusivas con expertos del sector
🎉 Día especial: 🎂 ¡Día libre por cumpleaños!
👥 Trabaja en un equipo talentoso y multicultural usando tecnología increíble
🎙️ Escucha nuestro podcast aquí: 🔗 Escuchar Podcast
🌐 Visítanos en nuestra web: 🔗 Dynamic Devs

Internal talks Dynamic Devs offers space for internal talks or presentations during working hours.
Partially remote You can work from your home some days a week.
Computer provided Dynamic Devs provides a computer for your work.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Científica/o de Datos
  • Macal
  • Santiago (Hybrid)
Python Data Analysis SQL Machine Learning

Macal es una empresa tecnológica y Data Driven con 40 años de experiencia, reconocida por su innovación constante y su modelo disruptivo en el sector de compra y venta online de autos y propiedades. Actualmente, el equipo de Data de Macal se enfoca en crear y optimizar modelos descriptivos y predictivos que sustentan nuestra propuesta de valor y ventaja competitiva.

Responsabilidades principales

Como Científico de Datos con especial foco estadístico, nuestro profesional será responsable de desarrollar modelos predictivos avanzados que optimicen el sistema de subastas en la plataforma. Esto incluye el análisis estadístico profundo, diseño, validación y mejora continua de algoritmos predictivos para garantizar el máximo rendimiento del marketplace. Además, colaborará con equipos multidisciplinarios para transformar datos en información accionable que permita tomar decisiones fundamentadas y estratégicas.

Otras funciones esenciales incluyen:

  • Recolectar, limpiar y preparar grandes volúmenes de datos relevantes para los modelos.
  • Implementar técnicas estadísticas y de machine learning para la generación de predicciones precisas.
  • Realizar experimentos y pruebas para validar la efectividad de los modelos.
  • Documentar procesos y resultados para asegurar la replicabilidad y transparencia.
  • Comunicar hallazgos a stakeholders técnicos y no técnicos de manera clara y precisa.

Perfil y requisitos

Buscamos un profesional con sólida formación en Estadística, Matemáticas, Ingeniería en Computación o campos afines, que cuente con experiencia concreta en modelado predictivo y análisis estadístico avanzado aplicado en entornos reales. Es imprescindible poseer habilidades en programación orientada a análisis de datos, dominio de herramientas y lenguajes como Python, R, SQL, y experiencia con bibliotecas especializadas para machine learning y estadística.

Además de competencias técnicas, valoramos una mentalidad curiosa e innovadora, con capacidad de análisis crítico y enfoque en resultados basados en datos. La comunicación efectiva, el trabajo colaborativo y la orientación al cliente final son también aspectos clave para integrarse adecuadamente en nuestro equipo y en la cultura organizacional de Macal.

Habilidades y conocimientos deseables

Será altamente valorado el conocimiento en metodologías ágiles de desarrollo, experiencia previa en proyectos de subastas o comercio electrónico, y manejo de plataformas de nube para procesamiento de datos como AWS o Google Cloud. También suman puntos las certificaciones en ciencia de datos y estadística aplicada, así como el interés por seguir innovando permanentemente y adaptarse a un ambiente dinámico y colaborativo.

Beneficios y cultura

  • Sistema híbrido y flexible que promueve el equilibrio entre vida laboral y personal.
  • 3 días libres adicionales al año complementan las vacaciones para mayor descanso.
  • Seguro complementario para cuidar tu salud y bienestar.
  • Acceso a programa anual de bonos basado en cumplimiento de resultados, incentivando el crecimiento profesional y económico.

Formar parte de Macal significa integrarse a un ambiente cercano, colaborativo y feliz, donde el talento y la innovación son el motor para crecer y lograr objetivos a través del análisis de datos y la tecnología. Buscamos personas que se sumen con entusiasmo y visión para transformar juntos la industria y la experiencia de nuestros clientes.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Macal pays or copays health insurance for employees.
Computer provided Macal provides a computer for your work.
Informal dress code No dress code is enforced.
APPLY VIA WEB
$$$ Full time
Data Scientist
  • ARKHO
Python SQL Machine Learning Deep Learning

ARKHO es una consultora experta en tecnologías de la información, que ofrece servicios expertos de TI en el marco de modernización de aplicaciones, analítica de datos, IA y migración a la nube. Nuestro trabajo facilita y acelera la adopción de la cloud en múltiples industrias.

Nos destacamos por ser Partner Advanced de Amazon Web Services con foco estratégico en la generación de soluciones usando tecnología en la nube, somos obsesionados por lograr los objetivos propuestos y tenemos especial énfasis en el grupo humano que compone ARKHO (nuestros Archers), reconociendo a nuestro equipo como un componente vital para el logro de los resultados.
¿Te motivas? ¡Te esperamos!

Funciones

Estamos en busqueda de un Data Scientist con por lo menos dos años de experiencia, para incorporarse a nuestro equipo ágil para diversos proyectos Data Analytics. Será el encargado de velar por soluciones integrales para las problemáticas de cada uno de los clientes y proyectos en los cuales se desenvuelva junto al equipo.
Dentro de sus actividades principales se encuentran:
  • Comprender el contexto de negocio del cliente, desde la bajada comercial, indicadores claves que se busca potenciar, fuentes de datos y cómo sacar el mayor provecho de esta data para potenciar los resultados.
  • Analizar datos de alta complejidad utilizando técnicas de análisis estadístico, aprendizaje automático.
  • Acompañar y orientar al cliente respecto a diversas alternativas de solución.
  • Todos nuestros proyectos nos desafían a desplegar productos y servicios más rápidos, seguros, escalables y robustos en la nube.
Nos gusta conformar equipos colaborativos y auto-gestionados, por lo que las habilidades de comunicación y responsabilidad son muy importantes. ¡Buscamos profesionales de excelencia e íntegros dentro y fuera de la cancha!

Perfil del rol

En nuestra compañía valoramos a las personas autosuficientes, proactivas e innovadoras. Debes ser capaz de organizar tu propia carga de trabajo, tomar decisiones, cumpliendo los plazos y objetivos.
En tu carrera profesional deberías contar al menos con:
  • Experiencia mínima de 3 años en roles similares.
  • Técnicas de machine learning (Clustering, PCA, regresión logística, etc) y Deep Learning.
  • Desarrollo e implementación de modelos de IA utilizando embeddings y Large Language Models (LLMs)
  • Dominio de lenguajes de programación: Structured Query Language (SQL) y Python.
  • Experiencia con AWS cloud (SageMaker, S3, Lambda, bedrock).
  • Manejo de librerías: Pandas, Sklearn, Numpy, Matplotlib.
  • Ser graduado de Ingeniería de sistemas, Ingeniería matemática o afín.

Habilidades opcionales

  • Idioma inglés nivel intermedio

Beneficios del Archer

  • Día administrativo semestral hasta los 12 meses
  • Week off: 5 días de vacaciones extra
  • ¡Celebra tu cumpleaños!
  • Path de entrenamiento
  • Certificaciones AWS
  • Aguinaldos Fiestas Patrias y Navidad
  • Seguro complementario (sólo para Chile)
  • Flexibilidad (trabajo híbrido o remoto)
  • Regalo por casamiento + 5 días hábiles libres
  • Regalo por nacimiento de hijos
  • Kit escolar
  • Beneficio paternidad + 10 días (5 días adicionales a la Ley Chilena)
  • Bonda (Workshops de temáticas diversas, Wellness y descuentos en locales comerciales)

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
Vacation over legal ARKHO gives you paid vacations over the legal minimum.
APPLY VIA WEB
$$$ Full time
Data Engineer
  • ARKHO
Python Git SQL NoSQL

ARKHO es una consultora experta en tecnologías de la información, que ofrece servicios expertos de TI en el marco de modernización de aplicaciones, analítica de datos y migración a la nube. Nuestro trabajo facilita y acelera la adopción de la cloud en múltiples industrias.

Nos destacamos por ser Partner Advanced de Amazon Web Services con foco estratégico en la generación de soluciones usando tecnología en la nube, somos obsesionados por lograr los objetivos propuestos y tenemos especial énfasis en el grupo humano que compone ARKHO (nuestros Archers), reconociendo a las personas y equipo como un componente vital para el logro de los resultados.

¿Te motivas? ¡Te esperamos!

Funciones

Estamos en busca de un o una profesional con experiencia en el desarrollo de pipelines de analytics, con una visión en la arquitectura de datos End to End, que logre aplicar sus conocimientos técnicos en la ejecución de proyectos tecnológicos. La vacante considera que el o la aspirante sea un referente orientando a la mejora continua y el cumplimiento de los objetivos y la creación de productos tecnológicos de alta calidad. Para ello, la experiencia en el uso de diversas herramientas, lenguajes de programación, infraestructura y otros, son la base para apoyar desde el conocimiento al equipo de desarrollo, participando en el desarrollo de entregables de alto impacto y calidad.

  • Trabajar de forma integrada y colaborativa con el líder de equipo, y el equipo de implementación proporcionando un contexto claro del estado de las iniciativas desde el ámbito tecnológico.
  • Apoyar al equipo en la definición, estimación y planificación de tareas/actividades para el desarrollo de productos de analítica en el marco ágil del desarrollo.
  • Gobernar técnicamente la solución con el cliente, participando activamente de decisiones claves y proporcionando información relevante en el aspecto técnico.
  • Trabajar con los integrantes del equipo en el diseño e implementación de arquitecturas de soluciones de analítica de datos en la nube y para la solución completa.
  • Involucramiento en el modelado de los datos, generando modelos analíticos corporativos.
  • Profundización en aspectos tecnológicos desconocidos y que se requieren para el logro de los objetivos.

Perfil del archer

En nuestra compañía valoramos a las personas auto-gestionadas, proactivas e innovadoras. Debes ser capaz de organizar tu propia carga de trabajo, tomar decisiones, cumpliendo tus plazos y objetivos. Buscamos personas con:

  • Experiencia relevante en Python con datos.
  • Dominio de SQL y bases de datos no relacionales.
  • Conocimiento en tecnologías de ETL.
  • Capacidades de documentación de negocio y tecnológica.
  • Desarrollo de APIs.
  • Experiencia en AWS cloud.
  • Experiencia en proyectos BI y modelando bases de datos para Data Warehouse (Estrella, Copo de nieve).
  • Habilidades de priorización de requerimientos y resultados de negocio.

Habilidades opcionales

Si posees experiencia en algunas de las tecnologías a continuación es un plus:

  • Conocimiento de Machine Learning
  • Nivel de inglés Intermedio - Avanzado
  • Experiencia en metodologías ágiles como Scrum
  • Git

Beneficios del Archer

  • Día administrativo semestral hasta los 12 meses
  • Week off: 5 días de vacaciones extra
  • ¡Celebra tu cumpleaños!
  • Path de entrenamiento
  • Certificaciones AWS
  • Aguinaldos Fiestas Patrias y Navidad
  • Bono de salud
  • Flexibilidad (trabajo híbrido o remoto)
  • Regalo por casamiento + 5 días hábiles libres
  • Regalo por nacimiento de hijos
  • Kit escolar
  • Beneficio paternidad
  • Bonda

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
Vacation over legal ARKHO gives you paid vacations over the legal minimum.
APPLY VIA WEB
Gross salary $2000 - 2500 Full time
Data Scientist
  • Interfell
Python Git Data Analysis SQL

En Interfell, estamos revolucionando la manera en que las empresas se conectan con talento calificado en LATAM. Nuestro proyecto actual se orienta hacia el área de ciencia de los datos es por ellos que actualmente estamos en búsqueda de un DATA SCIENTIST con +4 años de experiencia para que se una a nuestro equipo de IT, para trabajar en un proyecto a tiempo determinado de 6 a 8 meses

** Con el objetivo de facilitar nuestros procesos, solicitamos amablemente que consideres postularte únicamente si cumples con los conocimientos requeridos. En caso contrario, te animamos a estar pendiente de nuestras futuras oportunidades, ya que seguramente surgirá alguna donde puedas destacarte. Agradecemos tu comprensión y colaboración. **

Funciones del cargo

  • Identificar oportunidades donde el análisis de datos puede generar ventajas competitivas y diseñar soluciones apropiadas.
  • Desarrollar modelos de machine learning y analítica predictiva (clasificación, regresión, segmentación, scoring, recomendación, etc.).
  • Construir y automatizar pipelines de datos para la limpieza, transformación y enriquecimiento de fuentes heterogéneas.
  • Realizar análisis exploratorios y visualización de datos para generar insights relevantes y comunicar hallazgos de manera efectiva.
  • Implementar modelos en producción, trabajando junto a ingenieros de datos y software, asegurando performance, escalabilidad y mantenibilidad.
  • Evaluar el impacto de iniciativas mediante técnicas estadísticas (pruebas de hipótesis, análisis causal, A/B testing).
  • Documentar procesos y resultados, promoviendo una cultura de datos dentro de la organización.

Requerimientos del cargo


Formación y experiencia:
  • Grado o máster en carreras STEM (Ciencia, Tecnología, Ingeniería o Matemáticas), idealmente con enfoque en ciencia de datos, estadística o informática.
  • Mínimo 3-5 años de experiencia aplicando técnicas de análisis de datos y machine learning en entornos profesionales.

Habilidades técnicas:
  • Programación fluida en Python o R para análisis de datos y modelado estadístico.
  • Manejo avanzado de bibliotecas como Pandas, Scikit-learn, TensorFlow/PyTorch, Statsmodels, Matplotlib/Seaborn.
  • Experiencia en SQL y trabajo con bases de datos relacionales y no relacionales.
  • Familiaridad con herramientas de visualización (Tableau, Power BI, Looker o similares).
  • Conocimiento de plataformas cloud (AWS, GCP, Azure) y entornos colaborativos (Git, Docker, notebooks).

Opcionales

  • Deseable: experiencia en despliegue de modelos, MLOps y frameworks de producción.

Condiciones

  • Oportunidad de crecimiento con un equipo multinivel
  • Pago USD
  • Jornada: Lunes - Viernes -09:00 am - 06:30 pm / Perú
  • Tiempo de contratación estimado: Proyecto 6 - 8 meses
    IMPORTANTE: Este empleo requiere exclusividad.

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
$$$ Full time
Data Engineer
  • NeuralWorks
  • Santiago (Hybrid)
Python SQL Big Data Amazon Web Services

NeuralWorks es una compañía de alto crecimiento fundada hace 3 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

Descripción del trabajo

El equipo de Data y Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.
Dentro del equipo multidisciplinario con Data Scientist, Translators, DevOps, Data Architect, tu rol será clave en construir y proveer los sistemas e infraestructura que permiten el desarrollo de estos servicios, formando los cimientos sobre los cuales se construyen los modelos que permiten generar impacto, con servicios que deben escalar, con altísima disponibilidad y tolerantes a fallas, en otras palabras, que funcionen. Además, mantendrás tu mirada en los indicadores de capacidad y performance de los sistemas.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Como Data Engineer, tu trabajo consistirá en:

  • Participar activamente durante el ciclo de vida del software, desde inception, diseño, deploy, operación y mejora.
  • Apoyar a los equipos de desarrollo en actividades de diseño y consultoría, desarrollando software, frameworks y capacity planning.
  • Desarrollar y mantener arquitecturas de datos, pipelines, templates y estándares.
  • Conectarse a través de API a otros sistemas (Python)
  • Manejar y monitorear el desempeño de infraestructura y aplicaciones.
  • Asegurar la escalabilidad y resiliencia.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia práctica de al menos 3 años en entornos de trabajo como Data Engineer, Software Engineer entre otros.
  • Experiencia con Python.
    Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida optimización de consultas.
  • Pasión en problemáticas de procesamiento de datos.
  • Experiencia con servidores cloud (GCP, AWS o Azure), especialmente el conjunto de servicios de procesamiento de datos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.
  • Habilidades de comunicación y trabajo colaborativo.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” D. Gaucher , J. Friesen and A. C. Kay, Journal of Personality and Social Psychology, 2011.

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Vestimenta informal
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
APPLY VIA WEB
Gross salary $2200 - 2500 Full time
Jefe de Datos
  • Genesys Tecnologías de Inform. SpA
  • Santiago (In-office)
Genesys Tecnologías de Inform. SpA es una empresa con más de 30 años de trayectoria en el sector tecnológico latinoamericano, dedicada a facilitar la transformación digital en empresas mediante servicios avanzados de tecnología. Con oficinas en Concepción y Santiago, nos especializamos en el desarrollo de software y la prestación de servicios tecnológicos, incluyendo soporte y mantenimiento de aplicaciones, RPA, Inteligencia Artificial, QA Automation, Staff Augmentation y Cloud.
El área o proyecto donde se desarrollará este rol está focalizado en la gestión y coordinación de servicios vinculados a datos y analítica, incluyendo la supervisión de proveedores en la nube y tecnologías emergentes. Nuestra fábrica de desarrollo y los servicios de outsourcing buscan fortalecer la gestión eficiente de proyectos y ofrecer soluciones tecnológicas con valor agregado para nuestros clientes.

Funciones del Cargo

El profesional contratado liderará la gestión integral de servicios relacionados con proyectos de Datos y Analítica, actuando como enlace principal entre la empresa y los proveedores externos. Entre sus principales responsabilidades está coordinar y supervisar proveedores de servicios Cloud y datos, asegurando entregas oportunas y con la calidad exigida.
  • Coordinar y supervisar el desempeño de proveedores externos en Cloud, Datos & Analítica e Inteligencia Artificial, garantizando el cumplimiento de estándares y acuerdos.
  • Asegurar que los equipos externos entreguen productos y servicios alineados a los requisitos y dentro de los plazos establecidos.
  • Colaborar activamente con stakeholders internos para definir y clarificar requerimientos específicos de los proyectos de datos y analítica.
  • Evaluar y validar que los equipos proveídos por los proveedores cumplan con la experiencia, competencias técnicas y estándares de calidad previstos.
  • Administrar contratos y acuerdos de nivel de servicio (SLA), monitoreando su cumplimiento y gestionando posibles incidencias o desviaciones.
  • Implementar un seguimiento continuo de métricas de desempeño que incluyen calidad, tiempos de entrega y satisfacción del cliente interno.
  • Controlar y gestionar el presupuesto asignado a proyectos y contratos, proponiendo acciones correctivas en caso de desviaciones.

Descripción del Rol

Buscamos un profesional con al menos tres años de experiencia liderando la gestión de servicios tecnológicos, especialmente en proyectos relacionados con Datos y Analítica. Es indispensable contar con experiencia demostrada en la gestión integral de proveedores y coordinación de proyectos complejos en el área, aplicando metodologías tradicionales (waterfall) y ágiles, tales como iterativas, agile y SDLC.
Entre las habilidades técnicas requeridas destacamos el dominio en la gestión de proyectos y proveedores en el entorno de datos, conocimiento profundo en las metodologías de desarrollo de software y ciclo de vida, así como una visión estratégica para alinear los objetivos de negocio con las capacidades técnicas externas.
Además, el candidato ideal deberá poseer excelentes capacidades de comunicación, coordinación y liderazgo para gestionar múltiples equipos y partes interesadas simultáneamente. La capacidad para negociar contratos, supervisar SLA y evaluar desempeño técnico son competencias clave.
Valoramos experiencia con plataformas en la nube relevantes como Amazon Web Services (AWS), Google Cloud Platform, Microsoft Azure y SAP Business Technology Platform (BTP), ya que estos conocimientos permitirán optimizar la gestión y supervisión de servicios de datos y analítica.

Requisitos Deseables

Serán muy valoradas experiencias adicionales que aporten al fortalecimiento del rol, tales como: familiaridad con herramientas y soluciones de Inteligencia Artificial aplicadas a proyectos de datos, manejo avanzado de métricas y análisis de desempeño de proveedores, y experiencia previa en ambientes multinacionales o con equipos distribuidos.
También se considerará como plus tener certificaciones en gestión de proyectos (PMP, Scrum Master, ITIL), así como conocimientos en integración y funcionamiento de plataformas cloud específicas vinculadas a análisis de datos y automatización.

Se Ofrece

Ofrecemos un contrato a plazo fijo con un ambiente laboral dinámico, colaborativo y enfocado en el desarrollo profesional y el aprendizaje constante. Trabajamos con un horario estable de lunes a viernes, de 08:30 a 18:30 hrs.
La modalidad de trabajo es presencial, desarrollando las labores en nuestras oficinas situadas en Concepción, con posibilidad de interacción constante con nuestra oficina matriz en Santiago.
Formarás parte de una empresa consolidada en el mercado tecnológico latinoamericano con más de 30 años de experiencia, donde valoramos el talento, fomentamos la innovación continua y ofrecemos un entorno que impulsa la excelencia técnica y el compromiso con la transformación digital regional.
¡Te esperamos para crecer junto a nosotros! 😊

APPLY VIA WEB
Gross salary $3000 - 4000 Full time
Senior Data Engineer (Rag)
  • Niuro
Python MySQL PostgreSQL BigQuery
Niuro is a company dedicated to connecting projects with elite technology teams specializing in partnerships with leading U.S. companies. Our mission focuses on simplifying global talent acquisition through innovative and efficient solutions that emphasize maximizing quality and performance. We empower autonomous, high-performance tech teams by offering a collaborative environment enriched with continuous professional growth, training in both technical and soft skills, and leadership development. Through managing all administrative tasks, including hiring, payments, and training, Niuro allows teams to concentrate fully on delivering excellent and innovative outcomes aligned with cutting-edge technology and client needs.

Responsibilities

  • Design, implement, and maintain scalable, reliable, and efficient data pipelines tailored to Retrieval-Augmented Generation (RAG) based applications, ensuring seamless automation of intelligent query processes.
  • Configure, manage, and optimize vector databases and advanced search engines to support high-performance embedding and retrieval functionalities.
  • Collaborate closely with Data Scientists and AI Engineers to deploy embedding models and generative AI solutions, fostering integration across teams.
  • Develop and fine-tune ETL/ELT processes to guarantee outstanding data quality, pipeline performance, and resilience within production environments.
  • Ensure system scalability, stability, and operational efficiency to support high-demand data workloads and AI-powered services.

Requirements & Professional Profile

We require candidates with a minimum of 4 to 5 years of experience as a Data Engineer, demonstrating a proven track record managing data-intensive projects and environments. Expertise in Retrieval-Augmented Generation (RAG) methodologies is essential as you will lead innovative data pipeline development.
Technical proficiency must include deep experience with at least one tool or technology from each of the following categories:
  • Vector Databases: Experience with Pinecone, Milvus, Qdrant, Weaviate, or equivalent solutions to manage embedding data effectively.
  • Databases: Proficiency in SQL databases such as PostgreSQL and MySQL, plus NoSQL databases including MongoDB and Cassandra.
  • Data Warehousing: Knowledge of warehouse platforms such as Redshift, BigQuery, or Snowflake to support analytical processing.
  • ETL/ELT Tools: Skilled in dbt, Apache NiFi, Talend, or Informatica for robust data transformation workflows.
  • Big Data Frameworks: Experience with Apache Spark and Kafka for handling large-scale data streams.
  • Search Engines: Familiarity with Elasticsearch, Solr, or OpenSearch to implement advanced search capabilities.
  • Cloud Platforms: Working knowledge of AWS, Google Cloud Platform, or Azure for scalable cloud infrastructure.
  • Containers: Proficient with Docker to containerize and deploy applications reliably.
  • Programming: Advanced skills in Python for scripting, automation, and integration.
Strong analytical aptitude and problem-solving capabilities are vital to address complex data challenges. We seek candidates who thrive in agile, cross-functional teams and possess excellent communication and collaboration skills to work effectively across different roles and disciplines.

Nice-to-have Skills

  • Experience with machine learning frameworks including TensorFlow, PyTorch, and Scikit-learn to support advanced model deployment.
  • Familiarity with natural language processing tools such as spaCy, NLTK, and Hugging Face Transformers to enhance text and language-related functionalities.
  • Knowledge of generative AI models like OpenAI, Azure GPT, and Amazon Bedrock is beneficial for working on cutting-edge AI augmentation projects.
  • Competence in container orchestration using Kubernetes to manage containerized applications at scale.

What We Offer

  • 🌍 100% Remote – Embrace full flexibility by working from anywhere around the world, enabling an optimal work-life balance.
  • 📈 Career Growth – Become part of a tech-forward, innovative, and collaborative team committed to your ongoing professional development and success.
  • 📝 Full-time employment contract with an initial 3-month trial period followed by an indefinite contract, ensuring job stability and continuous collaboration.

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
APPLY VIA WEB
$$$ Full time
Data Engineer
  • 2BRAINS
SQL NoSQL DevOps Hadoop

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

El/la Data Engineer de 2Brains debe

Participar en el diseño y desarrollo de los nuevos modelos de información de gestión y las mantenciones evolutivas de los existentes. Participar en las iniciativas de Analítica avanzada del área, apoyando las exploración de modelos de información internos y externos (Data Discovery). Obtener datos históricos desde múltiples fuentes de información interna para apoyar las iniciativas de analítica avanzada del equipo.

Qué conocimientos buscamos en/la Data Engineer

  • Desarrollo de pipelines de datos para extracción, transformación y carga (ETL/ELT).
  • Dominio de herramientas de orquestación como Apache Airflow o Luigi.
  • Automatización y programación de flujos de datos complejos.
  • Gestión de bases de datos relacionales (SQL).
  • Manejo de bases de datos NoSQL (MongoDB, Cassandra, etc.).
  • Experiencia en Cloud Databases (BigQuery, Redshift, Snowflake, etc.).
  • Diseño y construcción de data warehouses, data lakes y lakehouses.
  • Modelado de datos para entornos analíticos y operacionales.
  • Uso de herramientas y tecnologías para procesamiento distribuido (ej. Spark, Hadoop, Kafka).
  • Experiencia en servicios de datos en la nube: Microsoft Azure, Google Cloud Platform, AWS.
  • Conocimientos en integración de flujos de datos con modelos de machine learning (deseable).
  • Manejo de prácticas DevOps para automatización, CI/CD y monitoreo en pipelines de datos.
  • +4 años de experiencia en roles de Ingeniería de Datos.
  • Certificaciones como Professional Data Engineer en Microsoft Azure o Google Cloud Platform.
  • Deseable experiencia desarrollando soluciones de análisis de datos o BI (Business Intelligence).

Que competencias buscamos en/la Data Engineer

  • Empatía
  • Buena capacidad de comunicación.
  • Colaboración y trabajo en equipo.
  • Proactividad.
  • Autonomía.
  • Foco en los objetivos de proyectos.

Te ofrecemos

  • Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos
  • Acceso a grandes clientes y proyectos desafiantes
  • Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales
  • Un entorno de trabajo flexible y dinámico
  • Día libre para tu cumpleaños.
  • 4 semanas de vacaciones al año.
  • Cursos de especialización.
  • Espacio para charlas internas.

Wellness program 2BRAINS offers or subsidies mental and/or physical health activities.
Internal talks 2BRAINS offers space for internal talks or presentations during working hours.
Computer provided 2BRAINS provides a computer for your work.
Education stipend 2BRAINS covers some educational expenses related to the position.
Informal dress code No dress code is enforced.
Shopping discounts 2BRAINS provides some discounts or deals in certain stores.
Vacation over legal 2BRAINS gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Data Scientist
  • Forma - Moovmedia Group
¡Hola! Somos Forma y somos parte de Moov Media Group, una familia de empresas que también integran Metrix y Moov. Nuestro modelo es colaborativo, ¿qué significa esto? Que trabajamos de manera específica o integral según las necesidades de cada cliente.
Buscamos ser el mejor partner de nuestros clientes apañándolos en la transformación digital. Nos peinamos con el desarrollo tecnológico y el uso de datos, siempre con una mirada estratégica que nos lleve a tomar la mejor decisión.
Hoy queremos seguir creciendo y para eso buscamos un Data Scientist que nos acompañe a recorrer el mundo digital en una empresa con cultura flexible, ágil e innovadora. ¿Te interesa? Entonces déjanos contarte un poco más.
El proceso de selección consta de:

  • Llamado telefónico
  • Entrevista con Selección
  • Entrevista con jefatura directa.
¿Te interesa? ¡Dale! Escríbenos y conversemos.

Funciones del cargo

Diseñar, entrenar y desplegar modelos de Machine Learning y algoritmos de predicción (scikit-learn, XGBoost, etc.)
Liderar procesos de análisis estadístico y modelado de datos con Python y SQL
Automatizar pipelines de datos e integraciones con APIs (Google Ads, Meta, ecommerce, CRM)
Desarrollar dashboards interactivos y embebidos (Power BI, Looker Studio, Tableau)
Validar y mantener la calidad de modelos en producción, utilizando ML Ops básico
Colaborar con equipos de ingeniería, automatización, media y producto

Requerimientos del cargo

Requisitos técnicos:
  • Lenguajes obligatorios: Python (Pandas, Scikit-learn, Numpy, Matplotlib), SQL.
  • Cloud: GCP o AWS (manejo de BigQuery, S3, Redshift u otros).
  • Automatización: Airflow, dbt o scripts programados.
  • Visualización: Power BI y/o Looker Studio (excluyente).
  • Modelos ML: Clasificación, regresión, clustering, análisis de series temporales.
Otros requisitos:
  • Ingeniero en Estadística, Computación, Ciencia de Datos o afín.
  • 3+ años de experiencia en proyectos de data science o advanced analytics.
  • Capacidad para explicar conceptos técnicos a equipos no técnicos.
  • Mentalidad de experimentación y prototipado rápido (MVPs, hackathons).

Opcionales

Deseable: ML Ops (Vertex AI, SageMaker, MLflow), APIs REST, web scraping, Docker
Deseable: experiencia en ecommerce, retail o marketing digital.

Conditions

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
$$$ Full time
Data Engineer
  • 2BRAINS
Python Git Data Analysis SQL

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

El/la Data Engineer de 2Brains

Se encarga de participar en el diseño y desarrollo de los nuevos modelos de información de gestión y las mantenciones evolutivas de los existentes. Participar en las iniciativas de Analítica avanzada del área, apoyando las exploración de modelos de información internos y externos (Data Discovery). Obtener datos históricos desde múltiples fuentes de información interna para apoyar las iniciativas de analítica avanzada del equipo.

El/la Data Engineer de 2Brains debe

  • Construir y optimizar pipelines de datos para la ingesta, transformación y carga eficiente de información.
  • Manejar infraestructuras en la nube (AWS, GCP, Azure), asegurando escalabilidad y eficiencia en costos.
  • Automatizar y monitorear procesos mediante herramientas de DevOps como Airflow, Terraform o Kubernetes.
  • Implementar controles de calidad y gobernanza para garantizar la integridad y disponibilidad de los datos.
  • Colaborar con equipos de Data Science, Producto y Desarrollo para diseñar soluciones alineadas con las necesidades del negocio.

Qué conocimientos buscamos en/la Data Engineer

  • Excluyente Experiencia trabajando con tecnologías de BI
  • Experiencia en la construcción/operación de sistemas distribuidos de extracción, ingestión y procesamiento de grandes conjuntos de datos de gran disponibilidad.
  • Capacidad demostrable en modelado de datos, desarrollo de ETL y almacenamiento de datos.
  • Experiencia en el uso de herramientas de informes de inteligencia empresarial (Power BI)
  • Excluyente conocimiento en consumo de microservicios de APIs Rest
  • Excluyente conocimiento en Git , Bitbucket, Docker,Jenkins,Webhooks
  • Programación con Python y bases sólidas de ingeniería de software.
  • Automatización y scripting.
  • Uso de librerías de Python para manipulación y análisis de datos y Apache Spark.
  • Conocimientos en bases de datos SQL y NoSQL.
  • Conocimiento en CI/CD, Dataflow
  • Conocimiento en S3, Redshift y Glue AWS

Que competencias buscamos en/la Data Engineer

  • Empatía
  • Buena capacidad de comunicación.
  • Colaboración y trabajo en equipo.
  • Proactividad.
  • Autonomía.
  • Foco en los objetivos de proyectos.

Condiciones

Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos

Acceso a grandes clientes y proyectos desafiantes

Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales

Un entorno de trabajo flexible y dinámico

Beneficios especiales: día libre para tu cumpleaños, días de descanso a convenir.

Informal dress code No dress code is enforced.
Vacation over legal 2BRAINS gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Data Engineer
  • Niuro
Python MySQL Docker SQL Server
At Niuro, we connect elite tech teams with top-tier U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality. We empower projects by providing autonomous, high-performance tech teams, and we offer continuous professional growth opportunities to ensure everyone involved is set for success in innovative and challenging projects.

Key Responsibilities

  • Ingest, process, and integrate data from multiple systems and platforms using Big Data tools.
  • Design and implement data pipelines to transfer data from source to destination systems, ensuring alignment with integration standards and existing frameworks.
  • Guarantee high data quality, availability, and compliance across applications and digital products.
  • Collaborate with product teams to identify required datasets and evaluate existing sources (e.g., update frequency, data reliability, known issues).
  • Contribute to the delivery of scalable, strategic data engineering solutions aligned with our data roadmap.

Requirements

🔹 Experience: 3+ years in data engineering or a similar role.
🔹 Tech Stack:
  • Cloud & Big Data: Proficient with AWS services including Lambda, S3, Glue.
  • Data Orchestration: Experience designing and managing workflows using Airflow.
  • Data Modeling & Transformation: Hands-on experience with dbt.
  • Data Warehousing: Solid knowledge of Snowflake.
  • Databases: Experience with MySQL or SQL Server.
  • Programming: Strong Python skills, including scripting, automation, and unit testing.
🔹 Other Skills:
  • Good understanding of data quality and governance practices.
  • Familiarity with various data sources and types in data mining and analytics.
  • Intermediate to advanced English for international team collaboration.

Nice to Have

🔸 Experience deploying dbt in production environments.
🔸 Knowledge of Data Lake and Lakehouse architectures.
🔸 Familiarity with CI/CD tools and Git-based version control (GitHub, GitLab, or Azure DevOps).
🔸 Experience with Docker for containerized data workflows.

What We Offer

  • 🌍 100% Remote – Work from anywhere in the world.
  • 🚀 Growth Opportunities – Be part of shaping a robust and modern data ecosystem.

Informal dress code No dress code is enforced.
APPLY VIA WEB
Gross salary $2400 - 2600 Full time
Data Engineer AWS
  • BC Tecnología
  • Santiago (Hybrid)
Python Data Analysis SQL Web server
En BC Tecnología, nos especializamos en la consultoría de TI, ofreciendo un amplio rango de servicios para adaptarnos a las necesidades específicas de nuestros clientes, principalmente en finanzas, seguros, retail y gobierno. Nuestro equipo trabaja mediante metodologías ágiles, lo que nos permite diseñar e implementar soluciones tecnológicas efectivas y dirigidas al cliente. Actualmente, estamos buscando un Data Engineer con experiencia en AWS para sumarse a nuestro equipo y contribuir a proyectos innovadores en la gestión y explotación de datos.

Responsabilidades del Cargo

  • Desarrollar y gestionar procesos de ETL, asegurando la calidad y fiabilidad de los datos.
  • Optimizar la explotación de datos a través de técnicas de Tuning.
  • Implementar soluciones utilizando herramientas de AWS, incluyendo Glue, Lambda, S3, Redshift y DynamoDB.
  • Colaborar con los equipos de desarrollo de software para asegurar la integración de datos eficiente.
  • Realizar análisis y visualización de datos para apoyar en la toma de decisiones.
  • Mantener un enfoque en la innovación y la mejora continua de los procesos y herramientas utilizadas.

Descripción del Cargo

Buscamos un Data Engineer AWS con un mínimo de 3 años de experiencia en el manejo de datos. El candidato ideal tendrá conocimientos sólidos en:
  • Explotación de datos y Tuning.
  • Diseño e implementación de procesos ETL.
  • Desarrollo de consultas efectivas en SQL.
  • Programación en Python.
  • Uso de herramientas de orquestación como Apache Airflow (deseable).
Valoramos habilidades como el trabajo en equipo, la proactividad y la capacidad para adaptarse a nuevas tecnologías. La combinación de habilidades técnicas y soft skills es esencial para unirse a nuestro equipo dinámico.

Habilidades Deseables

Además de los requisitos mencionados, sería beneficioso contar con experiencia en:
  • Integraciones y gestión de datos en múltiples fuentes.
  • Implementación de soluciones en la nube de AWS.
  • Conocimientos en herramientas de visualización de datos.
Estas habilidades ayudarán al candidato a integrarse de manera efectiva en nuestros equipos de trabajo y contribuir a proyectos futuros.

Beneficios de Trabajar con Nosotros

En BC Tecnología, valoramos a nuestro equipo y ofrecemos un entorno flexible y beneficios atractivos:
  • Contrato indefinido.
  • Modalidad híbrida, combinando trabajo remoto y en oficina.
  • Paquete de beneficios corporativos que incluye salud prepaga de primer nivel para el empleado y su familia.
  • Un día de home office a la semana, junto con desayunos y un comedor en la planta.
  • Acceso a un Sport Club y asistencia de un nutricionista.
¡Únete a nosotros y marca una diferencia en el mundo de la tecnología! 🎉

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB
$$$ Full time
Semi Senior / Senior Data Engineer
  • Devsu
  • Quito, Cuenca or Guayaquil (In-office)
Java Python NoSQL Scala
En Devsu, nos dedicamos a construir productos digitales innovadores que se ajustan a las necesidades de nuestros clientes. Con una trayectoria de más de 10 años, hemos reclutado y formado equipos de tecnología de alto rendimiento para algunas de las marcas más reconocidas del mundo.
Buscamos un Ingeniero de Datos con amplia experiencia en el ciclo completo de desarrollo de soluciones de información, incluyendo análisis, diseño, desarrollo, certificación, despliegue y mantenimiento, en entornos OnPremise y tecnologías Big Data. El candidato ideal debe demostrar sólidos conocimientos en optimización de bases de datos y un enfoque proactivo para superar limitaciones técnicas o de procesos, asegurando soluciones robustas, eficientes y alineadas con las mejores prácticas de desarrollo.

Es una posición presencial en la ciudad de Quito, Ecuador, en donde serás asignado/a a uno de nuestros clientes más importantes en el sector financiero/bancario de Latinoamérica.

Funciones del cargo

  • Diseñar y desarrollar soluciones de datos alineadas con la visión de Arquitectura de Datos.
  • Crear y optimizar ETLs, ELTs y APIs para manejo eficiente de datos.
  • Implementar estrategias de testing para validar calidad funcional y no funcional.
  • Proponer mejoras continuas en procesos y productos de datos.
  • Resolver incidencias técnicas y documentar soluciones conforme a estándares.
  • Mentorizar y apoyar el onboarding de nuevos integrantes del equipo.

Requerimientos del cargo

  • Bases de datos relacionales y NoSQL, diseño de Datawarehouse, Datamarts, Datalakes y Lakehouse.
  • Procesamiento distribuido con Hadoop, Spark y arquitecturas batch/streaming.
  • Desarrollo en Python, Scala o Java, aplicando principios de Clean Code.
  • Construcción de pipelines con herramientas ETL (Azure Data Factory, AWS Glue, SSIS).
  • Estrategias de DataOps/MLOps y despliegue CI/CD.
  • Deseable: Certificaciones en AWS, Azure, o Big Data, y experiencia en arquitecturas modernas como Data Mesh o Data Fabric.

Herramientas

  • Apache Spark, Kafka, Flink, Hadoop, HDFS.
  • Servicios Cloud: AWS, Azure, GCP.
  • Lenguajes: Python, Scala, Java.

Beneficios

Un contrato estable a largo plazo. Entrenamiento contínuo. Seguro de Salud Privado. Trabajarás con algunos de los ingenieros de software más talentosos de América Latina y los EEUU, haciendo un trabajo desafiante y software de clase mundial.

Wellness program Devsu offers or subsidies mental and/or physical health activities.
Internal talks Devsu offers space for internal talks or presentations during working hours.
Digital library Access to digital books or subscriptions.
Health coverage Devsu pays or copays health insurance for employees.
Computer provided Devsu provides a computer for your work.
Education stipend Devsu covers some educational expenses related to the position.
Personal coaching Devsu offers counseling or personal coaching to employees.
APPLY VIA WEB
$$$ Full time
Database Engineer
  • Leniolabs_
Python PostgreSQL SQL Web server

Leniolabs_ que ahora es Improving South America es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España, USA y Canadá.

Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes.

Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.

Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Funciones del cargo

En Leniolabs/Improving South America estamos en la búsqueda de un Database Engineer (DBE) SSR/SR.

El candidato ideal va a gestionar, monitorear y mejorar el rendimiento de bases de datos con PostgreSQL en AWS RDS Aurora, asegurando alta disponibilidad, seguridad y eficiencia.

Colaborará con el diseño e implementar canales ETL para facilitar un flujo de datos sin inconvenientes entre la base de datos centralizada y varios sistemas internos.

Optimización del rendimiento: analizar y optimizar consultas SQL, índices y diseños de esquemas para mejorar la eficiencia y la escalabilidad.

Colaboración: trabajar en estrecha colaboración con ingenieros de datos, desarrolladores de aplicaciones y equipos de DevOps para facilitar conexiones directas a bases de datos y soluciones de integración.

Automatización y monitoreo: utilizar herramientas nativas de AWS y soluciones de terceros para el monitoreo, las alertas y la automatización proactivos de bases de datos.

Diseña estrategias de respaldo y recuperación ante desastres para proteger la integridad de los datos y garantizar la continuidad del negocio.

Buscamos perfiles con un compromiso claro con la excelencia técnica, la innovación y un interés genuino en las últimas tecnologías, capaces de trabajar en un entorno ágil y de alto rendimiento.

Requerimientos del cargo

  • Contar con más de 5 años de experiencia en bases de datos.
  • Al menos 3 años trabajando con PostgreSQL: diseño de esquemas, optimización de consultas y estrategias de indexación.
  • Conocimientos en AWS: manejo de RDS, Aurora, IAM, S3, Lambda, Glue y CloudWatch.
  • Experiencia en ETL y canalizaciones de datos, utilizando herramientas como AWS Glue, Apache Airflow o scripts personalizados.
  • Habilidad en scripting y automatización con SQL, Python o AWS CDK.
  • Excelentes habilidades de resolución de problemas en entornos de bases de datos a gran escala.
  • Contar con inglés intermedio/avanzado (B2/C1).

Beneficios

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Leniolabs_ provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Leniolabs_ gives you paid vacations over the legal minimum.
APPLY VIA WEB
Gross salary $2200 - 2500 Full time
Ingeniero en Gestión de Datos
  • Genesys Tecnologías de Inform. SpA
  • Santiago (In-office)
Analytics Agile SAP Virtualization
En Genesys Tecnologías de Inform. SpA, nos dedicamos a mantener los negocios en movimiento elevando el estándar tecnológico de las empresas. Con más de 30 años de experiencia en el mercado Latinoamericano, ofrecemos servicios de soporte y mantenimiento de aplicaciones, RPA, Inteligencia Artificial, QA Automation, Staff Augmentation, Cloud y más. Estamos buscando un Ingeniero en Gestión de Datos para formar parte de nuestro equipo en la operación de Concepción y Santiago, desempeñando un papel clave en la optimización de nuestros servicios de datos y Cloud.

Funciones del Cargo:

  • Gestión de Servicios Externos: Supervisar el desempeño de los proveedores externos - Cloud, Datos & Analítica (D&A), IA - asegurándose de que los servicios contratados se entreguen según los estándares acordados.
  • Coordinación de Entregas: Asegurar que los equipos externos entreguen sus productos y servicios dentro de los plazos y conforme a los requisitos establecidos, manteniendo un enfoque en la calidad.
  • Definición de Requerimientos: Colaborar con los stakeholders internos para establecer requisitos claros y asegurarse de que los proveedores los implementen adecuadamente.
  • Evaluación de Proveedores: Asegurar que el equipo provisto sea adecuado para el proyecto, evaluando su experiencia, capacidad técnica y cumplimiento de acuerdos previos.
  • Gestión de Contratos y SLA: Administrar los contratos, supervisando el cumplimiento de los SLA y gestionando cualquier incumplimiento.
  • Monitoreo de Desempeño: Seguimiento regular de las métricas de desempeño de los proveedores, incluyendo la calidad, tiempos de entrega y satisfacción del cliente interno.
  • Control de Costos: Asegurar el cumplimiento del presupuesto asignado, monitorear desempeño y proponer medidas correctivas ante desviaciones.

Descripción del Rol:

Buscamos un profesional con al menos 3 años de experiencia en gestión de proveedores y proyectos, especialmente en el ámbito de Datos y Analítica. El candidato ideal debe tener experiencia en metodologías de gestión de proyectos como waterfall, iterativas, agile y SDLC. También se valorará el conocimiento en plataformas como AWS, GCP, Azure y BTP. La habilidad para comunicarte y colaborar con diferentes áreas de la empresa es crucial, así como el pensamiento analítico para evaluar el desempeño de proveedores y la realización de propuestas de mejora.

Experiencia Deseable:

Será un plus contar con conocimientos en plataformas de Cloud como AWS, GCP, Azure y BTP. Si tienes una formación o experiencia adicional en áreas de analítica de datos, será muy valorado nuestro enfoque en la mejora continua y optimización de nuestros procesos.

Se Ofrece:

Ofrecemos un contrato a plazo fijo, en un ambiente de trabajo dinámico y colaborativo. Nuestro horario es de lunes a viernes de 08:30 a 18:30 hrs, trabajo de forma presencial, En Genesys Tecnologías de Inform. SpA, promovemos un entorno de aprendizaje continuo y oportunidades de crecimiento profesional. ¡Te esperamos para que te unas a nuestra familia tecnológica! 😊

APPLY VIA WEB
$$$ Full time
Data Booster
  • 2BRAINS
Python Data Analysis SQL Web server

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

El/la Data Booster de 2Brains

Se encarga de participar en el diseño y desarrollo de los nuevos modelos de información de gestión y las mantenciones evolutivas de los existentes. Participar en las iniciativas de Analítica avanzada del área, apoyando las exploración de modelos de información internos y externos (Data Discovery). Obtener datos históricos desde múltiples fuentes de información interna para apoyar las iniciativas de analítica avanzada del equipo.

Qué harás como Data Booster de 2Brains

  • Identificar oportunidades y definir hipótesis basadas en datos para mejorar procesos y generar impacto en el negocio.
  • Diseñar y ejecutar experimentos que permitan validar soluciones con métricas claras y medibles.
  • Construir modelos analíticos y aplicar IA para transformar datos en insights accionables.
  • Facilitar la co-creación de productos de datos, asegurando que sean escalables y sostenibles.
  • Optimizar el desarrollo y adopción de soluciones según la madurez del squad y las necesidades del negocio.
  • Colaborar con equipos de tecnología, negocio y data science para alinear soluciones con los objetivos estratégicos.
  • Garantizar la calidad y gobernanza de los datos, promoviendo mejores prácticas en el manejo y uso de información.

Qué conocimientos buscamos en/la Data Booster

  • Métodos de análisis estadístico (regresión, pruebas de hipótesis, análisis multivariante).
  • Técnicas de modelado predictivo y prescriptivo.
  • Análisis de series temporales.
  • Algoritmos de machine learning supervisados y no supervisados.
  • Modelos de clasificación, regresión, clustering, y reducción de dimensionalidad.
  • Técnicas de deep learning y redes neuronales.
  • Limpieza, transformación y preprocesamiento de datos (ETL).
  • Manejo de grandes volúmenes de datos y optimización del procesamiento (Big Data).
  • Uso de herramientas de análisis de datos como Pandas, NumPy, Spark.
  • Diseño de experimentos (A/B testing, pruebas de causalidad).
  • Métodos de validación de modelos (cross-validation, métricas de evaluación).
  • Técnicas de evaluación de impacto y pruebas de hipótesis.
  • Creación de dashboards y reportes con herramientas como Tableau, Power BI, Looker.
  • Visualización avanzada con bibliotecas de Python como Matplotlib, Seaborn, Plotly.
  • Python/R para análisis de datos y desarrollo de modelos.
  • SQL para consultas y manipulación de bases de datos.
  • Experiencia con plataformas de nube como AWS, GCP, Azure para almacenamiento y procesamiento de datos.
  • Uso de servicios de data engineering en la nube (como Google BigQuery, Amazon Redshift, Azure Synapse).
  • Prácticas de DevOps aplicadas a proyectos de datos (automatización, integración continua).
  • MLOps para la automatización de la implementación y monitoreo de modelos.
  • Estándares y buenas prácticas en el manejo de datos (calidad, privacidad, seguridad).
  • Herramientas para la gobernanza de datos como Apache Atlas, Collibra.

Que competencias buscamos en/la Data Booster

  • Empatía
  • Buena capacidad de comunicación.
  • Colaboración y trabajo en equipo.
  • Proactividad.
  • Autonomía.
  • Foco en los objetivos de proyectos.

Te ofrecemos

  • Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos
  • Acceso a grandes clientes y proyectos desafiantes
  • Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales
  • Un entorno de trabajo flexible y dinámico
  • Beneficios especiales: día libre para tu cumpleaños, 4 semanas de vacaciones

Wellness program 2BRAINS offers or subsidies mental and/or physical health activities.
Internal talks 2BRAINS offers space for internal talks or presentations during working hours.
Education stipend 2BRAINS covers some educational expenses related to the position.
Informal dress code No dress code is enforced.
Shopping discounts 2BRAINS provides some discounts or deals in certain stores.
Vacation over legal 2BRAINS gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Data Engineer
  • Leniolabs_
SQL Business Intelligence Virtualization Amazon Web Services
Leniolabs_ que ahora es Improving South America es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España, USA y Canadá.
Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes.
Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.
Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Responsabilidades del Ingeniero de Datos

  • Descubrimiento de Fuentes Legacy: Utilizar SQL avanzado y scripting (Python/PowerShell) para automatizar procesos y documentar sistemas heredados.
  • Análisis de Calidad de Datos: Ejecutar perfiles de datos, identificar problemas de calidad y generar métricas clave de calidad (KPIs).
  • Limpieza Inicial de Datos: Aplicar herramientas ETL/ELT (Informatica, Talend, dbt) y realizar limpieza de datos en base a las comunicaciones con expertos.
  • Definición de Estrategias de Archivo vs. Migración: Diseñar modelos de datos y evaluar soluciones de almacenamiento equilibrando cumplimiento y costos.
  • Mapping a la Plataforma del Proveedor: Desarrollar procesos de mapeo y transformación para garantizar la correcta transferencia de datos.
  • Análisis de Necesidades Actuales de BI/Reportes: Colaborar con usuarios para optimizar consultas SQL y estructurar datos para reportes.
  • Tareas Adicionales: Orquestación de pipelines (Airflow), CI/CD, contenedorización (Docker, Kubernetes) y automatización en la nube (AWS).

Requisitos Técnicos y Habilidades Deseadas

Buscamos un profesional con el siguiente perfil:

  • Dominio en SQL avanzado, así como experiencia en herramientas ETL/ELT como Informatica, Talend y dbt. Conocimientos en sistemas de almacenamiento en la nube (AWS S3, Redshift)
  • Habilidades en orquestación de pipelines (Airflow, Docker, Kubernetes)
  • Familiaridad con herramientas de BI como Power BI o Tableau.
  • Nivel de inglés intermedio/avanzado o avanzado.
  • A nivel de habilidades blandas, esperamos que los candidatos tengan un fuerte pensamiento crítico, atención al detalle y la capacidad de comunicar hallazgos técnicos a diferentes públicos.

Habilidades Deseables

Si bien no son imprescindibles, se valorarán conocimientos adicionales en el trabajo con big data y experiencia en entornos ágiles. La capacidad de adaptarse rápidamente a nuevas herramientas y requisitos será muy apreciada, al igual que la iniciativa para proponer mejoras a nuestros procesos actuales.

¿Qué Ofrecemos?

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Computer provided Leniolabs_ provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
Gross salary $2500 - 3000 Full time
Data Science
  • coderslab.io
Python Data Analysis SQL Virtualization

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente nos encontramos apuntando al crecimiento de nuestros equipos de manera global con el objetivo de posicionarnos con nuestros productos en más países de Latinoamérica, es por ello que estamos en búsqueda de un Data Science Semi-Senior para sumarse a nuestro equipo.

Te sumarás a un equipo desafiante y ambicioso con ganas de renovar el mercado, por lo que tus propuestas serán de mucho valor para el negocio.

¡Postula para este tremendo desafío!

Job functions

Responsabilidades

  • Análisis y modelado de datos: Utilizar habilidades analíticas para identificar patrones, tendencias e insights en grandes conjuntos de datos.
  • Desarrollo y validación de modelos: Aplicar técnicas estándar de la industria para crear características, limpiar conjuntos de datos y desarrollar pipelines para entrenar y servir modelos, principalmente enfocados en clasificación.
  • Evaluación de riesgo crediticio: Analizar el riesgo crediticio de posibles prestatarios mediante los modelos desarrollados, asignando puntajes de crédito o probabilidades de incumplimiento. Se valora el uso de datos alternativos y enfoques innovadores.
  • Ingeniería de características: Identificar y crear características relevantes que mejoren la capacidad predictiva de los modelos y reflejen la solvencia crediticia de los individuos.
  • Colaboración interdisciplinaria: Trabajar con otros equipos para proporcionar información, desarrollar modelos y participar en la toma de decisiones técnicas.
  • Monitoreo y evaluación de desempeño: Realizar un seguimiento continuo del rendimiento de los modelos desplegados, evaluar métricas y ajustarlos según sea necesario en respuesta a cambios en el comportamiento, condiciones del mercado o regulaciones.
  • Investigación e innovación: Mantenerse actualizado con los últimos avances en ciencia de datos y aprendizaje automático, experimentando con nuevos enfoques para la evaluación del riesgo crediticio.

Qualifications and requirements

Obligatorios (MUST)

  • 1-2 años de experiencia en Ciencia de Datos, Análisis de Datos o Análisis de Negocios (con conocimientos en Machine Learning).
  • Más de 2 años de experiencia con Python y SQL.
  • Perfil con habilidades para la resolución creativa de problemas, capaz de analizar datos, extraer insights y convertirlos en decisiones accionables.
  • Conocimientos en servicios de AWS.
  • 1-2 años de experiencia en Machine Learning aplicado al riesgo financiero.

Conditions

Remoto LATAM

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
$$$ Full time
Administrador de Bases de Datos – AWS Rds Aurora PostgreSQL
  • Leniolabs_
PostgreSQL SQL Linux Virtualization
Leniolabs_ que ahora es Improving South America es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España, USA y Canadá.
Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes.
Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.
Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Responsabilidades clave

  • Administración de bases de datos: Gestionar, monitorear y optimizar bases de datos AWS RDS Aurora PostgreSQL para garantizar alta disponibilidad, seguridad y rendimiento.
  • Optimización de rendimiento: Analizar y optimizar consultas SQL, índices y rendimiento general de la base de datos para mejorar tiempos de respuesta y escalabilidad.
  • Seguridad y cumplimiento: Implementar mejores prácticas de seguridad en bases de datos, controles de acceso, cifrado y garantizar el cumplimiento de estándares de la industria y políticas organizacionales.
  • Respaldo y recuperación: Establecer y mantener estrategias de respaldo y recuperación ante desastres para asegurar la integridad de los datos y la continuidad del negocio.
  • Automatización y monitoreo: Utilizar herramientas nativas de AWS y soluciones de terceros para monitoreo proactivo, alertas y automatización de procesos.
  • Documentación: Mantener actualizada la documentación sobre estructuras de bases de datos, políticas de acceso y mejores prácticas.

Requisitos

  • Experiencia: Más de 5 años de experiencia en ingeniería de bases de datos, con al menos 3 años trabajando con PostgreSQL (preferiblemente AWS RDS Aurora PostgreSQL).
  • Experiencia en bases de datos: Amplio dominio de PostgreSQL, incluyendo optimización de consultas, replicación, particionamiento y configuraciones de alta disponibilidad.
  • Nube y AWS: Experiencia práctica con AWS RDS, Aurora, IAM, S3, Lambda y CloudWatch para gestión y automatización de bases de datos.
  • Scripting y automatización: Dominio de SQL, Bash o Terraform AWS CDK para automatización de bases de datos e infraestructura como código.
  • Seguridad y cumplimiento: Conocimiento en cifrado de bases de datos, control de accesos, auditoría y marcos de cumplimiento (GDPR, HIPAA, SOC 2, etc.).
  • Resolución de problemas: Habilidades avanzadas de diagnóstico y solución de problemas en entornos de bases de datos de alta disponibilidad.
  • Nivel de inglés intermedio avanzado o avanzado (B2 -C1)

Requisitos deseados

  • Experiencia con arquitecturas de lago de datos, transmisión en tiempo real o soluciones de almacenamiento de datos.
  • Certificaciones de AWS (ej. AWS Certified Database – Specialty, AWS Solutions Architect – Associate).

Beneficios

  • Seguro complementario de salud Metlife (Chile).
  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Computer provided Leniolabs_ provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
APPLY VIA WEB
Gross salary $2500 - 2800 Full time
Data Scientist
  • Niuro
Python SQL Azure Artificial Intelligence
At Niuro, we are dedicated to connecting cutting-edge projects with elite tech teams, collaborating closely with leading U.S. companies. Our mission revolves around simplifying global talent acquisition through innovative solutions that enhance efficiency and quality. As part of our team, you will engage in dynamic and challenging projects that are pivotal to our clients' success.
By providing autonomous, high-performance tech teams, we empower our professionals through continuous training in both technical and soft skills, along with leadership development. Our structure supports collaborative growth and excellence.

Responsibilities:

  • Design, develop, and evaluate machine learning and statistical models aimed at enhancing various business processes.
  • Analyze large datasets to derive insights and formulate data-driven strategies.
  • Deploy models into production utilizing tools such as TensorFlow, PyTorch, or Scikit-learn.
  • Create dashboards and reports via visualization tools like Tableau, Power BI, or Looker.
  • Collaborate with engineering teams to optimize data pipelines and model infrastructures.
  • Deliver findings and recommendations to non-technical stakeholders in a clear and concise manner.

Requirements:

  • 3-5 years of experience in data science, machine learning, and statistical analysis.
  • Proficiency in Python with solid knowledge of data science libraries including Pandas, Polars, Scikit-learn, TensorFlow, and PyTorch.
  • Experience with SQL and both relational and non-relational databases.
  • Knowledge of feature engineering, model selection, and cross-validation techniques.
  • Experience with Generative AI frameworks and libraries, such as Hugging Face Transformers and LangChain, alongside API usage and prompt engineering skills.
  • Able to visualize data with tools like Matplotlib, Seaborn, and Plotly.
  • Strong communication skills with a knack for data storytelling.
  • Intermediate to advanced English proficiency (written and spoken).

Nice-to-Haves:

  • Experience with cloud computing platforms such as AWS, GCP, or Azure.
  • Familiarity with real-time data processing using tools like Apache Kafka or Spark Streaming.
  • Working knowledge of deep learning frameworks.
  • Understanding of MLOps techniques for deploying models effectively.
  • Curiosity and enthusiasm for exploring the latest trends in Generative AI within the field of data analysis.

Salary & Benefits:

We offer a competitive salary ranging from $2,500 to $2,800 USD per month, depending on your experience. Our organization embraces a fully remote work environment, paired with flexible working hours to enhance your work-life balance.
At Niuro, you will find ample opportunities for professional development, along with access to training in advanced data analysis tools. Join us, and be part of a team that values continuous learning and growth!

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
APPLY VIA WEB
Gross salary $3000 - 3900 Full time
Senior Data Engineer
  • Apply Digital Latam
Python SQL Virtualization Big Data
ABOUT APPLY DIGITAL
Apply Digital is a global digital transformation partner for change agents. Leveraging expertise that spans Business Transformation Strategy, Product Design & Development, Commerce, Platform Engineering, Data Intelligence, Change Management, and beyond, we enable our clients to modernize their organizations and deliver meaningful impact to the business and to their customers. Our 650+ team members have helped transform global companies like Kraft Heinz, NFL, Moderna, Lululemon, Games Workshop, Atlassian, and The Very Group. Visit applydigital.com to learn how we can unlock your company’s potential.
If you'd like to learn more about Apply Digital's culture click HERE.
LOCATION: Apply Digital is hybrid/remote-friendly. The preferred candidate should be based in Latin America, preferably working in hours that align to ET (Eastern Timezone) or PT (Pacific Timezone).

Responsibilities:

  • Design, build, and optimize ETL/ELT pipelines using Python and SQL
  • Develop and maintain data warehouse schemas and analytics solutions
  • Implement data models and ensure data quality, consistency, and integrity
  • Leverage cloud data platforms (e.g., AWS Athena, Databricks, Snowflake, Azure Synapse/Fabric, Google BigQuery) for storage, processing, and querying
  • Create and maintain optimal data pipeline architecture.
  • Collaborate with analysts and stakeholders to define requirements and deliver data solutions that meet business needs
  • Communicate with stakeholders to understand data requirements and develop solutions.
  • Design, develop, implement, and maintain data architectures and pipelines.
  • Optimize query performance and ensure efficient data workflowsDocument data pipelines, architectures, and processes
  • Continuously improve and refine existing data infrastructure and solution
  • Develop and implement best practices for data management, security, and privacy.

Requirements:

  • A Bachelor's degree in Computer Science, Information Systems, or a related field.
  • At least 5 years of experience in data engineering or related fields.
  • Strong expertise in SQL, ETL, and data warehousing technologies.
  • Strong working knowledge of Python and PySpark
  • Proven experience with at least one major cloud data platform (AWS Athena, Databricks, Snowflake, Azure Synapse/Fabric, or Google BigQuery)
  • Knowledge of data migration tools and techniques.
  • Good knowledge of databases.
  • Strong background in data warehouse design, ETL/ELT processes, and data modeling, ideally with modern data warehouse and DBT
  • Familiarity with cloud engineering concepts and best practices
  • Experience working with large datasets and optimizing performance
  • Excellent problem-solving skills and attention to detail
  • Outstanding communication skills in English, both written and verbal.

Nice-to-haves:

  • Knowledge of multiple cloud platforms (AWS, Azure, GCP) and their data services
  • Familiarity with data governance and compliance requirements
  • Knowledge of CI/CD practices for data engineering
  • Familiarity with Agile development methodologies
  • Experience with containerization (Docker, Kubernetes)

Conditions

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Apply Digital Latam provides a computer for your work.
Vacation over legal Apply Digital Latam gives you paid vacations over the legal minimum.
Beverages and snacks Apply Digital Latam offers beverages and snacks for free consumption.
APPLY VIA WEB
$$$ Full time
Data Engineer Soluciones de Datos
  • Lisit
  • Biobío, Santiago or Temuco (In-office)
Python SQL Scala Virtualization
En *Lisit*, nos dedicamos a crear, desarrollar e implementar servicios de software que ofrecen herramientas de automatización y optimización. Nuestra misión es promover la eficacia en la operatividad de nuestros clientes a través de un soporte consultivo que integra diversas herramientas y prácticas. Buscamos contribuir al éxito de las transformaciones empresariales mediante estrategias integrales de acompañamiento e implementación.

Que estamos buscando

  • Diseñar, desarrollar y mantener infraestructuras y pipelines de datos escalables y confiables.
  • Optimizar el almacenamiento, procesamiento y recuperación de datos para un funcionamiento eficiente e impecable.
  • Colaborar con equipos de diferentes departamentos para recopilar y analizar los requisitos de datos.
  • Garantizar la calidad, integridad y seguridad de los datos durante todo el ciclo de vida de estos.
  • Mantenerse actualizado sobre los últimos avances, desarrollos y enfoques en ingeniería de datos.

¿Qué habilidades y experiencia necesitas?

  • Fuertes habilidades analíticas y de resolución de problemas.
  • Al menos 3 años de experiencia en ingeniería de datos.
  • Experiencia comprobada en el diseño y desarrollo de data pipelines y procesos ETL, preferiblemente con Azure Data Factory.
  • Amplia experiencia en SQL y dominio de al menos un lenguaje de ingeniería de datos, como Python o Scala.
  • Experiencia con Spark, Airflow y tecnologías Big Data relacionadas.
  • Familiaridad con plataformas de datos basadas en la nube como AWS, Azure o GCP.
  • Excelentes habilidades de comunicación y colaboración.

Deseable

Se valorará la experiencia con herramientas de BI como Power BI y Microsoft Fabric. También es deseable contar con alguna de las siguientes certificaciones: DP-203, PL-300, DP-600 y/o DP-700.

Únete a nosotros

En *Lisit* ofrecemos un ambiente de trabajo innovador y colaborativo. Nos aseguramos de que nuestros empleados disfruten de un equilibrio entre trabajo y vida personal, con programas de capacitación y desarrollo continuo. Valoramos tu entusiasmo y pasión por la ingeniería de datos.

Estamos emocionados por conocer a personas con una mentalidad abierta y dispuestas a enfrentar nuevos desafíos. ¡Si estás listo para innovar y crecer con nosotros, te queremos en nuestro equipo!

En el caso de residir en Santiago, debe tener disponibilidad para viajar una o dos semanas a Los Angeles, región del BioBío

APPLY VIA WEB
Gross salary $1500 - 2500 Full time
Data Engineer
  • Guinea Mobile SAC (Cuy Móvil)
Java Python Analytics PostgreSQL

Guinea Mobile SAC (Guinea) es una startup de tecnología de telecomunicaciones latinoamericana, fundada en 2016 con sede en Lima, Perú. La empresa se basa en crear productos tecnológicos que faciliten la experiencia móvil.

Hoy cuenta con cuatro marcas de Operadores Móviles Virtuales: PeruSIM, Cuy Móvil, Inka Móvil y Wings Mobile, siendo uno de los principales OMVs del mercado.

Nuestra misión se centra en permitir que cualquier negocio o persona pueda tener su propia oferta móvil, democratizando el servicio móvil.

Se encuentra en la búsqueda de Data Engineer para conformar el equipo de TEC.

Funciones del cargo

  1. Diseño de Infraestructura de Datos Escalable: Crear sistemas robustos que soporten petabytes de datos con alta disponibilidad y rendimiento.
  2. Automatización de Procesos de Integración:
    • Diseñar y gestionar pipelines automatizados para integración y limpieza de datos.
  3. Colaboración con Analistas y Científicos de Datos: Proveer datasets limpios, modelados y fácilmente accesibles.
  4. Optimización de : Identificar cuellos de botella en flujos de datos y aplicar soluciones para mejorar tiempos de respuesta.
  5. Monitoreo de Flujos de Datos: Implementar herramientas de monitoreo y alertas para garantizar la calidad y consistencia de los datos en tiempo real.

Requerimientos del cargo

  • Procesamiento de Datos:
    • Experiencia en frameworks como Apache Spark, Hadoop o Google Dataflow para procesamiento en grandes volúmenes de datos.
    • Conocimiento avanzado de batch processing y stream processing.
  • Bases de Datos y Almacenamiento:
    • Manejo de bases de datos relacionales (Oracle, PostgreSQL o SQL Server ) y NoSQL (MongoDB, DynamoDB, Cassandra).
    • Experiencia en la configuración y gestión servicios data warehouses como Snowflake, Redshift o BigQuery.
  • ETL/ELT:
    • Experiencia en la construcción y optimización de pipelines de datos usando herramientas como Apache Airflow, dbt, Talend o Luigi.
  • Programación:
    • Dominio de lenguajes como Python, Scala o Java, enfocados en la manipulación de datos.
    • Habilidades en scripting para automatización y manejo de grandes datasets.
  • Cloud Computing:
    • Familiaridad con servicios de datos en la nube como AWS Glue, Azure Data Factory o Google Cloud Dataflow.
    • Conocimientos en almacenamiento y gestión de datos en la nube: Amazon S3, Google Cloud Storage o Azure Blob Storage.
  • Calidad y Seguridad de Datos:
    • Implementación de procesos de data profiling, limpieza y validación de datos.
    • Experiencia en garantizar el cumplimiento de normativas como GDPR, HIPAA o similares.
  • Optimización de Consultas y Modelado de Datos Dimensionales:
    • Diseño de modelos de datos eficientes para análisis y consumo.
    • Desarrollo y optimización de queries SQL (CTES, Joins, Subqueries, etc) y otras herramientas.
  • Detallista: Capacidad para identificar inconsistencias y garantizar la calidad de los datos.
  • Proactivo/a: Habilidad para anticipar problemas y proponer mejoras.
  • Colaborativo/a: Experiencia trabajando junto a equipos de analistas, desarrolladores o científicos de datos.
  • Enlace a repositorio en GitHub, GitLab o Bitbucket.
  • Certificaciones relevantes como Google Cloud Professional Data Engineer, AWS Certified Data Analytics, o similares.

APPLY VIA WEB
Gross salary $3000 - 3500 Full time
Data Scientist Bilingüe – Contrato Indefinido
  • BC Tecnología
  • Santiago (Hybrid)
Python Git SQL Business Intelligence

Somos BC Tecnología, creamos equipos de trabajos y células ágiles para las principales empresas de Chile con presencia global en Servicios Financieros, Tecnología, Banca, Educación, Seguros, Retail y Gobierno.

Evaluar, diseñar y proponer iniciativas relacionadas a procesos, sistemas y/o tecnologías, realizando el levantamiento y análisis funcional/técnico de los requerimientos, de acuerdo a las normas y procedimientos vigentes, con el objetivo de mantener la continuidad operacional de los servicios de TI de la Corporación y entregar un servicio de calidad a las áreas usuarias.

Funciones del cargo

  • Líder tecnológico dentro del equipo, en búsqueda constante de nuevas y mejores formas de trabajar adoptando y probando las nuevas herramientas cloud disponibles, con especial foco en Google Cloud Platform (Suite Corporativa).
  • Definir en conjunto con el equipo de Ingeniería de datos el Universo de información donde se acota un problema de negocio.
  • Data Wrangling: Construir la estructura de los datos para optimizar su manipulación.
  • Feature Engineering: Mejorar la calidad de los datos mediante construcción de características (o atributos), para aumentar la cantidad de conocimiento que aportan los datos para la resolución del problema.
  • Modelamiento: Determinar la técnica de análisis adecuada para calzar con el problema de negocio a tratar.
  • Delivery: Comunicar en el contexto, en tiempo y forma la mejora de proceso que se está buscando resolver.
  • Feedback: Mejorar mediante el método científico el proceso de construcción de conocimiento y participar en la evaluación si existió una mejora al proceso abordado, mediante método científico.
  • Documentación: Registrar los logros, nuevos conocimientos, tecnologías o problemas del proceso en general.

Requerimientos del cargo

Al menos 3 años de experiencia en:

· Métodos numéricos de optimización (programación lineal, programación entera, programación cuadrática, etc.)

· Métodos estadísticos avanzados y mejores prácticas técnicas de modelado avanzadas (modelos gráficos, inferencia bayesiana, nivel básico de PNL, Visión, redes neuronales, SVM).

· Python, SQL, No SQL, programación.

· Experiencia con GCP, AWS o alguna cloud. Power BI, Tableau, streamlit o herramientas afines de visualización. Herramientas de versionamiento (GIT)

· Ingles Avanzado hablado

· Trabajo Hibrido (1 día presencial)

Condiciones

Seguro complementario Salud (Gratis para el trabajador)
Seguro de Vida
Kon3cta Dodo (Beneficio de Salud, donde podran acceder a valores preferenciales en las siguientes disciplinas:
Psicologia
Nutricion
Fonoaudiologia
Kinesiologia
Coaching
Ademas cuenta con un area legal
Amipass $4.500 diario
Sala cuna $350.000
Bono Cuidadora $350.000
Bono Escalaridad $40.000
Bono por Natalidad $200.000
Bono por Matrimonio $200.000
Bono por Fallecimiento Conyuge - Hijo $500.000
Bono por Fallecimiento Padres - Hermanos $200.000
Celebración Aniversario
Aguinaldo Fiestas Patrias y Navidad $80.000
1 Día libre por cumpleaños
Convenio Open English
Convenio con Clinica Eigner
Mutual de Seguridad
Caja de compensación los Andes
Capacitaciones Platzi
Dias Administrativos 2
Día de mudanza 1

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB
$$$ Full time
Ingeniero de Operaciones TI
  • Usercode SpA
DevOps Continuous Integration Jenkins CI/CD

Usercode es una empresa tecnológica especializada en el desarrollo de software para instituciones públicas y organizaciones privadas. Nuestro foco son las tecnologías Cloud, la automatización y digitalización de procesos.

Trabajamos 100% remoto, nuestro equipo está en distintas regiones de Chile, México y Perú. Para comunicarnos y trabajar utilizamos Slack, Meet Hangout y Monday.

La necesidad actual:

El volumen del negocio de Usercode está creciendo por la vía de incorporar una mayor cantidad y tipo de proyectos de desarrollo, por un lado, y por otro lado, abriendo líneas de negocio relacionadas, como mantenimiento de infraestructura, y ampliando la cartera de clientes hacia el mercado privado.

Para lograr el éxito en este proceso es clave contar con un equipo de desarrollo capaz, autónomo, responsable, con experiencia, preparado técnicamente, con profundos conocimientos en una serie de herramientas específica, capaz de aprender y adquirir el uso herramientas nuevas.

Funciones del cargo

Para el puesto de Ingeniero de Operaciones TI con un enfoque en servicios cloud y DevOps, debe tener conocimiento en las siguientes características técnicas:

Configuración de máquinas virtuales en entornos Linux (obligatorio): Habilidad para instalar, configurar y mantener sistemas basados en Linux. Experiencia en la administración de servidores, optimización de rendimiento y seguridad de sistemas Linux.

Configuración de servicios web y de aplicaciones (obligatorio): Experiencia en la configuración y administración de servidores web y aplicaciones como Apache, Nginx, y Tomcat. Capacidad para implementar y gestionar procesos con gestores como PM2 para aplicaciones Node.js.

Seguridad de sistemas y redes (obligatorio): Conocimiento en la implementación de políticas de seguridad, gestión de accesos y configuración de firewalls y otros mecanismos de seguridad en entornos cloud y on-premise.

Monitoreo y logística (obligatorio): Experiencia en la configuración de herramientas de monitoreo y logística para garantizar la visibilidad y el rendimiento operativo, utilizando herramientas como Prometheus, Grafana, ELK Stack, etc.

Creación, mantención e implementación de productos digitales como plataformas web, aplicaciones móviles y/o sitios web.

El ingeniero de operaciones TI trabajará en el área de desarrollo de software junto con los demás desarrolladores, arquitecto de software, líder técnico y jefe de proyecto. Los proyectos serán mayoritariamente plataformas web para instituciones públicas o privadas donde debe levantar los diferentes ambientes, configurarlos, asegurar la seguridad, levantar y configurar los servicios necesarios para el correcto funcionamiento de las plataformas web y/o APIs.

Requerimientos del cargo

Requisitos técnicos:

Estamos en búsqueda de un Ingeniero de Operaciones TI, con un enfoque decidido hacia la gestión y optimización de servicios en la nube y prácticas DevOps. Esperamos que el candidato ideal tenga experiencia robusta en la implementación y manejo de ambientes cloud, utilizando herramientas modernas de CI/CD como Jenkins, y que posea habilidades sólidas en la configuración y administración de ambientes de desarrollo, prueba y producción.

El rol implica responsabilidades clave como la configuración de bases de datos y la garantía de su rendimiento óptimo, la implementación de soluciones escalables y la administración de infraestructura como código. Es fundamental que el candidato tenga la capacidad de colaborar estrechamente con equipos de desarrollo para facilitar despliegues rápidos y seguros, y asegurar la alta disponibilidad y resiliencia de los sistemas.

Buscamos a alguien que no solo se encargue de mantener la infraestructura existente, sino que también proponga y ejecute mejoras continuas, aplicando las mejores prácticas de seguridad y optimización de costos en entornos cloud.

Experiencia excluyente:

  • Configuración de máquinas virtuales en entornos Linux.
  • Configuración de servicios web y de aplicaciones.
  • Seguridad de sistemas y redes.
  • Monitoreo y logística.

Comportamiento esperado:

Lo que buscamos en ti:

  • Proactividad
  • Trabajo en equipo
  • Autonomía
  • Orientado a objetivos y resultados

Características personales:

  • Autonomía
  • Cumplimiento
  • Buenas habilidades de comunicación oral y escrita incluyendo comprensión lectora
  • Saber escuchar, atención
  • Ser respetuoso
  • Disposición a colaborar con el equipo
  • Responsable de sus tareas proyectos trabajos

Conocimientos deseables

Conocimiento en servicios AWS: Configuración y gestión de servicios clave de AWS como EC2, S3, RDS, ECS, Lambda, y VPC. Familiaridad con AWS CloudFormation o Terraform.

Gestión de bases de datos: Configuración, optimización y mantenimiento de sistemas de bases de datos. Experiencia en tareas como la configuración de replicación, backups automatizados y tuning de rendimiento.

Configuración y manejo de contenedores: Experiencia en uso de Docker para la creación y gestión de contenedores.

Orquestación con Kubernetes: Capacidad para implementar, configurar y manejar clústeres de Kubernetes.

Implementación y configuración de herramientas de CI/CD: Experiencia en la configuración y uso de Jenkins para la integración y entrega continua. Capacidad para diseñar pipelines de CI/CD.

Automatización y scripting: Habilidad en scripting con Bash, Python, o similar para la automatización de tareas administrativas y de despliegue.

Condiciones

Este puesto ofrece la flexibilidad de un entorno de trabajo remoto, sin embargo, según las necesidades específicas de nuestros clientes, puede haber ocasiones en las que se requiera tu presencia en un lugar de trabajo presencial.

  • Días extra de vacaciones.
  • Días libres 3x5, día libre por cumpleaños, cambio de domicilio, muerte de mascota
  • Pago de certificaciones seleccionadas
  • Pausa activa colaborativa
  • Aguinaldo

APPLY VIA WEB
$$$ Full time
Ingeniero de Operaciones TI
  • Usercode SpA
DevOps Continuous Integration Jenkins CI/CD

Usercode es una empresa tecnológica especializada en el desarrollo de software para instituciones públicas y organizaciones privadas. Nuestro foco son las tecnologías Cloud, la automatización y digitalización de procesos.

Trabajamos 100% remoto, nuestro equipo está en distintas regiones de Chile, México y Perú. Para comunicarnos y trabajar utilizamos Slack, Meet Hangout y Monday.

La necesidad actual:
El volumen del negocio de Usercode está creciendo por la vía de incorporar una mayor cantidad y tipo de proyectos de desarrollo, por un lado, y por otro lado, abriendo líneas de negocio relacionadas, como mantenimiento de infraestructura, y ampliando la cartera de clientes hacia el mercado privado.

Para lograr el éxito en este proceso es clave contar con un equipo de desarrollo capaz, autónomo, responsable, con experiencia, preparado técnicamente, con profundos conocimientos en una serie de herramientas específica, capaz de aprender y adquirir el uso herramientas nuevas.

Funciones del cargo

Configuración de máquinas virtuales en entornos Linux (obligatorio): Habilidad para instalar, configurar y mantener sistemas basados en Linux. Experiencia en la administración de servidores, optimización de rendimiento y seguridad de sistemas Linux.

Configuración de servicios web y de aplicaciones (obligatorio): Experiencia en la configuración y administración de servidores web y aplicaciones como Apache, Nginx, y Tomcat. Capacidad para implementar y gestionar procesos con gestores como PM2 para aplicaciones Node.js.

Seguridad de sistemas y redes (obligatorio): Conocimiento en la implementación de políticas de seguridad, gestión de accesos y configuración de firewalls y otros mecanismos de seguridad en entornos cloud y on-premise.

Monitoreo y logística (obligatorio): Experiencia en la configuración de herramientas de monitoreo y logística para garantizar la visibilidad y el rendimiento operativo, utilizando herramientas como Prometheus, Grafana, ELK Stack, etc.

Requerimientos del cargo

Enfoque decidido hacia la gestión y optimización de servicios en la nube y prácticas DevOps. Esperamos que el candidato ideal tenga experiencia robusta en la implementación y manejo de ambientes cloud, utilizando herramientas modernas de CI/CD como Jenkins, y que posea habilidades sólidas en la configuración y administración de ambientes de desarrollo, prueba y producción.

El rol implica responsabilidades clave como la configuración de bases de datos y la garantía de su rendimiento óptimo, la implementación de soluciones escalables y la administración de infraestructura como código. Es fundamental que el candidato tenga la capacidad de colaborar estrechamente con equipos de desarrollo para facilitar despliegues rápidos y seguros, y asegurar la alta disponibilidad y resiliencia de los sistemas.

Buscamos a alguien que no solo se encargue de mantener la infraestructura existente, sino que también proponga y ejecute mejoras continuas, aplicando las mejores prácticas de seguridad y optimización de costos en entornos cloud.

El candidato ideal debe ser proactivo, trabajar bien en equipo, y manejar habilidades de comunicación efectivas. Se valoran personas con orientación a resultados, autonomía, y un enfoque en la mejora continua.

Experiencia excluyente:

  • Configuración de máquinas virtuales en entornos Linux.
  • Configuración de servicios web y de aplicaciones.
  • Seguridad de sistemas y redes.
  • Monitoreo y logística.

Comportamiento esperado:

Lo que buscamos en ti:

  • Proactividad
  • Trabajo en equipo
  • Autonomía
  • Orientado a objetivos y resultados

Características personales:

  • Autonomía
  • Cumplimiento
  • Buenas habilidades de comunicación oral y escrita incluyendo comprensión lectora
  • Saber escuchar, atención
  • Ser respetuoso
  • Disposición a colaborar con el equipo
  • Responsable de sus tareas proyectos trabajos

Opcionales

Conocimiento en servicios AWS: Experiencia en la configuración y gestión de servicios clave de AWS como EC2, S3, RDS, ECS, Lambda, y VPC. Familiaridad con AWS CloudFormation o Terraform.

Gestión de bases de datos: Sólidos conocimientos en la configuración, optimización y mantenimiento de sistemas de bases de datos como MySQL y SQL Server. Experiencia en tareas como la configuración de replicación, backups automatizados y tuning de rendimiento.

Configuración y manejo de contenedores: Experiencia en el uso de Docker para la creación y gestión de contenedores.

Orquestación con Kubernetes : Capacidad para implementar, configurar y manejar clústeres de Kubernetes, optimizando la automatización y escalabilidad de aplicaciones en producción.

Implementación y configuración de herramientas de CI/CD: Experiencia en la configuración y uso de Jenkins para la integración y entrega continua.

Automatización y scripting: Habilidad en scripting con Bash, Python, o similar.

Beneficios

Este puesto ofrece la flexibilidad de un entorno de trabajo remoto, sin embargo, según las necesidades específicas de nuestros clientes, puede haber ocasiones en las que se requiera tu presencia en un lugar de trabajo presencial.

  • Días extra de vacaciones.
  • Días libres 3x5, día libre por cumpleaños, cambio de domicilio, muerte de mascota
  • Pago de certificaciones seleccionadas
  • Pausa activa colaborativa
  • Aguinaldo

APPLY VIA WEB
Gross salary $1900 - 2300 Full time
Desarrollador Full-Stack Integraciones y QA
  • Sendu
QA Ruby on Rails HTML5 PHP

En Sendu, nos dedicamos a facilitar la última milla través de integraciones efectivas y personalizadas con cualquier canal de venta digital de un negocio eCommerce. Nuestro ambiente laboral es dinámico y joven, lo que promueve la creatividad y el trabajo en equipo. Estamos en búsqueda de un Desarrollador Full Stack que encaje en este enfoque y que pueda liderar la calidad y estabilidad de nuestra plataforma, trabajando de manera remota y eficiente.

Responsabilidades Principales:

  • Desarrollo y mantenimiento de integraciones (plugins): Diseñar y mantener plugins de Sendu para plataformas como WooCommerce, Shopify, Magento y VTEX. Implementar nuevas funcionalidades y optimizar el rendimiento y la seguridad.
  • Integración personalizada con clientes: Coordinar reuniones y configurar integraciones necesarias, ofreciendo soporte técnico en tiempo real y realizando ajustes personalizados.
  • Ingeniería de soporte y QA: Diagnosticar problemas técnicos, realizar debugging y ejecutar pruebas para validar la calidad de nuevas funcionalidades, así como administrar tareas en Jira y Trello.

Requisitos Técnicos:

Desarrollo de Integraciones: Experiencia comprobada en desarrollo de plugins para plataformas eCommerce (WooCommerce, Shopify, Magento, VTEX) y conocimientos en JavaScript, PHP, Ruby on Rails (o equivalente), HTML5 y CSS3. Experiencia con APIs REST y Webhooks.

Soporte y QA: Habilidad para diagnosticar problemas en aplicaciones existentes y experiencia en debugging con herramientas como Selenium, Cypress, Jest o similar. Capacidad para gestionar proyectos en Jira y Trello.

Habilidades Blandas: Excelentes habilidades de comunicación, capacidad para liderar reuniones técnicas y proactividad para identificar y solucionar problemas. Organización efectiva y actitud colaborativa orientada al cliente.

Requisitos Deseables:

Experiencia con Docker y contenedores, familiaridad con AWS y conocimientos en bases de datos relacionales y no relacionales como MySQL, PostgreSQL o MongoDB.

Ofrecemos:

Un entorno de trabajo dinámico y colaborativo con modalidad híbrida/remota, según disponibilidad. Brindamos oportunidades de desarrollo profesional continuo y desafíos técnicos interesantes que te permitirán crecer en tu carrera.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Technical Product Manager / Lima Perú
  • Dynamic Devs
  • Lima (Hybrid)
Agile Scrum

Somos una empresa de servicios de tecnología que busca proyectos de alto impacto haciendo de la innovación y transformación digital parte de diferentes empresas principalmente transnacionales latinoamericanas de diversos sectores económicos como retail, seguros, distribución de equipos médicos, banca y productos digitales masivos utilizados por los consumidores. en todo el continente

Somos partidarios de la excelencia técnica, DevOps, Entrega Continua e Integración Continua, conformando equipos de alto desempeño en proyectos desafiantes, orientados al crecimiento e implementación de nuevas tecnologías. Más importante aún, ofrecemos un entorno colaborativo y multicultural donde puedes aprender, disfrutar y crecer como profesional.

📢 En Dynamic Devs, buscamos un Technical Product Manager con iniciativa y ambición de crecimiento para liderar proyectos desafiantes y alinear las soluciones tecnológicas con los objetivos comerciales de nuestros clientes.

Funciones del cargo

1. Coordinar y supervisar proyectos de complejidad variable, asegurando la entrega dentro del tiempo y el presupuesto establecidos.
2. Actuar como punto de contacto entre los equipos de desarrollo y los stakeholders del cliente, facilitando una comunicación clara y eficiente.
3. Participar en la definición de requisitos junto con el equipo de desarrollo y el cliente.
4. Gestionar el backlog y priorizar tareas de acuerdo a los objetivos del proyecto.
5. Apoyar en la implementación y mejora de procesos ágiles (Scrum, Kanban) dentro del equipo.
6. Identificar riesgos y proponer soluciones para mitigar problemas durante el ciclo de vida del proyecto.
7. Facilitar el descubrimiento técnico junto al equipo, asegurando que las soluciones propuestas se alineen con las expectativas del cliente.
8. Documentar decisiones técnicas y de producto, asegurando transparencia y trazabilidad en los proyectos.

Requerimientos del cargo

  • 2 a 3 años de experiencia en roles de gestión de proyectos o Technical Product Manager en proyectos de tecnología.
  • Experiencia con metodologías ágiles (Scrum, Kanban) y herramientas de gestión de proyectos como Jira, Trello, Notion, o similares.
  • Familiaridad con conceptos técnicos en desarrollo de software (QA, pipelines, cloud, APIs) para poder colaborar con equipos técnicos.
  • Excelentes habilidades de comunicación y experiencia en la gestión de la relación cliente-equipo.
  • Capacidad para identificar riesgos y priorizar soluciones.
  • Iniciativa y proactividad para liderar proyectos y equipos.
  • Excelentes habilidades interpersonales, con capacidad para trabajar con equipos diversos y multiculturales.
  • Fuerte habilidad de gestión del tiempo y manejo de proyectos simultáneos.
  • Disponibilidad para asistir 3 días a la semana de forma presencial a la oficina del cliente ubicada en Lima, Perú (modalidad híbrida, requisito excluyente).

Opcionales

  • Experiencia previa en consultoría o gestión de proyectos de software en sectores como retail, seguros, finanzas, etc.
  • Habilidades avanzadas en gestión de métricas y evaluación de KPIs.
  • Conocimiento cloud a nivel ejecutivo (AWS, GCP)

Beneficios Dynamo!!

💻 Beneficio Bring Your Own Device (A partir del 4to mes trabajando con nosotros, podrás adquirir un computador propio)
🚀 Haz un impacto. Trabaja en proyectos desafiantes
🤓 Cloud Partnership. Accede a certificaciones y nuestros grupos de estudio
📚 IT Training: acceso a más de 500 cursos actualizados cada semana 📖
🎤 Dev Talks: conferencias exclusivas con expertos del sector
🎉 Día especial: 🎂 ¡Día libre por cumpleaños!
👥 Trabaja en un equipo talentoso y multicultural usando una tecnología increíble
🎙️ Conoce nuestro podcast aquí: https://acortar.link/DHlDFT
🌐 Nuestra web: https://www.dynamicdevs.com/

Internal talks Dynamic Devs offers space for internal talks or presentations during working hours.
Partially remote You can work from your home some days a week.
Computer provided Dynamic Devs provides a computer for your work.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Project Leader
  • ARKHO
  • Bogotá (Hybrid)
Analytics Scrum Tech Lead Agile

ARKHO es una consultora experta en tecnologías de la información, que ofrece servicios expertos de TI en el marco de modernización de aplicaciones, analítica de datos y migración a la nube. Nuestro trabajo facilita y acelera la adopción de la cloud en múltiples industrias.

Nos destacamos por ser Partner Advanced de Amazon Web Services con foco estratégico en la generación de soluciones usando tecnología en la nube, somos obsesionados por lograr los objetivos propuestos y tenemos especial énfasis en el grupo humano que compone ARKHO (nuestros Archers), reconociendo a nuestro equipo como un componente vital para el logro de los resultados.

¿Te motivas? ¡Te esperamos!

Funciones del cargo

  • Liderar y guiar el correcto desarrollo e implementación de las soluciones para nuestros clientes, participando en los procesos de diseño de aplicaciones, velando por dar una experiencia enriquecida, innovadora y de alta calidad de servicio a nuestros clientes.
  • Velar por el cumplimiento de hitos por proyecto, reportando en todo momento estados de avance de forma interna como a nuestros clientes.
  • Gestionar los riesgos del proyecto, involucrando a los actores relevantes y trabajando de forma concreta para su mitigación.
  • Experiencia trabajando con múltiples equipos ágiles y utilizando su marco de gestión.
  • Familiaridad trabajando con entregables e iteración de los proyectos, junto con la coordinación y éxito en conformar equipos colaborativos que permitan el cumplimiento de los compromisos adquiridos.
  • Trabajar continuamente por el aseguramiento de la calidad de servicio y el cumplimiento de las expectativas cliente.

Requerimientos del cargo

Perfil del Archer

Este perfil está orientado al liderazgo de las iniciativas jugando un rol de integración entre nuestros clientes y el equipo técnico de analítica y desarrollo. Trabaja de manera integrada con el líder técnico de la célula para el logro de los resultados y el control de las expectativas. Su énfasis en las iniciativas está en la planificación, control de entregas, limitación de riesgos y generación de un contexto adecuado que minimice los obstáculos para el avance de las iniciativas y maximice el potencial de los equipos técnicos. Es un rol de la más alta confianza para nuestros clientes y colaboradores.

¿Qué otras habilidades requerimos?

  • Experiencia mínima de 4 años en liderazgo de proyectos TI y cloud. Es indispensable conocer tecnológicamente las soluciones a alto nivel.
  • Conocimientos de IA, ML y Analítica Avanzada.
  • Conocimiento de Metodología ágil scrum.
  • Gestión de requerimientos del cliente, empresa u otros partners para el logro de los objetivos.

Habilidades Opcionales

  • Certificaciones Agile Product Owner o Scrum Master.
  • Conocimiento en proyectos de analítica de datos o modernización de aplicaciones.
  • Certificación PMI.

Beneficios

📆 Día administrativo semestral hasta los 12 meses
🏖️ Week off: 5 días de vacaciones extra
🎉 ¡Celebra tu cumpleaños!
📚 Path de entrenamiento
☁️ Certificaciones AWS
🏡 Flexibilidad (trabajo híbrido con posibilidad a remoto)
💍 Regalo por casamiento + 5 días hábiles libres
👶 Regalo por nacimiento de hijos
✏️ Kit escolar
🤱 Beneficio paternidad
❤️ Bonda (plataforma de descuentos y bienestar)
🛡️ Seguro complementario de salud

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Vacation over legal ARKHO gives you paid vacations over the legal minimum.
APPLY VIA WEB
$$$ Full time
Machine Learning Engineer
  • Haystack News
  • Lima (Hybrid)
Python SQL NoSQL BigQuery

Haystack News is the leader in transitioning younger audiences to a next-generation TV news product. We empower users to watch the news they care about with a personalized headline news channel. Our personalization and big data technology enable a seamless lean-back experience reaching millions of users. In 2020, we streamed billions of minutes of news to users around the globe.

We're available on a variety of TV platforms (Roku, Fire TV, Android TV, Apple TV, Chromecast, Vizio) as well as mobile, tablet, and desktop.

Job functions

We are looking for an outstanding machine learning engineer to join Haystack and help improve the experience of millions of users that rely on Haystack to get the news every day.

Within the team you’ll find many opportunities to work on various aspects of Machine Learning and Data Engineering. The job offers the opportunity of generating a major impact on the product while working with an awesome and talented team, using the latest technologies.

You will:

  • Analyze large data sets to get insights using statistical analysis tools and techniques
  • Build, evaluate and deploy machine learning models
  • Maintain ongoing reliability, performance, and support of the data infrastructure, providing solutions based on application needs and anticipated growth.
  • Work with tools to configure, monitor and orchestrate data infrastructure and pipelines.
  • Run and monitor AB Tests
  • Build and manage APIs

Qualifications and requirements

  • Bachelor's degree in Computer Science, Statistics, Math or related field.
  • 3+ years experience writing software in a professional setting
  • Knowledge of AWS and Python
  • Strong Math/Stats background with statistical analysis experience on big data sets
  • Experience with SQL and NoSQL (e.g. MongoDb or DynamoDB)
  • Big Plus: Experience with data warehouses (e.g. Snowflake, Big Query, Redshift)
  • Exposure to ML/AI libraries such as sklearn, LightGBM and, XGBoost.
  • Travel Visa to the US (desired)

Conditions

Uber rides to come to the office!
Travel to team's offsite events
Learn about multiple technologies

Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Meals provided Haystack News provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Company retreats Team-building activities outside the premises.
Computer repairs Haystack News covers some computer repair expenses.
Commuting stipend Haystack News offers a stipend to cover some commuting costs.
Computer provided Haystack News provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Conference stipend Haystack News covers tickets and/or some expenses for conferences related to the position.
Informal dress code No dress code is enforced.
Vacation over legal Haystack News gives you paid vacations over the legal minimum.
Beverages and snacks Haystack News offers beverages and snacks for free consumption.
APPLY VIA WEB
$$$ Full time
Mlops Engineer
  • Niuro
Python Linux DevOps Docker
At Niuro, we are dedicated to connecting projects with elite tech teams, working collaboratively with leading companies in the U.S. Our AI team is expanding, and we are seeking a proactive MLOps Engineer to help us build and maintain robust machine learning pipelines. You will play a critical role in ensuring that our models are production-ready and scalable within dynamic environments, contributing to the successful execution of innovative projects.

Responsibilities

  • Pipeline Management & Automation: Build and maintain ML pipelines using Databricks and MLflow. Automate data workflows and ensure reproducibility of experiments.
  • Model Deployment & Monitoring: Deploy models to production and monitor their performance over time. Implement best practices for CI/CD in machine learning using Bitbucket.
  • Infrastructure & Environment Management: Manage and monitor batch jobs on Linux environments. Collaborate with data scientists to ensure smooth transitions from notebooks to production-grade code.
  • Collaboration & Documentation: Work closely with international teams to align on MLOps strategies and solutions. Document workflows and setups to ensure maintainability and transparency.

Requirements

  • Experience: 3+ years working in MLOps, DevOps, or related roles with machine learning pipelines.
  • Technologies: Hands-on experience with Databricks, MLflow, Python, Bitbucket, Batch processing, and Linux.
  • English: Intermediate-advanced written and spoken English (required) to work with international teams.
  • Mindset: Strong problem-solving skills and a passion for automation, performance, and scalability.

Preferred Qualifications

  • Experience working in remote, agile teams with international clients.
  • Familiarity with cloud services (AWS, Azure, or GCP).
  • Knowledge of Docker, Kubernetes, or Terraform is a plus.

What We Offer

  • 🌎 100% Remote – Work from anywhere!
  • 📈 Professional Growth – Join an innovative and collaborative AI-driven environment.

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
Gross salary $2500 - 3000 Full time
Administrador de Bases de Datos (DBA) Oracle
  • BC Tecnología
  • Santiago (Hybrid)
SQL Oracle Python Virtualization
BC Tecnología es una consultora de TI con personal experto en diferentes áreas de tecnología. Nos dedicamos a administrar portafolio, desarrollar proyectos, realizar outsourcing y selección de profesionales para crear equipos de trabajos ágiles en áreas como Infraestructura Tecnología, Desarrollo de Software y Unidades de Negocio.
En BC Tecnología, diseñamos soluciones acorde a las necesidades de nuestros clientes, especialmente en los sectores de servicios financieros, seguros, retail y gobierno, durante más de 6 años.

Responsabilidades:

  • Mantener la alta disponibilidad y rendimiento de las bases de datos Oracle.
  • Configurar y gestionar entornos de alta disponibilidad utilizando Oracle RAC y Data Guard.
  • Realizar migraciones de bases de datos a Oracle Cloud y otros entornos Cloud (OCI, Azure).
  • Automatizar tareas rutinarias mediante scripts.
  • Ejecutar monitoreo, tuning y optimización de bases de datos.
  • Diseñar e implementar planes de recuperación ante desastres y políticas de backup/restore.
  • Colaborar con equipos de desarrollo y operaciones para garantizar una integración eficiente.
  • Mantenerse actualizado con las nuevas funcionalidades y parches de Oracle, garantizando la seguridad.

Requisitos y Habilidades:

  • Experiencia mínima de 3 años en administración de bases de datos Oracle en entornos críticos y de alto volumen de transacciones.
  • Dominio avanzado de Oracle 19c o superior, Oracle RAC, Data Guard, ASM y Oracle Multitenant.
  • Conocimiento en Oracle Cloud Infrastructure (OCI) y otras nubes públicas (Azure, AWS deseable).
  • Competencia en scripting para automatización de tareas DBA (Bash, Python).
  • Conocimientos en monitoreo y optimización de bases de datos.
  • Familiaridad con sistemas operativos basados en Linux/Unix.
  • Experiencia en seguridad y encriptación de datos en bases de datos.
  • Conocimientos en PL/SQL y optimización de sentencias SQL (tuning).
  • Experiencia con Golden Gate.
  • Conocimientos en políticas de backup y recuperación (RMAN, Data Pump).

Trabajo Hibrido, requiere disponibilidad para turnos 24x7 de una semana al mes (o cada dos meses) según la carga de trabajo.

APPLY VIA WEB
Gross salary $2500 - 2900 Full time
DevOps Latam
  • BC Tecnología
DevOps Virtualization Amazon Web Services CI/CD

Somos BC Tecnología, creamos equipos de trabajos y células ágiles para las principales empresas de Chile con presencia global en servicios financieros, seguros, retail y gobierno.

Buscamos profesionales con alta capacidad de Análisis y síntesis, proactivos, flexibles, ordenados, enfocados en el trabajo de equipo, comprometidos y responsables.

Somos una organización que ofrece una variedad de servicios financieros de excelencia con el fin de permitir a nuestros clientes satisfacer sus necesidades de prosperidad familiar y seguridad patrimonial. Nuestra misión es crear valor para nuestros accionistas, construyendo relaciones de confianza con quienes interactuamos día a día, cumpliendo así nuestro rol de ser un buen ciudadano empresarial.

Ofrecemos además las condiciones necesarias para que las personas en nuestra organización desarrollen todo su potencial en un ambiente laboral desafiante y de respeto a los valores que consideramos importantes y profesamos.

Funciones del cargo

DevOps especializado en la gestión de servicios en la nube, automatización, y mantenimiento de sistemas. Este profesional es responsable de la implementación, mantenimiento y optimización de infraestructuras basadas en la nube, asegurando la escalabilidad, seguridad y eficiencia de los entornos.
Buen entendimiento del contexto de red y seguridad en entornos en la nube.

Requerimientos del cargo

Buen manejo de la gestión y mantenimiento de servicios de AWS.

Experiencia sólida con AirFlow.

Experiencia con AWS EKS.

Gestión de instancias y tableros de Grafana.

Buen manejo de la infraestructura como código.

Experiencia con CI/CD en cualquier tecnología.

Buenas prácticas de control de versiones de código (cualquiera como GitLab, Bitbucket, GitHub,

Opcionales

Buen manejo de la gestión y mantenimiento de servicios en GCP.

Experiencia con pipelines de GitLab (GitLab pipeline + GitLab Runner + GitLab Ops + Flux CD).

Se busca un recurso a nivel SC, capaz de trabajar de manera independiente en despliegues y colaborar con el equipo de HIMS.

Condiciones

  • Contrato 3 a 6 meses, con posibilidad de extensión.
  • Modalidad trabajo: Home Office (LATAM)

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
Gross salary $2800 - 3700 Full time
Site Reliability Engineer
  • Buk
Java Ruby on Rails Python PHP

En Buk, estamos en una misión audaz 💪🌎:

¡Transformar los entornos laborales en lugares más felices y productivos! Somos un equipo joven, lleno de energía y pasión por revolucionar la gestión de RRHH en Latinoamérica. La tecnología es nuestra herramienta principal, y nos esforzamos por la excelencia en cada aspecto de nuestra plataforma.

Con presencia en Chile, Colombia, México y Perú y próximos a iniciar operaciones en Brasil ¡estamos listos para atraer mentes brillantes que nos ayuden a seguir alcanzando muchas metas con miras al infinito y más allá! si quieres saber cómo es un día de trabajo con nosotros, no dudes en echar un vistazo al siguiente video: https://www.youtube.com/watch?v=jBxmAcOrMZU

Funciones del cargo

  • Te encargarás de desarrollar módulos y componentes transversales de la infraestructura.
  • Serás responsable de la administración de las plataformas internas.
  • Velarás por su estabilidad, disponibilidad, seguridad y escalabilidad.
  • Participarás en la mejora continua identificando mejoras a desarrollar.
  • Te encargarás de atender incidentes.
  • Participarás en la automatización de procesos.

Requerimientos del cargo

  • Al menos 3 años de experiencia en roles similares
  • Experiencia trabajando con Terraform
  • Conocimientos en AWS
  • Experiencia con Stack de monitoreo Grafana/Prometheus
  • Conocimiento en gitOps
  • Experiencia trabajando con Docker y Kubernetes (INDISPENSABLE)
  • Conocimientos de sistemas operativos Linux

Opcionales

  • Administración de bases de datos PostgreSQL
  • Experiencia en desarrollo de software (PHP, Java, Python, RoR, etc.)

Condiciones

  • ¡El mejor ambiente de trabajo! Nuestra misión es crear lugares de trabajo más felices, y bueno, lideramos con el ejemplo!😀
  • VACACIONES ILIMITADAS! 🌴🏖️☀️ Sí! ¡Leíste bien!
  • Plan de Beneficios personalizado ⭐ podrás elegir muchas opciones, entre Seguro complementario de Salud, aguinaldos, bonos, capacitaciones, clases de inglés, gimnasio, giftcards, asesoría financiera, ayuda psicológica, Netflix, Spotify y muchos más!
  • Postnatal Paternal de 5 semanas 🍼💙
  • Flexibilidad horaria, queremos que la gente se motive y trabaje feliz, cumpliendo objetivos, no que marque tarjeta.
  • Modalidad WFA 🌴🌞(Work From Anywhere) trabaja 100% en la oficina/ híbrido/ full remoto ¡Tú eliges!
  • Increíbles oficinas en Latam, modernas y con áreas recreativas: Máquina de cerveza, Helados, Mesa PingPong, Snacks y Café, Nintendo.🍩🍫🍺🍕🍎
  • ¡Olvídate de las corbatas y de los zapatos!
  • Sueldo: propone, si eres la persona que buscamos, no te quedarás fuera

Fully remote You can work from anywhere in the world.
Equity offered This position includes equity compensation (in the form of stock options or another mechanism).
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Buk pays or copays health insurance for employees.
Computer provided Buk provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Buk gives you paid vacations over the legal minimum.
Beverages and snacks Buk offers beverages and snacks for free consumption.
APPLY VIA WEB
Gross salary $3300 - 5000 Full time
Senior Test Automator
  • Abstracta
C C# DevOps Virtualization
Con oficinas en Silicon Valley y diferentes países de Europa y América Latina, Abstracta es una compañía líder mundial en control de calidad y pruebas, enfocada en mejorar la calidad de las aplicaciones de software.
Mediante la alianza con empresas amigas, logramos acercarte esta oportunidad de formar parte de un proyecto de US que se dedica a una solución de gestión de contenido empresarial basada en la nube, en la que confían organizaciones de todos los tamaños.

Responsabilidades:

En tu rol, evaluarás criterios de aceptación y determinarás enfoques de prueba adecuados. Serás responsable de la estrategia de automatización de pruebas y gestión de datos de prueba para los proyectos asignados.
  • Escribirás y ejecutarás pruebas manuales y automatizadas según las necesidades del proyecto.
  • Mantendrás marcos de automatización de pruebas existentes y escribirás, depurarás y ejecutarás código para pruebas automatizadas de API y UI.
  • Definirás y gestionarás procesos y mejores prácticas para la automatización de pruebas, incluyendo la revisión de casos de prueba manuales para enriquecer suites de pruebas automatizadas.
  • Proporcionarás métricas precisas sobre procesos de negocio y cobertura de código.
  • Presentarás resultados de pruebas a las partes interesadas y recomendarás mejoras en los procesos de prueba y herramientas utilizadas.
  • Liderarás al equipo en iniciativas de calidad, entrenando y guiando a otros miembros.

Requisitos:

  • Formación en Ciencias de la Computación, Ingeniería o un campo relacionado.
  • Más de 5 años de experiencia en pruebas manuales.
  • Más de 2 años de experiencia trabajando con C# y Selenium.
  • Más de 2 años de experiencia en AWS y Microservicios.
  • Más de 2 años de experiencia en pruebas de APIs y UI.
  • Más de 2 años de experiencia en Azure DevOps.
  • Experiencia en automatización CI/CD.
  • Es fundamental un nivel avanzado de inglés para la comunicación efectiva en el entorno de trabajo.

¿Qué ofrecemos?

Ofrecemos un ambiente laboral flexible y dinámico, con la opción de trabajar desde casa. Te invitamos a formar parte de un equipo que valora la innovación y la mejora continua, donde tu aporte será reconocido. Además, disfrutarás de:
  • Horarios flexibles.
  • Participación en proyectos innovadores.
  • Salario en USD en modalidad independiente.

APPLY VIA WEB
Gross salary $1500 - 1900 Full time
DevOps AWS Junior
  • BC Tecnología
  • Santiago (Hybrid)
DevOps Virtualization Amazon Web Services Kubernetes

El Banco BICE es una entidad financiera bancaria chilena, fundada el 2 de mayo de 1979 por un grupo de empresas industriales chilenas, como CMPC S.A., Minera Valparaíso S.A., Compañía Industrial El Volcán S.A., y otras empresas de los sectores forestal, de generación eléctrica e inmobiliario.

Somos BC Tecnología, creamos equipos de trabajos y células ágiles para las principales empresas de Chile con presencia global en servicios financieros, seguros, retail y gobierno.

Buscamos profesionales con alta capacidad de Análisis y síntesis, proactivos, flexibles, ordenados, enfocados en el trabajo de equipo, comprometidos y responsables.

Funciones del cargo

1. Automatización de Despliegues**: Crear y mantener pipelines CI/CD en GitLab o GitHub para automatizar el build, pruebas y despliegue de aplicaciones en entornos Kubernetes.

2. Gestión de Clústeres Kubernetes**: Configurar, monitorear y escalar clústeres en Kubernetes para asegurar la alta disponibilidad y rendimiento de aplicaciones.

3. Monitoreo y Log Management**: Implementar y administrar ELK Stack para centralizar logs y crear dashboards que permitan detectar problemas en tiempo real.

4. Infraestructura como Código (IaC)**: Usar herramientas como Terraform o CloudFormation para definir, versionar y desplegar infraestructuras en AWS de manera automatizada y repetible.

5. Seguridad y Compliance**: Gestionar permisos, políticas de seguridad y acceso en AWS y Kubernetes, asegurando el cumplimiento de estándares de seguridad.

Requerimientos del cargo

Al menos 1 años de experiencia como Devops, utilizando las siguientes tecnologías / herramientas

  • Usar herramientas como Terraform o CloudFormation para definir, versionar y desplegar infraestructuras en AWS de manera automatizada y repetible.
  • Implementar y administrar ELK Stack
  • Gestión de Clústeres Kubernetes
  • Lambda
  • GitLab
  • GitHut ​​​​​​​

Opcionales

  • Contrato por proyecto estimado a 4 meses
  • Metodología de trabajo: Hibrido 2 días en la oficina (providencia)
  • Disponibilidad lunes a viernes 8:30 a 18:30h
  • Salario a convenir
  • Seguro complementario Salud (Gratis para el trabajador)
    Seguro de Vida
  • Amipass $4.500 diario

APPLY VIA WEB
Net salary $1000 - 1400 Full time
Analista QA
  • Defontana
  • Santiago (Hybrid)
QA

¿Te gusta trabajar con las últimas tecnologías? ¿Te consideras innovador y quieres participar proyectos de modernización de plataformas? Si tu respuesta es SÍ, este desafío es para ti. En Defontana buscamos nuevos talentos para formar parte de nuestros proyectos y construir en conjunto las mejores soluciones empresariales del mercado.

DEFONTANA ofrece soluciones empresariales 100% WEB, siendo la empresa líder del mercado latinoamericano en la implementación de software ERP.

Buscamos ofrecer grato ambiente laboral, compañerismo, conocimiento y desafíos, todos los ingredientes necesarios para hacer de tu día a día en Defontana algo interesante, algo diferente y que crezcas profesionalmente.

En el área de desarrollo de DEFONTANA estamos embarcados en una serie de proyectos que buscan expandir las funcionalidades disponibles para nuestros clientes, intentando generar un ecosistema que les entregue todo lo que necesitan para administrar con éxito sus empresas.

Funciones del cargo

Ser parte de la gestión de calidad de los productos asignados para realización de QA: diseño y ejecución integral de pruebas sobre el ERP Defontana según las necesidades de sus productos. Todas ellas creadas con el objetivo de detección temprana de errores durante el proceso de desarrollo.

Se busca en específico un analista QA que trabaje directamente con el equipo encargado de la Transformación Digital de la compañia, el cual esta compuesto por 2 celulas, siendo el responsable el Gerente del área misma (Gerencia de Transformación Digital), quien sera ademas jefatura directa de quien postule al cargo.
Alguna de las tareas que se deben desempeñar son las sgtes :

  • Realizar planes de pruebas
  • Ejecutar testing de productos
  • Simular ejecuciones de productos y su rendimiento
  • Evaluar exhaustivamente los resultados
  • Revisar especificaciones de servicios y productos
  • Asegurar un funcionamiento óptimo del software
  • Potenciar las estrategias de prueba

Requerimientos del cargo

Para este cargo se debe tener conocimiento o el perfil apropiado en algunos temas, tales como:

  • Tener y aplicar conocimiento sobre las distintas tipos de pruebas
  • Documentación de procesos.
  • Proponer soluciones a diferentes errores que se encuentren, de manera de no tan solo realizar pruebas, sino que aportar en las soluciones de las mismas.

Opcionales

Deseables:

  • Conocimiento en desarrollo de software: ciclos de vida, desarrollo ágil, etc.
  • Conocimientos básicos en AWS.

Condiciones

- Bono trimestral, según resultados de la empresa y antigüedad.
- Se entrega computador de trabajo.
- Trabajo remoto dos días a la semana.

APPLY VIA WEB
Gross salary $2000 - 3000 Full time
Data Engineer
  • Alegra
NoSQL SQL Python Scala

Si eres una o un desarrollador con pasión por los datos y te emociona construir soluciones robustas para procesar, integrar y escalar información, este rol es para ti. ¡Felicitaciones! Este reto es para ti 👇

Sobre Alegra 💙

Únete a Alegra, el lugar en donde tu talento crece y crea superpoderes. 🚀
En Alegra contamos con un equipo de más de 500 personas en más de 19 países trabajando 100% remoto con una cultura única, innovadora y dinámica que está revolucionando cómo las Pymes gestionan sus finanzas con un ecosistema de soluciones digitales en la nube disponible en más de 10 países en Latam, España y ¡vamos por más! 🚀

Conoce más sobre nuestra cultura en 👉 Alegra Coolture Code 👈

Funciones del cargo

Apoyar en la construcción y optimización de nuestra infraestructura de datos, asegurando que la información fluya de manera eficiente y esté disponible para impulsar decisiones estratégicas en toda la compañía.

Buscamos talentos que no solo escriba código eficiente, sino que también diseñe sistemas escalables y confiables para capturar, transformar y exponer datos en tiempo real.

Lo que harás en el día a día:

  • Construir y optimizar APIs y microservicios para exposición e integración de datos.
  • Diseñar, desarrollar y mantener pipelines de datos escalables.
  • Diseñar arquitecturas de datos eficientes en AWS (Redshift, S3, Glue, Athena, etc.).
  • Trabajar en la ingesta, transformación y orquestación de datos en plataformas como AWS lambda, Airflo o Spark.
  • Integrar datos desde diferentes fuentes y plataformas, asegurando calidad y consistencia.
  • Colaborar con equipos de Operations, Analytics y Producto para habilitar el acceso a datos limpios y estructurados.
  • Implementar mejores prácticas en seguridad, escalabilidad y mantenimiento de infraestructuras de datos.

Requerimientos del cargo

  • Experiencia sólida en desarrollo de software, preferiblemente con Python, Java o Scala.
  • Conocimientos en diseño y construcción de APIs y microservicios.
  • Manejo de bases de datos SQL y NoSQL (PostgreSQL, Redshift, DynamoDB, MongoDB).
  • Experiencia en integraciones con sistemas externos y procesamiento de datos en la nube (AWS, GCP o Azure).
  • Familiaridad con arquitecturas serverless y event-driven (AWS EventBridge, SNS, SQS, Kafka).
  • Experiencia en herramientas de ETL/ELT y procesamiento de datos (Airflow, dbt, Spark, Kafka, etc.)
  • Buenas prácticas en arquitectura, escalabilidad y optimización de queries y sistemas de datos.
  • Curiosidad y ganas de aprender sobre Big Data, Data Lakes y arquitecturas en la nube.
  • Capacidad de trabajar en equipo con analistas, equipos de negocio y desarrolladores.

Conditions

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
$$$ Full time
Semi Senior / Senior Data Engineer
  • Devsu
  • Quito, Cuenca or Guayaquil (In-office)
NoSQL Python Scala Virtualization
En Devsu, nos dedicamos a construir productos digitales innovadores que se ajustan a las necesidades de nuestros clientes. Con una trayectoria de más de 10 años, hemos reclutado y formado equipos de tecnología de alto rendimiento para algunas de las marcas más reconocidas del mundo.
Buscamos un Ingeniero de Datos con amplia experiencia en el ciclo completo de desarrollo de soluciones de información, incluyendo análisis, diseño, desarrollo, certificación, despliegue y mantenimiento, en entornos OnPremise y tecnologías Big Data. El candidato ideal debe demostrar sólidos conocimientos en optimización de bases de datos y un enfoque proactivo para superar limitaciones técnicas o de procesos, asegurando soluciones robustas, eficientes y alineadas con las mejores prácticas de desarrollo.

Es una posición presencial en la ciudad de Quito, Ecuador, en donde serás asignado/a a uno de nuestros clientes más importantes en el sector financiero/bancario de Latinoamérica.

Funciones del cargo

  • Diseñar y desarrollar soluciones de datos alineadas con la visión de Arquitectura de Datos.
  • Crear y optimizar ETLs, ELTs y APIs para manejo eficiente de datos.
  • Implementar estrategias de testing para validar calidad funcional y no funcional.
  • Proponer mejoras continuas en procesos y productos de datos.
  • Resolver incidencias técnicas y documentar soluciones conforme a estándares.
  • Mentorizar y apoyar el onboarding de nuevos integrantes del equipo.

Requerimientos del cargo

  • Bases de datos relacionales y NoSQL, diseño de Datawarehouse, Datamarts, Datalakes y Lakehouse.
  • Procesamiento distribuido con Hadoop, Spark y arquitecturas batch/streaming.
  • Desarrollo en Python, Scala o Java, aplicando principios de Clean Code.
  • Construcción de pipelines con herramientas ETL (Azure Data Factory, AWS Glue, SSIS).
  • Estrategias de DataOps/MLOps y despliegue CI/CD.
  • Deseable: Certificaciones en AWS, Azure, o Big Data, y experiencia en arquitecturas modernas como Data Mesh o Data Fabric.

Herramientas

  • Apache Spark, Kafka, Flink, Hadoop, HDFS.
  • Servicios Cloud: AWS, Azure, GCP.
  • Lenguajes: Python, Scala, Java.

Beneficios

Un contrato estable a largo plazo. Entrenamiento contínuo. Seguro de Salud Privado. Trabajarás con algunos de los ingenieros de software más talentosos de América Latina y los EEUU, haciendo un trabajo desafiante y software de clase mundial.

Wellness program Devsu offers or subsidies mental and/or physical health activities.
Internal talks Devsu offers space for internal talks or presentations during working hours.
Digital library Access to digital books or subscriptions.
Health coverage Devsu pays or copays health insurance for employees.
Computer provided Devsu provides a computer for your work.
Education stipend Devsu covers some educational expenses related to the position.
Personal coaching Devsu offers counseling or personal coaching to employees.
APPLY VIA WEB
$$$ Full time
▷ (Quedan 3 Días) Strategic Partnerships Associate
  • Promote Project
  • 🇨🇴 Colombia - Remoto 🌎
Full Time Support CRM KPIs
Strategic Partnerships Associate Location Bogotá, Bogotá, Colombia Salary 40000 - 70000 a year (Colombian Pesos) About Sezzle: Sezzle is a cutting-edge fintech company dedicated to financially empowering the next generation. With only one in three millennials owning a credit card and the majority lacking their desired credit scores, Sezzle addresses these challenges through a payment platform that offers interest-free installment plans at online stores. By increasing consumers' purchasing power, Sezzle drives sales and basket sizes for thousands of eCommerce merchants that it partners with. About the role: A Strategic Partnerships Associate will assist with managing partnership implementation by coordinating with internal teams and external stakeholders and existing relationships. The associate tracks partnership performance using KPIs, supports internal and external communications, manages projects and commercial priorities, solves partner-related issues, ensures compliance with requirements, and develops sales and training materials. We are seeking a talented and motivated Strategic Partnerships Associate who is best in class with a high IQ plus a high EQ. This role presents an exciting opportunity to thrive in a dynamic, fast-paced environment within a rapidly growing team, with abundant prospects for career advancement. What You’ll Do: - Project Management: Help manage the implementation and execution of partnership agreements by coordinating internally with relevant teams (marketing, legal, finance) and externally with partners. - Reporting and Metrics: Support the tracking and reporting on the success of partnerships, using key performance indicators (KPIs) to ensure they are meeting the company’s objectives. - Support Communications: Work with stakeholders to support communications internally and externally. - Solve Problems: Remove friction from workflows by solving customer and partner problems. - Develop Materials: Develop sales and marketing materials that support the launch of new and existing partnerships in conjunction with establishing and maintaining process and documentation. What We Look For: - Education: Bachelor’s Degree - Experience: 1+ years of business development, client relations, or project management experience - Skills: - Excellent written and verbal communication skills for crafting proposals, presentations, and internal/external communications. - Strong interpersonal skills for relationship building with partners and internal teams. - Strong detail orientation to ensure accuracy in contracts, proposals, and communications. Preferred Knowledge & Skills: - Problem-Solving: Capable of identifying challenges within partnerships and proposing solutions to optimize outcomes. - Project Management: Ability to manage multiple partnership projects simultaneously, ensuring smooth execution from start to finish. - Collaboration & Cross-Functional Coordination: Ability to work effectively across teams (e.g., marketing, legal, product, finance) to coordinate the successful execution of partnerships. - Strategic Thinking & Analysis: Proficiency in analyzing data to track performance and provide insights for decision-making. - Technical Skills: Proficiency in Microsoft Office, Google Suite, and CRM platforms (e.g., Salesforce). - Time Management: Ability to prioritize tasks and manage time effectively in a fast-paced environment. Industry Knowledge: Familiarity with payments, alternative payment methods, and market trends are a plus, particularly in sectors where partnerships are key to business growth (e.g., tech, e-commerce, finance). About You: - You have relentlessly high standards - continually raising the bar and driving those around you to deliver great results. - You’re not bound by convention - your success lies in developing new ways to do things. - You need action - speed matters in business; we value calculated risk-taking. - You earn trust - you listen attentively, speak candidly, and treat others respectfully. - You have backbone; disagree, then commit - you can respectfully challenge decisions and commit wholly once a decision is made. - You deliver results - focus on the key inputs and deliver them with the right quality and in a timely fashion. What Makes Working at Sezzle Awesome: At Sezzle, we believe in surrounding ourselves with only the best and the brightest individuals. Our culture is not defined by a certain set of perks but is reflected in every employee we hire. Diversity and Inclusion Sezzle provides equal employment opportunities (EEO) to all employees and applicants for employment without regard to any protected status in accordance with applicable laws. #Li-remote #J-18808-Ljbffr
APPLY VIA WEB
$$$ Full time
Data Booster
  • 2BRAINS
Web server SQL DevOps Continuous Integration

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

El/la Data Booster de 2Brains

Se encarga de participar en el diseño y desarrollo de los nuevos modelos de información de gestión y las mantenciones evolutivas de los existentes. Participar en las iniciativas de Analítica avanzada del área, apoyando las exploración de modelos de información internos y externos (Data Discovery). Obtener datos históricos desde múltiples fuentes de información interna para apoyar las iniciativas de analítica avanzada del equipo.

Qué harás como Data Booster de 2Brains

  • Identificar oportunidades y definir hipótesis basadas en datos para mejorar procesos y generar impacto en el negocio.
  • Diseñar y ejecutar experimentos que permitan validar soluciones con métricas claras y medibles.
  • Construir modelos analíticos y aplicar IA para transformar datos en insights accionables.
  • Facilitar la co-creación de productos de datos, asegurando que sean escalables y sostenibles.
  • Optimizar el desarrollo y adopción de soluciones según la madurez del squad y las necesidades del negocio.
  • Colaborar con equipos de tecnología, negocio y data science para alinear soluciones con los objetivos estratégicos.
  • Garantizar la calidad y gobernanza de los datos, promoviendo mejores prácticas en el manejo y uso de información.

Qué conocimientos buscamos en/la Data Booster

  • Métodos de análisis estadístico (regresión, pruebas de hipótesis, análisis multivariante).
  • Técnicas de modelado predictivo y prescriptivo.
  • Análisis de series temporales.
  • Algoritmos de machine learning supervisados y no supervisados.
  • Modelos de clasificación, regresión, clustering, y reducción de dimensionalidad.
  • Técnicas de deep learning y redes neuronales.
  • Limpieza, transformación y preprocesamiento de datos (ETL).
  • Manejo de grandes volúmenes de datos y optimización del procesamiento (Big Data).
  • Uso de herramientas de análisis de datos como Pandas, NumPy, Spark.
  • Diseño de experimentos (A/B testing, pruebas de causalidad).
  • Métodos de validación de modelos (cross-validation, métricas de evaluación).
  • Técnicas de evaluación de impacto y pruebas de hipótesis.
  • Creación de dashboards y reportes con herramientas como Tableau, Power BI, Looker.
  • Visualización avanzada con bibliotecas de Python como Matplotlib, Seaborn, Plotly.
  • Python/R para análisis de datos y desarrollo de modelos.
  • SQL para consultas y manipulación de bases de datos.
  • Experiencia con plataformas de nube como AWS, GCP, Azure para almacenamiento y procesamiento de datos.
  • Uso de servicios de data engineering en la nube (como Google BigQuery, Amazon Redshift, Azure Synapse).
  • Prácticas de DevOps aplicadas a proyectos de datos (automatización, integración continua).
  • MLOps para la automatización de la implementación y monitoreo de modelos.
  • Estándares y buenas prácticas en el manejo de datos (calidad, privacidad, seguridad).
  • Herramientas para la gobernanza de datos como Apache Atlas, Collibra.

Que competencias buscamos en/la Data Booster

  • Empatía
  • Buena capacidad de comunicación.
  • Colaboración y trabajo en equipo.
  • Proactividad.
  • Autonomía.
  • Foco en los objetivos de proyectos.

Te ofrecemos

  • Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos
  • Acceso a grandes clientes y proyectos desafiantes
  • Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales
  • Un entorno de trabajo flexible y dinámico
  • Beneficios especiales: día libre para tu cumpleaños, 4 semanas de vacaciones

Wellness program 2BRAINS offers or subsidies mental and/or physical health activities.
Internal talks 2BRAINS offers space for internal talks or presentations during working hours.
Education stipend 2BRAINS covers some educational expenses related to the position.
Informal dress code No dress code is enforced.
Shopping discounts 2BRAINS provides some discounts or deals in certain stores.
Vacation over legal 2BRAINS gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Administrador de Bases de Datos – AWS Rds Aurora PostgreSQL
  • Leniolabs_
SQL PostgreSQL Virtualization Amazon Web Services
Leniolabs_ que ahora es Improving South America es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España, USA y Canadá.
Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes.
Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.
Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Responsabilidades clave

  • Administración de bases de datos: Gestionar, monitorear y optimizar bases de datos AWS RDS Aurora PostgreSQL para garantizar alta disponibilidad, seguridad y rendimiento.
  • Optimización de rendimiento: Analizar y optimizar consultas SQL, índices y rendimiento general de la base de datos para mejorar tiempos de respuesta y escalabilidad.
  • Seguridad y cumplimiento: Implementar mejores prácticas de seguridad en bases de datos, controles de acceso, cifrado y garantizar el cumplimiento de estándares de la industria y políticas organizacionales.
  • Respaldo y recuperación: Establecer y mantener estrategias de respaldo y recuperación ante desastres para asegurar la integridad de los datos y la continuidad del negocio.
  • Automatización y monitoreo: Utilizar herramientas nativas de AWS y soluciones de terceros para monitoreo proactivo, alertas y automatización de procesos.
  • Documentación: Mantener actualizada la documentación sobre estructuras de bases de datos, políticas de acceso y mejores prácticas.

Requisitos

  • Experiencia: Más de 5 años de experiencia en ingeniería de bases de datos, con al menos 3 años trabajando con PostgreSQL (preferiblemente AWS RDS Aurora PostgreSQL).
  • Experiencia en bases de datos: Amplio dominio de PostgreSQL, incluyendo optimización de consultas, replicación, particionamiento y configuraciones de alta disponibilidad.
  • Nube y AWS: Experiencia práctica con AWS RDS, Aurora, IAM, S3, Lambda y CloudWatch para gestión y automatización de bases de datos.
  • Scripting y automatización: Dominio de SQL, Bash o Terraform AWS CDK para automatización de bases de datos e infraestructura como código.
  • Seguridad y cumplimiento: Conocimiento en cifrado de bases de datos, control de accesos, auditoría y marcos de cumplimiento (GDPR, HIPAA, SOC 2, etc.).
  • Resolución de problemas: Habilidades avanzadas de diagnóstico y solución de problemas en entornos de bases de datos de alta disponibilidad.
  • Nivel de inglés intermedio avanzado o avanzado (B2 -C1)

Requisitos deseados

  • Experiencia con arquitecturas de lago de datos, transmisión en tiempo real o soluciones de almacenamiento de datos.
  • Certificaciones de AWS (ej. AWS Certified Database – Specialty, AWS Solutions Architect – Associate).

Beneficios

  • Seguro complementario de salud Metlife (Chile).
  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Computer provided Leniolabs_ provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
APPLY VIA WEB
Gross salary $1600 - 2500 Full time
Data Engineer
  • Brain Food
  • Ciudad de México (Hybrid)
MySQL SQL Oracle Python

Somos Brain Food, una consultora especializada en analítica, ciencia de datos, y transformación digital.

Trabajamos de la mano con grandes compañías de diversos rubros, nacionales e internacionales, en proyectos de alta complejidad. Contamos con un equipo heterogéneo de profesionales con vasta experiencia en diversas industrias, los cuales tienen distintos intereses y especialidades.

Nuestro objetivo es generar alto impacto en nuestros clientes, trabajando en equipo, con profesionalismo, ética, motivación, preparación y honestidad. Tenemos una cultura diferenciadora, con una propuesta de valor muy atractiva para el equipo y un lugar para trabajar extraordinario.

¿Cuáles serán tus funciones?

Serás parte del equipo de Data Engineers de Brain Food, liderado por el Head of Data Engineering y apoyado por un mentor que te será asignado para guiar y orientar tu desarrollo profesional. Como Data Engineer serás parte de distintos proyectos, para distintos clientes, y tendrás la responsabilidad de desarrollar proyectos de Big Data en los que deberás:

  • Diseñar una arquitectura de datos que cumpla la misión de ser puente entre la estrategia de negocios y la ejecución de la tecnología bajo los lineamientos de data governance de los clientes
  • Diseñar, mantener e implementar estructuras de almacenamiento de datos transaccionales y analíticos.
  • Extraer datos de diferentes fuentes y transferirlos a un entorno de almacén de datos.
  • Trabajar con grandes volúmenes de datos leídos de fuentes dispersas de información en la infraestructura tecnológica de una organización.
  • Procesar datos en ambientes de Big Data y posteriormente traducir los resultados emanantes en buenos diseños técnicos y datos consistentes
  • Revisar la integración consolidada de los datos, ya sea física o virtualmente, y describir cómo la interoperatividad de dichos datos capacitan para que múltiples sistemas se comuniquen

Los clientes en cuestión podrán variar de acuerdo al proyecto al que seas asignado

¿Cuáles son los requerimientos del cargo?

  • Experiencia demostrable con uno o mas servicios de GCP: BigQuery, BigTable, Cloud SQL, Cloud Storage; Cloud Composer, Data Fusion, Dataflow, Dataproc, Dataform; Docker-Kubernetes
  • Experiencia con una o mas de las siguientes bases de datos relacionales: sql server, oracle, postgres, db2, sqlite y/o mysql
  • Conocimientos avanzados de python y/o pyspark
  • Conocimientos de modelado de datos y experiencia en diseño e implementación de data warehouse, data lakes, data lakehouses
  • Experiencia trabajando bajo metodologías ágiles

Requisitos deseables pero no excluyentes

  • Conocimientos y/o experiencia con herramientas de BI como Looker, Power BI, Tableau
  • Conocimientos y/o experiencia con servicios de procesamiento y almacenamiento de datos de Azure o AWS

¿Qué ofrecemos?

  • Alta exposición y experiencia de trabajo: Constante interacción con clientes, alto nivel de exposición con cargos estratégicos de la contraparte, trabajando desde el primer día con grandes empresas en proyectos desafiantes de alta complejidad y muchas de ellas en Latinoamérica.
  • Trabajar no lo es todo: Para promover el descanso, ofrecemos 11 días libres adicionales al año.
  • Nunca se deja de aprender: Para mejorar como profesionales tenemos que estar en constante aprendizaje; contamos con un presupuesto anual por persona destinado a capacitaciones.
  • Plan de participación en el reparto de utilidades después del primer año.
  • Excelente ambiente laboral: Equipo joven y altamente cohesionado, con disposición, centrado en el apoyo entre equipos.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Computer provided Brain Food provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Brain Food gives you paid vacations over the legal minimum.
Beverages and snacks Brain Food offers beverages and snacks for free consumption.
APPLY VIA WEB
$$$ Full time
Cloud Consultant AWS / GCP/ AZURE en Clouxter
  • Emma de Torre
  • 🇨🇴 Colombia - Remoto 🌎
Full Time Consultor Google Cloud Solutions
Estoy ayudando a Clouxter a encontrar al mejor candidato para unirse a su equipo tiempo completopara el rol de Remoto (para residentes de Colombia). “Únete a Clouxter como Cloud Consultant y Sé Parte de Nuestra #EvoluciónContinua" Compensación: Oculto. Ubicación: Remoto (para residentes de Colombia). Misión de Clouxter: "Ayudamos a las organizaciones en este camino y aceleramos su curva de adopción, abarcando la definición, planificación, implementación y operación de sus soluciones, a través de nuestros servicios de consultoría profesional, servicios gestionados y facturación local." ¿Qué te hace un candidato ideal? - Eres experto en AWS, consultoría tecnológica, and GCP (Google Cloud Platform). - Eres competente en Microsoft Azure and seguridad de la información. - Inglés - Completamente fluido. - Español - Completamente fluido. Responsabilidades y más: ¿Quiénes somos? En Clouxter, adoptamos una mentalidad Remote First y nos destacamos por hacer la diferencia en el mundo de la tecnología. Nuestra misión es facilitar la adopción y consolidación de soluciones en la nube de AWS, proporcionando un valor excepcional a cada uno de nuestros clientes. Nuestra cultura Nuestra esencia se basa en el trabajo en equipo, el empoderamiento, la excelencia y la capacidad de adaptación a nuevos desafíos. Creemos firmemente que la diversidad impulsa la innovación y fomentamos un ambiente donde las ideas creativas pueden florecer. ¿Por qué elegir Clouxter? En Clouxter, las personas son nuestra prioridad. Por ello, ofrecemos programas especiales de crecimiento profesional y personal, promoviendo el aprendizaje continuo y brindando oportunidades únicas para el desarrollo de nuestros colaboradores. ¿Qué buscamos en ti? - Experiencia mínima de 5 años en consultoría de soluciones tecnológicas. - Conocimiento de tecnologías de nube pública como AWS, GCP y Azure. - Experiencia en prácticas especializadas, incluyendo escalabilidad, rendimiento, seguridad, recuperación de desastres y migración. - Certificación AWS Certified Solutions Architect - Associate. - Nivel de inglés B2/C1. ¿Qué harás en este rol? - Asesoramiento estratégico para alcanzar los objetivos de los clientes. - Planificación y diseño de estructuras de soluciones tecnológicas. - Implementación de nuevas tecnologías. - Diseño de modelos y sistemas de TI garantizando una arquitectura y funcionalidad adecuadas. Beneficios del trabajo: - Trabajo 100% remoto: Desempeña tus funciones desde cualquier lugar con disponibilidad y conectividad. - Flexibilidad de tiempo: Días libres para compartir en familia, descansar, realizar diligencias personales o celebrar momentos especiales. - Cuidado de la salud: Medicina prepagada y beneficios de salud visual (aplican en algunos territorios). - Acceso a plataformas de streaming y formación: Suscripciones a servicios de entretenimiento y recursos de aprendizaje. - Comisiones semestrales. - Comisiones sin límite. - Apoyo psicológico disponible. - Bono visual. - Bono anual para mantenimiento de computadora. - Día libre por cumpleaños. - Dos días familiares. - Equipo de cómputo proporcionado si es necesario. - Gastos de viaje para eventos cubiertos por la empresa.
APPLY VIA WEB
$$$ Full time
Ingeniero de Datos
  • Devaid
Web server Node.js Python Virtualization
En <Devaid> nos apasionan los desafíos tecnológicos y nuestros clientes lo saben. Por lo anterior, nos plantean problemáticas que nos obligan a estar constantemente probando e implementando nuevas tecnologías.
Trabajamos fuertemente en la nube ya que somos Partner Premier de Google Cloud en Chile, por lo que tendrás la oportunidad de formarte como un profesional cloud.
Dependiendo de las necesidades del cliente, <Devaid> ofrece soluciones web, móviles, integración de sistemas, entre otros. Esto permite acceder a la herramienta sin importar el dispositivo ni el lugar dónde se encuentra. Permitimos el trabajo colaborativo entre múltiples usuarios manteniendo una base centralizada de información.

Funciones del cargo

Esperamos que puedas desempeñarte en las siguientes actividades:
  • Creación de pipelines de carga y transformación de datos.
  • Modelamiento de datos y creación de Data Warehouse y Data Lakes.
  • Integración de sistemas.
  • Creación de modelos de machine learning con herramientas low code autoML.
Vas a participar como ingeniero de datos en equipos de consultores que prestan servicios a empresas importantes en Chile. En estos equipos participan distintos perfiles, tales como desarrolladores de software, arquitectos de datos y data scientists. Los servicios se prestan de forma remota y son prestados por proyecto (no es outsourcing de recursos), por lo que puedes trabajar desde tu casa sin problemas. Diariamente vas a tener reuniones con tu equipo para coordinar actividades y resolver temas complejos que vayan surgiendo.

Requerimientos del cargo

Los requisitos para un buen desempeño de las funciones son:
  • 1 año de experiencia como Data Engineer.
  • Programación en lenguaje Python, NodeJS o Java (al menos uno de los 3).
  • Conocimiento de soluciones de Data Warehouse y ETL.
  • Conocimiento de plataformas de procesamiento de datos como Apache Spark, Dataflow o similares.
  • Haber trabajado previamente con alguna nube pública (AWS, Azure o GCP).
Si no cumples alguno de estos puntos no te desanimes, queremos conocerte igualmente.
El trabajo es 100% remoto, pero es necesario que tengas RUT y/o papeles al día en Chile.

Deseables

Suman puntos en tu postulación si cumples alguna de las siguientes habilidades, ninguno de estos son excluyentes:
  • Conocimiento de herramientas Google Cloud, entre ellas Google BigQuery, Dataflow, Data Fusion y Pub Sub.
  • Experiencia en plataformas de deployment de infraestructura como Terraform.
  • Experiencia utilizando la herramienta de consola gcloud.

Beneficios

Prometemos un ambiente muy grato de trabajo, lleno de desafíos y donde podrás ver los proyectos en los que estas involucrada/o siendo utilizados en un corto tiempo activamente por nuestros clientes, lo que siempre es muy gratificante.
Otras actividades:
  • Actividades mensuales (Cupones de Food delivery, juegos en línea, actividades grupales).
  • Actividad paseo anual: La empresa se junta por 2 días en algún lugar turístico para realizar actividades grupales y unir al equipo.
  • Día libre flexible en tu cumpleaños.
  • Capacitaciones en lo que más te guste.
  • Certificaciones Google Cloud: Programa de certificación en distintas ramas profesionales de GCP, gracias a que somos Partner Premier de Google Cloud en Chile.

Wellness program Devaid offers or subsidies mental and/or physical health activities.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Devaid pays or copays health insurance for employees.
Company retreats Team-building activities outside the premises.
Dental insurance Devaid pays or copays dental insurance for employees.
Computer provided Devaid provides a computer for your work.
Education stipend Devaid covers some educational expenses related to the position.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
Gross salary $2500 - 2800 Full time
Data Scientist
  • Niuro
SQL Python API Keras
At Niuro, we are dedicated to connecting cutting-edge projects with elite tech teams, collaborating closely with leading U.S. companies. Our mission revolves around simplifying global talent acquisition through innovative solutions that enhance efficiency and quality. As part of our team, you will engage in dynamic and challenging projects that are pivotal to our clients' success.
By providing autonomous, high-performance tech teams, we empower our professionals through continuous training in both technical and soft skills, along with leadership development. Our structure supports collaborative growth and excellence.

Responsibilities:

  • Design, develop, and evaluate machine learning and statistical models aimed at enhancing various business processes.
  • Analyze large datasets to derive insights and formulate data-driven strategies.
  • Deploy models into production utilizing tools such as TensorFlow, PyTorch, or Scikit-learn.
  • Create dashboards and reports via visualization tools like Tableau, Power BI, or Looker.
  • Collaborate with engineering teams to optimize data pipelines and model infrastructures.
  • Deliver findings and recommendations to non-technical stakeholders in a clear and concise manner.

Requirements:

  • 3-5 years of experience in data science, machine learning, and statistical analysis.
  • Proficiency in Python with solid knowledge of data science libraries including Pandas, Polars, Scikit-learn, TensorFlow, and PyTorch.
  • Experience with SQL and both relational and non-relational databases.
  • Knowledge of feature engineering, model selection, and cross-validation techniques.
  • Experience with Generative AI frameworks and libraries, such as Hugging Face Transformers and LangChain, alongside API usage and prompt engineering skills.
  • Able to visualize data with tools like Matplotlib, Seaborn, and Plotly.
  • Strong communication skills with a knack for data storytelling.
  • Intermediate to advanced English proficiency (written and spoken).

Nice-to-Haves:

  • Experience with cloud computing platforms such as AWS, GCP, or Azure.
  • Familiarity with real-time data processing using tools like Apache Kafka or Spark Streaming.
  • Working knowledge of deep learning frameworks.
  • Understanding of MLOps techniques for deploying models effectively.
  • Curiosity and enthusiasm for exploring the latest trends in Generative AI within the field of data analysis.

Salary & Benefits:

We offer a competitive salary ranging from $2,500 to $2,800 USD per month, depending on your experience. Our organization embraces a fully remote work environment, paired with flexible working hours to enhance your work-life balance.
At Niuro, you will find ample opportunities for professional development, along with access to training in advanced data analysis tools. Join us, and be part of a team that values continuous learning and growth!

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
APPLY VIA WEB
Gross salary $1500 - 2400 Full time
Data Engineer
  • Decision Point LATAM
  • Santiago &nbsp Ciudad de México (Hybrid)
MySQL SQL Python Virtualization

Decision Point offers an entrepreneurial environment and exposure to advanced analytics in the domain of sales and marketing. The team at Decision Point is very young, energetic, and highly skilled. Our team consists of talented business consultants, data scientists and engineers who are passionate about implementing analytics in real world business problems.

A career at Decision Point is rich in global experience and offers opportunities to build lasting relationships.

Job functions

  • Data Infrastructure Development: Design, build, and maintain scalable data infrastructure on Azure / AWS / GCP using PySpark for data processing to support various data initiatives and analytics needs within the organization
  • Data Pipeline Implementation: Design, develop and maintain scalable data pipelines to ingest, transform, and load data from various sources into cloud-based storage and analytics platforms using Python, PySpark, and SQL
  • Performance Optimization: - Optimize data processing workflows and cloud resources for efficiency and cost-effectiveness, leveraging PySpark's capabilities. - Implement data quality checks and monitoring to ensure the reliability and integrity of data pipelines.
  • Build and optimize data warehouse solutions for efficient storage and retrieval of large volumes of structured and unstructured data.

Qualifications and requirements

  • Data Governance and Security: Implement data governance policies and security controls to ensure compliance and protect sensitive information across Azure, AWS and GCP environments.
  • Collaboration and Support: Collaborate with cross-functional teams to understand data requirements and provide technical support for data-related initiatives and projects.
  • +1 year of experience as Data Engineer
  • Strong understanding of data modeling, ETL processes, and data warehousing concepts
  • Experience in SQL language and sound knowledge of Database administration like: Managing MySQL Server, MS SQL Server
  • Proficiency in Python related to Data Science (Pyspark) for developing data pipelines, ETL (Extract, Transform, Load) processes, and automation scripts.
  • English

Desirable skills

  • Proficiency in Microsoft Excel and hands-on experience on Excel VBA
  • Experience working with cloud platforms for deploying and managing scalable data infrastructure is a plus (Azure, GCP, AWS)
  • Experience working with Linux
  • Familiarity with working with numerous large data sets
  • Comfort in a fast-paced environment
  • Strong analytical skills with the ability to collect, organize, analyses, and disseminate significant amounts of information with attention to detail and accuracy
  • Excellent problem-solving skills
  • Strong interpersonal and communication skills for cross-functional teams
  • Proactive approach to continuous learning and skill development

Benefits

  • Hybrid 4x1 in CL and 3x2 in MX from the fourth month (4 days a week in office and 1 from home, in Mexico 3 days a week in office and 2 from home)
  • Lunch and Healthy Snacks (CL)
  • Complementary Health Insurance (CL)
  • 2 Days free per quarter of the year
  • 5 extra days of vacation

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Decision Point LATAM pays or copays health insurance for employees.
Computer provided Decision Point LATAM provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Decision Point LATAM gives you paid vacations over the legal minimum.
Beverages and snacks Decision Point LATAM offers beverages and snacks for free consumption.
APPLY VIA WEB