We didn't find any results.

Try with another group of words.

If you think this is a problem, please contact us.

$$$ Full time
Key School Manager
  • Arukay
  • 🇨🇴 Colombia - Remoto 🌎
Full Time docente Java Aprendizaje

Ubicación: Remoto – Colombia
Modalidad: Tiempo completo
Tipo de contratación: Prestación de servicios (3 meses) con posibilidad de contrato indefinido
Duración estimada del proyecto: 72 meses
Salario: $2.380.000 COP

Empresa: ARUKAY

¿Te apasiona la educación, la tecnología y el trabajo con docentes?

En ARUKAY estamos en busca de un/a profesional proactivo/a, apasionado/a por la enseñanza, con formación en tecnología o informática, y experiencia en metodologías activas como ABP (Aprendizaje Basado en Proyectos) y pensamiento de diseño. Este rol implica acompañar la implementación de nuestro sistema en instituciones educativas, capacitar a docentes y liderar procesos pedagógicos.

Requisitos

  • Experiencia docente (mínimo 1 año deseable).
  • Dominio de lenguajes de programación por bloques (Scratch, Scratch Jr, MEE) y lenguajes de texto como Python y JavaScript.
  • Conocimiento de estándares curriculares como ISTE y CSTA.
  • Experiencia capacitando a docentes en contenidos técnicos y metodologías pedagógicas.
  • Se valorará experiencia en coordinación académica y liderazgo de equipos docentes.

Funciones principales

  • Liderar el proceso de implementación de Arukay en nuevas instituciones educativas.
  • Profundizar en los contenidos y plataformas del sistema de aprendizaje para gestionar objeciones y brindar fundamentos pedagógicos claros.
  • Coordinar reuniones de seguimiento:
    • Mensuales con docentes y coordinadores.
    • Trimestrales con directivos y rectores.
  • Participar en actividades del área de Experiencia del Cliente: semilleros de programación, charlas para padres, actividades académicas experimentales, entre otros.

Oferta

  • Contrato inicial por prestación de servicios (3 meses), con posibilidad de pasar a contrato indefinido.
  • Salario: $2.380.000 COP mensuales.
  • Trabajo 100% remoto.
  • Dedicación: tiempo completo.

¿Sos docente con vocación, conocés de programación y querés ser parte del cambio educativo con tecnología?
¡Postulate y ayudá a transformar el aprendizaje junto a Arukay!

📌 Pregunta clave de postulación:
¿Tenés dominio en lenguajes de programación como Python, Java y Scratch?

APPLY VIA WEB
$$$ Full time
DevOps Engineer
  • Softserve
DevOps Virtualization Routing Docker
WE ARE
SoftServe is an IT & global digital solutions company with headquarters in Austin, Texas, founded in 1993 in Ukraine. Our associates work on 2,000+ projects with clients in the USA, Europe, and APAC region. We are about people who create bold things, who make a difference, who have fun, and who love their work. In January 2022, we started our operations in Latin America. We committed to grow our local community to 3,500 associates by 2025 and invest in the market.

Funciones del cargo

AND YOU WANT TO
  • Collaborate with the LATAM DevOps Practice to contribute to cloud platforms for globally innovative companies
  • Engage in diverse private and public cloud-oriented projects of various scales
  • Participate in enterprise-scale migrations, cloud-native application development, and trending technology initiatives
  • Build, maintain, and optimize CI/CD pipelines for automated deployment and updates
  • Configure and manage scalable, secure, and high-performing cloud environments
  • Use tools like Terraform for infrastructure as code (IaC) to enhance deployment consistency and minimize manual interventions

Requerimientos del cargo

IF YOU ARE
  • Experienced with SRE/DevOps best practices
  • Proficient in AWS core IaaS and PaaS services, including IAM, VPC, Internet Gateway, NAT Gateway, ELB, RDS, EC2, S3, Security Groups, ACLs, and Routing Tables
  • Skilled in Docker, Kubernetes, and EKS
  • Adept in HELM charts and troubleshooting workloads in K8s clusters
  • Knowledgeable in Infrastructure as Code using Terraform or CloudFormation
  • Skilled in scripting languages such as Shell or Bash
  • Proficient in Linux, including administration, command-line expertise, and service debugging
  • Experienced in configuring log collectors and using observability platforms for containerized workloads

Opcionales

  • Good at maintaining existing CI/CD pipelines with tools like Jenkins, GitHub, GitLab, or CircleCI (as a plus)
  • Familiar with Python and tools like Prometheus and Grafana (would be a plus)
  • Knowledgeable in AFT Control Tower and Landing Zone (optional)

Condiciones

SoftServe is an Equal Opportunity Employer. All qualified applicants will receive consideration for employment regardless of race, color, religion, age, sex, nationality, disability, sexual orientation, gender identity and expression, veteran status, and other protected characteristics under applicable law. Let’s put your talents and experience in motion with SoftServe.

Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Softserve pays or copays health insurance for employees.
Computer provided Softserve provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Softserve gives you paid vacations over the legal minimum.
Beverages and snacks Softserve offers beverages and snacks for free consumption.
APPLY VIA WEB
$$$ Full time
Data Science Code Reviewer
  • Tripletem
  • Argentina 📍 - Remoto 🌎
Full Time Python Pandas NumPy Matplotlib Sklearn

📍 Ubicación: 100% remoto – Argentina u otros países de LATAM

🕐 Modalidad: Part-time | Intermedio

💼 Nivel: Intermediate


Sobre TripleTen:

TripleTen es un bootcamp online que brinda la oportunidad de iniciar una carrera en tecnología a personas con o sin experiencia previa. Ofrecemos programas accesibles y efectivos en Software Engineering, Data Science, Business Intelligence Analytics y QA Engineering. Nuestra misión es que cada estudiante logre dominar una nueva profesión y se convierta en un miembro valioso de la industria tech.


Tu misión como Code Reviewer:

Serás responsable de revisar los proyectos individuales de los estudiantes del programa de Data Science. Brindarás feedback constructivo sobre su código, evaluarás si cumplen con los criterios para aprobar, y les ayudarás a mejorar su trabajo técnico y profesional.



🧠 Responsabilidades

  • Revisar el código de los estudiantes y dar retroalimentación clara y detallada.
  • Decidir si un proyecto cumple con los requisitos para aprobar.
  • Detectar errores, imprecisiones y sugerir mejoras.
  • Acompañar el proceso de aprendizaje con enfoque pedagógico.


Requisitos

  • Experiencia laboral como analista utilizando Python.
  • Mínimo 1 año de experiencia en proyectos de machine learning.
  • Conocimiento sólido de Pandas, NumPy, Matplotlib y Sklearn.
  • Disponibilidad de al menos 10 horas semanales para revisar proyectos.
  • Inglés intermedio, español fluido.


🎁 Qué ofrecemos

  • Capacitación en técnicas de code review y comunicación efectiva.
  • Posibilidad de compatibilizar esta actividad con tu trabajo principal.
  • Participación en una comunidad tech activa y diversa.
  • Colaboración intercultural (US, Israel, LATAM).
  • Remuneración competitiva según volumen de tareas corregidas.
  • Flexibilidad horaria real: sin micromanagement.
  • Herramientas modernas para trabajar de forma fluida: Miro, Notion, Zoom, etc.

¿Te apasiona compartir tu conocimiento y ayudar a formar futuros profesionales en Data Science? ¡Postulate ahora y sumate a TripleTen!

APPLY VIA WEB
$$$ Full time
Associate Data Scientist
  • ACLED
  • Remoto 🌎
Full Time Python R Git GitHub cloud computing

📍 Ubicación: 100% Remoto (apertura global)

💼 Departamento: Data Science


Sobre ACLED:

Armed Conflict Location & Event Data (ACLED) es una institución líder en la recolección, análisis y mapeo de datos sobre conflictos y crisis. Su información es utilizada globalmente por medios de comunicación, instituciones académicas, organizaciones humanitarias y responsables de políticas públicas. Es la fuente más completa y confiable de datos en tiempo real sobre violencia política y protestas en el mundo.


🎯 Descripción del rol:

Buscamos un/a Associate Data Scientist para apoyar en proyectos de ciencia de datos, con enfoque en modelos de lenguaje natural. Trabajarás directamente con el equipo de Data Science, apoyando iniciativas clave para mejorar los modelos existentes y desarrollar soluciones innovadoras con LLMs.


🛠️ Responsabilidades:

  • Apoyar el desarrollo de modelos estadísticos, de machine learning y NLP.
  • Monitorear y mejorar modelos ya implementados.
  • Adaptar LLMs a casos de uso como QA, traducción, NER y clasificación.
  • Preparar datos para análisis y proyectos personalizados.
  • Implementar modelos y pipelines en plataformas cloud.
  • Colaborar en tareas ad hoc de ciencia de datos.

✅ Requisitos:

  • 2 a 3 años de experiencia profesional en ciencia de datos.
  • Nivel avanzado en Python y R.
  • Conocimiento sólido en estadística y machine learning.
  • Experiencia demostrada en procesamiento de lenguaje natural (NLP).
  • Nivel de inglés fluido.
  • Título universitario (preferentemente máster, aunque experiencia relevante puede sustituirlo).
  • Habilidad para trabajar de forma autónoma y en equipo remoto, especialmente con supervisores en zona horaria de EE. UU.


✨ Plus:

  • Familiaridad con los datos y metodologías de ACLED.
  • Experiencia en investigación de conflictos, desarrollo internacional o peacebuilding.
  • Conocimientos en Git, GitHub, computación en la nube, JavaScript o Julia.
  • Experiencia previa trabajando en entornos 100% remotos.


📄 Aplicación:

Enviar CV + carta de presentación incluyendo expectativas salariales. Las postulaciones se revisarán de forma continua.

APPLY VIA WEB
Gross salary $1400 - 2000 Full time
Administrador de Sistemas
  • RiskAmerica
  • Santiago (Hybrid)
Sysadmin Python Virtualization Docker
RiskAmerica es una empresa consolidada en la industria FinTech, proveemos servicios de gestión e información a todas las empresas de inversiones de Chile. Nos caracterizamos por ser un agente de innovación y transformación digital estando siempre a la vanguardia en las tecnologías y metodologías que usamos.
Hoy en día nos encontramos en un proceso de expansión y buscamos un nuevo Administrador de Sistemas para ayudar a gestionar múltiples soluciones hospedadas en la nube de Google Cloud Platform con Kubernetes Engine.
¿Te atrae el rol de Solution Architect, Cloud Engineer, DevOps o Administrar Sistemas? Acá podrás aprender mucho de gente muy talentosa y podrás contribuir de manera significativa en toda la cadena de vida de los servicios de la empresa.

Que necesitamos de ti

  • Diseño, desarrollo, mantención y actualización de infraestructura para soluciones multi-tennant de alta disponibilidad.
  • Construir y administrar herramientas de monitoring de los servicios e infraestructura.
  • Ayudar a diseñar, mantener y probar la seguridad de la infraestructura de red y diversas plataformas.
  • Construir utilidades para apoyar las labores de los ingenieros de software del área.
  • Mejorar la cadena de Integración Continua de los servicios administrados.
  • Administrar la generación, almacenamiento y uso de respaldos de los distintos servicios.
  • Ayudar a diseñar, mantener y probar los planes de continuidad de negocio de los distintos servicios.

Que necesitamos de ti

  • Experiencia en seguridad de Redes
  • Experiencia Bash scripting.
  • Experiencia programando en Python.
  • Experiencia básica usando containers (Docker y/o Kubernetes) tanto en Build como Deploy.
  • Experiencia de al menos 1 año administrando cargas productivas de algún servicio
  • Interés y entusiasmo por aprender de nuevas tecnologías, con el fin de crear soluciones robustas y automáticas que requieran mínima mantención.
  • Versatilidad para aprender de diversas tecnologías y lenguajes para apoyar al equipo de Ingenieros de Software en sus diversas necesidades
  • Experiencia en sistemas Linux
  • Manejo de inglés leído técnico.

Sumas puntos si

  • Certificado de Solution Architect de AWS o GCP
  • Experiencia trabajando con Kubernetes
  • Experiencia trabajando sobre Google Cloud Platform (especialmente GKE, GCS y Compute)
  • Conocimientos teóricos de Kubernetes
  • Experiencia usando Ansible
  • Experiencia con Prometheus & Graphana
  • Experiencia con Bases de Datos MariaDB trabajando en esquemas master-slave o master-master
  • Experiencia implementando cadenas de integración continua (CI)

Que tenemos para ti

  • Excelente clima laboral junto a un gran equipo.
  • Seguro complementario de salud, incluyendo dental, catastrófico y vida.
  • Amplias posibilidades para aprender del rubro de inversiones.
  • Incentivo al ahorro previsional voluntario (APV).
  • Buena relación vida/trabajo.
Si vienes a la oficina:
  • Vestimenta casual
  • Estacionamiento para bicicletas
  • Y un buen café!

Life insurance RiskAmerica pays or copays life insurance for employees.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage RiskAmerica pays or copays health insurance for employees.
Dental insurance RiskAmerica pays or copays dental insurance for employees.
Computer provided RiskAmerica provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Beverages and snacks RiskAmerica offers beverages and snacks for free consumption.
APPLY VIA WEB
$$$ Full time
DevOps Engineer II
  • ZeroFox
  • Santiago (Hybrid)
DevOps Virtualization Docker Amazon Web Services

Opportunity Overview

At ZeroFox, we are passionate about bringing world-class protection to the digital-first world. Together, we have built a system capable of collecting and analyzing data from all over the internet, creating a paradigm-shifting cybersecurity product that helps secure and protect our customers and improves the global threat landscape.

We are a team of software engineers, cybersecurity experts, and data scientists who continue to develop unparalleled solutions for the cyber security industry by providing the best Digital Risk Protection SaaS in the global market. Our company, services, and user base are growing faster than ever and we’d like you to help us innovate. We believe the greatest solutions in the Digital Risk Protection space come from composing teams with varied backgrounds and experiences that can use their complementary skill sets to come up with the best market-defining solutions.

Role and responsibilities

  • Collaborate with product teams and software engineers across security, machine learning, digital risk protection, and cyber threat intelligence to develop the next generation of solutions for the ZeroFox platform
  • Gain in-depth knowledge of our microservices architecture and stack; leverage this knowledge to improve system stability, performance, scalability, and security
  • Own and maintain multiple components of our DevOps infrastructure, including CI/CD pipelines, monitoring solutions, and container orchestration platforms, with a focus on embedding security controls and checks
  • Begin to take on a leadership role within projects, guiding best practices around deployment automation, infrastructure as code, and secure configuration management
  • Research, evaluate, and implement new tooling or capabilities to ensure our systems meet or exceed production security requirements (e.g., scanning, patching, vulnerability management)
  • Coordinate with security stakeholders to review engineering milestones and third-party systems for compliance with security standards

Required qualifications and skills

  • Motivated, communicative, teamwork-oriented professionals comfortable working in agile environments
  • Bachelor’s degree in computer science or a related field, OR equivalent education or experience
  • DevOps experience, typically obtained in 3+ years
  • Good understanding of the software development lifecycle, automation, and CI/CD practices
  • Familiarity with cloud services like AWS for building and scaling web architecture, including basic security considerations and standards
  • Experience working with containerization and orchestration technologies such as Docker, Nomad, or Kubernetes
  • Ability to write and maintain infrastructure as code (e.g., Terraform or AWS CloudFormation), integrating security into IaC workflows
  • Good communication, collaboration, and presentation skills in English
  • Ability to work effectively in a fast-paced, agile environment

Desirable skills

  • Proficiency in scripting languages such as Python, Go, or a similar language
  • Experience troubleshooting networking issues in a cloud environment, including basic network security principles
  • Familiarity with monitoring and alerting tools (e.g., Prometheus, Grafana, Datadog)
  • Solid knowledge of infrastructure best practices, security considerations, and automation tools
  • Understanding of or exposure to security scanning tools (e.g., SAST, DAST, or container image scanners)
  • We also value equivalent experience to these languages and frameworks. If you think you might be a fit, apply!

Benefits

  • Opportunities to learn and contribute your knowledge to our Digital Risk Protection platform
  • Competitive compensation
  • Competitive PTO
  • Complementary health insurance
  • Daily catered lunches for in-office work
  • Respectful and nourishing work environment, where every opinion is heard and everyone is encouraged to be an active part of the organizational culture.
  • Regular team bonding activities like cooking and cocktails classes, bingos, stand up comedy, magic shows, virtual happy hour, lunch and learns, etc.
  • Additional Parental Leave
  • Excellent communication: between teams, people, organizations and leaders

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance ZeroFox pays or copays life insurance for employees.
Meals provided ZeroFox provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage ZeroFox pays or copays health insurance for employees.
Dental insurance ZeroFox pays or copays dental insurance for employees.
Computer provided ZeroFox provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal ZeroFox gives you paid vacations over the legal minimum.
Beverages and snacks ZeroFox offers beverages and snacks for free consumption.
Parental leave over legal ZeroFox offers paid parental leave over the legal minimum.
APPLY VIA WEB
$$$ Full time
Senior DevOps Engineer II
  • ZeroFox
  • Santiago (Hybrid)
DevOps Virtualization Amazon Web Services Kubernetes

Opportunity Overview

At ZeroFox, we are passionate about bringing world-class protection to the digital-first world. Together, we have built a system capable of collecting and analyzing data from all over the internet, creating a paradigm-shifting cybersecurity product that helps secure and protect our customers and improves the global threat landscape.

We are a team of software engineers, cybersecurity experts, and data scientists who continue to develop unparalleled solutions for the cyber security industry by providing the best Digital Risk Protection SaaS in the global market. Our company, services, and user base are growing faster than ever and we’d like you to help us innovate. We believe the greatest solutions in the Digital Risk Protection space come from composing teams with varied backgrounds and experiences that can use their complementary skill sets to come up with the best market-defining solutions.

Role and responsibilities

  • Work with industry experts across security, machine learning, digital risk protection, and cyber threat intelligence to develop the next generation of solutions for the ZeroFox platform
  • Gain in-depth knowledge of our microservices architecture and stack
  • Research and build cutting-edge products to improve the lives of our customers and our developers while making the internet a safer place
  • Become a technical leader on your team, helping to make key technical decisions and mentoring other team members
  • Work closely with product and our software engineers to increase speed and safety of delivery
  • Continuously improve our always-on systems to achieve near complete resiliency with everything we do - this means no user downtime during deploys and seamless infrastructure upgrades
  • Maintain and contribute to our internal tooling, written in Python and Go

Required qualifications and skills

  • Motivated, communicative, teamwork-oriented professionals that feel comfortable working in agile environments
  • Bachelor’s degree in computer science or a related field, OR equivalent education or experience
  • DevOps experience, typically obtained in 5+ years
  • Strong understanding of the software development lifecycle
  • Experience building and scaling web architecture using cloud services like AWS
  • Understanding of packaging, deployment, and support of containerized applications
  • Experience operating and owning containerization technologies such as Nomad and Kubernetes
  • Good communication, collaboration, and presentation skills in English
  • Ability to work effectively in a fast-paced, agile environment.

Desirable skills

  • Exceptional scripting skills
  • Experience in Python, JavaScript, OR Go
  • Strong knowledge of infrastructure as code tools, such as Terraform (preferred) or AWS CloudFormation
  • Ability to troubleshoot complex networking issues in a cloud environment

Benefits

  • Opportunities to learn and contribute your knowledge to our Digital Risk Protection platform
  • Competitive compensation
  • Competitive PTO
  • Complementary health insurance
  • Daily catered lunches for in-office work
  • Respectful and nourishing work environment, where every opinion is heard and everyone is encouraged to be an active part of the organizational culture.
  • Regular team bonding activities like cooking and cocktails classes, bingos, stand up comedy, magic shows, virtual happy hour, lunch and learns, etc.
  • Additional Parental Leave
  • Excellent communication: between teams, people, organizations and leaders

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance ZeroFox pays or copays life insurance for employees.
Meals provided ZeroFox provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage ZeroFox pays or copays health insurance for employees.
Dental insurance ZeroFox pays or copays dental insurance for employees.
Computer provided ZeroFox provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal ZeroFox gives you paid vacations over the legal minimum.
Beverages and snacks ZeroFox offers beverages and snacks for free consumption.
Parental leave over legal ZeroFox offers paid parental leave over the legal minimum.
APPLY VIA WEB
$$$ Full time
Senior Azure DevOps Engineer
  • Devsu
C# DevOps C Python

Devsu, with over 10 years of experience driving innovation for companies, offers the opportunity to work with top professionals on challenging projects for global clients. We are currently looking for a Senior DevOps Engineer for a leading provider of retail workforce management and performance solutions. This role is critical in designing and maintaining scalable, secure cloud infrastructure on Azure, using Kubernetes, CI/CD, and IaC with Terraform. The position requires close collaboration with development, QA, and operations teams to streamline deployment processes, enhance automation, and improve system performance.

Responsibilities:

  • Design, deploy, and maintain Azure-based infrastructure solutions.
  • Manage and optimize virtual machines, storage accounts, and networking resources.
  • Implement and manage infrastructure using Terraform
  • Maintain version control for IaC templates using Git and Azure DevOps.
  • Build and maintain CI/CD pipelines using Azure DevOps.
  • Automate application builds, testing, and deployment processes.
  • Develop and deploy containerized applications using Docker.
  • Implement and manage Kubernetes clusters for application orchestration and scaling.
  • Configure and troubleshoot network components, including VNETs, subnets, firewalls, and load balancers.
  • Develop utilities and tools using OOP language such as Python, Java, C#.
  • Use tools such as Azure Monitor, Log Analytics, or other third-party solutions for observability.
  • Collaborate with development, QA, and operations teams to ensure seamless integration and delivery of services.
  • Troubleshoot issues, maintain issues log to document findings and resolution.
  • Provide support and guide other DevOps team members to build a skilled DevOps team, reduce errors, and contribute to a culture of continuous learning.

Requirements:

  • Bachelor’s degree in computer science, engineering, or a related field, or equivalent work experience.
  • Proven experience in Azure cloud services and infrastructure management.
  • Hands-on experience with container technologies (Docker) and orchestration tools (Kubernetes).
  • Expertise in CI/CD pipelines using Azure DevOps.
  • Solid understanding of networking concepts (e.g., DNS, VPNs, load balancers, routing, and security).
  • Proficiency in OOP languages (e.g., Python, Java, C#, etc.).
  • Strong knowledge of Infrastructure as Code (IaC) using Terraform, including writing and maintaining infrastructure modules.
  • Familiarity with version control systems and Git workflows.
  • Strong problem-solving skills and the ability to work under minimal supervision.
  • Excellent communication and collaboration skills
  • Fluent in English (B2 minimum required).

Preferred Qualifications:

  • Certification in Azure (e.g., Azure DevOps Engineer Expert, Azure Administrator Associate).
  • Demonstrated experience creating reusable, modular Terraform infrastructure templates.
  • Experience with hybrid cloud environments or multi-cloud strategies.
  • Knowledge of DevSecOps practices and tools.

Benefits:

A stable, long-term contract. Continuous Training. Private Health insurance. Training bonus. Annual performance bonus. Flexible schedule. Work with some of the most talented software engineers in Latin America and the US, doing challenging work and world-class software for clients in the US and worldwide.

Wellness program Devsu offers or subsidies mental and/or physical health activities.
Fully remote You can work from anywhere in the world.
Internal talks Devsu offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Digital library Access to digital books or subscriptions.
Health coverage Devsu pays or copays health insurance for employees.
Computer provided Devsu provides a computer for your work.
Education stipend Devsu covers some educational expenses related to the position.
Personal coaching Devsu offers counseling or personal coaching to employees.
APPLY VIA WEB
$$$ Full time
Profesor/a de programación para niños y adolescentes
  • Coding Giants
  • Remoto 🌎
Full Time Java docente Python

¡Hola, somos Coding Giants!

Coding Giants es una escuela innovadora fundada en 2015 en Warsaw, Polonia. Nuestro objetivo es educar a los niños y jóvenes interesados en programación y las nuevas tecnologías. Ofrecemos cursos virtuales introductorios y avanzados de Minecraft, Scratch, Python, C# y Unity dependiendo de las edades y los conocimientos previos.

Estamos buscando a una persona llena de energía para unirse a nuestro equipo con una misión clara: contagiar a todos los estudiantes con tu pasión por la programación 🚀

🧠 Qué buscamos:

  • Formación sólida: Estas graduado en alguna tecnicatura o estas proximo a graduarte de una licenciatura en sistemas o afines y programas en uno de los siguientes lenguajes: C#, Java, JavaScript, Python, Lua o C++
  • Habilidades de programación: Estás familiarizado con Minecraft, Scratch o Unity.
  • Aptitudes de docente: Eres una persona paciente y tienes un enfoque pedagógico con los niñ@s y experiencia en impartir clases.
  • Disponibilidad horaria: Estes dispuesto a dar clases grupales online a niiñ@s y jóvenes adolescentes en horario extra escolar.

🧠 ¿Qué ofrecemos?:

  • Trabajo part time con horario a escoger.
  • 100% remoto
  • Contrato B2B.
  • Guía didáctica de cada sesión con todo lo necesario para impartir la clase - ¡Todos los materiales listos para utilizar!
  • Formación continua para un crecimiento profesional en el mundo de la enseñanza.

🧠 En Coding Giants como profesor:

Podrás compartir tu conocimiento en programación y tener un impacto significativo en el futuro de los alumn@s a través del apasionante mundo de la programación.

Te unirás a una comunidad de entusiastas en programación y compartirán experiencias juntos.

Podrás desarrollarte como parte de la organización Coding Giants.

No pierdas la oportunidad de ser parte de un proyecto educativo innovador y transformador; ¡Te estamos esperando!🚀💛

APPLY VIA WEB
$$$ Full time
Site Reliability Engineer (SRE)
  • BC Tecnología
  • Santiago (Hybrid)
Python Go Virtualization Golang
En BC Tecnología, somos una consultora de TI dedicada a ofrecer soluciones innovadoras en diversas áreas de la tecnología. Contamos con un equipo de expertos diseñando y ejecutando proyectos en la nube para sectores como servicios financieros, seguros y retail. Nuestras metodologías ágiles y enfoque centrado en el cliente nos permiten garantizar la confiabilidad y escalabilidad de las infraestructuras de nuestros clientes, dándoles un valor añadido significativo.

Responsabilidades

  • Implementar y gestionar infraestructura utilizando Terraform en plataformas como AWS, GCP y Azure.
  • Implementar New Relic para garantizar monitoreo efectivo de plataformas y servicios.
  • Asegurar la disponibilidad continua y tiempos de respuesta óptimos en entornos críticos.
  • Automatizar pipelines CI/CD para mejorar el flujo de trabajo y la eficiencia operativa.
  • Aplicar prácticas de DevOps y Site Reliability Engineering para optimizar el rendimiento.

Requisitos Técnicos

  • Experiencia comprobada en AWS, GCP y Azure.
  • Dominio de Terraform para la gestión eficiente de infraestructura.
  • Conocimientos en New Relic para monitoreo y observabilidad de sistemas.
  • Fuerte experiencia en gestión de incidentes, alta disponibilidad y optimización de costos en entornos en la nube.
  • Habilidades en automatización y scripting, preferiblemente en Python, Bash o Go.
  • Conocimientos en seguridad, redes y arquitectura en la nube para implementar soluciones seguras y eficientes.

Habilidades Deseables

Un enfoque proactivo hacia la solución de problemas, habilidad para trabajar en equipo y excelente comunicación son altamente valorados. La experiencia previa en entornos de alta carga de trabajo y habilidades adicionales en otros sistemas de supervisión será un plus.

Que Ofrecemos

Ofrecemos un contrato a plazo fijo que se puede convertir en indefinido, modalidad de trabajo híbrida, y beneficios como seguro complementario de salud, aguinaldo por fiestas patrias y navidad, así como tarjeta de alimentación. En BC Tecnología, valoramos a nuestro personal y buscamos crear un ambiente laboral positivo y colaborativo. 🌟

APPLY VIA WEB
$$$ Full time
Senior Mobile QA Engineer
  • Softserve
iOS Jira Automation User Testing

WE ARE

SoftServe is a global digital solutions company, headquartered in Austin, Texas, founded in 1993 in Ukraine. Our associates work on 2,000+ projects with clients in the USA, Europe, and APAC region. We are about people who create bold things, make a difference, have fun, and love their work.

In January 2022, we started our operations in Latin America and committed to growing our local community and investing in the market.

Our client is a leading smart home technology provider that offers home security, energy management, home automation, local cloud storage, and high-speed Internet solutions to more than two million customers throughout the United States. The result is a smart home solution that saves time and money and simplifies your life.

YOU WANT TO

  • Perform manual testing of iOS and Android applications, identifying defects and quality issues
  • Write and execute comprehensive test plans and test cases for new product features
  • Execute regression test suites to validate application stability across releases
  • Assess manual test cases to determine automation potential
  • Maintain testing environments, including mobile hardware devices and software tools
  • Serve as a strong advocate for user experience and product quality
  • Identify quality gaps and contribute ideas to enhance testing processes
  • Work in a fast-paced, self-directed, agile environment
  • Research and evaluate new technologies and tools
  • Contribute to new feature development, maintenance, and architectural activities
  • Actively participate in the iOS guild with fellow engineers to develop better organization-wide development practices and solve hard problems
  • Collaborate with product management, program management, QA, UX designers, and others

AND IF YOU ARE

  • A professional with 2-3 years of experience testing mobile applications (iOS and Android)
  • Proficient in software testing fundamentals and methodologies
  • Skilled in prioritizing test coverage based on risk and time constraints
  • Confident in writing detailed test plans and test cases
  • Highly accurate and precise in testing and documentation
  • Adept at creating native app automation scripts
  • Experienced working with tools like Android Studio, and Jira or similar issue-tracking tools
  • Accustomed to agile development methodologies and processes
  • A strong analyst, an independent contributor, and a decision-maker
  • Demonstrating an upper-intermediate English level (written and spoken) to cover daily communication with the team

OPTIONAL SKILLS

  • Well-versed in API testing (Postman or SoapUI)
  • Familiar with Python scripting
  • Familiar with Xcode is a bonus

TOGETHER WE WILL

  • Put smart home products in your own home and experience your work product firsthand
  • Gain certifications from leading providers (Google, AWS and others)
  • Participate in a quarterly 'Innovation Week' and work on innovative projects of your choice
  • Empower you to scale your expertise with others by joining the Mentoring Program
  • Excel business of our clients from startups and ISVs to Enterprise and Fortune 500 companies
  • Create an exceptional customer experience and impact the company's global success and be recognized by the Customer Hero Program
  • Care for your wellness with a health insurance package

SoftServe is an Equal Opportunity Employer. All qualified applicants will receive consideration for employment regardless of race, color, religion, age, sex, nationality, disability, sexual orientation, gender identity and expression, veteran status, and other protected characteristics under applicable law. Let’s put your talents and experience in motion with SoftServe.

APPLY VIA WEB
Gross salary $2600 - 2800 Full time
Ingeniero DevOps
  • BC Tecnología
  • Santiago (Hybrid)
DevOps Python Virtualization Docker
En BC Tecnología, somos una consultora de TI con un enfoque claro en el cliente y metodologías ágiles. Durante los últimos 6 años hemos diseñado soluciones personalizadas para una variedad de sectores incluyendo servicios financieros, seguros, retail y gobierno. Gestionamos un portafolio diversificado, desarrollamos proyectos innovadores, y ofrecemos servicios de outsourcing y selección de profesionales. Nuestro equipo está compuesto por expertos en diferentes áreas tecnológicas, lo que nos permite formar equipos de trabajo ágiles y eficaces. Como parte de tu rol como Ingeniero DevOps, tendrás la oportunidad de postularte para ser parte en la gestión de plataformas en Oracle Cloud Infrastructure (OCI) y Microsoft Azure, contribuyendo así a la mejora continua de la infraestructura de nuestros clientes.

Responsabilidades:

  • Administrar y mantener la infraestructura de plataformas en OCI y Azure.
  • Gestionar y automatizar los procesos de implementación de sistemas.
  • Monitorear el rendimiento y la disponibilidad de las plataformas.
  • Implementar y mantener herramientas de CI/CD.
  • Colaborar con equipos de desarrollo para mejorar la eficiencia y la calidad de los despliegues.
  • Resolver problemas y optimizar el rendimiento de las aplicaciones y servicios.

Requisitos:

  • Experiencia comprobable en administración de plataformas en OCI y Azure.
  • Conocimientos en herramientas de automatización y CI/CD.
  • Habilidades en scripting y programación (Python, Bash, etc.).
  • Experiencia en la gestión de contenedores y orquestación (Docker, Kubernetes).
  • Conocimiento en Power Platform (deseable).
  • Capacidad para trabajar en un entorno híbrido y adaptarse a los horarios establecidos.

Deseable:

Conocimiento en Power Platform es considerado un plus, de igual forma, habilidades adicionales en herramientas existentes de orquestación y su manejo eficiente podrían ser favorables en el proceso de selección. Se aprecia una actitud proactiva y la voluntad de enfrentar y resolver problemas que surjan en un entorno dinámico.

Beneficios:

En BC Tecnología, valoramos a nuestros colaboradores y ofrecemos un entorno dinámico con oportunidades de continuo aprendizaje. Trabajarás en proyectos innovadores que ofrecen retos tecnológicos, en una modalidad híbrida que permite 4 días de trabajo remoto y 1 día en la oficina. También ofrecemos un seguro complementario de salud, acceso a Amipass y aguinaldos en fiestas patrias y Navidad.
¡Si te apasiona la tecnología y deseas unirte a un equipo altamente cualificado, esta es tu oportunidad!

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB
$$$ Full time
DevOps Engineer
  • Leniolabs_
DevOps Virtualization Docker Scrum

Leniolabs_ es una empresa internacional de desarrollo de software con una sólida presencia en Argentina, Chile, España y USA. Cobrimos un espectro diverso de clientes, mayoritariamente en San Francisco, ofreciendo soluciones innovadoras en el desarrollo de software. Nuestro enfoque se centra en trabajar codo a codo con nuestros clientes, integrando equipos y asegurando que las soluciones sean totalmente adaptadas a sus necesidades específicas.

Actualmente nos encontramos en busqueda de un DevOps Engineer para sumarse y laborar con nuestros equipos quienes se encuentran laborando en uno de los proyectos relacionados con el almacenamiento de energía a escala global.

Funciones del cargo

  • Implementar y administrar servicios AWS: S3, Lambdas, IAM, ECS, EC2, Networking, RDS.
  • Optimizar recursos en la nube para un rendimiento eficiente y seguro.
  • Implementar aplicaciones usando Docker para portabilidad y consistencia.
  • Automatizar despliegues con Terraform (IaC).
  • Gestionar permisos y roles en AWS IAM para garantizar la seguridad.
  • Aplicar mejores prácticas de seguridad para proteger infraestructura y datos.
  • Desarrollar soluciones de monitoreo y análisis en AWS.
  • Identificar y resolver problemas en sistemas productivos de forma proactiva.
  • Colaborar con equipos multidisciplinarios para alcanzar objetivos de negocio.
  • Documentar procesos y crear guías técnicas para transferencia de conocimiento.
  • (Plus) Experiencia con Node + Nest, Python, AWS Timestream, AWS Quicksight.

Requerimientos del cargo

Buscamos un profesional con al menos 5 años de experiencia como DevOps con experiencia en:

  • AWS ( S3, Lambdas, IAM, ECS, EC2, networking, RDS)
  • Docker
  • Terraform
  • Experiencia en metodologías ágiles, preferentemente Scrum.
  • Habilidades de resolución de problemas y capacidad para trabajar de forma independiente y en equipo.
  • Nivel intermedio/avanzado o avanzado de inglés es esencial para colaborar en un entorno global.

Opcionales

  • Node+Nest
  • Python
  • AWS Timestream
  • AWS Quicksight

Beneficios

  • Metlife (Chile)
  • 100% Remoto. En Buenos Aires existe un espacio para asistir dos veces por semana. En Santiago tenemos un espacio para asistir los días que se desee.
  • Posibilidad de recibir 2 bonos al año
  • 2 revisiones salariales al año
  • Clases de inglés
  • Equipamiento Apple
  • Cursos UDEMY
  • Budget para compra de libros
  • Budget para compra de materiales de trabajo

APPLY VIA WEB
$$$ Full time
QA Automation SSR Adv
  • Leniolabs_
QA QA-Automation Scrum Cypress
Leniolabs_ que ahora es Improving South America es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España, USA y Canadá.
Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes.
Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.
Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Funciones del cargo

Actualmente, estamos en la búsqueda de un QA Automation SSR Adv/SR que se quiera unir a Leniolabs/Improving South America para trabajar de la mano de uno de nuestros importantes clientes:
  • Se trabajará en el departamento de desarrollo de tecnología de la empresa.
  • Trabajo en equipo - liderazgo.
  • Será responsable de avanzar en los diferentes requerimientos del cliente, junto con el equipo.
  • Su trabajo consiste en hacer que las tareas se realicen utilizando todos los recursos disponibles (tangibles e intangibles).
  • Contamos internamente con personas capacitadas para realizar QA, Líder de proyecto, etc, por lo cual tendrá la responsabilidad de adaptarse a cada equipo.
  • Trabajará para el área de notificaciones del sistema.
  • El trabajo está basado en ayudar a otras personas a conectar mensajes del sistema.
  • El sistema es usado por desarrolladores internos y eternos.

Requerimientos del cargo

  • Nivel de inglés intermedio/avanzado - Excluyente.
  • Experiencia realizando el ciclo completo de testing de software.
  • Experiencia de +5 años probando aplicaciones web y deseable que cuente experiencia en mobile.
  • Experiencia en la construcción de un framework para testing web.
  • Experiencia en POM.
  • Conocimientos o experiencia en JavaScript/TypeScript (Deseable).
  • Experiencia con Playwright o Cypress.
  • Manejo de metodologías agiles (Scrum).

Beneficios

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Internal talks Leniolabs_ offers space for internal talks or presentations during working hours.
Computer provided Leniolabs_ provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Leniolabs_ gives you paid vacations over the legal minimum.
APPLY VIA WEB
$$$ Full time
DevOps Senior
  • Lemontech
DevOps Analytics Virtualization BigQuery
En Lemontech, somos una empresa SaaS líder en Latinoamérica en el área Legaltech, comprometidos con modernizar procesos legales a través de tecnología innovadora. Nos especializamos en desarrollar softwares eficaces para el sector jurídico, simplificando y digitalizando lo que anteriormente era burocrático. Nuestro equipo está compuesto por talentos internacionales, cada uno aportando sus habilidades únicas para crear un ambiente colaborativo y creativo. Buscamos a un DevOps Senior que comparta nuestra visión y pasión por transformar el sistema judicial.

Funciones del cargo

Como DevOps Senior, serás responsable de:
  • Manejar e implementar Kubernetes a nivel intermedio-avanzado, asegurando su optimización y rendimiento.
  • Realizar debugeo de infraestructura y aplicativos instalados en Kubernetes.
  • Administrar nuestros servicios en AWS, aplicando tu conocimiento avanzado en la plataforma.
  • Utilizar Helm o herramientas similares para charting, facilitando despliegues eficientes.
  • Implementar y mantener infraestructura como código utilizando Terraform.
  • Trabajar con herramientas GitOps como ArgoCD para integraciones continuas y flujos de trabajo de entrega.
  • Desarrollar y ejecutar pipelines de CI/CD utilizando GitHub Actions.
  • Implementar herramientas de monitoreo como New Relic y Datadog, desde su instalación hasta la creación de dashboards significativos.
  • Programar en lenguajes como Python o Golang para resolver problemas complejos.

Descripción del puesto

Buscamos un DevOps Senior que cuente con las siguientes habilidades y características:
  • Experiencia sólida en la administración de Kubernetes, con un enfoque en la optimización y escabilidad.
  • Haven un dominio intermedio-avanzado en debugeo de infraestructuras.
  • Experiencia avanzada con AWS, incluyendo la gestión de servicios y networking.
  • Habilidad en herramientas de charting como Helm, y en la implementación de infraestructura como código mediante Terraform.
  • Conocimientos en herramientas de CI/CD como GitHub Actions y su aplicación en procesos de desarrollo.
  • Un enfoque proactivo hacia el monitoreo de sistemas, utilizando herramientas de visualización y procesamiento de datos como New Relic y Datadog.
  • Deseable contar con conocimiento de GCP y Azure, así como experiencia usando herramientas de monitoreo con eBPF.
  • Habilidad en el manejo de herramientas de data analytics como BigQuery, dbt y Dagster.

Habilidades deseables

Además de los requisitos mencionados, se valorará:
  • Conocimiento en plataformas de GCP y/o Azure para diversificar nuestra infraestructura.
  • Experiencia con herramientas de monitoreo que utilizan eBPF, para optimizar el rendimiento del sistema.
  • Familiaridad con herramientas de data como BigQuery, dbt, y Dagster que pueden añadir valor a nuestros proyectos en el manejo y análisis de datos.

Beneficios de trabajar en Lemontech

En Lemontech, valoramos a nuestro equipo y ofrecemos una serie de beneficios atractivos:
  • Horarios flexibles que se adaptan a tu estilo de vida.
  • Trabajo remoto y una cultura basada en la colaboración.
  • Seguros de salud complementarios para tu tranquilidad.
  • Un ambiente laboral excepcional donde la buena onda es parte de la rutina, ¡nos encanta fomentar la diversión en el trabajo!
  • Oportunidades de desarrollo profesional, un excelente ambiente de trabajo y eventos sociales regulares que facilitan la creación de lazos entre colegas.
¿Estás listo para unirte a nosotros y hacer un impacto positivo en el sistema judicial? 🌍

Wellness program Lemontech offers or subsidies mental and/or physical health activities.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance Lemontech pays or copays life insurance for employees.
Paid sick days Sick leave is compensated (limits might apply).
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Lemontech pays or copays health insurance for employees.
Dental insurance Lemontech pays or copays dental insurance for employees.
Free car parking You can park your car for free at the premises.
Commuting stipend Lemontech offers a stipend to cover some commuting costs.
Computer provided Lemontech provides a computer for your work.
Education stipend Lemontech covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts Lemontech provides some discounts or deals in certain stores.
Vacation over legal Lemontech gives you paid vacations over the legal minimum.
Beverages and snacks Lemontech offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Parental leave over legal Lemontech offers paid parental leave over the legal minimum.
APPLY VIA WEB
Gross salary $2700 - 3300 Full time
Especialista DevOps
  • coderslab.io
Redis NoSQL SQL Node.js

En CodersLab actualmente nos encontramos apuntando al crecimiento de nuestros equipos de manera global con el objetivo de posicionarnos con nuestros productos en más países de Latinoamérica, es por ello que estamos en búsqueda de un Especialista DevOps quien deberá ser una persona motivada y orientada al cumplimiento de objetivos.

Te sumarás a un equipo desafiante y ambicioso con ganas de renovar el mercado, por lo que tus propuestas serán de mucho valor para el negocio.

¡Postula para este tremendo desafío!

Funciones del cargo

  • Diseñar, implementar y mantener pipelines de integración continua y entrega continua (CI/CD).
  • Colaborar con equipos de desarrollo para integrar prácticas DevOps en el ciclo de vida del desarrollo de software.
  • Automatizar procesos de infraestructura y despliegue de aplicaciones.
  • Administrar y mantener la infraestructura en la nube y servidores.
  • Monitorear y mejorar la disponibilidad, rendimiento y seguridad de los sistemas.

Requerimientos del cargo

  • Dominio en administración de servicios en la plataforma AWS, incluyendo:
    • Lambda
    • RDS
    • EventBridge
    • SNS
    • SQS
    • SES
    • IAM, IAM Role
    • S3
    • EC2
    • ECS
    • Secret Manager
    • GuardDuty
    • Security Hub
    • CloudTrail
    • Cloudfront
    • CloudWatch
    • API Gateway
    • WAF
    • OpenSearch
    • DynamoDB
    • Redis
    • Route53
    • Step Functions
  • Experiencia en construcción de infraestructura como código (IaC) con Terraform.
  • Experiencia con GitHub como gestor de código fuente y GitHub Actions como herramienta de despliegue.
  • Experiencia en análisis de código estático con SonarCloud.
  • Experiencia en desarrollo de código con Python y Node.js.
  • Conocimiento en lenguaje SQL y gestión de bases de datos transaccionales.
  • Habilidades de trabajo en equipo, autogestión, proactividad y comunicación efectiva.
  • Conocimientos en bases de datos NoSQL.

Conditions

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided coderslab.io provides a computer for your work.
APPLY VIA WEB
$$$ Full time
Solutions Architect/Presales
  • ARKHO
  • Santiago (Hybrid)

ARKHO es una consultora experta en tecnologías de la información, que ofrece servicios expertos de TI en el marco de modernización de aplicaciones, analítica de datos, IA, GEN IA y migración a la nube. Nuestro trabajo facilita y acelera la adopción de la cloud en múltiples industrias.

Nos destacamos por ser Partner Advanced de Amazon Web Services con foco estratégico en la generación de soluciones usando tecnología en la nube, somos obsesionados por lograr los objetivos propuestos y tenemos especial énfasis en el grupo humano que compone ARKHO (nuestros Archers), reconociendo a nuestro equipo como un componente vital para el logro de los resultados.

¿Te motivas? ¡Te esperamos!

Funciones del cargo

La vacante considera que el Archer sea el referente orientando a la mejora continua y el cumplimiento de los objetivos. Para ello, la experiencia en el uso de diversas herramientas, lenguajes de programación, infraestructura y otros, son la base para apoyar desde el conocimiento al equipo de desarrollo, gestionando entregables de alto impacto. Se busca alguien con gran responsabilidad y calidad en la entrega. Este perfil debe tener excelentes habilidades de comunicación y trabajo en equipo. Buscamos personas que les guste aprender siempre y se sientan responsables de su crecimiento profesional.
El objetivo del cargo es entender las necesidades del cliente y traducirlas en soluciones técnicas escalables y alineadas con los objetivos del negocio. El cargo debe combinar expertise técnico en arquitecturas AWS con un enfoque consultivo, actuando como nexo entre los equipos comercial y operativo para garantizar propuestas precisas, viables y diferenciadoras.

Responsabilidades Principales

  • Liderar el diseño de arquitecturas cloud, asegurando soluciones optimizadas en costos, rendimiento y seguridad.
  • Desarrollar propuestas técnico-comerciales y presentarlas efectivamente a stakeholders de diferentes niveles.
  • Crear demostraciones técnicas que evidencien el valor diferencial de las soluciones.
  • Colaborar con equipos comerciales para entender requerimientos y traducirlos en soluciones viables.
  • Documentar arquitecturas, estimaciones y recomendaciones técnicas con alto nivel de detalle.
  • Mantenerse actualizado en nuevos servicios AWS y mejores prácticas cloud.

Requerimientos del cargo

Arquitectura Cloud

  • Diseño de arquitecturas serverless y microservicios.
  • Optimización para alta disponibilidad, escalabilidad y segurida.
  • Modelado de datos e integración de plataformas analíticas en la nube.

Servicios AWS Clave

  • Computación y Contenedores: EC2, Lambda, ECS, EKS, Fargate.
  • Bases de Datos: RDS, DynamoDB, Aurora, Redshift.
  • Analítica y BI: Glue, Athena, EMR, QuickSight.
  • Integración y Orquestación: Step Functions, API Gateway, EventBridge.
  • Seguridad y Cumplimiento: IAM, KMS, Security hub.
  • Automatización e Infraestructura como Código: CloudFormation, AWS CDK.
  • Monitoreo y Observabilidad: CloudWatch, CloudTrail.

Lenguajes de Programación y Frameworks

  • Python para desarrollo de soluciones backend.
  • Experiencia en desarrollo de ETL con Glue y PySpark.
  • Integraciones con bases de datos SQL y NoSQL.
  • Familiaridad con conceptos de CI/CD y DevOps.

Habilidades no Técnicas

  • Excelente capacidad de comunicación técnica a diferentes audiencias.
  • Mentalidad consultiva y orientación al cliente.
  • Capacidad analítica y resolución estructurada de problemas.
  • Habilidad para liderar discusiones técnicas y workshops.
  • Gestión efectiva de múltiples proyectos y stakeholders.

Habilidades opcionales

  • Certificaciones AWS (preferentemente Solutions Architect).
  • Experiencia previa en roles de PreSales o Arquitectura de Soluciones.
  • Conocimiento del mercado cloud y tendencias tecnológicas.
  • Disponibilidad para ir reuniones presenciales ocasionalmente.

Beneficios del Archer

📆 Día administrativo semestral hasta los 12 meses
🏖️ Week off: 5 días de vacaciones extra
🎉 ¡Celebra tu cumpleaños!
📚 Path de entrenamiento
☁️ Certificaciones AWS
🏡 Flexibilidad (trabajo híbrido)
💍 Regalo por casamiento + 5 días hábiles libres
👶 Regalo por nacimiento de hijos
✏️ Kit escolar
🤱 Beneficio paternidad
❤️ Bonda (plataforma de descuentos y bienestar)

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage ARKHO pays or copays health insurance for employees.
Computer provided ARKHO provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal ARKHO gives you paid vacations over the legal minimum.
APPLY VIA WEB
$$$ Full time
Software Engineer AWS Cloud / Santiago Chile
  • Dynamic Devs
  • Santiago (Hybrid)
C# Back-end

Somos una empresa de servicios de tecnología que busca proyectos de alto impacto haciendo de la innovación y transformación digital parte de diferentes empresas principalmente transnacionales latinoamericanas de diversos sectores económicos como retail, seguros, distribución de equipos médicos, banca y productos digitales masivos utilizados por los consumidores. en todo el continente

Somos partidarios de la excelencia técnica, DevOps, Entrega Continua e Integración Continua, conformando equipos de alto desempeño en proyectos desafiantes, orientados al crecimiento e implementación de nuevas tecnologías. Más importante aún, ofrecemos un entorno colaborativo y multicultural donde puedes aprender, disfrutar y crecer como profesional.

📢 En Dynamic Devs, estamos en la búsqueda de un Software Engineer con experiencia sólida en AWS y en la creación de soluciones basadas en la nube y enfoque orientado a la innovación y la eficiencia,

Funciones del cargo

✅ Desarrollar y administrar aplicaciones utilizando servicios de AWS como DMS, Lambda, PostgreSQL, DynamoDB, Glue, SES, SNS.
✅ Diseñar e implementar soluciones escalables y seguras en la nube.
✅ Colaborar con equipos de DevOps para crear pipelines CI/CD y automatizar procesos.
✅ Monitorear el rendimiento y la seguridad 🔐 de las soluciones implementadas.
✅ Integrar soluciones con otros equipos y mejorar la arquitectura tecnológica.
✅ Implementar soluciones en Python y/o C# 🐍💻 para desarrollo y automatización.
✅ Arquitectura: Microservicios, DDD, EDA o afines.

Requerimientos del cargo

🎓 Experiencia mínima de 2 años trabajando con AWS (DMS, Lambda, PostgreSQL, DynamoDB, Glue, SES, SNS).
⚙️ Conocimiento en arquitecturas de microservicios, DDD y EDA.
🖥️ Experiencia en Python y/o C# para desarrollo en la nube y automatización.
🔗 Experiencia en GitHub y DevSecOps.
🛡️ Conocimientos en seguridad en la nube.
📍Disponibilidad para asistir 3 días a la semana de forma presencial a la oficina del cliente ubicada en Santiago-Chile (modalidad híbrida, requisito excluyente).

Opcionales

🏅 Certificación AWS (deseable, pero no obligatoria).

Condiciones

💻 Beneficio Bring Your Own Device (A partir del 4to mes trabajando con nosotros, podrás adquirir un computador propio)
⌚ Horario flexible 🕒
🚀 Haz un impacto. Trabaja en proyectos desafiantes
📚 IT Training: acceso a más de 500 cursos actualizados cada semana 📖
🎤 Dev Talks: conferencias exclusivas con expertos del sector
🎉 Día especial: 🎂 ¡Día libre por cumpleaños!
👥 Trabaja en un equipo talentoso y multicultural usando tecnología increíble
🎙️ Escucha nuestro podcast aquí: 🔗 Escuchar Podcast
🌐 Visítanos en nuestra web: 🔗 Dynamic Devs

Internal talks Dynamic Devs offers space for internal talks or presentations during working hours.
Partially remote You can work from your home some days a week.
Computer provided Dynamic Devs provides a computer for your work.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
DevOps
  • TIMINING
  • Santiago (Hybrid)
Python Go Docker Kubernetes

En Timining nos apasiona resolver problemas complejos y generar impacto real en la minería. Desarrollamos soluciones tecnológicas que integran ciencia de datos, geología, planificación minera y diseño estratégico para transformar cómo se toman decisiones en la gran minería: más informadas, eficientes y sustentables.

Nuestra cultura y valores, combina conocimiento técnico, colaboración, aprendizaje continuo y compromiso con la innovación.

Creemos en una minería mejor, y estamos construyéndola con tecnología.

Funciones del cargo

Buscamos un DevOps Engineer que promueva una cultura DevOps de colaboración, automatización y mejora continua, y que cuente con experiencia en automatización de infraestructura, monitoreo, integración y despliegue continuo, y administración de plataformas.

El candidato ideal actuará como un puente entre los equipos de desarrollo y operaciones, facilitando la comunicación y la eficiencia en el flujo de trabajo. Por lo que debe comprender los flujos de desarrollo y despliegue, además de las herramientas de monitoreo, con el fin de garantizar la confiabilidad y escalabilidad de los sistemas en un entorno minero.

1. Monitoreo y observabilidad: Implementar y mantener sistemas de monitoreo y alertas utilizando el stack tecnológico de Prometheus, Grafana y herramientas relacionadas.
2. CI/CD: Diseñar, optimizar y mantener pipelines de integración y despliegue continuo mediante GitHub Actions, para componentes en diversos lenguajes y tecnologías.
3. Colaboración y soporte: Trabajar junto a desarrolladores y operación para facilitar despliegues, troubleshooting, y garantizar el uptime de los servicios, participando activamente con los equipos y sesiones de resolución de problemas para facilitar despliegues y garantizar el uptime de los servicios.
4. Garantizar la calidad del software: Certificar que el software cumple con los requisitos del usuario final y asegurar su correcto funcionamiento en distintas plataformas.
5. Mejora continua y actualización: Optimizar estrategias de prueba, promover prácticas DevOps a los diversos equipos de la organización y mantenerse al día con tendencias del sector.

Requerimientos del cargo

1. | Programación en Go o Python para scripting y automatización
2. | Conocimientos de redes y protocolos
3. | CI/CD con GitHub Actions
4 | Gestión de contenedores (Docker) y orquestador de servicio (Kubernetes o Nomad)
5 | Observabilidad con Prometheus y Grafana

Opcionales

Consul para configuración y descubrimiento de servicios
Seguridad en pipelines y despliegues
Experiencia en entornos de alta disponibilidad

Traefik como proxy inverso
Capacidad analítica en traza de errores

Conditions

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage TIMINING pays or copays health insurance for employees.
Computer provided TIMINING provides a computer for your work.
Informal dress code No dress code is enforced.
APPLY VIA WEB
Gross salary $1800 - 2000 Full time
QA Engineer
  • getxerpa

En getxerpa trabajamos para transformar el sector financiero en América Latina, ayudando a bancos e instituciones financieras a modernizar su propuesta digital y fortalecer su vinculación con los clientes mediante el uso de herramientas que promueven la salud financiera y la personalización basada en datos. Nuestra plataforma está diseñada para entregar experiencias digitales mejores y más rápidas, a través de soluciones integrables que apoyan a los usuarios a alcanzar sus metas financieras mientras incrementan la interacción con productos y canales bancarios.

Con presencia en México, Ecuador, Colombia y Chile, colaboramos con grandes actores como Santander, Banco del Pacífico, Scotiabank y Sura, contando actualmente con más de 700 mil usuarios activos que han logrado ahorrar más de USD 1 billón gracias a nuestras herramientas innovadoras y adaptadas a las necesidades regionales.

Responsabilidades del puesto

El/La QA Engineer será responsable de garantizar la calidad y el correcto funcionamiento de las soluciones digitales que ofrecemos a nuestros clientes en el sector financiero.

  • Colaborar con el equipo de desarrollo para identificar los requisitos de prueba, diseñar y crear casos de prueba exhaustivos.
  • Identificar la data clave para poder probar la funcionalidad esperada.
  • Detectar riesgos y dependencias de los requerimientos.
  • Generar Plan de pruebas, Matriz de Escenarios y Casos de Prueba que garanticen la funcionalidad de la solución.
  • Definir la estrategia de pruebas y asegurar la cobertura adecuada de pruebas funcionales, de regresión y de rendimiento.
  • Realizar pruebas automatizadas o manuales de acuerdo al plan y las necesidades del desarrollo.
  • Realizar diversos tipos de pruebas, incluidas pruebas funcionales, de integración, intromisión. regresión y de rendimiento, para garantizar la calidad y estabilidad de nuestras soluciones de identidad.
  • Identificar y gestionar riesgos asociados a la calidad del software y presentar informes de progreso.
  • Colaborar con equipos de desarrollo, Product Owners y otros interesados para alinear los objetivos de calidad con los requisitos del negocio.
  • Realizar análisis de resultados de pruebas y preparar informes detallados sobre la calidad del software, destacando defectos y sugerencias de mejoras.
  • Mantenerse actualizado con las últimas herramientas, tendencias y mejores prácticas de la industria en pruebas automatizadas y aseguramiento de calidad.
  • Conocer el valor que aporta al negocio la funcionalidad que se dará con la solución que se requiere.
  • Dar seguimiento a la liberación en producción, así como a los criterios mínimos de aceptación para poder comenzar con la ejecución de los casos de prueba previstos.

Requisitos y habilidades necesarias

Buscamos profesionales con experiencia comprobable en aseguramiento de calidad para plataformas digitales, preferentemente en entornos fintech o productos digitales orientados al consumidor financiero. Es fundamental contar con fuertes conocimientos técnicos y una mentalidad proactiva para identificar y resolver problemas de manera ágil.

Los requisitos clave incluyen:

  • +2 años Banco o fintech o grandes volúmenes de datos
  • +3 años experiencia QA Engineer
  • +3 años metodologías ágiles
  • +3 años CI/CD
  • Experiencia utilizando herramientas de IA para procesos de testing

Tech

  • +2 años Cypress, Selenium o Playwright o similar (automatización)
  • +2 años CircleCI, Jenkins, GitHub Actions o similar (integración)
  • +2 años Jest, Mocha, Karma o similar (unitarias)
  • +2 años REST Assured, Postman o Supertest o similar (API’s)
  • +2 años Github
  • +2 años AWS
  • +2 años Docker
  • +2 años SQL (Postgres)

Skills

  • Análisis y diseño de requerimientos
  • Ingeniería de Software
  • Arquitectura de Software
  • Arquitectura de componentes en la Nube
  • Patrones de Diseño
  • Seguridad Informática
  • Autonomía - autodidacta
  • Análisis y resolución de problemas
  • Trabajo por objetivos
  • Trabajo en equipo
  • Pensamiento crítico

Se valorarán también habilidades blandas como trabajo en equipo, adaptabilidad a ambientes dinámicos, y enfoque en resultados orientados al cliente final.

Competencias y conocimientos adicionales deseables

Serán altamente valorados aquellos candidatos/as que cuenten con experiencia previa en proyectos fintech o bancarios, así como conocimiento de normativas de seguridad y privacidad en el sector financiero. También recomendamos tener familiaridad con:

    • Excelentes habilidades de organización y comunicación.
    • Experiencia en proyectos complejos.
    • +2 años experiencia Javascript, Python, .NET como BackEnd Developer.
    • +2 años experiencia en programación orientada a objetos, patrones de programación asíncronos
    • +1 año Lighthouse, QebPageTest, Sitespeed.io (rendimiento)
    • +1 año OWASP ZAP, Burp suite o similar (seguridad)

Beneficios y cultura laboral

  • 🧑🏽‍💻 Modalidad de trabajo 100% remoto
  • 🌎 Oportunidad de integrarte a un equipo multicultural e innovador.
  • 🏝️ Días xerpa adicionales a los días normales de vacaciones para un mejor balance vida-personal.
  • 💸 Bono de vacaciones por tomar 10 días hábiles consecutivos.
  • 🎂 Medio día libre en tu cumpleaños para celebrar contigo mismo.
  • 🕰️ Flexibilidad horaria para una gestión óptima de tu tiempo laboral.
  • 🤸🏽‍♀️ Trabajo bajo metodologías ágiles con equipos multidisciplinarios que fomentan la colaboración y el aprendizaje continuo.
  • 💻 Bono mensual para mejorar tu espacio de home office y llevar tu lugar de trabajo a otro nivel.
  • ✈️ Viaje Offsite anual para fortalecer vínculos y motivación de equipo.
  • Muchos otros beneficios que revelaremos al conocernos personalmente.

APPLY VIA WEB
$$$ Full time
DevOps Engineer con Conocimientos en Back-end y AWS
  • coderslab.io
En CodersLab es una empresa dedicada al desarrollo de soluciones para empresas y actualmente estamos enfocados en el crecimiento global de nuestros equipos con el objetivo de posicionar nuestros productos en más países de Latinoamérica. Por esta razón, estamos buscando un DevOps Engineer con conocimientos en Backend y AWS

Te sumarás a un equipo desafiante y ambicioso con ganas de innovar en el mercado, haciendo que tus propuestas sean altamente valiosas para el negocio.
¡Aplica ahora para este increíble reto!

Funciones del cargo

  • Diseñar, implementar y mantener pipelines CI/CD para aplicaciones backend.
  • Automatizar despliegues y configuraciones en entornos AWS (EC2, Lambda, ECS, EKS, S3, RDS, etc.).
  • Gestionar infraestructura como código usando herramientas como Terraform, CloudFormation o similares.
  • Monitorizar y optimizar el rendimiento de sistemas y aplicaciones.
  • Colaborar con desarrolladores backend para integrar y mejorar procesos de desarrollo y despliegue.
  • Implementar prácticas de seguridad en la infraestructura y aplicaciones.
  • Gestionar la escalabilidad, alta disponibilidad y recuperación ante desastres.
  • Documentar procesos y arquitecturas implementadas.

Requerimientos del cargo

  • Experiencia mínima de 2 años como DevOps Engineer o en roles similares.
  • Conocimientos sólidos en AWS y sus servicios principales.
  • Experiencia en desarrollo backend con lenguajes como Python, Node.js, Java o Go.
  • Dominio de herramientas CI/CD (Jenkins, GitLab CI, GitHub Actions, etc.).
  • Conocimientos en infraestructura como código (Terraform, CloudFormation).
  • Experiencia con contenedores y orquestadores (Docker, Kubernetes).
  • Familiaridad con monitoreo y logging (Prometheus, Grafana, ELK, CloudWatch).
  • Buenas prácticas de seguridad en la nube.
  • Capacidad para trabajar en equipo y comunicar efectivamente.
Deseables:
  • Certificaciones AWS (AWS Certified DevOps Engineer, AWS Solutions Architect).
  • Experiencia con microservicios y arquitecturas serverless.
  • Conocimiento en bases de datos SQL y NoSQL.
  • Experiencia en metodologías ágiles.

APPLY VIA WEB
$$$ Full time
DevOps Engineer II
  • ZeroFox
  • Santiago (Hybrid)
Python Agile Go DevOps

Opportunity Overview

At ZeroFox, we are passionate about bringing world-class protection to the digital-first world. Together, we have built a system capable of collecting and analyzing data from all over the internet, creating a paradigm-shifting cybersecurity product that helps secure and protect our customers and improves the global threat landscape.

We are a team of software engineers, cybersecurity experts, and data scientists who continue to develop unparalleled solutions for the cyber security industry by providing the best Digital Risk Protection SaaS in the global market. Our company, services, and user base are growing faster than ever and we’d like you to help us innovate. We believe the greatest solutions in the Digital Risk Protection space come from composing teams with varied backgrounds and experiences that can use their complementary skill sets to come up with the best market-defining solutions.

Role and responsibilities

  • Collaborate with product teams and software engineers across security, machine learning, digital risk protection, and cyber threat intelligence to develop the next generation of solutions for the ZeroFox platform
  • Gain in-depth knowledge of our microservices architecture and stack; leverage this knowledge to improve system stability, performance, scalability, and security
  • Own and maintain multiple components of our DevOps infrastructure, including CI/CD pipelines, monitoring solutions, and container orchestration platforms, with a focus on embedding security controls and checks
  • Begin to take on a leadership role within projects, guiding best practices around deployment automation, infrastructure as code, and secure configuration management
  • Research, evaluate, and implement new tooling or capabilities to ensure our systems meet or exceed production security requirements (e.g., scanning, patching, vulnerability management)
  • Coordinate with security stakeholders to review engineering milestones and third-party systems for compliance with security standards

Required qualifications and skills

  • Motivated, communicative, teamwork-oriented professionals comfortable working in agile environments
  • Bachelor’s degree in computer science or a related field, OR equivalent education or experience
  • DevOps experience, typically obtained in 3+ years
  • Good understanding of the software development lifecycle, automation, and CI/CD practices
  • Familiarity with cloud services like AWS for building and scaling web architecture, including basic security considerations and standards
  • Experience working with containerization and orchestration technologies such as Docker, Nomad, or Kubernetes
  • Ability to write and maintain infrastructure as code (e.g., Terraform or AWS CloudFormation), integrating security into IaC workflows
  • Good communication, collaboration, and presentation skills in English
  • Ability to work effectively in a fast-paced, agile environment

Desirable skills

  • Proficiency in scripting languages such as Python, Go, or a similar language
  • Experience troubleshooting networking issues in a cloud environment, including basic network security principles
  • Familiarity with monitoring and alerting tools (e.g., Prometheus, Grafana, Datadog)
  • Solid knowledge of infrastructure best practices, security considerations, and automation tools
  • Understanding of or exposure to security scanning tools (e.g., SAST, DAST, or container image scanners)
  • We also value equivalent experience to these languages and frameworks. If you think you might be a fit, apply!

Benefits

  • Opportunities to learn and contribute your knowledge to our Digital Risk Protection platform
  • Competitive compensation
  • Competitive PTO
  • Complementary health insurance
  • Daily catered lunches for in-office work
  • Respectful and nourishing work environment, where every opinion is heard and everyone is encouraged to be an active part of the organizational culture.
  • Regular team bonding activities like cooking and cocktails classes, bingos, stand up comedy, magic shows, virtual happy hour, lunch and learns, etc.
  • Additional Parental Leave
  • Excellent communication: between teams, people, organizations and leaders

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance ZeroFox pays or copays life insurance for employees.
Meals provided ZeroFox provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage ZeroFox pays or copays health insurance for employees.
Dental insurance ZeroFox pays or copays dental insurance for employees.
Computer provided ZeroFox provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal ZeroFox gives you paid vacations over the legal minimum.
Beverages and snacks ZeroFox offers beverages and snacks for free consumption.
Parental leave over legal ZeroFox offers paid parental leave over the legal minimum.
APPLY VIA WEB
Gross salary $4000 - 5500 Full time
DevOps Data Engineer (Azure & Databricks)
  • Zaelot
Python SQL DevOps Docker

At Zaelot, we pride ourselves on developing scalable solutions for enterprise-grade clients. As a DevOps Data Engineer, you will play a crucial role in maintaining robust, secure, and scalable data pipelines within the Azure cloud ecosystem.
We thrive on collaboration amongst our analysts, designers, and software engineers to not only meet our client needs but to pioneer innovative strategies that set us apart in this rapidly changing technology landscape.

Key Responsibilities:

  • Collaborate with data scientists, analysts, and developers to design, build, and maintain efficient data pipelines in the Azure environment.
  • Optimize existing cloud-based data solutions to improve performance and reliability.
  • Utilize Azure Data Factory and Azure Databricks for data integration and processing.
  • Implement CI/CD practices using tools like Azure DevOps or GitHub Actions, ensuring seamless deployments.
  • Develop scripts in Python and SQL for automation and data manipulation.
  • Engage in troubleshooting and problem-solving to enhance system efficiency.

Required Skills and Experience:

  • 4+ years of experience as a Data Engineer or DevOps Engineer, demonstrating practical knowledge and expertise.
  • Hands-on proficiency with Azure Data Factory and Azure Databricks.
  • Solid understanding of Python, SQL, and automation scripting.
  • Experience with CI/CD tools like Azure DevOps or GitHub Actions.
  • Familiarity with orchestrating data workflows and creating cloud-based solutions.
  • Advanced English proficiency (both written and spoken) for effective communication with the team.
  • Strong problem-solving skills and a collaborative mindset are essential.

Desirable Skills:

  • Azure certifications such as Azure Data Engineer Associate or DevOps Engineer Expert would be advantageous.
  • Familiarity with container tools like Docker or Kubernetes.

What We Offer:

  • Paid vacations for 20 days after one year.
  • Referrals program
  • Finder's fee
  • Training and certifications program
  • Work from home aid
  • English Classes
  • Fitness Program
  • Profit Share
  • Coaching sessions
At Zaelot, we believe in fostering a supportive and innovative work environment. We look forward to welcoming you to our talented team and achieving great things together! 🚀

Wellness program Zaelot offers or subsidies mental and/or physical health activities.
Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Zaelot offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Computer provided Zaelot provides a computer for your work.
Fitness subsidies Zaelot offers stipends for sports or fitness programs.
Performance bonus Extra compensation is offered upon meeting performance goals.
Personal coaching Zaelot offers counseling or personal coaching to employees.
APPLY VIA WEB
$$$ Full time
DevOps Engineer
  • Softserve
Python Linux DevOps Virtualization
WE ARE
SoftServe is an IT & global digital solutions company with headquarters in Austin, Texas, founded in 1993 in Ukraine. Our associates work on 2,000+ projects with clients in the USA, Europe, and APAC region. We are about people who create bold things, who make a difference, who have fun, and who love their work. In January 2022, we started our operations in Latin America. We committed to grow our local community to 3,500 associates by 2025 and invest in the market.

Funciones del cargo

AND YOU WANT TO
  • Collaborate with the LATAM DevOps Practice to contribute to cloud platforms for globally innovative companies
  • Engage in diverse private and public cloud-oriented projects of various scales
  • Participate in enterprise-scale migrations, cloud-native application development, and trending technology initiatives
  • Build, maintain, and optimize CI/CD pipelines for automated deployment and updates
  • Configure and manage scalable, secure, and high-performing cloud environments
  • Use tools like Terraform for infrastructure as code (IaC) to enhance deployment consistency and minimize manual interventions

Requerimientos del cargo

IF YOU ARE
  • Experienced with SRE/DevOps best practices
  • Proficient in AWS core IaaS and PaaS services, including IAM, VPC, Internet Gateway, NAT Gateway, ELB, RDS, EC2, S3, Security Groups, ACLs, and Routing Tables
  • Skilled in Docker, Kubernetes, and EKS
  • Adept in HELM charts and troubleshooting workloads in K8s clusters
  • Knowledgeable in Infrastructure as Code using Terraform or CloudFormation
  • Skilled in scripting languages such as Shell or Bash
  • Proficient in Linux, including administration, command-line expertise, and service debugging
  • Experienced in configuring log collectors and using observability platforms for containerized workloads

Opcionales

  • Good at maintaining existing CI/CD pipelines with tools like Jenkins, GitHub, GitLab, or CircleCI (as a plus)
  • Familiar with Python and tools like Prometheus and Grafana (would be a plus)
  • Knowledgeable in AFT Control Tower and Landing Zone (optional)

Condiciones

SoftServe is an Equal Opportunity Employer. All qualified applicants will receive consideration for employment regardless of race, color, religion, age, sex, nationality, disability, sexual orientation, gender identity and expression, veteran status, and other protected characteristics under applicable law. Let’s put your talents and experience in motion with SoftServe.

Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Softserve pays or copays health insurance for employees.
Computer provided Softserve provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Softserve gives you paid vacations over the legal minimum.
Beverages and snacks Softserve offers beverages and snacks for free consumption.
APPLY VIA WEB
Gross salary $2400 - 3000 Full time
DevOps
  • coderslab.io
  • Santiago (Hybrid)
Ruby Python Git Linux
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente nos encontramos apuntando al crecimiento de nuestros equipos de manera global con el objetivo de posicionarnos con nuestros productos en más países de Latinoamérica, es por ello que estamos en búsqueda de un DEVOPSpara sumarse a nuestro equipo.
Te sumarás a un equipo desafiante y ambicioso con ganas de renovar el mercado, por lo que tus propuestas serán de mucho valor para el negocio.
¡Postula para este tremendo desafío!

Funciones del cargo

  1. Diseño e Implementación de Infraestructura:
    • Diseñar e implementar soluciones de infraestructura que cumplan con los estándares de alta disponibilidad, escalabilidad y observabilidad.
    • Automatizar la configuración y el despliegue de los componentes de la infraestructura utilizando herramientas de Infraestructura como Código (IaC), como Terraform.
  2. Mantenimiento y Monitoreo:
    • Tomar posesión de los componentes de la infraestructura, asegurando su confiabilidad y rendimiento a través de revisiones de código y pruebas.
    • Implementar y gestionar herramientas de monitoreo y observabilidad, incluyendo ELK stack y Datadog, para garantizar la integridad y el rendimiento de los sistemas.
  3. Colaboración y Gestión de Proyectos:
    • Colaborar con otros ingenieros, partes interesadas y equipos de operaciones para comprender los requisitos comerciales y brindar soluciones técnicas efectivas.
    • Trabajar en un entorno de desarrollo ágil, utilizando herramientas como Jira y Confluence para gestionar el trabajo y realizar un seguimiento del progreso.
  4. Optimización y Mejora Continua:
    • Identificar y abordar los puntos débiles en los sistemas de la empresa a través de la automatización y la optimización.
    • Mantenerse actualizado con las tecnologías emergentes y las tendencias de la industria en el espacio DevOps/SRE para impulsar la innovación.
  5. Desarrollo y Scripting:
    • Programar en lenguajes como Python, Ruby y Bash para optimizar procesos y herramientas de infraestructura.

Requerimientos del cargo

  • Experiencia: Mínimo 3 años de experiencia como ingeniero DevOps o en roles relacionados con infraestructura cloud, incluyendo migración de infraestructura.
  • Conocimientos Técnicos:
    • Competencia en lenguajes de programación desde una perspectiva de infraestructura (Python, Ruby, Bash).
    • Familiaridad con servicios Cloud (AWS, Azure, GCP, etc.).
    • Experiencia con herramientas de monitoreo y logs, como ELK stack y Datadog.
    • Conocimiento avanzado de herramientas de infraestructura como código (IaC), específicamente Terraform.
    • Gran comprensión de los principios y prácticas de DevOps.
    • Experiencia en administración de sistemas Linux, control de versiones (Git), y tecnologías de contenedorización (Docker, Kubernetes).
  • Habilidades Personales:
    • Fuertes habilidades de comunicación y colaboración.
    • Capacidad para trabajar en un entorno ágil y adaptarse a cambios.
    • Pensamiento analítico y orientación a resultados.
    • Compromiso con la mejora continua y la innovación.

APPLY VIA WEB
Gross salary $1400 - 2000 Full time
Administrador de Sistemas
  • RiskAmerica
  • Santiago (Hybrid)
Python Linux Sysadmin Virtualization
RiskAmerica es una empresa consolidada en la industria FinTech, proveemos servicios de gestión e información a todas las empresas de inversiones de Chile. Nos caracterizamos por ser un agente de innovación y transformación digital estando siempre a la vanguardia en las tecnologías y metodologías que usamos.
Hoy en día nos encontramos en un proceso de expansión y buscamos un nuevo Administrador de Sistemas para ayudar a gestionar múltiples soluciones hospedadas en la nube de Google Cloud Platform con Kubernetes Engine.
¿Te atrae el rol de Solution Architect, Cloud Engineer, DevOps o Administrar Sistemas? Acá podrás aprender mucho de gente muy talentosa y podrás contribuir de manera significativa en toda la cadena de vida de los servicios de la empresa.

Que necesitamos de ti

  • Diseño, desarrollo, mantención y actualización de infraestructura para soluciones multi-tennant de alta disponibilidad.
  • Construir y administrar herramientas de monitoring de los servicios e infraestructura.
  • Ayudar a diseñar, mantener y probar la seguridad de la infraestructura de red y diversas plataformas.
  • Construir utilidades para apoyar las labores de los ingenieros de software del área.
  • Mejorar la cadena de Integración Continua de los servicios administrados.
  • Administrar la generación, almacenamiento y uso de respaldos de los distintos servicios.
  • Ayudar a diseñar, mantener y probar los planes de continuidad de negocio de los distintos servicios.

Que necesitamos de ti

  • Experiencia en seguridad de Redes
  • Experiencia Bash scripting.
  • Experiencia programando en Python.
  • Experiencia básica usando containers (Docker y/o Kubernetes) tanto en Build como Deploy.
  • Experiencia de al menos 1 año administrando cargas productivas de algún servicio
  • Interés y entusiasmo por aprender de nuevas tecnologías, con el fin de crear soluciones robustas y automáticas que requieran mínima mantención.
  • Versatilidad para aprender de diversas tecnologías y lenguajes para apoyar al equipo de Ingenieros de Software en sus diversas necesidades
  • Experiencia en sistemas Linux
  • Manejo de inglés leído técnico.

Sumas puntos si

  • Certificado de Solution Architect de AWS o GCP
  • Experiencia trabajando con Kubernetes
  • Experiencia trabajando sobre Google Cloud Platform (especialmente GKE, GCS y Compute)
  • Conocimientos teóricos de Kubernetes
  • Experiencia usando Ansible
  • Experiencia con Prometheus & Graphana
  • Experiencia con Bases de Datos MariaDB trabajando en esquemas master-slave o master-master
  • Experiencia implementando cadenas de integración continua (CI)

Que tenemos para ti

  • Excelente clima laboral junto a un gran equipo.
  • Seguro complementario de salud, incluyendo dental, catastrófico y vida.
  • Amplias posibilidades para aprender del rubro de inversiones.
  • Incentivo al ahorro previsional voluntario (APV).
  • Buena relación vida/trabajo.
Si vienes a la oficina:
  • Vestimenta casual
  • Estacionamiento para bicicletas
  • Y un buen café!

Life insurance RiskAmerica pays or copays life insurance for employees.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage RiskAmerica pays or copays health insurance for employees.
Dental insurance RiskAmerica pays or copays dental insurance for employees.
Computer provided RiskAmerica provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Beverages and snacks RiskAmerica offers beverages and snacks for free consumption.
APPLY VIA WEB
$$$ Full time
DevOps Lead
  • Moventi
Python Linux DevOps Virtualization

We are seeking an experienced DevOps Lead to join our team, who will be responsible for designing, implementing, and maintaining our cloud-based infrastructure on Amazon Web Services (AWS).
En este rol, tendrás la oportunidad de liderar proyectos relacionados con la innovación tecnológica, garantizando que cumplamos con los estándares más altos.

Funciones del cargo

As a DevOps Lead, you will be responsible for leading our DevOps team, ensuring the smooth operation of our cloud infrastructure, and driving the adoption of DevOps best practices across the organization.

  • Cloud Infrastructure: Design, implement, and maintain our cloud infrastructure on AWS, ensuring scalability, security, and high availability.
  • CI/CD Pipelines: Develop and maintain CI/CD pipelines using GitHub Actions, ensuring automated testing, building, and deployment of our applications.
  • Automation: Automate repetitive tasks, and implement infrastructure-as-code (IaC) using tools like Chef, CloudFormation, CDK.
  • Containerization: Implement and manage containerization using Docker, ensuring efficient and scalable deployment of our applications.
  • Security: Ensure the security and compliance of our cloud infrastructure, implementing best practices, and adhering to industry standards (e.g., HIPAA, PCI-DSS).
  • Collaboration: Work closely with cross-functional teams, including development, QA, and product, to ensure smooth operation of our applications and infrastructure.
  • Monitoring and Logging: Implement monitoring and logging tools (DataDog, CloudWatch), ensuring real-time visibility into our infrastructure and applications.
  • Troubleshooting: Identify and resolve issues, debugging complex problems, and optimizing system performance.

Requerimientos del cargo

  • Technical Skills:
  • AWS, including EC2, ECS, RDS, IAM
  • Expertise in IaC tools (preferably - AWS CDK)
  • Expertise in CI/CD pipelines using GitHub Actions
  • Proficiency in automation tools like Chef, Ansible, or Puppet
  • Experience with containerization using Docker, including Docker Compose and Docker Swarm
  • Strong understanding of security best practices, including network security, access control, and compliance
  • Strong knowledge of Python and Shell scripting
  • Familiarity with monitoring and logging tools (DataDog, AWS CloudWatch)
  • Soft Skills:
  • Excellent leadership and communication skills
  • Strong problem-solving skills, with the ability to break down complex issues into manageable parts
  • Ability to adapt to changing requirements and priorities
  • Passion for DevOps, automation, and security, with a focus on delivering high-quality solutions
  • Education
  • Bachelor's degree in Computer Science, Information Technology, or a related field
  • Experience
  • At least 5 years of experience in DevOps, with a focus on cloud infrastructure, CI/CD pipelines, and automation
  • Experience leading DevOps teams, with a proven track record of delivering high-quality solutions

Opcionales

Certifications:

  • AWS Certified DevOps Engineer - Professional
  • GitHub Actions Certified Developer
  • Chef Certified Developer
  • Docker Certified Associate

Conditions

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
APPLY VIA WEB
Gross salary $2600 - 2800 Full time
Ingeniero DevOps
  • BC Tecnología
  • Santiago (Hybrid)
Python Linux DevOps Virtualization
En BC Tecnología, somos una consultora de TI con un enfoque claro en el cliente y metodologías ágiles. Durante los últimos 6 años hemos diseñado soluciones personalizadas para una variedad de sectores incluyendo servicios financieros, seguros, retail y gobierno. Gestionamos un portafolio diversificado, desarrollamos proyectos innovadores, y ofrecemos servicios de outsourcing y selección de profesionales. Nuestro equipo está compuesto por expertos en diferentes áreas tecnológicas, lo que nos permite formar equipos de trabajo ágiles y eficaces. Como parte de tu rol como Ingeniero DevOps, tendrás la oportunidad de postularte para ser parte en la gestión de plataformas en Oracle Cloud Infrastructure (OCI) y Microsoft Azure, contribuyendo así a la mejora continua de la infraestructura de nuestros clientes.

Responsabilidades:

  • Administrar y mantener la infraestructura de plataformas en OCI y Azure.
  • Gestionar y automatizar los procesos de implementación de sistemas.
  • Monitorear el rendimiento y la disponibilidad de las plataformas.
  • Implementar y mantener herramientas de CI/CD.
  • Colaborar con equipos de desarrollo para mejorar la eficiencia y la calidad de los despliegues.
  • Resolver problemas y optimizar el rendimiento de las aplicaciones y servicios.

Requisitos:

  • Experiencia comprobable en administración de plataformas en OCI y Azure.
  • Conocimientos en herramientas de automatización y CI/CD.
  • Habilidades en scripting y programación (Python, Bash, etc.).
  • Experiencia en la gestión de contenedores y orquestación (Docker, Kubernetes).
  • Conocimiento en Power Platform (deseable).
  • Capacidad para trabajar en un entorno híbrido y adaptarse a los horarios establecidos.

Deseable:

Conocimiento en Power Platform es considerado un plus, de igual forma, habilidades adicionales en herramientas existentes de orquestación y su manejo eficiente podrían ser favorables en el proceso de selección. Se aprecia una actitud proactiva y la voluntad de enfrentar y resolver problemas que surjan en un entorno dinámico.

Beneficios:

En BC Tecnología, valoramos a nuestros colaboradores y ofrecemos un entorno dinámico con oportunidades de continuo aprendizaje. Trabajarás en proyectos innovadores que ofrecen retos tecnológicos, en una modalidad híbrida que permite 4 días de trabajo remoto y 1 día en la oficina. También ofrecemos un seguro complementario de salud, acceso a Amipass y aguinaldos en fiestas patrias y Navidad.
¡Si te apasiona la tecnología y deseas unirte a un equipo altamente cualificado, esta es tu oportunidad!

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB
$$$ Full time
DevOps Engineer
  • Leniolabs_
Python Agile DevOps Virtualization

Leniolabs_ es una empresa internacional de desarrollo de software con una sólida presencia en Argentina, Chile, España y USA. Cobrimos un espectro diverso de clientes, mayoritariamente en San Francisco, ofreciendo soluciones innovadoras en el desarrollo de software. Nuestro enfoque se centra en trabajar codo a codo con nuestros clientes, integrando equipos y asegurando que las soluciones sean totalmente adaptadas a sus necesidades específicas.

Actualmente nos encontramos en busqueda de un DevOps Engineer para sumarse y laborar con nuestros equipos quienes se encuentran laborando en uno de los proyectos relacionados con el almacenamiento de energía a escala global.

Funciones del cargo

  • Implementar y administrar servicios AWS: S3, Lambdas, IAM, ECS, EC2, Networking, RDS.
  • Optimizar recursos en la nube para un rendimiento eficiente y seguro.
  • Implementar aplicaciones usando Docker para portabilidad y consistencia.
  • Automatizar despliegues con Terraform (IaC).
  • Gestionar permisos y roles en AWS IAM para garantizar la seguridad.
  • Aplicar mejores prácticas de seguridad para proteger infraestructura y datos.
  • Desarrollar soluciones de monitoreo y análisis en AWS.
  • Identificar y resolver problemas en sistemas productivos de forma proactiva.
  • Colaborar con equipos multidisciplinarios para alcanzar objetivos de negocio.
  • Documentar procesos y crear guías técnicas para transferencia de conocimiento.
  • (Plus) Experiencia con Node + Nest, Python, AWS Timestream, AWS Quicksight.

Requerimientos del cargo

Buscamos un profesional con al menos 5 años de experiencia como DevOps con experiencia en:

  • AWS ( S3, Lambdas, IAM, ECS, EC2, networking, RDS)
  • Docker
  • Terraform
  • Experiencia en metodologías ágiles, preferentemente Scrum.
  • Habilidades de resolución de problemas y capacidad para trabajar de forma independiente y en equipo.
  • Nivel intermedio/avanzado o avanzado de inglés es esencial para colaborar en un entorno global.

Opcionales

  • Node+Nest
  • Python
  • AWS Timestream
  • AWS Quicksight

Beneficios

  • Metlife (Chile)
  • 100% Remoto. En Buenos Aires existe un espacio para asistir dos veces por semana. En Santiago tenemos un espacio para asistir los días que se desee.
  • Posibilidad de recibir 2 bonos al año
  • 2 revisiones salariales al año
  • Clases de inglés
  • Equipamiento Apple
  • Cursos UDEMY
  • Budget para compra de libros
  • Budget para compra de materiales de trabajo

APPLY VIA WEB
Gross salary $30000 - 48000 USD/year Full time
Junior Quality Assurance Engineer – Fintech Banking
  • Tenet Bank Ltd.
QA DevOps Python Azure

At Tenet Bank, we’re not just another bank—we’re a pioneering software company, redefining financial services with our own Tenet Operating System (TenetOS). We serve exciting tech startups, venture capital firms, and cutting-edge businesses worldwide, creating a future of banking where compliance meets agility and technology powers efficiency, automation, and smarter client experiences.

We’re on a journey to support high-profile clients in a dynamic, high-tech environment, and we’re looking for talented individuals to join our team.

WHAT YOU’LL DO

  • Test Case Design & Execution: Create and execute test cases for functional, regression, and integration testing.
  • Automation Support: Assist in developing and maintaining automated test scripts using tools like Selenium or Cypress.
  • Defect Management: Identify, document, and track software defects using Azure DevOps or similar tools, collaborating with developers for resolutions.
  • End-to-End Testing: Conduct structured and exploratory testing for UI workflows and APIs.
  • Test Environment Setup: Help set up and maintain test environments for efficient and reliable testing.
  • Collaboration & Documentation: Work closely with developers and product owners to understand requirements and ensure quality at every stage of development. Maintain clear documentation of test cases, test results, and defect reports.
  • Continuous Improvement: Identify opportunities to enhance testing processes and contribute to best practices in QA.

WHAT MAKES YOU A GREAT FIT

  • Bachelor's degree in Computer Science, Information Technology, or a related field.
  • Minimum 2 years in a QA role, with experience in both manual and automated testing.
  • Basic knowledge of automated testing tools like Selenium, Cypress, or Playwright.
  • Familiarity with Azure DevOps or similar defect tracking tools.
  • Exposure to scripting languages (e.g., Python, Java) for automation.
  • Understanding of Software Development Lifecycles (SDLC) and QA best practices.

OPTIONAL SKILLS

  • Strong problem-solving skills and a detail-oriented approach to testing.
  • Clear verbal and written communication for effective collaboration and documentation.
  • Familiarity with Agile or Scrum development methodologies.

JOIN US AT TENET BANK

Get the chance to work with trailblazing tech startups, VCs, and global innovators. If you’re excited about leveraging cutting-edge technology to redefine banking, this is your perfect opportunity!

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
$$$ Full time
QA Automation SSR Adv
  • Leniolabs_
JavaScript Agile QA Scrum
Leniolabs_ que ahora es Improving South America es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España, USA y Canadá.
Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes.
Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.
Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Funciones del cargo

Actualmente, estamos en la búsqueda de un QA Automation SSR Adv/SR que se quiera unir a Leniolabs/Improving South America para trabajar de la mano de uno de nuestros importantes clientes:
  • Se trabajará en el departamento de desarrollo de tecnología de la empresa.
  • Trabajo en equipo - liderazgo.
  • Será responsable de avanzar en los diferentes requerimientos del cliente, junto con el equipo.
  • Su trabajo consiste en hacer que las tareas se realicen utilizando todos los recursos disponibles (tangibles e intangibles).
  • Contamos internamente con personas capacitadas para realizar QA, Líder de proyecto, etc, por lo cual tendrá la responsabilidad de adaptarse a cada equipo.
  • Trabajará para el área de notificaciones del sistema.
  • El trabajo está basado en ayudar a otras personas a conectar mensajes del sistema.
  • El sistema es usado por desarrolladores internos y eternos.

Requerimientos del cargo

  • Nivel de inglés intermedio/avanzado - Excluyente.
  • Experiencia realizando el ciclo completo de testing de software.
  • Experiencia de +5 años probando aplicaciones web y deseable que cuente experiencia en mobile.
  • Experiencia en la construcción de un framework para testing web.
  • Experiencia en POM.
  • Conocimientos o experiencia en JavaScript/TypeScript (Deseable).
  • Experiencia con Playwright o Cypress.
  • Manejo de metodologías agiles (Scrum).

Beneficios

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Internal talks Leniolabs_ offers space for internal talks or presentations during working hours.
Computer provided Leniolabs_ provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Leniolabs_ gives you paid vacations over the legal minimum.
APPLY VIA WEB
$$$ Full time
DevOps Senior
  • Lemontech
Python BigQuery Azure Golang
En Lemontech, somos una empresa SaaS líder en Latinoamérica en el área Legaltech, comprometidos con modernizar procesos legales a través de tecnología innovadora. Nos especializamos en desarrollar softwares eficaces para el sector jurídico, simplificando y digitalizando lo que anteriormente era burocrático. Nuestro equipo está compuesto por talentos internacionales, cada uno aportando sus habilidades únicas para crear un ambiente colaborativo y creativo. Buscamos a un DevOps Senior que comparta nuestra visión y pasión por transformar el sistema judicial.

Funciones del cargo

Como DevOps Senior, serás responsable de:
  • Manejar e implementar Kubernetes a nivel intermedio-avanzado, asegurando su optimización y rendimiento.
  • Realizar debugeo de infraestructura y aplicativos instalados en Kubernetes.
  • Administrar nuestros servicios en AWS, aplicando tu conocimiento avanzado en la plataforma.
  • Utilizar Helm o herramientas similares para charting, facilitando despliegues eficientes.
  • Implementar y mantener infraestructura como código utilizando Terraform.
  • Trabajar con herramientas GitOps como ArgoCD para integraciones continuas y flujos de trabajo de entrega.
  • Desarrollar y ejecutar pipelines de CI/CD utilizando GitHub Actions.
  • Implementar herramientas de monitoreo como New Relic y Datadog, desde su instalación hasta la creación de dashboards significativos.
  • Programar en lenguajes como Python o Golang para resolver problemas complejos.

Descripción del puesto

Buscamos un DevOps Senior que cuente con las siguientes habilidades y características:
  • Experiencia sólida en la administración de Kubernetes, con un enfoque en la optimización y escabilidad.
  • Haven un dominio intermedio-avanzado en debugeo de infraestructuras.
  • Experiencia avanzada con AWS, incluyendo la gestión de servicios y networking.
  • Habilidad en herramientas de charting como Helm, y en la implementación de infraestructura como código mediante Terraform.
  • Conocimientos en herramientas de CI/CD como GitHub Actions y su aplicación en procesos de desarrollo.
  • Un enfoque proactivo hacia el monitoreo de sistemas, utilizando herramientas de visualización y procesamiento de datos como New Relic y Datadog.
  • Deseable contar con conocimiento de GCP y Azure, así como experiencia usando herramientas de monitoreo con eBPF.
  • Habilidad en el manejo de herramientas de data analytics como BigQuery, dbt y Dagster.

Habilidades deseables

Además de los requisitos mencionados, se valorará:
  • Conocimiento en plataformas de GCP y/o Azure para diversificar nuestra infraestructura.
  • Experiencia con herramientas de monitoreo que utilizan eBPF, para optimizar el rendimiento del sistema.
  • Familiaridad con herramientas de data como BigQuery, dbt, y Dagster que pueden añadir valor a nuestros proyectos en el manejo y análisis de datos.

Beneficios de trabajar en Lemontech

En Lemontech, valoramos a nuestro equipo y ofrecemos una serie de beneficios atractivos:
  • Horarios flexibles que se adaptan a tu estilo de vida.
  • Trabajo remoto y una cultura basada en la colaboración.
  • Seguros de salud complementarios para tu tranquilidad.
  • Un ambiente laboral excepcional donde la buena onda es parte de la rutina, ¡nos encanta fomentar la diversión en el trabajo!
  • Oportunidades de desarrollo profesional, un excelente ambiente de trabajo y eventos sociales regulares que facilitan la creación de lazos entre colegas.

¿Estás listo para unirte a nosotros y hacer un impacto positivo en el sistema judicial? 🌍

Te compartimos nuestro aviso de Privacidad de Postulantes.

Wellness program Lemontech offers or subsidies mental and/or physical health activities.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance Lemontech pays or copays life insurance for employees.
Paid sick days Sick leave is compensated (limits might apply).
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Lemontech pays or copays health insurance for employees.
Dental insurance Lemontech pays or copays dental insurance for employees.
Free car parking You can park your car for free at the premises.
Commuting stipend Lemontech offers a stipend to cover some commuting costs.
Computer provided Lemontech provides a computer for your work.
Education stipend Lemontech covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts Lemontech provides some discounts or deals in certain stores.
Vacation over legal Lemontech gives you paid vacations over the legal minimum.
Beverages and snacks Lemontech offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Parental leave over legal Lemontech offers paid parental leave over the legal minimum.
APPLY VIA WEB
Gross salary $1200 - 1500 Full time
PL/SQL Database Administrator
  • OCUREL
  • Calama (In-office)
Python SQL Oracle ETL
Our mission is to revolutionize lead management by creating a seamless process for acquiring, nurturing, qualifying, and routing prospects for the mining industry. You will play a pivotal role in optimizing the data infrastructure that supports OCUREL's lead journey. We provide solutions and staff to different customers in the mining industry in Chile and beyond.

Responsibilities

  1. Database Architecture & Maintenance:
    • Design, implement, and maintain scalable PL/SQL databases to support OCUREL’s lead management system.
    • Optimize database schemas for performance and reliability.
  2. Data Integration & Quality Management:
    • Integrate data from multiple sources, including web forms, CRM tools, and marketing platforms.
    • Ensure data accuracy, consistency, and integrity across systems.
    • Develop processes to clean and standardize incoming data.
  3. Performance Optimization:
    • Monitor database performance and optimize queries, indexes, and configurations.
    • Proactively address bottlenecks and implement solutions to scale systems as data volume grows.
  4. Automation & Scripting:
    • Automate data workflows, including ETL (Extract, Transform, Load) processes.
    • Develop scripts to streamline routine database tasks and reporting.
  5. Security & Compliance:
    • Implement robust data security protocols to protect sensitive lead and customer data.
    • Ensure compliance with GDPR, CCPA, and other relevant data privacy regulations.
  6. Collaboration & Support:
    • Work closely with developers to integrate databases with front-end and back-end applications.
    • Support sales and marketing teams by ensuring they have timely access to accurate data.
    • Provide technical guidance and documentation to team members.

Requirements

Technical Skills:
  • Strong experience with PL/SQL and Oracle databases.
  • Proficiency in SQL and one scripting language (e.g., Python, Bash).
  • Hands-on experience with ETL tools and processes.
  • Familiarity with cloud database solutions (AWS RDS, Azure SQL, Google BigQuery, etc.).
  • Knowledge of performance tuning, query optimization, and database indexing.
Data Security & Compliance:
  • Understanding of data protection best practices.
  • Experience implementing GDPR, CCPA, or similar compliance measures.
Soft Skills:
  • C1 English level or higher
  • Excellent problem-solving skills and attention to detail.
  • Strong communication skills for cross-functional collaboration.
  • Ability to manage multiple tasks and prioritize effectively.
Proved experience working with lead magnets.

Conditions

  • 100% in-person in our offices in downtown Calama
  • Benefits as required by law
Te compartimos nuestro aviso de Privacidad de Postulantes.

Library Access to a library of physical books.
APPLY VIA WEB
Gross salary $5500 - 6500 Full time
DevOps Engineer
  • Monetech Servicios
Python Git SQL Linux

Somos una startup pionera en préstamos, especializada en ofrecer financiamiento accesible para poblaciones desatendidas. Nuestra misión es revolucionar el apoyo financiero para personas sin acceso a servicios bancarios tradicionales, centrándonos en áreas urbanas y semiurbanas para cubrir necesidades financieras inmediatas y a largo plazo.

📌 Dado que somos una startup con miembros de varios países, enviar tu CV en inglés ayudará a agilizar el proceso de selección.

Tu día a día

  • Colaborar estrechamente con los equipos de negocio, desarrolladores e ingenieros DevOps para diseñar e implementar soluciones para funciones empresariales.
  • Contribuir al diseño de la arquitectura de infraestructura para los objetivos comerciales a mediano plazo, asegurando su alineación con estrategias de crecimiento a largo plazo.
  • Automatizar la configuración y el mantenimiento de la infraestructura, implementando las mejores prácticas de monitoreo y alertas para reducir el tiempo de resolución de problemas y mejorar la satisfacción del cliente.
  • Mantenerse actualizado sobre las últimas características de la plataforma AWS y adaptarlas a los objetivos de la empresa y las necesidades del equipo.
  • Desarrollar continuamente sus propias habilidades mientras orienta y apoya el crecimiento de los miembros del equipo.

Habilidades Indispensables

  • Experiencia como Ingeniero DevOps o en un rol similar de ingeniería de software.
  • Experiencia práctica con AWS u otros proveedores de nube, incluyendo diseño e implementación de infraestructura (redes, autoescalado, registro de logs, monitoreo, etc.).
  • Experiencia en la implementación de prácticas de seguridad a nivel de infraestructura en la nube y aplicaciones (por ejemplo, PCI DSS, protección de datos, ISO 27001).
  • Dominio de Git y flujos de trabajo con GitHub.
  • Sólidos conocimientos de scripting en Bash y Python.
  • Conocimientos de bases de datos (estructuradas/no estructuradas) y SQL.
  • Nivel de inglés B1 para comunicarse eficazmente con equipos internacionales.
  • Mentalidad resolutiva y espíritu de trabajo en equipo.
  • Título universitario (o equivalente) en Informática, Ingeniería o un campo relevante.
  • Experiencia en el desarrollo o ingeniería de aplicaciones tanto para startups como para empresas de gran escala.

¿Qué Distingue a los Mejores Candidatos?

  • Certificación en AWS (gran ventaja).
  • Experiencia en diseño de arquitectura de infraestructura en una empresa de tamaño medio o grande.
    Habilidad para mentorear y desarrollar miembros del equipo en prácticas de DevOps y cultura empresarial.
  • Fuertes habilidades de comunicación para diseñar y articular principios de infraestructura a largo plazo y patrones de arquitectura que respalden los requisitos empresariales funcionales y no funcionales con una perspectiva de más de 3 años.

¿Por Qué Unirse a Nosotros?

  • Forma parte de una empresa fintech en rápido crecimiento, impulsando la innovación en soluciones de préstamos accesibles.
  • Oportunidad de trabajar en proyectos de alto impacto en un entorno dinámico e innovador.
  • Colabora con un equipo apasionado y comprometido con la inclusión financiera.

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
Gross salary $1500 - 1800 Full time
DevOps Engineer
  • ZiYU
  • Santiago (Hybrid)
Python Agile Excel SQL
El DevOps será responsable de la gestión integral de proyectos, desde la planificación , implementación y entrega final. Trabajará en estrecha colaboración con los equipos de desarrollo, ventas y soporte para garantizar que los proyectos se completen a tiempo, dentro del presupuesto y cumpliendo con los estándares de calidad establecidos.

Funciones del cargo

  1. Integrarse al equipo de trabajo con el objetivo de dar visibilidad y gestionar las iniciativas y proyectos de evolución y/o mantenimiento de las plataformas.
  2. Preparar y presentar informes de avance sobre los proyectos en curso, informando oportunamente cualquier desviación.
  3. Actuar como la contraparte técnica entre el cliente y el equipo de desarrollo.
  4. Realizar seguimiento a los compromisos y acuerdos establecidos.
  5. Supervisar y gestionar las puestas en producción, asegurando el cumplimiento de los compromisos con los clientes y la adopción de las nuevas funcionalidades entregadas.
  6. Gestionar riesgos y elaborar planes de mitigación ante posibles desviaciones en la planificación.
  7. Administrar los recursos del proyecto y coordinar los equipos de trabajo para garantizar una ejecución eficiente de las tareas.
  8. Especificar los requerimientos del cliente, asegurando su alineación con los lineamientos de los productos.
  9. Diseñar, construir e implementar KPIs de seguimiento y operación para evaluar el desempeño de los productos.

Requerimientos del cargo

  1. Profesionales de las carreras Ing. Civil Industrial , Ing. Comercial o similar.
  2. Experiencia mínima de 2-5 años como Dev.Ops , preferentemente en el sector SaaS.
  3. Conocimiento en metodologías ágiles (Scrum, Kanban, etc.)
  4. Python Basico.
  5. SQL Nivel Medio.
  6. Conocimiento herramientas de gestión de proyectos Jira.
  7. Microsoft Avanzado (Power Point , Excel y Word)

Opcionales

1. Conocimiento en Herramientas de BI ( Power BI o Metabase)
2. Experiencia en diseño de productos.
3. Experiencia en herramientas de diseño de mock up.

Condiciones

- 💻 Computador para que puedas trabajar
- 🗓? Trabajo en modalidad híbrida
- 📈 Oportunidades de crecimiento y desarrollo profesional
- 🎂 Día libre en tu cumpleaños y GiftCard !
- 🎂 GiftCard para Fiestas Patrias y Navidad !
- Becas de Estudio!
¡Te invitamos a formar parte de este gran equipo! 🚀

APPLY VIA WEB
Gross salary $2000 - 2200 Full time
Analista QA Automatizador
  • BC Tecnología
  • Santiago (Hybrid)
Python PostgreSQL Git QA
En BC Tecnología, somos una consultora de TI con un fuerte enfoque en la creación de soluciones personalizadas que se alinean perfectamente con las necesidades de nuestros clientes. Trabajamos con un diverso portafolio en sectores como servicios financieros, seguros, retail y gobierno. En nuestro proyecto actual, requerimos un Analista QA Automatizador por un periodo de 12 meses, donde el candidato será parte de un equipo ágil, encargado de asegurar la calidad de nuestros desarrollos mediante metodologías de testing avanzadas.

Responsabilidades del Analista QA Automatizador

  • Implementar y ejecutar pruebas automatizadas utilizando Selenium WebDriver en Python u otros lenguajes de programación orientados a objetos.
  • Realizar testing de APIs, asegurando la funcionalidad solicitada y la integridad de los microservicios.
  • Manejar repositorios y versiones de software mediante Git y plataformas como GitHub, GitLab o Bitbucket.
  • Interactuar con bases de datos; realizar consultas y pruebas en PostgreSQL como parte del proceso de verificación.
  • Gestionar actividades del equipo y seguimiento de tareas a través de Jira, asegurando el cumplimiento de cronogramas establecidos.
  • Configurar pipelines de CI/CD para facilitar la integración continua y entrega de software fluida.

Requisitos y habilidades del candidato

Buscamos un profesional que posea al menos 3 años de experiencia comprobable en roles similares, con un sólido entendimiento de las prácticas de aseguramiento de calidad. El candidato debe ser capaz de trabajar de manera colaborativa en un ambiente ágil, adoptar metodologías de desarrollo modernas y comunicarse efectivamente con diferentes áreas del equipo. Se valora la proactividad y un enfoque orientado a resultados.

Habilidades deseables

Sería un plus contar con certificaciones relacionadas a testing o metodologías ágiles, así como experiencia en la gestión de pruebas dentro de equipos multidisciplinarios. La experiencia con herramientas adicionales de automatización o conocimientos en lenguajes de programación adicionales también serán considerados positivamente.

Beneficios que ofrecemos

En BC Tecnología, valoramos a nuestro personal y fomentamos un ambiente laboral positivo y colaborativo. Ofrecemos un contrato a plazo fijo que tiene la posibilidad de convertirse en indefinido. Nuestro esquema de trabajo es híbrido, permitiendo así flexibilidad en la modalidad. Además, contamos con beneficios tales como seguro complementario de salud, aguinaldo por fiestas patrias y navidad, y tarjeta de alimentación. 🌟

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB
Gross salary $2800 - 3000 Full time
Site Reliability Engineer (SRE)
  • BC Tecnología
  • Santiago (Hybrid)
Python Virtualization Amazon Web Services Kubernetes
En *BC Tecnología*, somos una consultora de TI dedicada a ofrecer soluciones personalizadas en tecnología para diversas industrias como servicios financieros, seguros, retail y gobierno. En esta ocasión, buscamos un(a) Site Reliability Engineer (SRE) que se una a nuestro equipo para implementar y mantener soluciones de infraestructura y despliegue continuo en entornos críticos. Este profesional manejará tecnologías de vanguardia en plataformas multinube como AWS, GCP y Azure, desempeñándose en un ambiente dinámico que prioriza la eficiencia y la alta disponibilidad.

Funciones

  • Diseñar, implementar y gestionar pipelines de CI/CD utilizando GitLab y GitHub.
  • Monitorear, diagnosticar y optimizar sistemas para asegurar un alto rendimiento y disponibilidad.
  • Gestionar infraestructura como código (IaC) con Terraform.
  • Automatizar tareas repetitivas a través de scripting en Python y Bash.
  • Administrar clústeres de Kubernetes y servicios en AWS ECS.
  • Proveer soluciones robustas en entornos multinube (AWS, GCP, Azure).
  • Colaborar con equipos de desarrollo y operaciones para resolver incidentes y optimizar procesos.

Requerimientos

Experiencia:

  • Experiencia sólida en administración de infraestructura en AWS.
  • Dominio avanzado de GitLab y GitHub.
  • Experiencia comprobada en Terraform, Kubernetes y scripting con Python.
  • Habilidades en scripting con Bash.
  • Conocimiento de arquitecturas en la nube (IaaS, PaaS) y despliegue de contenedores.

Requisitos Deseables

Requisitos Deseables

  • Experiencia en entornos multinube (AWS, GCP, Azure).
  • Certificaciones relevantes en AWS, Kubernetes o Terraform.
  • Familiaridad con herramientas de monitoreo como Prometheus y Grafana.

Condiciones y Beneficios

Ofrecemos un contrato por proyecto estimado a 6 meses con posibilidad de extensión y una metodología de trabajo híbrida a demanda en Mall Florida / Las Condes, promediando 3 veces a la semana. El horario de trabajo es de lunes a viernes, y el salario es a convenir. Adicionalmente, proporcionamos beneficios como seguro complementario, Amipass de $4,500 por día laborado, convenios con actividades recreativas y bonos. ¡Esperamos tu interés y que te sumes a nuestro equipo en un entorno dinámico y colaborativo! 😊

APPLY VIA WEB
Gross salary $2200 - 2700 Full time
QA Automation
  • coderslab.io
Android iOS Python Agile

En CodersLab, actualmente estamos enfocados en el crecimiento global de nuestros equipos con el objetivo de posicionar nuestros productos en más países de Latinoamérica. Por esta razón, estamos buscando un QA AUTOMATION motivado y orientado a objetivos.

Te unirás a un equipo desafiante y ambicioso con ganas de innovar en el mercado, haciendo que tus propuestas sean altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Funciones del cargo

Responsabilidades Principales:

1. Desarrollo de Automatización de Pruebas:

o Diseñar e implementar scripts automatizados para pruebas de aplicaciones web, móviles y

APIs utilizando herramientas como Robot Framework y Appium (Android/iOS).

o Garantizar la cobertura de pruebas para servicios REST y GraphQL.

o Usar Python para desarrollar soluciones personalizadas y mejorar los frameworks de prueba existentes.

2. Pruebas de Bases de Datos:

o Realizar pruebas y validaciones en bases de datos relacionales (e.g., MySQL, PostgreSQL) y no relacionales (e.g., DynamoDB).

3. Gestión y Colaboración:

o Documentar procesos, resultados y estrategias de prueba en herramientas como Confluence.

o Trabajar en estrecha colaboración con desarrolladores y partes interesadas del negocio para garantizar que los requisitos de calidad se cumplan.

o Gestionar tareas, estimaciones de esfuerzo y prioridades en Jira.

4. Gestión de Infraestructura:

o Configurar pipelines de integración y despliegue continuo (CI/CD) utilizando GitHub Actions.

o Colaborar en entornos basados en la nube, como AWS, para la ejecución y el mantenimiento de pruebas automatizadas.

5. Capacitación y Transferencia de Conocimiento:

o Capacitar a los miembros del equipo en herramientas, procesos y mejores prácticas de automatización.

o Promover una cultura de mejora continua mediante la transferencia de conocimiento y la mentoría.

Requerimientos del cargo

• Experiencia mínima de 5 años en QAA.

• Experiencia sólida en automatización de pruebas utilizando Robot Framework y Appium (Android/iOS).

• Conocimiento avanzado en Python para desarrollo de scripts y frameworks.

• Experiencia en diseño y ejecución de pruebas de APIs (REST y GraphQL).

• Familiaridad con bases de datos relacionales y no relacionales (MySQL, PostgreSQL, DynamoDB).

• Conocimiento de herramientas de CI/CD como GitHub Actions.

• Experiencia trabajando con AWS.

• Manejo de herramientas de gestión como Jira y Confluence.

• Habilidades en documentación y colaboración con equipos técnicos y de negocio.

• Experiencia en entornos ágiles (Scrum)

• Capacidad para liderar iniciativas de automatización y fomentar un entorno de aprendizaje continuo.

• Excelentes habilidades de comunicación y proactividad

• Autonomía y capacidad para gestionar múltiples tareas simultáneamente.

Conditions

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
$$$ Full time
DevOps Engineer con Harness.IO
  • Leniolabs_
JavaScript Ruby .Net C

Leniolabs_ es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA.

Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.

Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.

Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Responsabilidades del Puesto

  • Diseñar, implementar y optimizar canalizaciones de integración y entrega continua (CI/CD) en Harness para facilitar la entrega ágil de software.
  • Crear y mantener canalizaciones de despliegue usando las funcionalidades de entrega continua de Harness, incluyendo canary releases, blue-green
  • Facilitar la migración de Jenkins a Harness, asegurando la mínima interrupción en las operaciones mientras aumentamos la eficiencia.
  • Colaborar con equipos operativos y de seguridad, ofreciendo orientación sobre cambios en la infraestructura.
  • Automatizar flujos de trabajo para construcción, pruebas y despliegue, alineándolos con las mejores prácticas del sector.
  • Documentar y gestionar el proceso de migración, asegurando una adecuada transferencia de conocimiento.
  • Utilizar métricas y reportes de Harness para monitorear el desempeño de las canalizaciones y mejorar la eficiencia en los despliegues.

Skill requerido

  • Experiencia práctica con Harness.io, Jenkins, GitHub y AWS, específicamente en la construcción y despliegue de microservicios.
  • Familiaridad con aplicaciones desarrolladas en frameworks como .NET y Node.js, utilizando lenguajes como C#, JavaScript, TypeScript, Python y Ruby.
  • Capacidad para trabajar en un entorno colaborativo y remoto, integrándose a equipos distribuidos.
  • Fuertes habilidades de documentación y proceso de migración, asegurando que el conocimiento se transfiera efectivamente entre los equipos.
  • Orientación hacia la automatización y mejora continua utilizando métricas operativas.
  • Experiencia previa en diseño de sistemas de integración y entrega continua (CI/CD).
  • Nivel de inglés intermedio-avanzado (b2) o avanzado (C1-C2)

Habilidades Deseables

  • Conocimientos en seguridad de infraestructura y protocolos relacionados.
  • Capacidad para adaptarse a nuevas tecnologías y mantener un enfoque proactivo hacia las soluciones que se implementan.
  • Habilidades de comunicación efectiva y trabajo en equipo en un entorno remoto.

Beneficios

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo

APPLY VIA WEB
$$$ Full time
Ingeniero de Operaciones TI
  • Usercode SpA
Python Node.js Linux DevOps

Usercode es una empresa tecnológica especializada en el desarrollo de software para instituciones públicas y organizaciones privadas. Nuestro foco son las tecnologías Cloud, la automatización y digitalización de procesos.

Trabajamos 100% remoto, nuestro equipo está en distintas regiones de Chile, México y Perú. Para comunicarnos y trabajar utilizamos Slack, Meet Hangout y Monday.

La necesidad actual:

El volumen del negocio de Usercode está creciendo por la vía de incorporar una mayor cantidad y tipo de proyectos de desarrollo, por un lado, y por otro lado, abriendo líneas de negocio relacionadas, como mantenimiento de infraestructura, y ampliando la cartera de clientes hacia el mercado privado.

Para lograr el éxito en este proceso es clave contar con un equipo de desarrollo capaz, autónomo, responsable, con experiencia, preparado técnicamente, con profundos conocimientos en una serie de herramientas específica, capaz de aprender y adquirir el uso herramientas nuevas.

Funciones del cargo

Para el puesto de Ingeniero de Operaciones TI con un enfoque en servicios cloud y DevOps, debe tener conocimiento en las siguientes características técnicas:

Configuración de máquinas virtuales en entornos Linux (obligatorio): Habilidad para instalar, configurar y mantener sistemas basados en Linux. Experiencia en la administración de servidores, optimización de rendimiento y seguridad de sistemas Linux.

Configuración de servicios web y de aplicaciones (obligatorio): Experiencia en la configuración y administración de servidores web y aplicaciones como Apache, Nginx, y Tomcat. Capacidad para implementar y gestionar procesos con gestores como PM2 para aplicaciones Node.js.

Seguridad de sistemas y redes (obligatorio): Conocimiento en la implementación de políticas de seguridad, gestión de accesos y configuración de firewalls y otros mecanismos de seguridad en entornos cloud y on-premise.

Monitoreo y logística (obligatorio): Experiencia en la configuración de herramientas de monitoreo y logística para garantizar la visibilidad y el rendimiento operativo, utilizando herramientas como Prometheus, Grafana, ELK Stack, etc.

Creación, mantención e implementación de productos digitales como plataformas web, aplicaciones móviles y/o sitios web.

El ingeniero de operaciones TI trabajará en el área de desarrollo de software junto con los demás desarrolladores, arquitecto de software, líder técnico y jefe de proyecto. Los proyectos serán mayoritariamente plataformas web para instituciones públicas o privadas donde debe levantar los diferentes ambientes, configurarlos, asegurar la seguridad, levantar y configurar los servicios necesarios para el correcto funcionamiento de las plataformas web y/o APIs.

Requerimientos del cargo

Requisitos técnicos:

Estamos en búsqueda de un Ingeniero de Operaciones TI, con un enfoque decidido hacia la gestión y optimización de servicios en la nube y prácticas DevOps. Esperamos que el candidato ideal tenga experiencia robusta en la implementación y manejo de ambientes cloud, utilizando herramientas modernas de CI/CD como Jenkins, y que posea habilidades sólidas en la configuración y administración de ambientes de desarrollo, prueba y producción.

El rol implica responsabilidades clave como la configuración de bases de datos y la garantía de su rendimiento óptimo, la implementación de soluciones escalables y la administración de infraestructura como código. Es fundamental que el candidato tenga la capacidad de colaborar estrechamente con equipos de desarrollo para facilitar despliegues rápidos y seguros, y asegurar la alta disponibilidad y resiliencia de los sistemas.

Buscamos a alguien que no solo se encargue de mantener la infraestructura existente, sino que también proponga y ejecute mejoras continuas, aplicando las mejores prácticas de seguridad y optimización de costos en entornos cloud.

Experiencia excluyente:

  • Configuración de máquinas virtuales en entornos Linux.
  • Configuración de servicios web y de aplicaciones.
  • Seguridad de sistemas y redes.
  • Monitoreo y logística.

Comportamiento esperado:

Lo que buscamos en ti:

  • Proactividad
  • Trabajo en equipo
  • Autonomía
  • Orientado a objetivos y resultados

Características personales:

  • Autonomía
  • Cumplimiento
  • Buenas habilidades de comunicación oral y escrita incluyendo comprensión lectora
  • Saber escuchar, atención
  • Ser respetuoso
  • Disposición a colaborar con el equipo
  • Responsable de sus tareas proyectos trabajos

Conocimientos deseables

Conocimiento en servicios AWS: Configuración y gestión de servicios clave de AWS como EC2, S3, RDS, ECS, Lambda, y VPC. Familiaridad con AWS CloudFormation o Terraform.

Gestión de bases de datos: Configuración, optimización y mantenimiento de sistemas de bases de datos. Experiencia en tareas como la configuración de replicación, backups automatizados y tuning de rendimiento.

Configuración y manejo de contenedores: Experiencia en uso de Docker para la creación y gestión de contenedores.

Orquestación con Kubernetes: Capacidad para implementar, configurar y manejar clústeres de Kubernetes.

Implementación y configuración de herramientas de CI/CD: Experiencia en la configuración y uso de Jenkins para la integración y entrega continua. Capacidad para diseñar pipelines de CI/CD.

Automatización y scripting: Habilidad en scripting con Bash, Python, o similar para la automatización de tareas administrativas y de despliegue.

Condiciones

Este puesto ofrece la flexibilidad de un entorno de trabajo remoto, sin embargo, según las necesidades específicas de nuestros clientes, puede haber ocasiones en las que se requiera tu presencia en un lugar de trabajo presencial.

  • Días extra de vacaciones.
  • Días libres 3x5, día libre por cumpleaños, cambio de domicilio, muerte de mascota
  • Pago de certificaciones seleccionadas
  • Pausa activa colaborativa
  • Aguinaldo

APPLY VIA WEB
$$$ Full time
Ingeniero de Operaciones TI
  • Usercode SpA
Python MySQL Linux DevOps

Usercode es una empresa tecnológica especializada en el desarrollo de software para instituciones públicas y organizaciones privadas. Nuestro foco son las tecnologías Cloud, la automatización y digitalización de procesos.

Trabajamos 100% remoto, nuestro equipo está en distintas regiones de Chile, México y Perú. Para comunicarnos y trabajar utilizamos Slack, Meet Hangout y Monday.

La necesidad actual:
El volumen del negocio de Usercode está creciendo por la vía de incorporar una mayor cantidad y tipo de proyectos de desarrollo, por un lado, y por otro lado, abriendo líneas de negocio relacionadas, como mantenimiento de infraestructura, y ampliando la cartera de clientes hacia el mercado privado.

Para lograr el éxito en este proceso es clave contar con un equipo de desarrollo capaz, autónomo, responsable, con experiencia, preparado técnicamente, con profundos conocimientos en una serie de herramientas específica, capaz de aprender y adquirir el uso herramientas nuevas.

Funciones del cargo

Configuración de máquinas virtuales en entornos Linux (obligatorio): Habilidad para instalar, configurar y mantener sistemas basados en Linux. Experiencia en la administración de servidores, optimización de rendimiento y seguridad de sistemas Linux.

Configuración de servicios web y de aplicaciones (obligatorio): Experiencia en la configuración y administración de servidores web y aplicaciones como Apache, Nginx, y Tomcat. Capacidad para implementar y gestionar procesos con gestores como PM2 para aplicaciones Node.js.

Seguridad de sistemas y redes (obligatorio): Conocimiento en la implementación de políticas de seguridad, gestión de accesos y configuración de firewalls y otros mecanismos de seguridad en entornos cloud y on-premise.

Monitoreo y logística (obligatorio): Experiencia en la configuración de herramientas de monitoreo y logística para garantizar la visibilidad y el rendimiento operativo, utilizando herramientas como Prometheus, Grafana, ELK Stack, etc.

Requerimientos del cargo

Enfoque decidido hacia la gestión y optimización de servicios en la nube y prácticas DevOps. Esperamos que el candidato ideal tenga experiencia robusta en la implementación y manejo de ambientes cloud, utilizando herramientas modernas de CI/CD como Jenkins, y que posea habilidades sólidas en la configuración y administración de ambientes de desarrollo, prueba y producción.

El rol implica responsabilidades clave como la configuración de bases de datos y la garantía de su rendimiento óptimo, la implementación de soluciones escalables y la administración de infraestructura como código. Es fundamental que el candidato tenga la capacidad de colaborar estrechamente con equipos de desarrollo para facilitar despliegues rápidos y seguros, y asegurar la alta disponibilidad y resiliencia de los sistemas.

Buscamos a alguien que no solo se encargue de mantener la infraestructura existente, sino que también proponga y ejecute mejoras continuas, aplicando las mejores prácticas de seguridad y optimización de costos en entornos cloud.

El candidato ideal debe ser proactivo, trabajar bien en equipo, y manejar habilidades de comunicación efectivas. Se valoran personas con orientación a resultados, autonomía, y un enfoque en la mejora continua.

Experiencia excluyente:

  • Configuración de máquinas virtuales en entornos Linux.
  • Configuración de servicios web y de aplicaciones.
  • Seguridad de sistemas y redes.
  • Monitoreo y logística.

Comportamiento esperado:

Lo que buscamos en ti:

  • Proactividad
  • Trabajo en equipo
  • Autonomía
  • Orientado a objetivos y resultados

Características personales:

  • Autonomía
  • Cumplimiento
  • Buenas habilidades de comunicación oral y escrita incluyendo comprensión lectora
  • Saber escuchar, atención
  • Ser respetuoso
  • Disposición a colaborar con el equipo
  • Responsable de sus tareas proyectos trabajos

Opcionales

Conocimiento en servicios AWS: Experiencia en la configuración y gestión de servicios clave de AWS como EC2, S3, RDS, ECS, Lambda, y VPC. Familiaridad con AWS CloudFormation o Terraform.

Gestión de bases de datos: Sólidos conocimientos en la configuración, optimización y mantenimiento de sistemas de bases de datos como MySQL y SQL Server. Experiencia en tareas como la configuración de replicación, backups automatizados y tuning de rendimiento.

Configuración y manejo de contenedores: Experiencia en el uso de Docker para la creación y gestión de contenedores.

Orquestación con Kubernetes : Capacidad para implementar, configurar y manejar clústeres de Kubernetes, optimizando la automatización y escalabilidad de aplicaciones en producción.

Implementación y configuración de herramientas de CI/CD: Experiencia en la configuración y uso de Jenkins para la integración y entrega continua.

Automatización y scripting: Habilidad en scripting con Bash, Python, o similar.

Beneficios

Este puesto ofrece la flexibilidad de un entorno de trabajo remoto, sin embargo, según las necesidades específicas de nuestros clientes, puede haber ocasiones en las que se requiera tu presencia en un lugar de trabajo presencial.

  • Días extra de vacaciones.
  • Días libres 3x5, día libre por cumpleaños, cambio de domicilio, muerte de mascota
  • Pago de certificaciones seleccionadas
  • Pausa activa colaborativa
  • Aguinaldo

APPLY VIA WEB
Gross salary $1700 - 2000 Full time
Testing Mobile
  • BC Tecnología
Java Android iOS Python
En BC Tecnología, somos una consultora de TI con más de 6 años de experiencia trabajando con un enfoque claro en el cliente y metodologías ágiles. Nuestro equipo está especializado en la formación de equipos de trabajo, el desarrollo de proyectos y la administración de servicios IT. Trabajamos con diversas industrias, incluyendo servicios financieros, seguros, retail y gobierno, diseñando soluciones a la medida para nuestras necesidades específicas. Ahora estamos ampliando nuestro equipo, buscando un Testing Mobile para garantizar la calidad de nuestras aplicaciones móviles a través de la automatización.

Responsabilidades del Rol

  • Diseñar y ejecutar pruebas automatizadas para aplicaciones móviles utilizando frameworks como Appium, Espresso y XCUITest.
  • Implementar y mantener CI/CD pipelines en entornos móviles.
  • Identificar y resolver problemas complejos de calidad en software.
  • Colaborar en un enfoque ágil dentro del equipo de desarrollo para asegurar que la calidad esté integrada en cada fase del ciclo de vida del desarrollo.
  • Brindar soporte y capacitación al equipo sobre las mejores prácticas de testing móvil.

Descripción del Puesto

Buscamos un profesional con al menos 3 años de experiencia en Testing Mobile, con habilidades profundas en automatización y un conocimiento robusto de los frameworks de pruebas para aplicaciones móviles. Importante que cuentes con experiencia en la implementación de CI/CD pipelines aplicados a entornos móviles y que tengas una fuerte capacidad para resolver problemas complejos relacionados con la calidad del software.
Las habilidades de codificación son esenciales, preferiblemente en Python, Java, Kotlin o Swift. Trabajarás en un entorno de Home Office promoviendo la flexibilidad y el equilibrio entre trabajo y vida personal.

Habilidades Deseables

Sería ideal contar con experiencia en gestión de equipos o liderar proyectos de testing. Adicionalmente, tener conocimientos en metodologías ágiles como Scrum o Kanban puede ser una ventaja significativa. La capacidad para adaptarse rápidamente a nuevas tecnologías y herramientas es altamente valorada. Cualquier certificación relevante en testing o calidad de software será considerada un plus.

Beneficios de Trabajar con Nosotros

En BC Tecnología, promovemos un ambiente colaborativo que apoya el crecimiento profesional. Entre nuestros beneficios, ofrecemos:
  • Seguro complementario para colaboradores.
  • Amipass de $4,500 por día trabajado.
  • Actividades y convenios que promueven el bienestar del equipo.
  • Bonos por rendimiento y un contrato inicial de 12 meses con opción a extensión.
  • Horario flexible de lunes a viernes para equilibrar trabajo y vida personal.
Valoramos todas las contribuciones y esforzamos por fomentar el desarrollo de cada uno de nuestros colaboradores. ¡Esperamos contar con tu interés en formar parte de BC Tecnología!

APPLY VIA WEB
Gross salary $2000 - 2500 Full time
Systems Engineer
  • Mediastream
  • Bogotá &nbsp Santiago &nbsp São Paulo (Hybrid)
Ruby Python Linux Web server
Company Description
Mediastream is a leading streaming technology company that has been in business for over 16 years. We collaborate with major companies and broadcasters around the world to offer a quality end-to-end solution for content administration, distribution, audiovisual production, and user experience. Our goal is to connect our customers with their audience in a simple and effective way, creating new revenue streams for their businesses.
Role Description
This is a hybrid role for a Systems Engineer. This role will be responsible for designing, implementing and maintaining Mediastream's content delivery network (CDN) infrastructure and services, ensuring fast, secure, robust and scalable access to our digital services for our customers. customers. users around the world, with a focus on video encoding and transcoding.

Responsibilities

  • Design, configure, and optimize the CDN infrastructure to enhance content delivery speed and security.
  • Continuously monitor CDN performance, identify bottlenecks, and make adjustments to ensure operational continuity and speed.
  • Rotate on-call shifts and synchronously monitor high-concurrency streaming events.
  • Implement robust security measures to safeguard the CDN against threats, including DDoS attacks or others.
  • Collaborate closely with application development and cybersecurity teams to ensure efficient integration of the CDN and the implementation of security policies.
  • Work collaboratively with development and content teams to ensure that content is optimized for delivery through the CDN.
  • Research and evaluate new technologies, trends, and best practices in the CDN solutions domain, and subsequently propose, agree upon, implement, document, and provide training as necessary.

Minimum requirements

  • Operating Systems Linux Server (Ubuntu, Debian, CentOS, etc.): Exceptional
  • Network Infrastructure Management and Support (BGP, HTTP, DNS, DHCP, NTP, TCP/IP, FTP, Firewalls, among others): Advanced
  • Application and Network Monitoring Tools (Desirable: Datadog): Intermediate
  • Scripting Programming in BASH, RUBY, PYTHON, or others: Intermediate
  • Webserver Administration (Nginx): Exceptional
  • AWS Amazon CloudFront & Route 53: Intermediate
  • Video encoding and transcoding: Exceptional
  • Bachelor's degree in Computer Engineering, Systems, Networks, or related field
  • Additional Certifications: Cloud, Cisco, Linux, Networking, Nginx, Docker
  • Other: Streaming Technologies

APPLY VIA WEB
$$$ Full time
DevOps
  • Wird
Node.js DevOps Sysadmin Scala
En Wird ayudamos a las empresas rentabilizar las conversaciones con sus clientes, aumentando la eficiencia y felicidad del equipo.
¿Por qué?
Queremos que cada conversación entre las empresas y sus clientes genere valor para la sociedad.
Somos una empresa en crecimiento, por lo que tus contribuciones serán visibles para todos, donde nuestros valores están centrado en tener un buen ambiente de trabajo y entre las personas. Trabajamos con tecnologías de tope de linea en Inteligencia Artificial, por lo que estamos constantemente innovando y desafiándonos.

Funciones del cargo

  • Serás el responsable de guiar la mantención de nuestra infraestructura en la nube, estimación de carga, arquitectura, dimensionamiento, etc.
  • Tendrás que gestionar, mantener, optimizar y mejorar integración de CI/CD (Bitbucket Pipelines, SonarCloud, Cloudsmith -Artefactos-)
  • Buscamos que aportes en el monitoreo de aplicación y logs (Mantener y mejorar actual sistema – Azure Monitor, DataDog, Kubernetes Logs.)
  • Serás actor fundamental en la gestión, mantención y mejoramiento la seguridad de la infraestructura según los estándares (ISO27001, SOC2)
  • Mantener imágenes de los ambientes de nuestra nube para implementaciones en nubes privadas u on-premise.

Requerimientos del cargo

  • Buscamos a personas que hayan trabajado al menos 5 años en puestos similares como SysAdmin o Ingeniero Cloud.
  • Experiencia trabajando con Azure.
  • Experiencia con Kubernetes (administración de Clusters especialmente con la línea de comando kubectl).
  • Experiencia sobre manejo de usuarios, roles, credenciales, y administradores de identidades (azure identity managed)
  • Trabajo en servidores con Linux (CentOS, Debian).
  • Conocimientos en Bash Scripting y en YAML.
  • Experiencia con Docker y Docker Compose, si has trabajado creando imágenes con Docker excelente.
  • Experiencia trabajando con cualquier tipo de herramienta CI/CD (Nosotros usamos Bitbucket Pipelines.)
  • Mantención de microservicios y aplicaciones que corran en JVM o NodeJS.
  • Trabajo en stack web (ej HTTP, cookies, asset loading, caching, REST). Específicamente si ha trabajado con APIs.
  • Experiencia con Helm (versión 2.)
  • Conocimientos en arquitecturas de colas (Azure Service Bus, RabbitMQ, Kafka, etc.)
  • Experiencia o conocimiento API Gateway.
  • Conocimientos en Sistemas de Monitoreo (Datadog).
  • Deseable experiencia en liderato de equipos TI.

Opcionales

  • Importante cualidad es si aprendes rápidamente, resolver problemas y la tecnología es tu pasión, eres un buen candidato.
  • Deseable conocimientos en Bases de Datos (MySQL, MongoDB, Redis, ElasticSearch).
  • Experiencia en lenguajes (ideal Java/Python), frameworks (NextJS).
  • Esperamos que resuelvas los problemas de forma autónoma y con compromiso. Queremos escuchar cómo resolvían los problemas en el pasado. También esperamos que proactivamente propongas soluciones y mejoras.
  • Trabajamos en un buen equipo, por eso el trabajo de equipo y la comunicación deben ser tus fuerzas. Si tienes un perfil de Stack Overflow, muéstranos cómo ayudas a resolver los problemas de otros.

Condiciones

  • Días adicionales de vacaciones🏖️
  • Hora protegida para bienestar🏃‍♀️
  • Portal de Wird Academy con cursos disponibles📚
  • ¡Nos encanta trabajar de manera remota!💻
  • Trabajarás con gente genial🥳
  • Somos una empresa en crecimiento, por eso tus contribuciones serán muy visibles para todos🤘

Wellness program Wird offers or subsidies mental and/or physical health activities.
Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
Vacation over legal Wird gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Data Engineer Spark y AWS / Santiago Chile
  • Dynamic Devs
  • Santiago (Hybrid)
Python Git SQL Big Data

Somos una empresa de servicios de tecnología que busca proyectos de alto impacto haciendo de la innovación y transformación digital parte de diferentes empresas principalmente transnacionales latinoamericanas de diversos sectores económicos como retail, seguros, distribución de equipos médicos, banca y productos digitales masivos utilizados por los consumidores. en todo el continente

Somos partidarios de la excelencia técnica, DevOps, Entrega Continua e Integración Continua, conformando equipos de alto desempeño en proyectos desafiantes, orientados al crecimiento e implementación de nuevas tecnologías. Más importante aún, ofrecemos un entorno colaborativo y multicultural donde puedes aprender, disfrutar y crecer como profesional.

📢 En Dynamic Devs, estamos en la búsqueda de un Data Engineer con experiencia en procesamiento de datos a gran escala y un sólido conocimiento en PySpark, AWS EMR y Glue.

Funciones del cargo

✅ Diseñar, desarrollar y optimizar pipelines de datos utilizando PySpark, AWS EMR y Glue.
✅ Procesar grandes volúmenes de datos en entornos distribuidos y escalables.
✅ Implementar y mantener soluciones de integración y transformación de datos en la nube ☁️.
✅ Monitorear y optimizar el rendimiento de las soluciones de datos.
✅ Garantizar la seguridad y gobernanza de los datos en el ecosistema AWS.
✅ Integrar datos desde múltiples fuentes y asegurar su correcta transformación y almacenamiento.

Requerimientos del cargo

🎓 Experiencia mínima de 2 años en Databricks o AWS EMR.
🛠️ Conocimientos sólidos en SQL y modelado de datos.
⚙️Conocimientos en otras herramientas de AWS como: S3, Redshift, Athena, Glue o Lambda.
🐍 Desarrollo en Python aplicado a procesamiento de datos.
📊 Conocimientos en frameworks de Big Data y optimización de rendimiento en entornos distribuidos.
🔗 Experiencia en Git.
📍 Disponibilidad para asistir 3 días a la semana de forma presencial a la oficina del cliente ubicada en Santiago - Chile (modalidad híbrida, requisito excluyente).

Condiciones

💻 Beneficio Bring Your Own Device (A partir del 4to mes trabajando con nosotros, podrás adquirir un computador propio)
⌚ Horario flexible 🕒
🚀 Haz un impacto. Trabaja en proyectos desafiantes
📚 IT Training: acceso a más de 500 cursos actualizados cada semana 📖
🎤 Dev Talks: conferencias exclusivas con expertos del sector
🎉 Día especial: 🎂 ¡Día libre por cumpleaños!
👥 Trabaja en un equipo talentoso y multicultural usando tecnología increíble
🎙️ Escucha nuestro podcast aquí: 🔗 Escuchar Podcast
🌐 Visítanos en nuestra web: 🔗 Dynamic Devs

Internal talks Dynamic Devs offers space for internal talks or presentations during working hours.
Partially remote You can work from your home some days a week.
Computer provided Dynamic Devs provides a computer for your work.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Senior Data Scientist
  • Bci
Python SQL Business Intelligence Machine Learning

La principal misión del cargo será desarrollar e implementar mediante metodologías ágiles de desarrollo de software de nuevos productos y servicios innovadores para la corporación BCI, con el propósito de hacerlos disponibles para nuestros clientes y colaboradores, contribuyendo a la generación de nuevos negocios, a la continuidad operacional del negocio, a la satisfacción del cliente y al cumplimiento de visión innovadora corporativa, asegurando la calidad, escalabilidad y time to market de las soluciones.

En este rol tendrás la oportunidad de:

- Desarrollar activos analíticos que faciliten toma de decisiones mejor fundamentadas en el negocio. - Preparar presentaciones claras y efectivas que comuniquen resultados y recomendaciones a diferentes audiencias. - Supervizar y mejorar continuamente los activos analíticos desarrollados. - Apoyar el desarrollo de talentos menos experimentados dentro del equipo. - Asegurar el cumplimiento de objetivos y resultados clave en los proyectos liderados o mentoreados.

Requerimientos del cargo

Senior Data Scientist es un rol enfocado en el desarrollo de proyectos que apoyen la gestión y estrategia comercial utilizando métodos analíticos y de machine learning. En este sentido, se caracteriza por ser capaz de traducir problemas de negocios en problemas analíticos, proponer y desarrollar soluciones acorde a las necesidades de los stakeholders, y comunicar y recomendar efectivamente los resultados a distintos tipos de audiencias. El perfil se caracteriza por ser proactivo en cuanto al aprendizaje y el negocio, curioso en buscar la causa raíz a los problemas y colaborativo en la construcción de soluciones analíticas.

Para tener éxito en esta posición necesitas:

- Titulo de Ingeniería Civil Industrial, Ingeniería Civil Informática o carrera afín. - Experiencia previa de al menos 2 años en el diseño y automatización de procesos analíticos y de datos. - Experiencia de al menos 2 años realizando storytelling y presentaciones al negocio. - Nivel avanzado en Python y/o R. - Nivel avanzado en modelo de datos estructurados y SQL. - Conocimientos en temas de Machine Learning. - Experiencia con data wrangling / data prepare. - Conocimiento en temas de BI.

Es aún mejor si tienes:

- Nivel de inglés intermedio. - Experiencia en Banca.

Accessible An infrastructure adequate for people with special mobility needs.
Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance Bci pays or copays life insurance for employees.
Paid sick days Sick leave is compensated (limits might apply).
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Bci pays or copays health insurance for employees.
Dental insurance Bci pays or copays dental insurance for employees.
Free car parking You can park your car for free at the premises.
Computer provided Bci provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
APPLY VIA WEB
$$$ Full time
Senior Data Scientist
  • Bci
Python SQL Business Intelligence Machine Learning

La principal misión del cargo será desarrollar e implementar mediante metodologías ágiles de desarrollo de software de nuevos productos y servicios innovadores para la corporación BCI, con el propósito de hacerlos disponibles para nuestros clientes y colaboradores, contribuyendo a la generación de nuevos negocios, a la continuidad operacional del negocio, a la satisfacción del cliente y al cumplimiento de visión innovadora corporativa, asegurando la calidad, escalabilidad y time to market de las soluciones.

En este rol tendrás la oportunidad de:

- Desarrollar activos analíticos que faciliten toma de decisiones mejor fundamentadas en el negocio. - Preparar presentaciones claras y efectivas que comuniquen resultados y recomendaciones a diferentes audiencias. - Supervizar y mejorar continuamente los activos analíticos desarrollados. - Apoyar el desarrollo de talentos menos experimentados dentro del equipo. - Asegurar el cumplimiento de objetivos y resultados clave en los proyectos liderados o mentoreados.

Requerimientos del cargo

Senior Data Scientist es un rol enfocado en el desarrollo de proyectos que apoyen la gestión y estrategia comercial utilizando métodos analíticos y de machine learning. En este sentido, se caracteriza por ser capaz de traducir problemas de negocios en problemas analíticos, proponer y desarrollar soluciones acorde a las necesidades de los stakeholders, y comunicar y recomendar efectivamente los resultados a distintos tipos de audiencias. El perfil se caracteriza por ser proactivo en cuanto al aprendizaje y el negocio, curioso en buscar la causa raíz a los problemas y colaborativo en la construcción de soluciones analíticas.

Para tener éxito en esta posición necesitas:

- Titulo de Ingeniería Civil Industrial, Ingeniería Civil Informática o carrera afín. - Experiencia previa de al menos 2 años en el diseño y automatización de procesos analíticos y de datos. - Experiencia de al menos 2 años realizando storytelling y presentaciones al negocio. - Nivel avanzado en Python y/o R. - Nivel avanzado en modelo de datos estructurados y SQL. - Conocimientos en temas de Machine Learning. - Experiencia con data wrangling / data prepare. - Conocimiento en temas de BI.

Es aún mejor si tienes:

- Nivel de inglés intermedio. - Experiencia en Banca.

Accessible An infrastructure adequate for people with special mobility needs.
Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance Bci pays or copays life insurance for employees.
Paid sick days Sick leave is compensated (limits might apply).
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Bci pays or copays health insurance for employees.
Dental insurance Bci pays or copays dental insurance for employees.
Free car parking You can park your car for free at the premises.
Computer provided Bci provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
APPLY VIA WEB
Gross salary $2100 - 3500 Full time
Arquitecto de Datos
  • Datasur
  • Santiago (Hybrid)
Python PHP Agile MySQL

En Datasur, somos líderes en inteligencia comercial basada en datos de comercio exterior. Nuestra plataforma procesa millones de registros de importaciones y exportaciones de más de 50 países, y estamos listos para escalar más alto. Para eso, buscamos a un Arquitecto de Datos.

Como profesional deberás ser capaz de unificar las diferentes fuentes de datos. establecer un modelo de gobierno de datos robusto y proporcionar insights accionables que contribuyan a la toma de decisiones basada en datos, mejorando así la competitividad de la empresa en el mercado global

Funciones del cargo

  • Diseñar y mantener una arquitectura de datos robusta, escalable y eficiente.
  • Estandarizar y optimizar flujos de ETL/ELT desde múltiples fuentes.
  • Liderar el equipo técnico: definir estándares, buenas prácticas y gestionar roadmap de proyectos e iniciativas del Área.
  • Supervisar integraciones con herramientas de reporting, BI y plataformas web.
  • Garantizar calidad, seguridad y disponibilidad de los datos, implementando prácticas de gobernanza y control de accesos.
  • Facilitar la colaboración entre tecnología, producto y negocio, traduciendo requerimientos y aportando valor.

Requerimientos del cargo

Formación académica: Ingeniería en informática, sistemas, software o carreras a fines.

  • Estudios de postgrado en IA, Data Science.
  • Experiencia comprobable como Arquitecto/a de Datos, Ingeniero de Datos senior o Líder Técnico.
  • Habilidad para elaborar especificaciones técnicas a partir de requisitos funcionales, definiendo estructuras de datos, métricas y dashboards que reflejen la lógica de negocio y aporten valor.
  • Experiencia en analizar user stories o requerimientos de negocio y descomponerlos en modelos de datos, esquemas OLAP y flujos ETL alineados a los KPIs del producto.
  • Competencia para diseñar modelos dimensionales y data marts basados en objetivos de negocio, asegurando que los pipelines de datos soporten los indicadores críticos del producto.
  • Modelado y optimización de bases de datos relacionales (MariaDB/MySQL) y arquitecturas de Data Warehouse (esquemas estrella/copos), Bases analíticas MPP y soluciones OLAP columnar.
  • Etapas de ETL/ELT: dominio de Apache Airflow y/o NiFi (o herramientas equivalentes) para grandes volúmenes de datos.
  • Python avanzado para scripting y orquestación; comprensión de PHP para interactuar con el backend existente.
  • Conocimiento de herramientas de visualización/reportes (Power BI, Tableau, Looker, etc.) es un plus.
  • Metodologías ágiles (Scrum/Kanban) y herramientas de gestión (JIRA, Git, CI/CD).

Condiciones

  • Un proyecto desafiante, con impacto real en el mundo del comercio exterior.
  • Equipo comprometido, ágil y con visión de crecimiento global.
  • Libertad para proponer, crear y liderar cambios.
  • Modalidad flexible y cultura de resultados.

Partially remote You can work from your home some days a week.
Health coverage Datasur pays or copays health insurance for employees.
Computer provided Datasur provides a computer for your work.
Informal dress code No dress code is enforced.
APPLY VIA WEB
$$$ Full time
Científica/o de Datos
  • Macal
  • Santiago (Hybrid)
Python Data Analysis SQL Machine Learning

Macal es una empresa tecnológica y Data Driven con 40 años de experiencia, reconocida por su innovación constante y su modelo disruptivo en el sector de compra y venta online de autos y propiedades. Actualmente, el equipo de Data de Macal se enfoca en crear y optimizar modelos descriptivos y predictivos que sustentan nuestra propuesta de valor y ventaja competitiva.

Responsabilidades principales

Como Científico de Datos con especial foco estadístico, nuestro profesional será responsable de desarrollar modelos predictivos avanzados que optimicen el sistema de subastas en la plataforma. Esto incluye el análisis estadístico profundo, diseño, validación y mejora continua de algoritmos predictivos para garantizar el máximo rendimiento del marketplace. Además, colaborará con equipos multidisciplinarios para transformar datos en información accionable que permita tomar decisiones fundamentadas y estratégicas.

Otras funciones esenciales incluyen:

  • Recolectar, limpiar y preparar grandes volúmenes de datos relevantes para los modelos.
  • Implementar técnicas estadísticas y de machine learning para la generación de predicciones precisas.
  • Realizar experimentos y pruebas para validar la efectividad de los modelos.
  • Documentar procesos y resultados para asegurar la replicabilidad y transparencia.
  • Comunicar hallazgos a stakeholders técnicos y no técnicos de manera clara y precisa.

Perfil y requisitos

Buscamos un profesional con sólida formación en Estadística, Matemáticas, Ingeniería en Computación o campos afines, que cuente con experiencia concreta en modelado predictivo y análisis estadístico avanzado aplicado en entornos reales. Es imprescindible poseer habilidades en programación orientada a análisis de datos, dominio de herramientas y lenguajes como Python, R, SQL, y experiencia con bibliotecas especializadas para machine learning y estadística.

Además de competencias técnicas, valoramos una mentalidad curiosa e innovadora, con capacidad de análisis crítico y enfoque en resultados basados en datos. La comunicación efectiva, el trabajo colaborativo y la orientación al cliente final son también aspectos clave para integrarse adecuadamente en nuestro equipo y en la cultura organizacional de Macal.

Habilidades y conocimientos deseables

Será altamente valorado el conocimiento en metodologías ágiles de desarrollo, experiencia previa en proyectos de subastas o comercio electrónico, y manejo de plataformas de nube para procesamiento de datos como AWS o Google Cloud. También suman puntos las certificaciones en ciencia de datos y estadística aplicada, así como el interés por seguir innovando permanentemente y adaptarse a un ambiente dinámico y colaborativo.

Beneficios y cultura

  • Sistema híbrido y flexible que promueve el equilibrio entre vida laboral y personal.
  • 3 días libres adicionales al año complementan las vacaciones para mayor descanso.
  • Seguro complementario para cuidar tu salud y bienestar.
  • Acceso a programa anual de bonos basado en cumplimiento de resultados, incentivando el crecimiento profesional y económico.

Formar parte de Macal significa integrarse a un ambiente cercano, colaborativo y feliz, donde el talento y la innovación son el motor para crecer y lograr objetivos a través del análisis de datos y la tecnología. Buscamos personas que se sumen con entusiasmo y visión para transformar juntos la industria y la experiencia de nuestros clientes.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Macal pays or copays health insurance for employees.
Computer provided Macal provides a computer for your work.
Informal dress code No dress code is enforced.
APPLY VIA WEB
$$$ Full time
Ingeniero de Datos
  • Assetplan
  • Santiago (Hybrid)
Python Excel SQL ETL
Assetplan es una compañía líder en renta residencial en Chile, con presencia también en Perú. Actualmente, gestionamos más de 30.000 propiedades para clientes retail e institucionales y operamos más de 80 edificios multifamily. Con más de 10 años de trayectoria, Assetplan ha sido pionera en innovar y aplicar tecnología en el sector inmobiliario, promoviendo un modelo de negocio basado en la eficiencia, innovación y mejora continua.
El proyecto al que te integrarás busca potenciar la gestión de datos para respaldar la toma de decisiones estratégicas en toda la organización. Forma parte de un equipo joven con una estructura horizontal que valora el aprendizaje, la colaboración y la generación de valor a través de la innovación tecnológica aplicada a la información y análisis de grandes volúmenes de datos.

Responsabilidades principales

Como Ingeniero de Datos, serás responsable de:
  • Diseñar, desarrollar y optimizar procesos ETL (Extract, Transform, Load) utilizando herramientas clave como Python (librerías Pandas y Numpy) y SQL.
  • Desarrollar y mantener dashboards y paneles en Power BI, integrando visualizaciones estratégicas para acompañar los procesos ETL y proporcionar insights relevantes.
  • Trabajar de forma colaborativa con diferentes áreas de la organización para interpretar y transformar sus necesidades en soluciones de datos que faciliten la toma de decisiones estratégicas.
  • Promover la calidad, escalabilidad y gobernanza de los datos durante el diseño, desarrollo y mantenimiento de los procesos y pipelines de datos, asegurando soluciones escalables y accesibles.
  • Mantener una comunicación efectiva con los equipos de negocio y tecnología para asegurar que las soluciones implementadas se alineen con los objetivos corporativos y generen impacto real en la organización.

Requisitos y habilidades necesarias

Buscamos un profesional con 1 a 3 años de experiencia demostrable en el área de datos, en roles de ingeniería o análisis que impliquen manipulación y transformación de datos.
  • Manejo de SQL Medio
  • Manejo de Python Intermedio/Avanzado (excluyente)
  • Manejo de Power BI Medio
  • Manejo de Excel Avanzado
  • 1-3 años de experiencia (excluyente)

Conocimientos adicionales deseables

Es deseable poseer experiencia en ambientes ágiles y metodologías de desarrollo colaborativo que faciliten la integración entre equipos técnicos y de negocio.
Valoramos conocimientos en otras herramientas de visualización o procesamiento de datos, así como experiencia en gestión de la calidad y gobernanza de datos que permitan fortalecer el ecosistema de información de la empresa.

Beneficios y cultura empresarial

En Assetplan valoramos y reconocemos el esfuerzo y dedicación de nuestros colaboradores, ofreciendo un ambiente laboral positivo basado en el respeto mutuo y la colaboración.
Entre nuestros beneficios contamos con:
  • Días extras de vacaciones por años de antigüedad
  • Modalidad de trabajo híbrido y flexibilidad para trámites personales
  • Monto mensual en app de snacks en la oficina
  • Medio día libre en tu cumpleaños
  • Copago en seguro complementario de salud
  • Reajuste anual de renta basado en IPC
  • Bono anual por desempeño
  • Eventos empresa y happy hours financiados por la compañía
  • Acceso a plataforma de cursos de formación
  • Convenios con gimnasios, descuentos y más

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Assetplan pays or copays health insurance for employees.
Computer provided Assetplan provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Assetplan gives you paid vacations over the legal minimum.
Beverages and snacks Assetplan offers beverages and snacks for free consumption.
APPLY VIA WEB
$$$ Full time
Data Scientist
  • ARKHO
Python SQL Machine Learning Deep Learning

ARKHO es una consultora experta en tecnologías de la información, que ofrece servicios expertos de TI en el marco de modernización de aplicaciones, analítica de datos, IA y migración a la nube. Nuestro trabajo facilita y acelera la adopción de la cloud en múltiples industrias.

Nos destacamos por ser Partner Advanced de Amazon Web Services con foco estratégico en la generación de soluciones usando tecnología en la nube, somos obsesionados por lograr los objetivos propuestos y tenemos especial énfasis en el grupo humano que compone ARKHO (nuestros Archers), reconociendo a nuestro equipo como un componente vital para el logro de los resultados.
¿Te motivas? ¡Te esperamos!

Funciones

Estamos en busqueda de un Data Scientist con por lo menos dos años de experiencia, para incorporarse a nuestro equipo ágil para diversos proyectos Data Analytics. Será el encargado de velar por soluciones integrales para las problemáticas de cada uno de los clientes y proyectos en los cuales se desenvuelva junto al equipo.
Dentro de sus actividades principales se encuentran:
  • Comprender el contexto de negocio del cliente, desde la bajada comercial, indicadores claves que se busca potenciar, fuentes de datos y cómo sacar el mayor provecho de esta data para potenciar los resultados.
  • Analizar datos de alta complejidad utilizando técnicas de análisis estadístico, aprendizaje automático.
  • Acompañar y orientar al cliente respecto a diversas alternativas de solución.
  • Todos nuestros proyectos nos desafían a desplegar productos y servicios más rápidos, seguros, escalables y robustos en la nube.
Nos gusta conformar equipos colaborativos y auto-gestionados, por lo que las habilidades de comunicación y responsabilidad son muy importantes. ¡Buscamos profesionales de excelencia e íntegros dentro y fuera de la cancha!

Perfil del rol

En nuestra compañía valoramos a las personas autosuficientes, proactivas e innovadoras. Debes ser capaz de organizar tu propia carga de trabajo, tomar decisiones, cumpliendo los plazos y objetivos.
En tu carrera profesional deberías contar al menos con:
  • Experiencia mínima de 3 años en roles similares.
  • Técnicas de machine learning (Clustering, PCA, regresión logística, etc) y Deep Learning.
  • Desarrollo e implementación de modelos de IA utilizando embeddings y Large Language Models (LLMs)
  • Dominio de lenguajes de programación: Structured Query Language (SQL) y Python.
  • Experiencia con AWS cloud (SageMaker, S3, Lambda, bedrock).
  • Manejo de librerías: Pandas, Sklearn, Numpy, Matplotlib.
  • Ser graduado de Ingeniería de sistemas, Ingeniería matemática o afín.

Habilidades opcionales

  • Idioma inglés nivel intermedio

Beneficios del Archer

  • Día administrativo semestral hasta los 12 meses
  • Week off: 5 días de vacaciones extra
  • ¡Celebra tu cumpleaños!
  • Path de entrenamiento
  • Certificaciones AWS
  • Aguinaldos Fiestas Patrias y Navidad
  • Seguro complementario (sólo para Chile)
  • Flexibilidad (trabajo híbrido o remoto)
  • Regalo por casamiento + 5 días hábiles libres
  • Regalo por nacimiento de hijos
  • Kit escolar
  • Beneficio paternidad + 10 días (5 días adicionales a la Ley Chilena)
  • Bonda (Workshops de temáticas diversas, Wellness y descuentos en locales comerciales)

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
Vacation over legal ARKHO gives you paid vacations over the legal minimum.
APPLY VIA WEB
$$$ Full time
Data Engineer
  • ARKHO
Python Git SQL NoSQL

ARKHO es una consultora experta en tecnologías de la información, que ofrece servicios expertos de TI en el marco de modernización de aplicaciones, analítica de datos y migración a la nube. Nuestro trabajo facilita y acelera la adopción de la cloud en múltiples industrias.

Nos destacamos por ser Partner Advanced de Amazon Web Services con foco estratégico en la generación de soluciones usando tecnología en la nube, somos obsesionados por lograr los objetivos propuestos y tenemos especial énfasis en el grupo humano que compone ARKHO (nuestros Archers), reconociendo a las personas y equipo como un componente vital para el logro de los resultados.

¿Te motivas? ¡Te esperamos!

Funciones

Estamos en busca de un o una profesional con experiencia en el desarrollo de pipelines de analytics, con una visión en la arquitectura de datos End to End, que logre aplicar sus conocimientos técnicos en la ejecución de proyectos tecnológicos. La vacante considera que el o la aspirante sea un referente orientando a la mejora continua y el cumplimiento de los objetivos y la creación de productos tecnológicos de alta calidad. Para ello, la experiencia en el uso de diversas herramientas, lenguajes de programación, infraestructura y otros, son la base para apoyar desde el conocimiento al equipo de desarrollo, participando en el desarrollo de entregables de alto impacto y calidad.

  • Trabajar de forma integrada y colaborativa con el líder de equipo, y el equipo de implementación proporcionando un contexto claro del estado de las iniciativas desde el ámbito tecnológico.
  • Apoyar al equipo en la definición, estimación y planificación de tareas/actividades para el desarrollo de productos de analítica en el marco ágil del desarrollo.
  • Gobernar técnicamente la solución con el cliente, participando activamente de decisiones claves y proporcionando información relevante en el aspecto técnico.
  • Trabajar con los integrantes del equipo en el diseño e implementación de arquitecturas de soluciones de analítica de datos en la nube y para la solución completa.
  • Involucramiento en el modelado de los datos, generando modelos analíticos corporativos.
  • Profundización en aspectos tecnológicos desconocidos y que se requieren para el logro de los objetivos.

Perfil del archer

En nuestra compañía valoramos a las personas auto-gestionadas, proactivas e innovadoras. Debes ser capaz de organizar tu propia carga de trabajo, tomar decisiones, cumpliendo tus plazos y objetivos. Buscamos personas con:

  • Experiencia relevante en Python con datos.
  • Dominio de SQL y bases de datos no relacionales.
  • Conocimiento en tecnologías de ETL.
  • Capacidades de documentación de negocio y tecnológica.
  • Desarrollo de APIs.
  • Experiencia en AWS cloud.
  • Experiencia en proyectos BI y modelando bases de datos para Data Warehouse (Estrella, Copo de nieve).
  • Habilidades de priorización de requerimientos y resultados de negocio.

Habilidades opcionales

Si posees experiencia en algunas de las tecnologías a continuación es un plus:

  • Conocimiento de Machine Learning
  • Nivel de inglés Intermedio - Avanzado
  • Experiencia en metodologías ágiles como Scrum
  • Git

Beneficios del Archer

  • Día administrativo semestral hasta los 12 meses
  • Week off: 5 días de vacaciones extra
  • ¡Celebra tu cumpleaños!
  • Path de entrenamiento
  • Certificaciones AWS
  • Aguinaldos Fiestas Patrias y Navidad
  • Bono de salud
  • Flexibilidad (trabajo híbrido o remoto)
  • Regalo por casamiento + 5 días hábiles libres
  • Regalo por nacimiento de hijos
  • Kit escolar
  • Beneficio paternidad
  • Bonda

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
Vacation over legal ARKHO gives you paid vacations over the legal minimum.
APPLY VIA WEB
Gross salary $2000 - 2500 Full time
Data Scientist
  • Interfell
Python Git Data Analysis SQL

En Interfell, estamos revolucionando la manera en que las empresas se conectan con talento calificado en LATAM. Nuestro proyecto actual se orienta hacia el área de ciencia de los datos es por ellos que actualmente estamos en búsqueda de un DATA SCIENTIST con +4 años de experiencia para que se una a nuestro equipo de IT, para trabajar en un proyecto a tiempo determinado de 6 a 8 meses

** Con el objetivo de facilitar nuestros procesos, solicitamos amablemente que consideres postularte únicamente si cumples con los conocimientos requeridos. En caso contrario, te animamos a estar pendiente de nuestras futuras oportunidades, ya que seguramente surgirá alguna donde puedas destacarte. Agradecemos tu comprensión y colaboración. **

Funciones del cargo

  • Identificar oportunidades donde el análisis de datos puede generar ventajas competitivas y diseñar soluciones apropiadas.
  • Desarrollar modelos de machine learning y analítica predictiva (clasificación, regresión, segmentación, scoring, recomendación, etc.).
  • Construir y automatizar pipelines de datos para la limpieza, transformación y enriquecimiento de fuentes heterogéneas.
  • Realizar análisis exploratorios y visualización de datos para generar insights relevantes y comunicar hallazgos de manera efectiva.
  • Implementar modelos en producción, trabajando junto a ingenieros de datos y software, asegurando performance, escalabilidad y mantenibilidad.
  • Evaluar el impacto de iniciativas mediante técnicas estadísticas (pruebas de hipótesis, análisis causal, A/B testing).
  • Documentar procesos y resultados, promoviendo una cultura de datos dentro de la organización.

Requerimientos del cargo


Formación y experiencia:
  • Grado o máster en carreras STEM (Ciencia, Tecnología, Ingeniería o Matemáticas), idealmente con enfoque en ciencia de datos, estadística o informática.
  • Mínimo 3-5 años de experiencia aplicando técnicas de análisis de datos y machine learning en entornos profesionales.

Habilidades técnicas:
  • Programación fluida en Python o R para análisis de datos y modelado estadístico.
  • Manejo avanzado de bibliotecas como Pandas, Scikit-learn, TensorFlow/PyTorch, Statsmodels, Matplotlib/Seaborn.
  • Experiencia en SQL y trabajo con bases de datos relacionales y no relacionales.
  • Familiaridad con herramientas de visualización (Tableau, Power BI, Looker o similares).
  • Conocimiento de plataformas cloud (AWS, GCP, Azure) y entornos colaborativos (Git, Docker, notebooks).

Opcionales

  • Deseable: experiencia en despliegue de modelos, MLOps y frameworks de producción.

Condiciones

  • Oportunidad de crecimiento con un equipo multinivel
  • Pago USD
  • Jornada: Lunes - Viernes -09:00 am - 06:30 pm / Perú
  • Tiempo de contratación estimado: Proyecto 6 - 8 meses
    IMPORTANTE: Este empleo requiere exclusividad.

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
$$$ Full time
Data Engineer
  • NeuralWorks
  • Santiago (Hybrid)
Python SQL Big Data Amazon Web Services

NeuralWorks es una compañía de alto crecimiento fundada hace 3 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

Descripción del trabajo

El equipo de Data y Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.
Dentro del equipo multidisciplinario con Data Scientist, Translators, DevOps, Data Architect, tu rol será clave en construir y proveer los sistemas e infraestructura que permiten el desarrollo de estos servicios, formando los cimientos sobre los cuales se construyen los modelos que permiten generar impacto, con servicios que deben escalar, con altísima disponibilidad y tolerantes a fallas, en otras palabras, que funcionen. Además, mantendrás tu mirada en los indicadores de capacidad y performance de los sistemas.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Como Data Engineer, tu trabajo consistirá en:

  • Participar activamente durante el ciclo de vida del software, desde inception, diseño, deploy, operación y mejora.
  • Apoyar a los equipos de desarrollo en actividades de diseño y consultoría, desarrollando software, frameworks y capacity planning.
  • Desarrollar y mantener arquitecturas de datos, pipelines, templates y estándares.
  • Conectarse a través de API a otros sistemas (Python)
  • Manejar y monitorear el desempeño de infraestructura y aplicaciones.
  • Asegurar la escalabilidad y resiliencia.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia práctica de al menos 3 años en entornos de trabajo como Data Engineer, Software Engineer entre otros.
  • Experiencia con Python.
    Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida optimización de consultas.
  • Pasión en problemáticas de procesamiento de datos.
  • Experiencia con servidores cloud (GCP, AWS o Azure), especialmente el conjunto de servicios de procesamiento de datos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.
  • Habilidades de comunicación y trabajo colaborativo.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” D. Gaucher , J. Friesen and A. C. Kay, Journal of Personality and Social Psychology, 2011.

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Vestimenta informal
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
APPLY VIA WEB
$$$ Full time
Junior Data Analyst & Automation
  • Banco Santander Chile
  • Santiago (Hybrid)

Banco Santander Chile es una organización internacional líder en el sector financiero con presencia en más de 20 países, reconocida por su compromiso con el desarrollo profesional, el aprendizaje continuo y la movilidad interna. La Vicepresidencia de Tecnología y Operaciones del banco es un área estratégica que impulsa la innovación tecnológica, la optimización y mejora de procesos con el objetivo de contribuir al progreso de las personas y empresas. Este departamento está enfocado en liderar iniciativas tecnológicas de vanguardia que fortalecen la posición de Santander como líder en el sector financiero chileno y a nivel internacional, promoviendo un ambiente de trabajo colaborativo, desafío constante y crecimiento profesional.

Misión del cargo

Buscamos jóvenes profesionales comprometidos y flexibles para integrarse al equipo de Tecnología y Operaciones, donde contribuirán a la optimización y mejora continua de procesos mediante el uso de tecnologías punteras.

El rol implica colaborar en proyectos estratégicos que impulsen la innovación tecnológica dentro del banco, trabajando estrechamente con diferentes áreas para apoyar la transformación digital y la eficiencia operativa.

Además, se espera que el candidato participe activamente en el aprendizaje permanente y el desarrollo de competencias técnicas y colaborativas, favoreciendo un ambiente dinámico y orientado al trabajo en equipo.

Qué te ayudará a tener éxito en el proceso

  • Para tener éxito en esta posición, buscamos egresados de carreras como Ingeniería Civil Industrial, Ingeniería Civil en Informática o afines, con no más de un año de experiencia profesional, ya que aspiramos a formar jóvenes talentos que aporten con nuevas ideas y ganas de aprender.
  • Debe contar con formación o experiencia en automatización de procesos, analítica avanzada y manejo de datos, con conocimientos intermedios en SQL, Power BI y/o Tableau. Se valoran conocimientos deseables en Python, Spark y Appian, orientados a potenciar habilidades técnicas y tecnológicas en análisis de datos.
  • El candidato debe tener un nivel intermedio de inglés (B1), mostrando capacidad para manejar información en este idioma y comunicarse de forma básica en el contexto laboral.
  • Buscamos personas con interés genuino en las herramientas tecnológicas de análisis de datos, motivadas a contribuir en un entorno desafiante y colaborativo, con habilidades blandas como adaptabilidad, actitud proactiva y capacidad de trabajo en equipo.
  • Se requiere disponibilidad para incorporarse en junio de 2025.

Conocimientos y habilidades deseables

  • Nos interesa especialmente candidatos que hayan desarrollado conocimientos en programación avanzada, analítica de datos con Python y Spark, así como familiaridad con plataformas de automatización como Appian.
  • Valoramos la capacidad para desenvolverse en entornos multidisciplinarios, con habilidades comunicativas y de gestión del tiempo, que contribuyan a un equipo colaborativo y efectivo.
  • Además, la experiencia en proyectos relacionados con la transformación digital y optimización de procesos se considera un plus importante, aunque no es requisito excluyente.

¿Qué te ofrecemos?

  • Formar parte de la principal empresa financiera de Chile y uno de los mejores lugares para trabajar en el país.
  • Aprendizaje mediante la experiencia práctica, con múltiples oportunidades de desarrollo, formación continua y movilidad interna para participar en proyectos estratégicos.
  • Acompañamiento formativo durante el proceso de adaptación y desarrollo del rol, asegurando una integración exitosa y crecimiento profesional.
  • Redes internas de colaboración que potencian el aprendizaje, la creación de vínculos profesionales y la expansión de la mirada laboral.
  • Beneficios orientados a mejorar la calidad de vida y el desarrollo profesional del colaborador.
  • Contrato indefinido que aporta estabilidad laboral y seguridad.

APPLY VIA WEB
Gross salary $3000 - 4000 Full time
Senior Data Engineer (Rag)
  • Niuro
Python MySQL PostgreSQL BigQuery
Niuro is a company dedicated to connecting projects with elite technology teams specializing in partnerships with leading U.S. companies. Our mission focuses on simplifying global talent acquisition through innovative and efficient solutions that emphasize maximizing quality and performance. We empower autonomous, high-performance tech teams by offering a collaborative environment enriched with continuous professional growth, training in both technical and soft skills, and leadership development. Through managing all administrative tasks, including hiring, payments, and training, Niuro allows teams to concentrate fully on delivering excellent and innovative outcomes aligned with cutting-edge technology and client needs.

Responsibilities

  • Design, implement, and maintain scalable, reliable, and efficient data pipelines tailored to Retrieval-Augmented Generation (RAG) based applications, ensuring seamless automation of intelligent query processes.
  • Configure, manage, and optimize vector databases and advanced search engines to support high-performance embedding and retrieval functionalities.
  • Collaborate closely with Data Scientists and AI Engineers to deploy embedding models and generative AI solutions, fostering integration across teams.
  • Develop and fine-tune ETL/ELT processes to guarantee outstanding data quality, pipeline performance, and resilience within production environments.
  • Ensure system scalability, stability, and operational efficiency to support high-demand data workloads and AI-powered services.

Requirements & Professional Profile

We require candidates with a minimum of 4 to 5 years of experience as a Data Engineer, demonstrating a proven track record managing data-intensive projects and environments. Expertise in Retrieval-Augmented Generation (RAG) methodologies is essential as you will lead innovative data pipeline development.
Technical proficiency must include deep experience with at least one tool or technology from each of the following categories:
  • Vector Databases: Experience with Pinecone, Milvus, Qdrant, Weaviate, or equivalent solutions to manage embedding data effectively.
  • Databases: Proficiency in SQL databases such as PostgreSQL and MySQL, plus NoSQL databases including MongoDB and Cassandra.
  • Data Warehousing: Knowledge of warehouse platforms such as Redshift, BigQuery, or Snowflake to support analytical processing.
  • ETL/ELT Tools: Skilled in dbt, Apache NiFi, Talend, or Informatica for robust data transformation workflows.
  • Big Data Frameworks: Experience with Apache Spark and Kafka for handling large-scale data streams.
  • Search Engines: Familiarity with Elasticsearch, Solr, or OpenSearch to implement advanced search capabilities.
  • Cloud Platforms: Working knowledge of AWS, Google Cloud Platform, or Azure for scalable cloud infrastructure.
  • Containers: Proficient with Docker to containerize and deploy applications reliably.
  • Programming: Advanced skills in Python for scripting, automation, and integration.
Strong analytical aptitude and problem-solving capabilities are vital to address complex data challenges. We seek candidates who thrive in agile, cross-functional teams and possess excellent communication and collaboration skills to work effectively across different roles and disciplines.

Nice-to-have Skills

  • Experience with machine learning frameworks including TensorFlow, PyTorch, and Scikit-learn to support advanced model deployment.
  • Familiarity with natural language processing tools such as spaCy, NLTK, and Hugging Face Transformers to enhance text and language-related functionalities.
  • Knowledge of generative AI models like OpenAI, Azure GPT, and Amazon Bedrock is beneficial for working on cutting-edge AI augmentation projects.
  • Competence in container orchestration using Kubernetes to manage containerized applications at scale.

What We Offer

  • 🌍 100% Remote – Embrace full flexibility by working from anywhere around the world, enabling an optimal work-life balance.
  • 📈 Career Growth – Become part of a tech-forward, innovative, and collaborative team committed to your ongoing professional development and success.
  • 📝 Full-time employment contract with an initial 3-month trial period followed by an indefinite contract, ensuring job stability and continuous collaboration.

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
APPLY VIA WEB
$$$ Full time
Data Scientist
  • Forma - Moovmedia Group
¡Hola! Somos Forma y somos parte de Moov Media Group, una familia de empresas que también integran Metrix y Moov. Nuestro modelo es colaborativo, ¿qué significa esto? Que trabajamos de manera específica o integral según las necesidades de cada cliente.
Buscamos ser el mejor partner de nuestros clientes apañándolos en la transformación digital. Nos peinamos con el desarrollo tecnológico y el uso de datos, siempre con una mirada estratégica que nos lleve a tomar la mejor decisión.
Hoy queremos seguir creciendo y para eso buscamos un Data Scientist que nos acompañe a recorrer el mundo digital en una empresa con cultura flexible, ágil e innovadora. ¿Te interesa? Entonces déjanos contarte un poco más.
El proceso de selección consta de:

  • Llamado telefónico
  • Entrevista con Selección
  • Entrevista con jefatura directa.
¿Te interesa? ¡Dale! Escríbenos y conversemos.

Funciones del cargo

Diseñar, entrenar y desplegar modelos de Machine Learning y algoritmos de predicción (scikit-learn, XGBoost, etc.)
Liderar procesos de análisis estadístico y modelado de datos con Python y SQL
Automatizar pipelines de datos e integraciones con APIs (Google Ads, Meta, ecommerce, CRM)
Desarrollar dashboards interactivos y embebidos (Power BI, Looker Studio, Tableau)
Validar y mantener la calidad de modelos en producción, utilizando ML Ops básico
Colaborar con equipos de ingeniería, automatización, media y producto

Requerimientos del cargo

Requisitos técnicos:
  • Lenguajes obligatorios: Python (Pandas, Scikit-learn, Numpy, Matplotlib), SQL.
  • Cloud: GCP o AWS (manejo de BigQuery, S3, Redshift u otros).
  • Automatización: Airflow, dbt o scripts programados.
  • Visualización: Power BI y/o Looker Studio (excluyente).
  • Modelos ML: Clasificación, regresión, clustering, análisis de series temporales.
Otros requisitos:
  • Ingeniero en Estadística, Computación, Ciencia de Datos o afín.
  • 3+ años de experiencia en proyectos de data science o advanced analytics.
  • Capacidad para explicar conceptos técnicos a equipos no técnicos.
  • Mentalidad de experimentación y prototipado rápido (MVPs, hackathons).

Opcionales

Deseable: ML Ops (Vertex AI, SageMaker, MLflow), APIs REST, web scraping, Docker
Deseable: experiencia en ecommerce, retail o marketing digital.

Conditions

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
$$$ Full time
Data Scientist & GCP Specialist
  • Forma - Moovmedia Group
Python SQL BigQuery Power BI

¡Hola! Somos Moov Media Group, una familia de empresas integrada por Moov, Metrix y Forma. Nuestro modelo es colaborativo, ¿qué significa esto? Que trabajamos de manera específica o integral según las necesidades de cada cliente.

Navegamos en el mundo digital usando la tecnología, la data analytics, los medios y la publicidad para encontrar soluciones de marketing multicanal que nos conviertan en los más secos de Latinoamérica.

Hoy queremos seguir creciendo y para eso buscamos un Data Scientist & GCP Specialist que nos acompañe a recorrer el mundo digital en una empresa con cultura flexible, ágil e innovadora. ¿Te interesa? Entonces déjanos contarte un poco más.

El proceso de selección consta de:

  • Llamado telefónico
  • Entrevista con Selección
  • Entrevista con jefatura directa.

¿Te interesa? ¡Dale! Escríbenos y conversemos.

Funciones del cargo

Diseñar, entrenar y desplegar modelos de Machine Learning avanzados usando Vertex AI.
Gestionar y optimizar infraestructura cloud en GCP (BigQuery, Cloud Storage, Dataflow, Compute Engine).
Automatizar pipelines avanzados de datos con Cloud Composer (Airflow), Cloud Functions y APIs externas.
Desarrollar dashboards interactivos avanzados principalmente con Looker Studio.
Implementar y gestionar prácticas de ML Ops avanzadas (monitoreo, versionado, CI/CD) en Vertex AI.
Colaborar y asesorar técnicamente a equipos de ingeniería, media y producto.

Requerimientos del cargo

Requisitos técnicos:

  • Lenguajes obligatorios: Python (Pandas, TensorFlow/Keras, Scikit-learn, Numpy), SQL.
  • Cloud: Google Cloud Platform (Vertex AI, BigQuery, Dataflow, Cloud Storage, Compute Engine).
  • Automatización: Cloud Composer (Airflow), Cloud Functions, Dataflow.
  • Visualización: Looker Studio (excluyente), Power BI o Tableau (deseable).
  • Modelos ML: Clasificación, regresión, clustering, detección de anomalías, series temporales.
  • Ingeniero en Estadística, Computación, Ciencia de Datos o carrera afín.
  • 3+ años de experiencia especializada en proyectos utilizando Google Cloud Platform y Vertex AI.

Opcionales

Deseable: experiencia previa en ecommerce, retail o marketing digital.

Conditions

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
$$$ Full time
Data Engineer
  • 2BRAINS
Python Git Data Analysis SQL

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

El/la Data Engineer de 2Brains

Se encarga de participar en el diseño y desarrollo de los nuevos modelos de información de gestión y las mantenciones evolutivas de los existentes. Participar en las iniciativas de Analítica avanzada del área, apoyando las exploración de modelos de información internos y externos (Data Discovery). Obtener datos históricos desde múltiples fuentes de información interna para apoyar las iniciativas de analítica avanzada del equipo.

El/la Data Engineer de 2Brains debe

  • Construir y optimizar pipelines de datos para la ingesta, transformación y carga eficiente de información.
  • Manejar infraestructuras en la nube (AWS, GCP, Azure), asegurando escalabilidad y eficiencia en costos.
  • Automatizar y monitorear procesos mediante herramientas de DevOps como Airflow, Terraform o Kubernetes.
  • Implementar controles de calidad y gobernanza para garantizar la integridad y disponibilidad de los datos.
  • Colaborar con equipos de Data Science, Producto y Desarrollo para diseñar soluciones alineadas con las necesidades del negocio.

Qué conocimientos buscamos en/la Data Engineer

  • Excluyente Experiencia trabajando con tecnologías de BI
  • Experiencia en la construcción/operación de sistemas distribuidos de extracción, ingestión y procesamiento de grandes conjuntos de datos de gran disponibilidad.
  • Capacidad demostrable en modelado de datos, desarrollo de ETL y almacenamiento de datos.
  • Experiencia en el uso de herramientas de informes de inteligencia empresarial (Power BI)
  • Excluyente conocimiento en consumo de microservicios de APIs Rest
  • Excluyente conocimiento en Git , Bitbucket, Docker,Jenkins,Webhooks
  • Programación con Python y bases sólidas de ingeniería de software.
  • Automatización y scripting.
  • Uso de librerías de Python para manipulación y análisis de datos y Apache Spark.
  • Conocimientos en bases de datos SQL y NoSQL.
  • Conocimiento en CI/CD, Dataflow
  • Conocimiento en S3, Redshift y Glue AWS

Que competencias buscamos en/la Data Engineer

  • Empatía
  • Buena capacidad de comunicación.
  • Colaboración y trabajo en equipo.
  • Proactividad.
  • Autonomía.
  • Foco en los objetivos de proyectos.

Condiciones

Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos

Acceso a grandes clientes y proyectos desafiantes

Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales

Un entorno de trabajo flexible y dinámico

Beneficios especiales: día libre para tu cumpleaños, días de descanso a convenir.

Informal dress code No dress code is enforced.
Vacation over legal 2BRAINS gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
BI Analyst
  • The Optimal
  • Santiago (Hybrid)
Python SQL Tableau
The Optimall es una empresa líder en servicios tecnológicos e innovadores orientados al apoyo en la toma de decisiones en Logística de carga y pasajeros en Chile, Colombia, Ecuador y Perú (pronto mucho más🚀).
Parte importante de nuestros proyectos apuntan a reducir costos de transporte, mejorar la visibilidad de la cadena de abastecimiento y ofrecer soluciones tecnológicas para la optimización de rutas, automatización de procesos y análisis de datos para nuestros clientes.

¿Qué desafíos tendrás? 💪

Serás responsable de transformar datos en información valiosa para la toma de decisiones estratégicas tanto de The Optimal como de nuestros clientes. Tu rol consistirá en analizar e interpretar datos clave, proponer planes de mejora que optimicen el servicio entregado a nuestros clientes e impulsen el rendimiento del equipo. Además, deberás estructurar bases de datos, desarrollar paneles funcionales y centralizar la información para su uso transversal en toda la organización y nuestros clientes.

¿Qué buscamos en ti? 🚀

Buscamos a alguien ingenioso/a, con pensamiento analítico, orientación a resultados y pasión y agilidad de manejo de datos. Alguien que sepa traducir información compleja en soluciones accionables.
  • Formación profesional en Ingeniería Civil, Industrial, en TI o carrera afín.
  • Al menos 2 años de experiencia desarrollando paneles de control para clientes y equipos internos (Tableau)
  • Dominio de SQL, Tableau y Python.
  • Capacidad para interpretar datos, detectar oportunidades de mejora y proponer soluciones concretas.

Condiciones✍

Jornada Mixta: Cowork 🏢 & Home Office 🏠
Horario laboral: Lunes a viernes Full Time⏱️
Proyectos retadores y uso de tecnologías a la vanguardia 🤓
Asignación por concepto de movilización y colación🪙

APPLY VIA WEB
$$$ Full time
Data Engineer
  • Niuro
Python MySQL Docker SQL Server
At Niuro, we connect elite tech teams with top-tier U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality. We empower projects by providing autonomous, high-performance tech teams, and we offer continuous professional growth opportunities to ensure everyone involved is set for success in innovative and challenging projects.

Key Responsibilities

  • Ingest, process, and integrate data from multiple systems and platforms using Big Data tools.
  • Design and implement data pipelines to transfer data from source to destination systems, ensuring alignment with integration standards and existing frameworks.
  • Guarantee high data quality, availability, and compliance across applications and digital products.
  • Collaborate with product teams to identify required datasets and evaluate existing sources (e.g., update frequency, data reliability, known issues).
  • Contribute to the delivery of scalable, strategic data engineering solutions aligned with our data roadmap.

Requirements

🔹 Experience: 3+ years in data engineering or a similar role.
🔹 Tech Stack:
  • Cloud & Big Data: Proficient with AWS services including Lambda, S3, Glue.
  • Data Orchestration: Experience designing and managing workflows using Airflow.
  • Data Modeling & Transformation: Hands-on experience with dbt.
  • Data Warehousing: Solid knowledge of Snowflake.
  • Databases: Experience with MySQL or SQL Server.
  • Programming: Strong Python skills, including scripting, automation, and unit testing.
🔹 Other Skills:
  • Good understanding of data quality and governance practices.
  • Familiarity with various data sources and types in data mining and analytics.
  • Intermediate to advanced English for international team collaboration.

Nice to Have

🔸 Experience deploying dbt in production environments.
🔸 Knowledge of Data Lake and Lakehouse architectures.
🔸 Familiarity with CI/CD tools and Git-based version control (GitHub, GitLab, or Azure DevOps).
🔸 Experience with Docker for containerized data workflows.

What We Offer

  • 🌍 100% Remote – Work from anywhere in the world.
  • 🚀 Growth Opportunities – Be part of shaping a robust and modern data ecosystem.

Informal dress code No dress code is enforced.
APPLY VIA WEB
Gross salary $2000 - 2200 Full time
Data Engineer Senior GCP
  • coderslab.io
  • Santiago (Hybrid)
Python SQL Big Data BigQuery

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente nos encontramos apuntando al crecimiento de nuestros equipos de manera global con el objetivo de posicionarnos con nuestros productos en más países de Latinoamérica, es por ello que estamos en búsqueda de un Data Engineer Senior - GCP para sumarse a nuestro equipo.

Te sumarás a un equipo desafiante y ambicioso con ganas de renovar el mercado, por lo que tus propuestas serán de mucho valor para el negocio.

¡Postula para este tremendo desafío!

Job functions

  • Ejecutar procesos de ingesta y modelamiento de datos en entornos de Google Cloud Platform (GCP).
  • Participar activamente en el desarrollo y mantenimiento de pipelines de datos (ETLs).
  • Colaborar en el diseño y optimización de arquitecturas de datos eficientes.
  • Trabajar de forma colaborativa en equipos multidisciplinarios, tanto de forma remota como presencial.
  • Documentar procesos y contribuir a las buenas prácticas de desarrollo y versionamiento de código.

Qualifications and requirements

Experiencia comprobable en proyectos de datos (ETLs) sobre GCP.

Dominio de productos de GCP como:

  • BigQuery
  • Cloud Functions
  • Cloud Composer / Airflow
  • Cloud Storage

Conocimientos en DBT (deseable).

Sólida experiencia en SQL y Python.

Experiencia trabajando con sistemas de versionamiento como GitLab, Bitbucket o GitHub.

Habilidades blandas:

  • Alta capacidad de trabajo en equipo.
  • Autonomía y habilidades de autogestión.
  • Buenas capacidades analíticas y de resolución de problemas.

Conditions

Modalidad: Híbrida (mínimo 2 días presencial en Santiago, Chile)
Duración: contrato por 8 meses con extension

APPLY VIA WEB
Gross salary $2400 - 2600 Full time
Data Engineer AWS
  • BC Tecnología
  • Santiago (Hybrid)
Python Data Analysis SQL Web server
En BC Tecnología, nos especializamos en la consultoría de TI, ofreciendo un amplio rango de servicios para adaptarnos a las necesidades específicas de nuestros clientes, principalmente en finanzas, seguros, retail y gobierno. Nuestro equipo trabaja mediante metodologías ágiles, lo que nos permite diseñar e implementar soluciones tecnológicas efectivas y dirigidas al cliente. Actualmente, estamos buscando un Data Engineer con experiencia en AWS para sumarse a nuestro equipo y contribuir a proyectos innovadores en la gestión y explotación de datos.

Responsabilidades del Cargo

  • Desarrollar y gestionar procesos de ETL, asegurando la calidad y fiabilidad de los datos.
  • Optimizar la explotación de datos a través de técnicas de Tuning.
  • Implementar soluciones utilizando herramientas de AWS, incluyendo Glue, Lambda, S3, Redshift y DynamoDB.
  • Colaborar con los equipos de desarrollo de software para asegurar la integración de datos eficiente.
  • Realizar análisis y visualización de datos para apoyar en la toma de decisiones.
  • Mantener un enfoque en la innovación y la mejora continua de los procesos y herramientas utilizadas.

Descripción del Cargo

Buscamos un Data Engineer AWS con un mínimo de 3 años de experiencia en el manejo de datos. El candidato ideal tendrá conocimientos sólidos en:
  • Explotación de datos y Tuning.
  • Diseño e implementación de procesos ETL.
  • Desarrollo de consultas efectivas en SQL.
  • Programación en Python.
  • Uso de herramientas de orquestación como Apache Airflow (deseable).
Valoramos habilidades como el trabajo en equipo, la proactividad y la capacidad para adaptarse a nuevas tecnologías. La combinación de habilidades técnicas y soft skills es esencial para unirse a nuestro equipo dinámico.

Habilidades Deseables

Además de los requisitos mencionados, sería beneficioso contar con experiencia en:
  • Integraciones y gestión de datos en múltiples fuentes.
  • Implementación de soluciones en la nube de AWS.
  • Conocimientos en herramientas de visualización de datos.
Estas habilidades ayudarán al candidato a integrarse de manera efectiva en nuestros equipos de trabajo y contribuir a proyectos futuros.

Beneficios de Trabajar con Nosotros

En BC Tecnología, valoramos a nuestro equipo y ofrecemos un entorno flexible y beneficios atractivos:
  • Contrato indefinido.
  • Modalidad híbrida, combinando trabajo remoto y en oficina.
  • Paquete de beneficios corporativos que incluye salud prepaga de primer nivel para el empleado y su familia.
  • Un día de home office a la semana, junto con desayunos y un comedor en la planta.
  • Acceso a un Sport Club y asistencia de un nutricionista.
¡Únete a nosotros y marca una diferencia en el mundo de la tecnología! 🎉

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB
$$$ Full time
Semi Senior / Senior Data Engineer
  • Devsu
  • Quito, Cuenca or Guayaquil (In-office)
Java Python NoSQL Scala
En Devsu, nos dedicamos a construir productos digitales innovadores que se ajustan a las necesidades de nuestros clientes. Con una trayectoria de más de 10 años, hemos reclutado y formado equipos de tecnología de alto rendimiento para algunas de las marcas más reconocidas del mundo.
Buscamos un Ingeniero de Datos con amplia experiencia en el ciclo completo de desarrollo de soluciones de información, incluyendo análisis, diseño, desarrollo, certificación, despliegue y mantenimiento, en entornos OnPremise y tecnologías Big Data. El candidato ideal debe demostrar sólidos conocimientos en optimización de bases de datos y un enfoque proactivo para superar limitaciones técnicas o de procesos, asegurando soluciones robustas, eficientes y alineadas con las mejores prácticas de desarrollo.

Es una posición presencial en la ciudad de Quito, Ecuador, en donde serás asignado/a a uno de nuestros clientes más importantes en el sector financiero/bancario de Latinoamérica.

Funciones del cargo

  • Diseñar y desarrollar soluciones de datos alineadas con la visión de Arquitectura de Datos.
  • Crear y optimizar ETLs, ELTs y APIs para manejo eficiente de datos.
  • Implementar estrategias de testing para validar calidad funcional y no funcional.
  • Proponer mejoras continuas en procesos y productos de datos.
  • Resolver incidencias técnicas y documentar soluciones conforme a estándares.
  • Mentorizar y apoyar el onboarding de nuevos integrantes del equipo.

Requerimientos del cargo

  • Bases de datos relacionales y NoSQL, diseño de Datawarehouse, Datamarts, Datalakes y Lakehouse.
  • Procesamiento distribuido con Hadoop, Spark y arquitecturas batch/streaming.
  • Desarrollo en Python, Scala o Java, aplicando principios de Clean Code.
  • Construcción de pipelines con herramientas ETL (Azure Data Factory, AWS Glue, SSIS).
  • Estrategias de DataOps/MLOps y despliegue CI/CD.
  • Deseable: Certificaciones en AWS, Azure, o Big Data, y experiencia en arquitecturas modernas como Data Mesh o Data Fabric.

Herramientas

  • Apache Spark, Kafka, Flink, Hadoop, HDFS.
  • Servicios Cloud: AWS, Azure, GCP.
  • Lenguajes: Python, Scala, Java.

Beneficios

Un contrato estable a largo plazo. Entrenamiento contínuo. Seguro de Salud Privado. Trabajarás con algunos de los ingenieros de software más talentosos de América Latina y los EEUU, haciendo un trabajo desafiante y software de clase mundial.

Wellness program Devsu offers or subsidies mental and/or physical health activities.
Internal talks Devsu offers space for internal talks or presentations during working hours.
Digital library Access to digital books or subscriptions.
Health coverage Devsu pays or copays health insurance for employees.
Computer provided Devsu provides a computer for your work.
Education stipend Devsu covers some educational expenses related to the position.
Personal coaching Devsu offers counseling or personal coaching to employees.
APPLY VIA WEB
$$$ Full time
Data Engineer
  • Compara
Python PostgreSQL Back-end Kafka
ComparaOnline es una plataforma digital que permite cotizar y comparar los principales seguros y productos financieros de Latinoamérica. En nuestra empresa, buscamos un Data Engineer que ayude a construir, optimizar y evolucionar nuestra infraestructura de datos. Con un énfasis en la modernización y mejora continua, esta posición es clave para asegurar que nuestros procesos de datos sean eficientes y escalables.

🎯 ¿Qué harás?

  • Mantener y optimizar nuestro data warehouse en PostgreSQL y los pipelines de ingesta de datos en producción.
  • Liderar la transición hacia una arquitectura moderna basada en Databricks, dbt y un data lake en S3.
  • Desarrollar y escalar pipelines de procesamiento y transformación de datos.
  • Monitorear, depurar y documentar procesos de datos para garantizar su calidad y confiabilidad.

🔎 ¿A quién buscamos?

  • Persona con más de 3 años de experiencia en ingeniería de datos, construyendo y manteniendo pipelines en producción.
  • Dominio de Python para procesamiento de datos, incluyendo el uso de librerías como pandas, SQLAlchemy y psycopg2.
  • Experiencia trabajando con orquestadores de workflows, especialmente Airflow.
  • Conocimiento sólido de bases de datos relacionales, especialmente PostgreSQL, incluyendo modelamiento y optimización de rendimiento.
  • Experiencia práctica con almacenamiento en la nube (S3 o equivalente) y formatos como Parquet.
  • Autonomía y capacidad de tomar decisiones técnicas.

🌟 Será un plus si cuentas con

  • Experiencia con dbt y modelado de datos.
  • Conocimiento en Databricks, Delta Lake, Apache Iceberg o arquitecturas de lakehouse.
  • Experiencia con diseño e implementación de pipelines CDC (Change Data Capture) usando Debezium, Kafka o similares.
  • Conocimientos de buenas prácticas de DevOps para data (versionado de pipelines, testing, CI/CD).
  • Inglés técnico para leer documentación y colaborar en proyectos internacionales.

🚀Únete a nuestro equipo

En Compara, ofrecemos horarios flexibles y un entorno que favorece el crecimiento profesional. Valoramos la cultura de aprendizaje continuo y el desarrollo de cada miembro del equipo, por lo que si disfrutas optimizando infraestructuras de datos, impulsando mejoras estratégicas y explorando nuevas herramientas, ¡nos encantaría conocerte! 🚀

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Vacation over legal Compara gives you paid vacations over the legal minimum.
APPLY VIA WEB
Gross salary $1700 - 2000 Full time
Business Analyst Especializado en Inteligencia Artificial
  • Factor IT
Python Data Analysis Big Data Artificial Intelligence
En FactorIT, una empresa líder en tecnología presente en 8 países de Latam, estamos en búsqueda de un Business Analyst que se una a nuestro equipo especializado en Inteligencia Artificial (IA). Nuestro enfoque en soluciones innovadoras y personalizadas nos posiciona como el socio estratégico que las grandes empresas necesitan en su transformación digital.
Estamos comprometidos con abordar los retos más complejos de nuestros clientes, utilizando IA para optimizar procesos y mejorar la eficiencia. Al unirte a nosotros, participarás en proyectos significativos que generan un impacto real en el desarrollo de soluciones tecnológicas avanzadas.

Responsabilidades:

  • Colaborar con los stakeholders para identificar necesidades y oportunidades de mejora mediante el uso de IA.
  • Traducir los requerimientos del negocio en especificaciones técnicas para equipos de desarrollo de IA.
  • Analizar y modelar datos, generando insights relevantes que faciliten la toma de decisiones.
  • Participar en la planificación, diseño e implementación de soluciones de IA en los procesos de negocio.
  • Realizar pruebas y validaciones de las soluciones implementadas asegurando su alineación con los objetivos de negocio.
  • Asegurar que las soluciones de IA sean escalables, sostenibles y alineadas con las necesidades del negocio.

Requisitos:

  • Experiencia mínima: 4 años como Business Analyst con un enfoque en proyectos de IA.
  • Conocimientos técnicos en análisis de datos, modelado predictivo y herramientas de IA.
  • Dominio de herramientas como Python, R, o plataformas como TensorFlow y PyTorch.
  • Capacidad para traducir problemas complejos de negocio en soluciones claras de IA.
  • Fuertes habilidades analíticas y de resolución de problemas.

Desirable

Valoramos la experiencia en proyectos multidisciplinarios y la capacidad de trabajar en equipos internacionales. Habilidades de comunicación efectiva y una mentalidad proactiva también son aspectos deseables.

Ofrecemos:

  • Un entorno de trabajo remoto y flexible que favorece el equilibrio entre la vida personal y laboral.
  • Proyectos innovadores en IA y Machine Learning que desafían tus habilidades.
  • Oportunidades de crecimiento profesional y desarrollo continuo en el ámbito de IA.
  • Colaboración con equipos internacionales que enriquecen la experiencia laboral.
¡Si eres un experto en ingeniería de datos con pasión por la Inteligencia Artificial, te estamos esperando! 🚀

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
$$$ Full time
Database Engineer
  • Leniolabs_
Python PostgreSQL SQL Web server

Leniolabs_ que ahora es Improving South America es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España, USA y Canadá.

Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes.

Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.

Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Funciones del cargo

En Leniolabs/Improving South America estamos en la búsqueda de un Database Engineer (DBE) SSR/SR.

El candidato ideal va a gestionar, monitorear y mejorar el rendimiento de bases de datos con PostgreSQL en AWS RDS Aurora, asegurando alta disponibilidad, seguridad y eficiencia.

Colaborará con el diseño e implementar canales ETL para facilitar un flujo de datos sin inconvenientes entre la base de datos centralizada y varios sistemas internos.

Optimización del rendimiento: analizar y optimizar consultas SQL, índices y diseños de esquemas para mejorar la eficiencia y la escalabilidad.

Colaboración: trabajar en estrecha colaboración con ingenieros de datos, desarrolladores de aplicaciones y equipos de DevOps para facilitar conexiones directas a bases de datos y soluciones de integración.

Automatización y monitoreo: utilizar herramientas nativas de AWS y soluciones de terceros para el monitoreo, las alertas y la automatización proactivos de bases de datos.

Diseña estrategias de respaldo y recuperación ante desastres para proteger la integridad de los datos y garantizar la continuidad del negocio.

Buscamos perfiles con un compromiso claro con la excelencia técnica, la innovación y un interés genuino en las últimas tecnologías, capaces de trabajar en un entorno ágil y de alto rendimiento.

Requerimientos del cargo

  • Contar con más de 5 años de experiencia en bases de datos.
  • Al menos 3 años trabajando con PostgreSQL: diseño de esquemas, optimización de consultas y estrategias de indexación.
  • Conocimientos en AWS: manejo de RDS, Aurora, IAM, S3, Lambda, Glue y CloudWatch.
  • Experiencia en ETL y canalizaciones de datos, utilizando herramientas como AWS Glue, Apache Airflow o scripts personalizados.
  • Habilidad en scripting y automatización con SQL, Python o AWS CDK.
  • Excelentes habilidades de resolución de problemas en entornos de bases de datos a gran escala.
  • Contar con inglés intermedio/avanzado (B2/C1).

Beneficios

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Leniolabs_ provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Leniolabs_ gives you paid vacations over the legal minimum.
APPLY VIA WEB
Gross salary $1800 - 2500 Full time
Data Engineer Semisenior o Senior
  • Lisit
  • Santiago (Hybrid)
Python SQL Big Data BigQuery
Lisit es una empresa comprometida con la creación, desarrollo e implementación de soluciones de software que faciliten la automatización y optimización para nuestros clientes. Nuestra visión se centra en brindar servicios que no solo cumplan con las necesidades del mercado, sino que también transformen la operatividad de las organizaciones. Tu función como Ingeniero de Datos será fundamental para lograr un acompañamiento consultivo integral en sus procesos de transformación.

Responsabilidades del puesto

Como Ingeniero de Datos Semi-senior o Senior en Lisit, serás una pieza clave en el diseño y desarrollo de soluciones de datos que optimicen nuestros servicios y herramientas. Tus tareas incluirán:
  • Generar pipelines de datos eficientes y resolver integraciones entre diversos sistemas.
  • Modelar datos para garantizar que nuestras plataformas sean útiles y escalables.
  • Colaborar en la implementación de herramientas de infraestructura como código (IaC) y gestionar el versionamiento a través de GitHub o GitLab.
  • Desarrollar y ejecutar procesos ETL/ELT utilizando Azure Data Factory, asegurando la calidad y accesibilidad de los datos.

Descripción del puesto

Buscamos un Ingeniero de Datos altamente motivado, con un mínimo de 3 años de experiencia en el tratamiento de datos. Tu destreza con lenguajes de programación como Python y Spark te permitirá desempeñarte con solidez en el equipo. Se requiere un conocimiento intermedio-avanzado de herramientas de IaC (Terraform) y manejo de versionamiento de código (GitHub/GitLab), así como una sólida comprensión del lenguaje SQL y bases de datos.
Es esencial que tengas experiencia con plataformas en la nube como Google Cloud Platform (GCP) o Azure, y herramientas como Airflow, Cloud Run, Cloud Composer y BigQuery. Además, el dominio de Azure Data Factory para procesos ETL-ELT es un requisito excluyente. Las certificaciones en Ingeniería de Datos son valoradas, tales como Azure DP-700, AZ-203, DP-600 y Google Cloud Digital Leader.

Habilidades deseables

Si cuentas con conocimientos en Microsoft Power BI o Fabric, sería un gran plus para tu perfil. Queremos personas que no solo cumplan con los requisitos, sino que también aporten un enfoque innovador y colaborativo a nuestro equipo.

Beneficios de trabajar con nosotros

En Lisit, fomentamos un ambiente de trabajo excepcional, donde la innovación y la pasión por el aprendizaje son clave. Te ofrecemos:
  • Acceso a oportunidades continuas de desarrollo profesional en tecnologías emergentes.
  • Un equipo motivado y apasionado que valora tu entusiasmo y contribuciones.
Aquí, tendrás la oportunidad de crecer y alcanzar tus objetivos profesionales mientras colaboras en proyectos desafiantes y de alto impacto.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
APPLY VIA WEB
Gross salary $2200 - 2600 Full time
Data Analytics Residente Uruguay
  • BC Tecnología
Python Analytics SQL Business Intelligence
En BC Tecnología, somos una consultora de TI especializada en diversas áreas tecnológicas, con más de seis años de experiencia diseñando soluciones adecuadas a las necesidades de nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestro enfoque incluye consultoría y diseño de soluciones, formación de equipos, desarrollo de proyectos y servicios de soporte y administración IT.

Responsabilidades principales:

  • Extraer y procesar datos desde diversas fuentes mediante SQL y Python (PySpark).
  • Diseñar y optimizar modelos de datos en Power BI para reportes avanzados.
  • Implementar y mejorar flujos ETL para la integración de datos.
  • Colaborar con áreas de negocio para entender necesidades analíticas y generar soluciones BI.
  • Asegurar la calidad y disponibilidad de los datos en los reportes.

Requisitos:

  • SQL Avanzado: Creación, optimización y modelado de datos.
  • Python (PySpark): Procesamiento y transformación de datos en entornos Big Data.
  • Power BI: Nivel medio-alto en creación de reportes y dashboards interactivos.
  • Databricks: Deseable, con experiencia en plataformas de datos en la nube.
  • Experiencia mínima de 3 años en roles de BI, Data Analytics o similares.
  • Habilidades de comunicación y trabajo en equipo para traducir necesidades de negocio en soluciones BI.

Deseable:

  • Experiencia con Databricks sería un plus, mostrando la capacidad de trabajar con plataformas de datos en la nube.

Condiciones

  • Trabajo 100% remoto.
  • El cargo puede ser desempeñado desde cualquier lugar del mundo.
En BC Tecnología, fomentamos un entorno laboral flexible que impulsa el crecimiento profesional. Si te consideras una mente analítica que quiere marcar la diferencia, ¡te invitamos a ser parte de nuestro equipo y a impulsar la transformación organizacional! 🚀✨

APPLY VIA WEB
Gross salary $1500 - 1800 Full time
Data Engineer Junior
  • Lisit
  • Santiago (Hybrid)
Python SQL Azure Power BI
En Lisit, nos dedicamos a crear, desarrollar e implementar herramientas y servicios de software que automatizan y optimizan procesos, siempre con un fuerte enfoque en la innovación y los desafíos que se presentan. Nuestro objetivo es fomentar la eficacia operativa de nuestros clientes, ayudándoles a alcanzar sus metas de transformación mediante un acompañamiento consultivo integral. Actualmente, estamos en búsqueda de un Data Engineer Junior que se una a nuestro equipo apasionado por la tecnología y el aprendizaje continuo.

Funciones del Rol

Como Data Engineer Junior, serás parte esencial del equipo encargado de manejar y optimizar el flujo de datos de la organización. Tus principales responsabilidades incluirán:
  • Colaborar en la recopilación y procesamiento de datos relacionales y no relacionales.
  • Trabajar con lenguajes de programación, especialmente Python, para crear soluciones de datos efectivas.
  • Implementar y mantener los procesos de integración en ambientes cloud como GCP o Azure.
  • Realizar consultas y manipulación de bases de datos utilizando SQL.
  • Aprender y adaptarte a nuevas tecnologías y herramientas en el entorno de la nube.

Descripción del Perfil

Buscamos un perfil proactivo, con conocimientos intermedios en Python y disposición para aprender sobre nuevas tecnologías. El candidato ideal deberá tener:
  • Experiencia básica a intermedia en programación Python.
  • Habilidades en el uso y tratamiento de datos en ambientes tanto relacionales como no relacionales.
  • Conocimientos fundamentales en tecnologías de nube, incluyendo GCP o Azure.
  • Experiencia en el uso del lenguaje SQL.
  • Bajo es requisito pero se valorará el conocimiento en Power BI.

Habilidades Deseables

Sería excelente contar con conocimientos adicionales en herramientas de visualización de datos como Power BI. Además, habilidad para trabajar en equipo y una mentalidad orientada al aprendizaje continuo son altamente valoradas.

Beneficios de Trabajar con Nosotros

En Lisit, promovemos un ambiente de trabajo excepcional:
  • Acceso a oportunidades de desarrollo profesional continuo en tecnologías emergentes.
  • Un equipo apasionado por la innovación y el aprendizaje, donde tu entusiasmo será bienvenido.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
APPLY VIA WEB
$$$ Full time
Data Booster
  • 2BRAINS
Python Data Analysis SQL Web server

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

El/la Data Booster de 2Brains

Se encarga de participar en el diseño y desarrollo de los nuevos modelos de información de gestión y las mantenciones evolutivas de los existentes. Participar en las iniciativas de Analítica avanzada del área, apoyando las exploración de modelos de información internos y externos (Data Discovery). Obtener datos históricos desde múltiples fuentes de información interna para apoyar las iniciativas de analítica avanzada del equipo.

Qué harás como Data Booster de 2Brains

  • Identificar oportunidades y definir hipótesis basadas en datos para mejorar procesos y generar impacto en el negocio.
  • Diseñar y ejecutar experimentos que permitan validar soluciones con métricas claras y medibles.
  • Construir modelos analíticos y aplicar IA para transformar datos en insights accionables.
  • Facilitar la co-creación de productos de datos, asegurando que sean escalables y sostenibles.
  • Optimizar el desarrollo y adopción de soluciones según la madurez del squad y las necesidades del negocio.
  • Colaborar con equipos de tecnología, negocio y data science para alinear soluciones con los objetivos estratégicos.
  • Garantizar la calidad y gobernanza de los datos, promoviendo mejores prácticas en el manejo y uso de información.

Qué conocimientos buscamos en/la Data Booster

  • Métodos de análisis estadístico (regresión, pruebas de hipótesis, análisis multivariante).
  • Técnicas de modelado predictivo y prescriptivo.
  • Análisis de series temporales.
  • Algoritmos de machine learning supervisados y no supervisados.
  • Modelos de clasificación, regresión, clustering, y reducción de dimensionalidad.
  • Técnicas de deep learning y redes neuronales.
  • Limpieza, transformación y preprocesamiento de datos (ETL).
  • Manejo de grandes volúmenes de datos y optimización del procesamiento (Big Data).
  • Uso de herramientas de análisis de datos como Pandas, NumPy, Spark.
  • Diseño de experimentos (A/B testing, pruebas de causalidad).
  • Métodos de validación de modelos (cross-validation, métricas de evaluación).
  • Técnicas de evaluación de impacto y pruebas de hipótesis.
  • Creación de dashboards y reportes con herramientas como Tableau, Power BI, Looker.
  • Visualización avanzada con bibliotecas de Python como Matplotlib, Seaborn, Plotly.
  • Python/R para análisis de datos y desarrollo de modelos.
  • SQL para consultas y manipulación de bases de datos.
  • Experiencia con plataformas de nube como AWS, GCP, Azure para almacenamiento y procesamiento de datos.
  • Uso de servicios de data engineering en la nube (como Google BigQuery, Amazon Redshift, Azure Synapse).
  • Prácticas de DevOps aplicadas a proyectos de datos (automatización, integración continua).
  • MLOps para la automatización de la implementación y monitoreo de modelos.
  • Estándares y buenas prácticas en el manejo de datos (calidad, privacidad, seguridad).
  • Herramientas para la gobernanza de datos como Apache Atlas, Collibra.

Que competencias buscamos en/la Data Booster

  • Empatía
  • Buena capacidad de comunicación.
  • Colaboración y trabajo en equipo.
  • Proactividad.
  • Autonomía.
  • Foco en los objetivos de proyectos.

Te ofrecemos

  • Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos
  • Acceso a grandes clientes y proyectos desafiantes
  • Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales
  • Un entorno de trabajo flexible y dinámico
  • Beneficios especiales: día libre para tu cumpleaños, 4 semanas de vacaciones

Wellness program 2BRAINS offers or subsidies mental and/or physical health activities.
Internal talks 2BRAINS offers space for internal talks or presentations during working hours.
Education stipend 2BRAINS covers some educational expenses related to the position.
Informal dress code No dress code is enforced.
Shopping discounts 2BRAINS provides some discounts or deals in certain stores.
Vacation over legal 2BRAINS gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
Gross salary $2000 - 2700 Full time
Data Science Senior
  • coderslab.io
  • Santiago (Hybrid)
Python SQL Business Intelligence Big Data

CodersLab es una empresa dedicada al desarrollo de soluciones en el sector IT. Actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina. Por eso, estamos buscando un Data scientist Senior para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Job functions

  • Diseñar y desarrollar modelos de aprendizaje automático utilizando herramientas de Vertex AI (AutoML, Pipelines, Feature Store, etc.).
  • Implementar flujos de trabajo de datos en GCP, utilizando servicios como BigQuery, Dataflow, Pub/Sub y Cloud Storage.
  • Desplegar y gestionar modelos de ML en producción, asegurando rendimiento, escalabilidad y monitoreo continuo.
  • Crear y optimizar pipelines de MLOps para el desarrollo ágil de modelos y su mantenimiento.
  • Colaborar con ingenieros de datos, analistas y DevOps para integrar los modelos en sistemas productivos.
  • Analizar grandes volúmenes de datos y generar insights accionables que respondan a las necesidades del negocio.
  • Comunicar resultados técnicos y hallazgos analíticos a audiencias técnicas y no técnicas.
  • Mantenerse actualizado sobre las últimas innovaciones en GCP, Vertex AI y aprendizaje automático.

Qualifications and requirements

  • Experiencia mínima de 3 años trabajando como Data Scientist o en roles similares.
  • Conocimiento avanzado de Google Cloud Platform (GCP), incluyendo:
    • BigQuery
    • Dataflow
    • Cloud Storage
    • Pub/Sub
    • Cloud Composer
  • Experiencia en el uso de Vertex AI para el desarrollo y despliegue de modelos de aprendizaje automático.
  • Dominio de lenguajes como Python y SQL.
  • Conocimiento de frameworks de aprendizaje automático como TensorFlow, PyTorch o scikit-learn.
  • Experiencia en construcción de pipelines de datos y MLOps.
  • Familiaridad con herramientas de visualización como Looker, Tableau o Data Studio.

Conditions

Hibrido en Santiago de Chile
Renta en pesos Chilenos

APPLY VIA WEB
Gross salary $1000 - 1300 Full time
Data Scientist Junior
  • coderslab.io
  • Santiago (Hybrid)
Python SQL Business Intelligence Big Data

CodersLab es una empresa dedicada al desarrollo de soluciones en el sector IT. Actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina. Por eso, estamos buscando un Data scientist Junior para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Job functions

  • Diseñar y desarrollar modelos de aprendizaje automático utilizando herramientas de Vertex AI (AutoML, Pipelines, Feature Store, etc.).
  • Implementar flujos de trabajo de datos en GCP, utilizando servicios como BigQuery, Dataflow, Pub/Sub y Cloud Storage.
  • Desplegar y gestionar modelos de ML en producción, asegurando rendimiento, escalabilidad y monitoreo continuo.
  • Crear y optimizar pipelines de MLOps para el desarrollo ágil de modelos y su mantenimiento.
  • Colaborar con ingenieros de datos, analistas y DevOps para integrar los modelos en sistemas productivos.
  • Analizar grandes volúmenes de datos y generar insights accionables que respondan a las necesidades del negocio.
  • Comunicar resultados técnicos y hallazgos analíticos a audiencias técnicas y no técnicas.
  • Mantenerse actualizado sobre las últimas innovaciones en GCP, Vertex AI y aprendizaje automático.

Qualifications and requirements

  • Experiencia mínima de 3 años trabajando como Data Scientist o en roles similares.
  • Conocimiento avanzado de Google Cloud Platform (GCP), incluyendo:
    • BigQuery
    • Dataflow
    • Cloud Storage
    • Pub/Sub
    • Cloud Composer
  • Experiencia en el uso de Vertex AI para el desarrollo y despliegue de modelos de aprendizaje automático.
  • Dominio de lenguajes como Python y SQL.
  • Conocimiento de frameworks de aprendizaje automático como TensorFlow, PyTorch o scikit-learn.
  • Experiencia en construcción de pipelines de datos y MLOps.
  • Familiaridad con herramientas de visualización como Looker, Tableau o Data Studio.

Conditions

Hibrido en Santigo de Chile
Renta en pesos Chilenos

APPLY VIA WEB
$$$ Full time
Data Scientist
  • 2BRAINS
Python SQL NoSQL Big Data

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

El Data Scientist de 2Brains

Es responsable de analizar y extraer conocimiento a partir de datos mediante técnicas de Machine Learning, estadística y análisis avanzado, con el fin de optimizar la toma de decisiones y generar impacto en el negocio. Trabaja en conjunto con el equipo digital para desarrollar productos de datos, asegurando su calidad, documentación y correcta implementación. Además, mide el impacto de sus soluciones mediante estándares de experimentación, contribuyendo a la mejora continua y eficiencia operativa.

El Data Scientist de 2Brains deberá

  • Analizar grandes volúmenes de datos para identificar patrones, tendencias y oportunidades de mejora.
  • Diseñar, desarrollar e implementar modelos de Machine Learning y técnicas estadísticas para resolver problemas de negocio.
  • Desarrollar productos de datos en colaboración con el equipo digital, asegurando calidad, mantenimiento y escalabilidad.
  • Aplicar métodos de experimentación y validación (A/B testing, causal inference, etc.) para medir el impacto de las soluciones implementadas.
  • Garantizar la correcta documentación de los modelos, algoritmos y procesos desarrollados.
  • Optimizar y mejorar continuamente los modelos en producción en función de su desempeño y nuevos datos.
  • Colaborar con equipos de negocio y tecnología para alinear soluciones de datos con objetivos estratégicos.
  • Explorar nuevas herramientas y tecnologías para potenciar el uso de datos dentro de la organización.

¿Qué conocimientos buscamos en el/la Data Scientist?

  • Python/R, SQL y Spark. Para programar modelos de machine learning, realizar análisis estadístico y manipular datos, además de procesar grandes volúmenes de datos en paralelo y a gran escala.
  • Machine Learning, métricas de evaluación de modelos.
  • Pruebas A/B.
  • Deployment de modelos
  • Análisis estadístico
  • Desarrollo de productos de datos.
  • Deseables:
  • NoSQL, Bayesian Statistics, MLOps avanzado.
  • Herramientas de visualización como Streamlit.

¿Qué competencias buscamos en el/la Data Scientist?

  • Curiosidad
  • Foco en los objetivos
  • Colaboración y trabajo en equipo (ínter y multidisciplinario)
  • Proactividad
  • Autonomía

Te ofrecemos

  • Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos.
  • Un proyecto con foco en los usuarios, visión de UX e integrada al desarrollo.
  • Acceso a grandes clientes y proyectos desafiantes.
  • Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales.
  • Un entorno de trabajo flexible y dinámico.
  • Beneficios especiales: un día libre de regalo por tu cumpleaños, días de descanso (previa coordinación), convenios para cursos de especialización.

Wellness program 2BRAINS offers or subsidies mental and/or physical health activities.
Internal talks 2BRAINS offers space for internal talks or presentations during working hours.
Informal dress code No dress code is enforced.
Shopping discounts 2BRAINS provides some discounts or deals in certain stores.
Vacation over legal 2BRAINS gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Data Engineer Azure
  • Factor IT
  • Santiago (Hybrid)
Python Agile SQL NoSQL
En FactorIT, buscamos un Ingeniero de Datos con experiencia en banca y entidades financieras para liderar y ejecutar proyectos de Data & Analytics. Te unirás a un equipo innovador en el que tu trabajo impactará directamente en la transformación digital de importantes instituciones en el sector financiero.
Este rol es clave para potenciar el uso de datos dentro de la banca, asegurando que la infraestructura y los procesos estén alineados con los objetivos estratégicos del negocio. Tendrás la oportunidad de trabajar con tecnologías de vanguardia, incluyendo Azure Databricks y otros servicios en la nube, asegurando soluciones escalables y seguras que optimicen la toma de decisiones.

Responsabilidades:

  • Diseñar y desarrollar soluciones de ingestión, transformación y modelado de datos en Azure Databricks y otras tecnologías relacionadas.
  • Optimizar procesos de ETL/ELT, asegurando calidad, integridad y eficiencia en el procesamiento de datos.
  • Colaborar con equipos de negocio para entender sus necesidades, identificar oportunidades y proponer soluciones basadas en datos.
  • Implementar arquitecturas de datos escalables que soporten analítica avanzada, machine learning e inteligencia de negocio.
  • Garantizar la seguridad y el cumplimiento normativo en el manejo de datos, siguiendo estándares bancarios y regulatorios.
  • Desarrollar y optimizar pipelines de datos para la explotación en entornos analíticos y de reportes.
  • Documentar procesos, arquitecturas y modelos de datos, asegurando buenas prácticas de gobernanza.
  • Trabajar en conjunto con equipos de Data Science, BI y Tecnología para garantizar la disponibilidad y calidad de los datos.

Requisitos Técnicos y Habilidades:

Buscamos un profesional con un mínimo de 3 años de experiencia en ingeniería de datos, idealmente en el sector financiero. Debe poseer un conocimiento avanzado en:
  • Azure Databricks, Spark y servicios de datos en la nube como Azure Data Factory, Azure Synapse y Data Lake.
  • Modelado de datos, optimización de consultas y bases de datos en SQL y NoSQL.
  • Programación en Python y/o Scala para el desarrollo de pipelines y procesamiento de datos.
  • Arquitecturas de datos escalables y distribuidas.
  • Principios de seguridad y cumplimiento normativo en banca (ej. GDPR, PCI-DSS, BCBS 239).
  • Herramientas de orquestación y automatización de flujos de datos.
Además, necesitaremos que cuentes con habilidades blandas como excelente comunicación, pensamiento analítico, proactividad y capacidad de trabajo en equipo en entornos ágiles y dinámicos.

Habilidades Deseables:

Sería un plus contar con experiencia previa en proyectos de transformación digital en el sector bancario, así como familiaridad con herramientas de visualización de datos y reportes. La capacidad para adaptarse rápidamente a nuevas tecnologías y seguir aprendiendo continuamente es muy valorada dentro de nuestra cultura.

Beneficios:

En FactorIT, brindamos un entorno de trabajo dinámico y colaborativo donde puedes trabajar con tecnologías de punta. Ofrecemos un plan de crecimiento profesional, capacitaciones en IA y automatización, y un salario competitivo acorde a tu experiencia.
Promovemos el equilibrio entre la vida personal y laboral mediante trabajo 100% remoto 🌍 y flexibilidad laboral. Únete a nosotros y sé parte de un equipo que está transformando el futuro de la tecnología en la región.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Computer provided Factor IT provides a computer for your work.
APPLY VIA WEB
Gross salary $2000 - 2500 Full time
Analista de BI Latam
  • BC Tecnología
Python Analytics Data Analysis SQL

En BC Tecnología, somos una consultora de TI especializada en diversas áreas tecnológicas, ofreciendo un entorno de trabajo colaborativo donde se valora el compromiso y el desarrollo profesional. Trabajamos con clientes en los sectores de servicios financieros, seguros, retail y gobierno, diseñando soluciones adecuadas a sus necesidades desde hace más de seis años. Nuestro enfoque incluye consultoría y diseño de soluciones, formación de equipos, desarrollo de proyectos, y servicios de soporte y administración IT.

Responsabilidades principales:

  • Extraer y procesar datos desde diversas fuentes mediante SQL y Python (PySpark).
  • Diseñar y optimizar modelos de datos en Power BI para reportes avanzados.
  • Implementar y mejorar flujos ETL para la integración de datos.
  • Colaborar con áreas de negocio para entender necesidades analíticas y generar soluciones BI.
  • Asegurar la calidad y disponibilidad de los datos en los reportes.

Requisitos:

  • SQL Avanzado – Creación, optimización y modelado de datos.
  • Python (PySpark) – Procesamiento y transformación de datos en entornos Big Data.
  • Power BI (Nivel medio-alto) – Creación de reportes y dashboards interactivos.
  • Databricks (Deseable) – Experiencia en plataformas de datos en la nube.
  • Experiencia mínima de 3 años en roles de BI, Data Analytics o similares.
  • Habilidades de comunicación y trabajo en equipo para traducir necesidades de negocio en soluciones BI.

Deseable:

Experiencia con Databricks sería un plus, mostrando la capacidad de trabajar con plataformas de datos en la nube.

Conditions

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
$$$ Full time
Data Engineer
  • Leniolabs_
SQL Business Intelligence Virtualization Amazon Web Services
Leniolabs_ que ahora es Improving South America es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España, USA y Canadá.
Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes.
Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.
Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Responsabilidades del Ingeniero de Datos

  • Descubrimiento de Fuentes Legacy: Utilizar SQL avanzado y scripting (Python/PowerShell) para automatizar procesos y documentar sistemas heredados.
  • Análisis de Calidad de Datos: Ejecutar perfiles de datos, identificar problemas de calidad y generar métricas clave de calidad (KPIs).
  • Limpieza Inicial de Datos: Aplicar herramientas ETL/ELT (Informatica, Talend, dbt) y realizar limpieza de datos en base a las comunicaciones con expertos.
  • Definición de Estrategias de Archivo vs. Migración: Diseñar modelos de datos y evaluar soluciones de almacenamiento equilibrando cumplimiento y costos.
  • Mapping a la Plataforma del Proveedor: Desarrollar procesos de mapeo y transformación para garantizar la correcta transferencia de datos.
  • Análisis de Necesidades Actuales de BI/Reportes: Colaborar con usuarios para optimizar consultas SQL y estructurar datos para reportes.
  • Tareas Adicionales: Orquestación de pipelines (Airflow), CI/CD, contenedorización (Docker, Kubernetes) y automatización en la nube (AWS).

Requisitos Técnicos y Habilidades Deseadas

Buscamos un profesional con el siguiente perfil:

  • Dominio en SQL avanzado, así como experiencia en herramientas ETL/ELT como Informatica, Talend y dbt. Conocimientos en sistemas de almacenamiento en la nube (AWS S3, Redshift)
  • Habilidades en orquestación de pipelines (Airflow, Docker, Kubernetes)
  • Familiaridad con herramientas de BI como Power BI o Tableau.
  • Nivel de inglés intermedio/avanzado o avanzado.
  • A nivel de habilidades blandas, esperamos que los candidatos tengan un fuerte pensamiento crítico, atención al detalle y la capacidad de comunicar hallazgos técnicos a diferentes públicos.

Habilidades Deseables

Si bien no son imprescindibles, se valorarán conocimientos adicionales en el trabajo con big data y experiencia en entornos ágiles. La capacidad de adaptarse rápidamente a nuevas herramientas y requisitos será muy apreciada, al igual que la iniciativa para proponer mejoras a nuestros procesos actuales.

¿Qué Ofrecemos?

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Computer provided Leniolabs_ provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Data Engineer
  • Factor IT
Python Data Analysis SQL NoSQL

En FactorIT, somos líderes en el sector de tecnología y ofrecemos soluciones innovadoras en Data y Analytics, Transformación Digital e Inteligencia Artificial. Con presencia en 8 países de Latinoamérica, nos apasiona abordar los desafíos tecnológicos de grandes empresas. Únete a nuestro equipo de ingenieros de datos que están a la vanguardia de la transformación tecnológica. Trabajamos en proyectos de gran impacto, creando soluciones personalizadas que integran tecnologías emergentes y analítica avanzada.

Responsabilidades del Ingeniero de Datos

Como Data Engineer en FactorIT, tu objetivo será diseñar, construir y mantener infraestructuras y sistemas de datos que permitan a nuestros clientes tomar decisiones informadas. Tus responsabilidades incluirán:

  • Desarrollar y mantener pipelines de datos eficientes y escalables.
  • Colaborar con equipos multidisciplinarios para analizar necesidades de datos y proporcionar soluciones efectivas.
  • Implementar y optimizar herramientas de integración de datos.
  • Monitorear la calidad y eficiencia de los sistemas de procesamiento de datos.
  • Participar en la gestión y almacenamiento de datos, asegurando la integridad y confidencialidad.

Tu papel será fundamental para impulsar la transformación digital y potenciar la analítica en nuestras soluciones.

Requisitos del Puesto

Buscamos un Data Engineer con pasión por la tecnología y habilidades tanto técnicas como interpersonales. Las características que valoramos son:

  • Título en Ingeniería Informática, Ciencias de la Computación o campos relacionados.
  • Conocimientos en lenguajes de programación como Python o SQL.
  • Experiencia con herramientas de ETL y plataformas de análisis de datos.
  • Aptitudes analíticas y capacidad para resolver problemas.
  • Habilidades de comunicación efectiva para trabajar en equipo y entender las necesidades del cliente.

Valorizamos un enfoque proactivo y la capacidad de aprender de manera continua.

Habilidades Deseables

Si bien no es obligatorio, será un plus contar con:

  • Experiencia en herramientas de Big Data como Hadoop o Spark.
  • Conocimientos en la implementación y gestión de bases de datos no relacionales (NoSQL).
  • Familiaridad con prácticas de DevOps relacionadas con el manejo de datos.
  • Certificaciones en tecnologías de datos o análisis.

Estas habilidades complementarias serán valoradas en el proceso de selección.

Beneficios de Trabajar en FactorIT

Ofrecemos un entorno de trabajo dinámico y colaborativo, donde podrás trabajar con tecnologías de punta y acceder a un plan de crecimiento profesional. Además, brindamos capacitaciones en IA y automatización. Nuestros beneficios incluyen:

  • Trabajo 100% remoto 🌍 para mantener un equilibrio entre tu vida personal y laboral.
  • Flexibilidad laboral para adaptarte a tus necesidades.
  • Un salario competitivo acorde a tu experiencia.

Únete a nosotros y sé parte de un equipo que está transformando el futuro de la tecnología en la región.

Fully remote You can work from anywhere in the world.
Computer provided Factor IT provides a computer for your work.
APPLY VIA WEB
Gross salary $2500 - 3000 Full time
Data Science
  • coderslab.io
Python Data Analysis SQL Virtualization

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente nos encontramos apuntando al crecimiento de nuestros equipos de manera global con el objetivo de posicionarnos con nuestros productos en más países de Latinoamérica, es por ello que estamos en búsqueda de un Data Science Semi-Senior para sumarse a nuestro equipo.

Te sumarás a un equipo desafiante y ambicioso con ganas de renovar el mercado, por lo que tus propuestas serán de mucho valor para el negocio.

¡Postula para este tremendo desafío!

Job functions

Responsabilidades

  • Análisis y modelado de datos: Utilizar habilidades analíticas para identificar patrones, tendencias e insights en grandes conjuntos de datos.
  • Desarrollo y validación de modelos: Aplicar técnicas estándar de la industria para crear características, limpiar conjuntos de datos y desarrollar pipelines para entrenar y servir modelos, principalmente enfocados en clasificación.
  • Evaluación de riesgo crediticio: Analizar el riesgo crediticio de posibles prestatarios mediante los modelos desarrollados, asignando puntajes de crédito o probabilidades de incumplimiento. Se valora el uso de datos alternativos y enfoques innovadores.
  • Ingeniería de características: Identificar y crear características relevantes que mejoren la capacidad predictiva de los modelos y reflejen la solvencia crediticia de los individuos.
  • Colaboración interdisciplinaria: Trabajar con otros equipos para proporcionar información, desarrollar modelos y participar en la toma de decisiones técnicas.
  • Monitoreo y evaluación de desempeño: Realizar un seguimiento continuo del rendimiento de los modelos desplegados, evaluar métricas y ajustarlos según sea necesario en respuesta a cambios en el comportamiento, condiciones del mercado o regulaciones.
  • Investigación e innovación: Mantenerse actualizado con los últimos avances en ciencia de datos y aprendizaje automático, experimentando con nuevos enfoques para la evaluación del riesgo crediticio.

Qualifications and requirements

Obligatorios (MUST)

  • 1-2 años de experiencia en Ciencia de Datos, Análisis de Datos o Análisis de Negocios (con conocimientos en Machine Learning).
  • Más de 2 años de experiencia con Python y SQL.
  • Perfil con habilidades para la resolución creativa de problemas, capaz de analizar datos, extraer insights y convertirlos en decisiones accionables.
  • Conocimientos en servicios de AWS.
  • 1-2 años de experiencia en Machine Learning aplicado al riesgo financiero.

Conditions

Remoto LATAM

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
$$$ Full time
Power BI Analyst Sr
  • Leniolabs_
SQL Big Data BigQuery ETL
Leniolabs_ es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA.
Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.
Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.

Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Funciones del cargo

En Leniolabs estamos en la búsqueda de un SR Power BI Analyst.

El candidato ideal debe contar con un mínimo de 6 años de experiencia, el equipo está buscando recursos para ayudar a satisfacer las necesidades de sus clientes internos de EE. UU. Los miembros de nuestro equipo recibirán tickets de solución de ServiceNow y ejecutarán informes/consultas centrados en los datos de uso del cliente, la validación de datos, etc.

El objetivo es crear un equipo de mejora. Este grupo quiere familiarizarse y sentirse cómodo con la mejora.

El rol implica colaborar estrechamente con arquitectos, ingenieros y propietarios de producto para diseñar soluciones técnicas que soporten altos niveles de disponibilidad y consistencia.

Buscamos perfiles con un compromiso claro con la excelencia técnica, la innovación y un interés genuino en las últimas tecnologías, capaces de trabajar en un entorno ágil y de alto rendimiento.

Requerimientos del cargo

  • Contar con mínimo 6 años de experiencia trabajando con Power BI y SQL.
  • Manejo de Google Cloud Platform (GCP) y BigQuery.
  • Experiencia en ETL (idealmente con Talend) y capacidad para trabajar con grandes volúmenes de datos (terabytes).
  • Sólidas habilidades de redacción y comunicación, además de iniciativa.
  • Nivel de inglés intermedio-avanzado (B2/C1).

Beneficios

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Internal talks Leniolabs_ offers space for internal talks or presentations during working hours.
Computer provided Leniolabs_ provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Leniolabs_ gives you paid vacations over the legal minimum.
APPLY VIA WEB
Gross salary $2000 - 2300 Full time
Data Engineer – Proyecto de 6 Meses
  • BC Tecnología
  • Santiago (Hybrid)
Python Git SQL Scala
En BC Tecnología, somos una consultora de TI comprometida con ofrecer soluciones innovadoras y adaptadas a las necesidades de nuestros clientes. Con más de 6 años de experiencia en el sector, trabajamos con empresas en diferentes industrias, incluyendo servicios financieros, seguros, retail y gobierno. En este proyecto de Data Engineering, tendrás la oportunidad de contribuir al diseño y construcción de pipelines de datos para nuestros clientes, utilizando metodologías ágiles y colaborando con equipos altamente especializados.

Responsabilidades del Rol

  • Diseñar y construir pipelines de datos efectivos para cumplimentar las necesidades analíticas de nuestros clientes.
  • Programar usando lenguajes como Python, Scala o SQL para manipulación y transformación de datos.
  • Implementar y gestionar herramientas de orquestación de pipelines, como Airflow, Mage, NiFi o similares.
  • Colaborar en prácticas de CI/CD, incluidos conocimientos básicos en Git y versionado de código.
  • Integrar arquitecturas de datos, con un enfoque en Datalakes, Datawarehouses o Lakehouse.
  • Participar en modelado de datos utilizando técnicas dimensional, estrella y copo de nieve, si es requerido.

Requisitos y Habilidades

Buscamos candidatos que cuenten con al menos 2 años de experiencia en el área de Data Engineering. Deberán tener competencias en diseño y construcción de pipelines de datos, así como experiencia con lenguajes de programación pertinentes como Python, Scala o SQL.
Es esencial dominar herramientas de orquestación de datos, y tener un conocimiento básico sobre integraciones de CI/CD y flujos de trabajo de versionamiento de código. Adicionalmente, es deseable contar con experiencia en arquitecturas de datos y modelado, incluidos Datalakes y técnicas de modelado específicas.
La modalidad de trabajo es híbrida, lo que permitirá equilibrar la colaboración en persona con flexibilidad laboral.

Habilidades Deseables

Si bien no es un requisito, consideraremos positivamente la experiencia previa con Datalakes y Datawarehouses, así como familiaridad con técnicas de modelado como dimensional, estrella o copo de nieve. Esto contribuirá a un mejor entendimiento del contexto de las soluciones que desarrollaremos.

Beneficios y Condiciones

Ofrecemos un contrato por proyecto de 6 meses, con posibilidad de extensión. Los empleados disfrutarán de un sueldo a convenir, además de beneficios adicionales como:
  • Seguro complementario.
  • Amipass de $4,500 por día laborado.
  • Convenciones, actividades y bonos.
Estamos ubicados en Alto Las Condes, permitiendo un ambiente de trabajo funcional y moderno. ¡Nos encantaría contar contigo en nuestro equipo! 🌟

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB
Gross salary $2000 - 2300 Full time
Data Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Python Git SQL Scala
En BC Tecnología, somos una consultora de TI que cuenta con un equipo experto en diversas áreas tecnológicas. Nuestra misión es brindar soluciones personalizadas que se adapten a las necesidades de nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Actualmente, buscamos incorporar un Data Engineer para diseñar, construir y mantener pipelines de datos, utilizando tecnologías modernas.
Contamos con un enfoque ágil y orientado al cliente, lo que nos permite ofrecer servicios de consultoría, desarrollo de proyectos y administración IT de alta calidad.

✅ Funciones

  • Diseñar y construir pipelines de datos eficientes para mover y transformar datos.
  • Garantizar que los procesos de datos sean consistentes y confiables en el tiempo.
  • Implementar flujos de trabajo de CI/CD para la integración con ambientes de desarrollo y productivos.
  • Colaborar con el equipo para mejorar la calidad y eficiencia de los procesos de datos.
  • Apoyarse en líderes técnicos para lineamientos y mejores prácticas en el desarrollo.

✅ Requerimiento:

Se requiere entre 1 a 2 años de experiencia en diseño y construcción de pipelines de datos. Consideraciones específicas incluyen:
  • Lenguajes de programación: Python, Scala o SQL.
  • Herramientas de orquestación de pipelines: Airflow, Mage, NiFi o similares.
  • CI/CD: Conocimientos básicos en Git y flujos de trabajo de versionamiento de código.

Deseables:

  • Arquitectura de datos: Familiaridad con Datalakes, Datawarehouses o Lakehouse.
  • Modelado de datos: Conocimiento en técnicas como dimensional, estrella, copo de nieve.

✅ Condiciones:

El contrato es por proyecto, estimado en 3 meses, con metodología de trabajo híbrido en Alto las Condes (2 a 3 veces por semana). Los postulantes deben tener disponibilidad de lunes a viernes. Sueldo a convenir y disfrutará de beneficios como seguro complementario, Amipass de $4,500 por día laborado, convenios, actividades y bonos. 🌟

APPLY VIA WEB
$$$ Full time
Administrador de Bases de Datos – AWS Rds Aurora PostgreSQL
  • Leniolabs_
PostgreSQL SQL Linux Virtualization
Leniolabs_ que ahora es Improving South America es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España, USA y Canadá.
Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes.
Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.
Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Responsabilidades clave

  • Administración de bases de datos: Gestionar, monitorear y optimizar bases de datos AWS RDS Aurora PostgreSQL para garantizar alta disponibilidad, seguridad y rendimiento.
  • Optimización de rendimiento: Analizar y optimizar consultas SQL, índices y rendimiento general de la base de datos para mejorar tiempos de respuesta y escalabilidad.
  • Seguridad y cumplimiento: Implementar mejores prácticas de seguridad en bases de datos, controles de acceso, cifrado y garantizar el cumplimiento de estándares de la industria y políticas organizacionales.
  • Respaldo y recuperación: Establecer y mantener estrategias de respaldo y recuperación ante desastres para asegurar la integridad de los datos y la continuidad del negocio.
  • Automatización y monitoreo: Utilizar herramientas nativas de AWS y soluciones de terceros para monitoreo proactivo, alertas y automatización de procesos.
  • Documentación: Mantener actualizada la documentación sobre estructuras de bases de datos, políticas de acceso y mejores prácticas.

Requisitos

  • Experiencia: Más de 5 años de experiencia en ingeniería de bases de datos, con al menos 3 años trabajando con PostgreSQL (preferiblemente AWS RDS Aurora PostgreSQL).
  • Experiencia en bases de datos: Amplio dominio de PostgreSQL, incluyendo optimización de consultas, replicación, particionamiento y configuraciones de alta disponibilidad.
  • Nube y AWS: Experiencia práctica con AWS RDS, Aurora, IAM, S3, Lambda y CloudWatch para gestión y automatización de bases de datos.
  • Scripting y automatización: Dominio de SQL, Bash o Terraform AWS CDK para automatización de bases de datos e infraestructura como código.
  • Seguridad y cumplimiento: Conocimiento en cifrado de bases de datos, control de accesos, auditoría y marcos de cumplimiento (GDPR, HIPAA, SOC 2, etc.).
  • Resolución de problemas: Habilidades avanzadas de diagnóstico y solución de problemas en entornos de bases de datos de alta disponibilidad.
  • Nivel de inglés intermedio avanzado o avanzado (B2 -C1)

Requisitos deseados

  • Experiencia con arquitecturas de lago de datos, transmisión en tiempo real o soluciones de almacenamiento de datos.
  • Certificaciones de AWS (ej. AWS Certified Database – Specialty, AWS Solutions Architect – Associate).

Beneficios

  • Seguro complementario de salud Metlife (Chile).
  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Computer provided Leniolabs_ provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
APPLY VIA WEB
$$$ Full time
Microsoft Power BI Developer
  • Leniolabs_
SQL SAP Big Data Azure

Leniolabs_ es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA.

Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.

Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.

Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Funciones del cargo

En Leniolabs estamos en la búsqueda de un SSR/SR Microsoft Power BI Developer.

El candidato ideal debe contar con un mínimo de 5 años de experiencia. Además de conocimientos y experiencia en informes analíticos, es fundamental que tenga experiencia en SQL, ya que en el proyecto deberá trabajar en reportes, realizar extracción y manejo de datos en SQL.

El rol implica colaborar estrechamente con arquitectos, ingenieros y propietarios de producto para diseñar soluciones técnicas que soporten altos niveles de disponibilidad y consistencia.

Buscamos perfiles con un compromiso claro con la excelencia técnica, la innovación y un interés genuino en las últimas tecnologías, capaces de trabajar en un entorno ágil y de alto rendimiento.

Requerimientos del cargo

  • Contar con aproximadamente 5 años de experiencia como Data Engineer.
  • Manejo de Power BI y SQL (Excluyente).
  • Experiencia con Synapse y Azure Data Factory.
  • Es deseable la experiencia con Data Lake y SAP SCM
  • Habilidad para crear documentación técnica.
  • Inglés avanzado.

Beneficios

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo,

Computer provided Leniolabs_ provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Leniolabs_ gives you paid vacations over the legal minimum.
APPLY VIA WEB
$$$ Full time
Senior Data Engineer
  • Leniolabs_
Python Data Analysis SQL Big Data

Leniolabs_ es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA.

Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.

Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.

Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Funciones del cargo

Actualmente buscamos talentos especializados en desarrollo frontend, que quieran unirse al equipo de Leniolabs como Senior Data Engineer especializado en Azure para trabajar con uno de nuestros clientes más importantes que se encuentra ubicado en San Francisco. Buscamos personas con muchas ganas de aprender, de sumar y que tenga manejo de trabajo en equipo.

Se trabajará en el departamento de desarrollo de tecnología de la empresa.
El proyecto es con clientes en USA.

  • Diseño, construcción y optimización de pipelines de datos.
  • Se hablará directamente con el cliente.
  • Trabajo en equipo - liderazgo.
  • Será responsable de avanzar en los diferentes requerimientos del cliente, junto con el equipo.
  • Su trabajo consiste en hacer que las tareas se realicen utilizando todos los recursos disponibles (tangibles e intangibles).

Requerimientos del cargo

  • 6+ años de experiencia laboral en análisis de datos e ingeniería de datos - (indispensable)
  • Nivel de inglés avanzado - B2/C1 - (indispensable)
  • Experiencia en la construcción y mantenimiento de pipelines de datos robustos y eficientes.
  • Gestión de cargas y transformaciones de datos en Microsoft Fabric
  • Manejo de Python.
  • Experiencia en la gestión y optimización del almacenamiento de datos mediante Azure Data Lake Storage, Azure SQL Data Warehouse y Azure Cosmos DB.
  • Diseño e implementación de pipelines de procesamiento de datos escalables.
  • Habilidad para integrar datos y reportes desde otros sistemas como Salesforce.

Condiciones

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Internal talks Leniolabs_ offers space for internal talks or presentations during working hours.
Computer provided Leniolabs_ provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
Gross salary $2500 - 2800 Full time
Data Scientist
  • Niuro
Python SQL Azure Artificial Intelligence
At Niuro, we are dedicated to connecting cutting-edge projects with elite tech teams, collaborating closely with leading U.S. companies. Our mission revolves around simplifying global talent acquisition through innovative solutions that enhance efficiency and quality. As part of our team, you will engage in dynamic and challenging projects that are pivotal to our clients' success.
By providing autonomous, high-performance tech teams, we empower our professionals through continuous training in both technical and soft skills, along with leadership development. Our structure supports collaborative growth and excellence.

Responsibilities:

  • Design, develop, and evaluate machine learning and statistical models aimed at enhancing various business processes.
  • Analyze large datasets to derive insights and formulate data-driven strategies.
  • Deploy models into production utilizing tools such as TensorFlow, PyTorch, or Scikit-learn.
  • Create dashboards and reports via visualization tools like Tableau, Power BI, or Looker.
  • Collaborate with engineering teams to optimize data pipelines and model infrastructures.
  • Deliver findings and recommendations to non-technical stakeholders in a clear and concise manner.

Requirements:

  • 3-5 years of experience in data science, machine learning, and statistical analysis.
  • Proficiency in Python with solid knowledge of data science libraries including Pandas, Polars, Scikit-learn, TensorFlow, and PyTorch.
  • Experience with SQL and both relational and non-relational databases.
  • Knowledge of feature engineering, model selection, and cross-validation techniques.
  • Experience with Generative AI frameworks and libraries, such as Hugging Face Transformers and LangChain, alongside API usage and prompt engineering skills.
  • Able to visualize data with tools like Matplotlib, Seaborn, and Plotly.
  • Strong communication skills with a knack for data storytelling.
  • Intermediate to advanced English proficiency (written and spoken).

Nice-to-Haves:

  • Experience with cloud computing platforms such as AWS, GCP, or Azure.
  • Familiarity with real-time data processing using tools like Apache Kafka or Spark Streaming.
  • Working knowledge of deep learning frameworks.
  • Understanding of MLOps techniques for deploying models effectively.
  • Curiosity and enthusiasm for exploring the latest trends in Generative AI within the field of data analysis.

Salary & Benefits:

We offer a competitive salary ranging from $2,500 to $2,800 USD per month, depending on your experience. Our organization embraces a fully remote work environment, paired with flexible working hours to enhance your work-life balance.
At Niuro, you will find ample opportunities for professional development, along with access to training in advanced data analysis tools. Join us, and be part of a team that values continuous learning and growth!

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
APPLY VIA WEB
Gross salary $3000 - 3900 Full time
Senior Data Engineer
  • Apply Digital Latam
Python SQL Virtualization Big Data
ABOUT APPLY DIGITAL
Apply Digital is a global digital transformation partner for change agents. Leveraging expertise that spans Business Transformation Strategy, Product Design & Development, Commerce, Platform Engineering, Data Intelligence, Change Management, and beyond, we enable our clients to modernize their organizations and deliver meaningful impact to the business and to their customers. Our 650+ team members have helped transform global companies like Kraft Heinz, NFL, Moderna, Lululemon, Games Workshop, Atlassian, and The Very Group. Visit applydigital.com to learn how we can unlock your company’s potential.
If you'd like to learn more about Apply Digital's culture click HERE.
LOCATION: Apply Digital is hybrid/remote-friendly. The preferred candidate should be based in Latin America, preferably working in hours that align to ET (Eastern Timezone) or PT (Pacific Timezone).

Responsibilities:

  • Design, build, and optimize ETL/ELT pipelines using Python and SQL
  • Develop and maintain data warehouse schemas and analytics solutions
  • Implement data models and ensure data quality, consistency, and integrity
  • Leverage cloud data platforms (e.g., AWS Athena, Databricks, Snowflake, Azure Synapse/Fabric, Google BigQuery) for storage, processing, and querying
  • Create and maintain optimal data pipeline architecture.
  • Collaborate with analysts and stakeholders to define requirements and deliver data solutions that meet business needs
  • Communicate with stakeholders to understand data requirements and develop solutions.
  • Design, develop, implement, and maintain data architectures and pipelines.
  • Optimize query performance and ensure efficient data workflowsDocument data pipelines, architectures, and processes
  • Continuously improve and refine existing data infrastructure and solution
  • Develop and implement best practices for data management, security, and privacy.

Requirements:

  • A Bachelor's degree in Computer Science, Information Systems, or a related field.
  • At least 5 years of experience in data engineering or related fields.
  • Strong expertise in SQL, ETL, and data warehousing technologies.
  • Strong working knowledge of Python and PySpark
  • Proven experience with at least one major cloud data platform (AWS Athena, Databricks, Snowflake, Azure Synapse/Fabric, or Google BigQuery)
  • Knowledge of data migration tools and techniques.
  • Good knowledge of databases.
  • Strong background in data warehouse design, ETL/ELT processes, and data modeling, ideally with modern data warehouse and DBT
  • Familiarity with cloud engineering concepts and best practices
  • Experience working with large datasets and optimizing performance
  • Excellent problem-solving skills and attention to detail
  • Outstanding communication skills in English, both written and verbal.

Nice-to-haves:

  • Knowledge of multiple cloud platforms (AWS, Azure, GCP) and their data services
  • Familiarity with data governance and compliance requirements
  • Knowledge of CI/CD practices for data engineering
  • Familiarity with Agile development methodologies
  • Experience with containerization (Docker, Kubernetes)

Conditions

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Apply Digital Latam provides a computer for your work.
Vacation over legal Apply Digital Latam gives you paid vacations over the legal minimum.
Beverages and snacks Apply Digital Latam offers beverages and snacks for free consumption.
APPLY VIA WEB
$$$ Full time
Data Engineer Soluciones de Datos
  • Lisit
  • Biobío, Santiago or Temuco (In-office)
Python SQL Scala Virtualization
En *Lisit*, nos dedicamos a crear, desarrollar e implementar servicios de software que ofrecen herramientas de automatización y optimización. Nuestra misión es promover la eficacia en la operatividad de nuestros clientes a través de un soporte consultivo que integra diversas herramientas y prácticas. Buscamos contribuir al éxito de las transformaciones empresariales mediante estrategias integrales de acompañamiento e implementación.

Que estamos buscando

  • Diseñar, desarrollar y mantener infraestructuras y pipelines de datos escalables y confiables.
  • Optimizar el almacenamiento, procesamiento y recuperación de datos para un funcionamiento eficiente e impecable.
  • Colaborar con equipos de diferentes departamentos para recopilar y analizar los requisitos de datos.
  • Garantizar la calidad, integridad y seguridad de los datos durante todo el ciclo de vida de estos.
  • Mantenerse actualizado sobre los últimos avances, desarrollos y enfoques en ingeniería de datos.

¿Qué habilidades y experiencia necesitas?

  • Fuertes habilidades analíticas y de resolución de problemas.
  • Al menos 3 años de experiencia en ingeniería de datos.
  • Experiencia comprobada en el diseño y desarrollo de data pipelines y procesos ETL, preferiblemente con Azure Data Factory.
  • Amplia experiencia en SQL y dominio de al menos un lenguaje de ingeniería de datos, como Python o Scala.
  • Experiencia con Spark, Airflow y tecnologías Big Data relacionadas.
  • Familiaridad con plataformas de datos basadas en la nube como AWS, Azure o GCP.
  • Excelentes habilidades de comunicación y colaboración.

Deseable

Se valorará la experiencia con herramientas de BI como Power BI y Microsoft Fabric. También es deseable contar con alguna de las siguientes certificaciones: DP-203, PL-300, DP-600 y/o DP-700.

Únete a nosotros

En *Lisit* ofrecemos un ambiente de trabajo innovador y colaborativo. Nos aseguramos de que nuestros empleados disfruten de un equilibrio entre trabajo y vida personal, con programas de capacitación y desarrollo continuo. Valoramos tu entusiasmo y pasión por la ingeniería de datos.

Estamos emocionados por conocer a personas con una mentalidad abierta y dispuestas a enfrentar nuevos desafíos. ¡Si estás listo para innovar y crecer con nosotros, te queremos en nuestro equipo!

En el caso de residir en Santiago, debe tener disponibilidad para viajar una o dos semanas a Los Angeles, región del BioBío

APPLY VIA WEB
Gross salary $1500 - 2500 Full time
Data Engineer
  • Guinea Mobile SAC (Cuy Móvil)
Java Python Analytics PostgreSQL

Guinea Mobile SAC (Guinea) es una startup de tecnología de telecomunicaciones latinoamericana, fundada en 2016 con sede en Lima, Perú. La empresa se basa en crear productos tecnológicos que faciliten la experiencia móvil.

Hoy cuenta con cuatro marcas de Operadores Móviles Virtuales: PeruSIM, Cuy Móvil, Inka Móvil y Wings Mobile, siendo uno de los principales OMVs del mercado.

Nuestra misión se centra en permitir que cualquier negocio o persona pueda tener su propia oferta móvil, democratizando el servicio móvil.

Se encuentra en la búsqueda de Data Engineer para conformar el equipo de TEC.

Funciones del cargo

  1. Diseño de Infraestructura de Datos Escalable: Crear sistemas robustos que soporten petabytes de datos con alta disponibilidad y rendimiento.
  2. Automatización de Procesos de Integración:
    • Diseñar y gestionar pipelines automatizados para integración y limpieza de datos.
  3. Colaboración con Analistas y Científicos de Datos: Proveer datasets limpios, modelados y fácilmente accesibles.
  4. Optimización de : Identificar cuellos de botella en flujos de datos y aplicar soluciones para mejorar tiempos de respuesta.
  5. Monitoreo de Flujos de Datos: Implementar herramientas de monitoreo y alertas para garantizar la calidad y consistencia de los datos en tiempo real.

Requerimientos del cargo

  • Procesamiento de Datos:
    • Experiencia en frameworks como Apache Spark, Hadoop o Google Dataflow para procesamiento en grandes volúmenes de datos.
    • Conocimiento avanzado de batch processing y stream processing.
  • Bases de Datos y Almacenamiento:
    • Manejo de bases de datos relacionales (Oracle, PostgreSQL o SQL Server ) y NoSQL (MongoDB, DynamoDB, Cassandra).
    • Experiencia en la configuración y gestión servicios data warehouses como Snowflake, Redshift o BigQuery.
  • ETL/ELT:
    • Experiencia en la construcción y optimización de pipelines de datos usando herramientas como Apache Airflow, dbt, Talend o Luigi.
  • Programación:
    • Dominio de lenguajes como Python, Scala o Java, enfocados en la manipulación de datos.
    • Habilidades en scripting para automatización y manejo de grandes datasets.
  • Cloud Computing:
    • Familiaridad con servicios de datos en la nube como AWS Glue, Azure Data Factory o Google Cloud Dataflow.
    • Conocimientos en almacenamiento y gestión de datos en la nube: Amazon S3, Google Cloud Storage o Azure Blob Storage.
  • Calidad y Seguridad de Datos:
    • Implementación de procesos de data profiling, limpieza y validación de datos.
    • Experiencia en garantizar el cumplimiento de normativas como GDPR, HIPAA o similares.
  • Optimización de Consultas y Modelado de Datos Dimensionales:
    • Diseño de modelos de datos eficientes para análisis y consumo.
    • Desarrollo y optimización de queries SQL (CTES, Joins, Subqueries, etc) y otras herramientas.
  • Detallista: Capacidad para identificar inconsistencias y garantizar la calidad de los datos.
  • Proactivo/a: Habilidad para anticipar problemas y proponer mejoras.
  • Colaborativo/a: Experiencia trabajando junto a equipos de analistas, desarrolladores o científicos de datos.
  • Enlace a repositorio en GitHub, GitLab o Bitbucket.
  • Certificaciones relevantes como Google Cloud Professional Data Engineer, AWS Certified Data Analytics, o similares.

APPLY VIA WEB
$$$ Full time
Data Technical Lead
  • BC Tecnología
  • Santiago (Hybrid)
Python Agile SQL Scala
En BC Tecnología, somos una consultora de TI reconocida por nuestra experiencia en diversas áreas tecnológicas. Nos especializamos en la creación de equipos de trabajo ágiles para el desarrollo de proyectos en infraestructura tecnológica, desarrollo de software, y unidades de negocio, operando principalmente en sectores como servicios financieros, seguros, retail y gobierno.
Desde hace más de seis años, nos dedicamos a diseñar soluciones personalizadas según las necesidades de nuestros clientes, mediante un enfoque claro en el cliente, metodologías ágiles, y un compromiso con el desarrollo de productos que aporten valor. Nuestro portafolio incluye:
  • Consultoría y diseño de soluciones
  • Formación de equipos de trabajo y outsourcing
  • Desarrollo y ejecución de proyectos
  • Servicios de soporte y administración IT
Fomentamos un ambiente laboral colaborativo y flexible, así como el crecimiento profesional continuo.

Funciones del rol

Como Data Technical Lead, su objetivo principal será liderar equipos en la construcción de soluciones de datos sólidas mientras asegura la entrega de proyectos alineados a metodologías ágiles y estándares de calidad. Las responsabilidades incluirán:
  • Diseño y desarrollo de pipelines de datos eficientes.
  • Supervisión de la implementación de herramientas modernas de arquitectura de datos.
  • Fomento del uso de prácticas CI/CD y gestión del versionamiento de código.
  • Liderazgo efectivo de equipos técnicos, asegurando una comunicación clara y una colaboración continua.
  • Implementación de metodologías ágiles como Scrum y Kanban en los equipos.

Descripción del puesto

Buscamos un Data Technical Lead con más de 4 años de experiencia en el diseño y construcción de pipelines de datos. Debe tener un dominio avanzado de Python, Scala y SQL. Se espera que el candidato tenga experiencia con herramientas de arquitecturas de datos modernas como Airflow y Mage, así como conocimientos avanzados en CI/CD. Es vital que el candidato haya liderado equipos técnicos previamente y esté familiarizado con la implementación de metodologías ágiles como Scrum y Kanban.
Además, buscamos a alguien que cuente con habilidades de comunicación eficaz, pensamiento crítico y que esté orientado a la resolución de problemas. La capacidad para trabajar en un entorno cambiante y colaborativo es esencial.

Habilidades deseables

Si bien estamos enfocados en las habilidades mencionadas, será un plus contar con conocimientos adicionales en:
  • Herramientas de visualización de datos (como Tableau o Power BI).
  • Implementación de soluciones de Machine Learning.
  • Conocimientos en seguridad de datos y cumplimiento de normativas.

Beneficios que ofrecemos

En BC Tecnología ofrecemos una modalidad de trabajo híbrida que permite combinar trabajo remoto y en oficina, de 2 a 3 días por semana. El contrato inicial será por un proyecto de 3 meses con posibilidad de extensión a indefinido. Adicionalmente, garantizamos un entorno laboral flexible y colaborativo, fomentando el bienestar de nuestros empleados mediante beneficios acordes a convenir. 😊 Siempre priorizamos el crecimiento profesional y la capacitación continua, por lo que estamos emocionados de recibir tu interés para unirte a nosotros y crecer juntos en esta aventura emocionante.

APPLY VIA WEB
Gross salary $2000 - 2300 Full time
Data Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Python Git SQL Scala
En BC Tecnología, somos una consultora de TI especializada en el desarrollo de soluciones a medida para diferentes sectores, incluyendo servicios financieros, seguros, retail y gobierno. A lo largo de los últimos seis años, hemos creado equipos ágiles para abordar las necesidades de nuestros clientes. Ahora, buscamos un Data Engineer talentoso para diseñar y mantener nuestros pipelines de datos, utilizando tecnologías modernas que transforman, almacenan y procesan grandes volúmenes de información.

Descripción del Rol:

El Data Engineer será fundamental para nuestras operaciones, siendo responsable de:
  • Diseñar y construir pipelines de datos eficientes que faciliten el movimiento y la transformación de datos.
  • Asegurar que los procesos de datos sean consistentes y confiables a lo largo del tiempo.
  • Implementar flujos de trabajo de CI/CD que permitan la incorporación efectiva hacia los entornos de desarrollo y producción.
  • Colaborar con el equipo para mejorar constantemente la calidad y eficiencia de los procesos de datos.
  • Asesorarse con líderes técnicos sobre lineamientos y mejores prácticas en el desarrollo.

Requisitos:

  • 0 a 2 años de experiencia en diseño y construcción de pipelines de datos.
  • Dominio de lenguajes de programación como Python o Scala, así como SQL.
  • Experiencia con herramientas de orquestación de pipelines como Airflow, Mage, NiFi o similares.
  • Conocimientos básicos en CI/CD (Git) y flujos de trabajo de versionamiento de código.
  • Familiaridad con arquitecturas de datos como Datalakes, Datawarehouses o Lakehouse es deseable.
  • Conocimientos en técnicas de modelación de datos (dimensional, estrella, copo de nieve, etc.) son también deseables.

Deseable:

Se valorarán habilidades adicionales que puedan enriquecer nuestro equipo, como experiencia en metodologías ágiles y un enfoque proactivo en la resolución de problemas. Buscamos a alguien que esté entusiasmado por aprender y crecer en un ambiente colaborativo, con ganas de enfrentar nuevos desafíos en el mundo de los datos.

Beneficios:

En BC Tecnología, ofrecemos un entorno laboral flexible y colaborativo que incluye:
  • Contrato inicial de 3 meses con posibilidad de conversión a indefinido.
  • Modalidad híbrida que permite combinar trabajo remoto y en oficina, de 2 a 3 días a la semana.
  • Beneficios adicionales acordes a convenir, garantizando el bienestar de nuestros empleados. 😊
Fomentamos el crecimiento profesional y la capacitación continua, siempre enfocados en el desarrollo del talento. ¡Esperamos tu interés para unirte a nuestra emocionante aventura!

APPLY VIA WEB
$$$ Full time
Ingeniero/a de Estudios Actuariales Senior
  • BNP Paribas Cardif
  • Santiago (Hybrid)
C Python Data Analysis Excel
¿Quieres ser parte de los líderes en la revolución de los seguros?
BNP Paribas Cardif está presente en más de 30 países en América, Europa y Asia, contamos con 25 años de trayectoria en Chile y nuestra misión es hacer los seguros más accesibles, justos y valiosos.
✅ Por nuestro ambiente laboral único, somos una organización centrada en el bienestar de las personas y nuestro espíritu Cardif está presente en la oficina y fuera de ella.
✅ Porque el deporte y sus valores son parte de nuestra cultura: la colaboración, la empatía y el respeto guían nuestro trabajo.
✅ Por la cercanía con nuestros líderes, somos una organización que cree en el talento y damos las oportunidades para desarrollarte y aprender juntos.
✅ Por nuestro modelo de trabajo mixto, teletrabajando tres días a la semana.
✅ Estamos comprometidos con el medio ambiente.
✅ Estamos comprometidos con la diversidad, equidad e inclusión, siendo ésta parte de nuestra cultura y estrategia de la compañía.

Funciones del cargo

Hoy buscamos a un Ingeniero(a) de Estudios Actuariales que se sume al equipo de Modelos de Riesgos y Estudios, de la Gerencia Técnica - Financiera, donde tú misión será proveer a las distintas áreas de la gerencia técnica y de la compañía con parámetros técnicos, a través de estudios y herramientas, con el fin que se puedan tomar las decisiones correctas a la hora de evaluar rentabilidad de los productos.
Además de:
• Analizar grandes volúmenes de datos en SAS, Excel y Python, para estudiar el comportamiento de las coberturas de seguros a través de parámetros técnicos, con el fin de entregárselos a pricing y distintas áreas de la compañía para la toma de decisiones.
• Proveer de herramientas al área técnica de la compañía, con el fin de facilitar la toma de decisiones, a través de actualizaciones de Dashboard o creación de nuevas herramientas.
• Seguimiento, estudio y control, de los diferentes riesgos que enfrenta la compañía.
• Gestionar y analizar los datos de la compañía con el fin de abordar distintas problemáticas actuariales que permitan apoyar el proceso de transformación.
• Participar activamente en proyectos transversales tanto a la gerencia técnica como a nivel compañía, aportando desde el punto de vista técnico y financiero.
• Buscar la mejora continua de los procesos y procedimientos del área, buscando la agilidad y perfeccionamiento de las metodologías de cálculo, ya sea proponiendo nuevas herramientas o modelos o mejorando los utilizados actualmente.

Requisitos Mínimos

a. Formación

- Ingeniería Civil Industrial, Ingeniería en Estadística o afín.
b. Experiencia Requerida

- Deseable: Experiencia previa en áreas de analisis de datos, ya sea en manejo de grandes volumenes de datos, reporterías, monitoreos de KPI’s, modelación estadística o similares.
Tiempo: 0 – 2 años
c. Conocimientos y Habilidades

- Conocimiento avanzado de Excel, SAS y Python.
- Conocimiento Básico – Intermedio de Power BI.
- Nivel de inglés intermedio – avanzado.
- Conocimiento del ámbito asegurador
- Alta capacidad de síntesis y análisis
- Autonomía y autogestión
- Proactividad
- Capacidad de trabajo en equipo.
- Habilidades comunicacionales orales y escritas.
- Capacidad de generar ideas y mejoras continuas
- Orientación a resultados.
- Efectividad en presentaciones.
- Capacidad de planificación y seguimiento.

Beneficios

  • Trabajamos eficientemente: 40 horas semanales en horarios flexibles y los viernes salimos a las 14:00.
  • ¡Tenemos más vacaciones y días libres! Una semana adicional de vacaciones + 1 día libre considerando tu cumpleaños y quehaceres personales.
  • Apoyamos tu formación profesional: Acceso ilimitado a nuestra plataforma Coursera y dos días libres al año por estudios.
  • Cardif te cuida: Contarás con telemedicina gratis, seguro de vida, de salud y dental.
  • Queremos que seas tú mismo: Contamos con política de vestimenta flexible.
Y muchos otros beneficios que podrás conocer al avanzar en nuestro proceso de selección

¿Te sumas a la revolución de la industria del seguro?

Esperamos tu postulación ¡seguro y con todo!

“Todas las contrataciones están sujetas a la ley 21015. En BNP Paribas Cardif creemos en lugares de trabajos inclusivos y diversos, donde todas las personas son bienvenidas. En caso de necesitar adaptaciones para ser parte de nuestro proceso de selección, favor comunicarlo en la sección de preguntas.”

APPLY VIA WEB
$$$ Full time
Data Engineer
  • Leniolabs_
Azure Artificial Intelligence Cloud Computing English

Leniolabs_ es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA.

Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.

Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.

Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Funciones del cargo

Actualmente, estamos en la búsqueda de un Data Engineer SSR/SR que se quieran unir a Leniolabs, para trabajar de la mano de uno de nuestros importantes clientes relacionado con el almacenamiento de datos. El objetivo principal del cargo es garantizar la estabilidad, escalabilidad y seguridad de la infraestructura tecnológica, apoyando el manejo eficiente de grandes volúmenes de datos mediante soluciones modernas y automatizadas.

La persona que se sume trabajará directamente en del desarrollo de un producto externo de la empresa, manteniendo relación directa con el cliente.

  • Se trabajará en el departamento de desarrollo de tecnología de la empresa.
  • Trabajo en equipo - liderazgo.
  • Será responsable de avanzar en los diferentes requerimientos del cliente, junto con el equipo.
  • Su trabajo consiste en hacer que las tareas se realicen utilizando todos los recursos disponibles (tangibles e intangibles).
  • Contamos internamente con personas capacitadas para realizar QA, Líder de proyecto, etc, por lo cual tendrá la responsabilidad de adaptarse a cada equipo.

Requerimientos del cargo

  • Más de 5 años de experiencia como Data Engineer.
  • Conocimiento avanzado y experiencia obligatoria con Microsoft Fabric:
    • Fabric Pipelines.
  • Experiencia con la suite de Azure AI, incluyendo:
    • Azure AI Search.
    • Promptflow.
    • Copilot Studio.
  • Habilidades de integración con herramientas avanzadas de inteligencia artificial.
  • Optimizar y gestionar flujos de datos escalables.
  • Integrar funcionalidades avanzadas de IA utilizando herramientas de la suite Azure AI.
  • Desarrollar sistemas de búsqueda inteligente y exploración de datos con Azure AI Search
  • Nivel de inglés: Intermedio/avanzado en adelante (B2+).

Beneficios

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Internal talks Leniolabs_ offers space for internal talks or presentations during working hours.
Computer provided Leniolabs_ provides a computer for your work.
Informal dress code No dress code is enforced.
APPLY VIA WEB
$2200 - 2300 Full time
Data Engineer (GCP)
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL Big Data BigQuery

En esta posición, te unirás a un equipo de expertos en análisis de datos dentro de BC Tecnología, una consultora de TI que se especializa en la gestión de proyectos y servicios IT para diversos sectores, incluyendo servicios financieros, seguros, retail y gobierno. Nuestro enfoque se centra en brindar soluciones efectivas y de alta calidad a nuestros clientes, utilizando metodologías ágiles para adaptarnos rápidamente a sus necesidades.

El equipo al que te incorporarás trabaja directamente con nuestros clientes del sector bancario para mejorar la toma de decisiones a través del análisis avanzado de datos. Como Data Engineer, tu rol será crucial para optimizar procesos de datos y proporcionar insights que ayuden a impulsar la eficiencia y alcanzar los objetivos estratégicos de nuestros clientes.

Funciones del Rol

Como Data Engineer (GCP), tus principales responsabilidades incluirán:

  • Diseñar e implementar procesos de ingesta y modelamiento de datos en GCP.
  • Desarrollar y optimizar flujos de trabajo de datos (ETLs) utilizando las herramientas de GCP.
  • Mantener y mejorar pipelines de datos en BigQuery.
  • Implementar funciones en Cloud Functions para la automatización de procesos.
  • Gestionar la orquestación de tareas mediante Airflow.
  • Colaborar en proyectos utilizando herramientas de versionamiento como GitLab.
  • Crear y documentar soluciones de modelamiento de datos con herramientas como DBT.
  • Asegurar la calidad y escalabilidad de los modelos y pipelines de datos.

Descripción del Perfil

Buscamos un profesional con la siguiente experiencia y habilidades:

  • Experiencia en GCP: Uso de productos clave como BigQuery, Cloud Functions, Cloud Storage y Airflow.
  • Conocimientos avanzados en SQL y Python: Capacidad para desarrollar consultas complejas y automatizar procesos.
  • Gestión de versionamiento: Experiencia práctica con sistemas de control de versiones como GitLab, Bitbucket o GitHub.

Además, se valorará la habilidad para trabajar en equipo y realizar adaptaciones en un entorno de trabajo en evolución constante.

Habilidades Deseables

Aunque no son requisitos obligatorios, son valoradas las siguientes competencias:

  • Experiencia previa en la implementación de soluciones de almacenamiento de datos en la nube.
  • Capacidades de comunicación efectiva y trabajo colaborativo.
  • Experiencia en entornos ágil y retador.

Beneficios Ofrecidos

Condiciones:

  • -Contrato por proyecto estimado a 3 meses con posibilidad de extensión
  • -Metodología de trabajo: Hibrido a demanda (promedió 2 a 3 días a la semana / Santiago Centro)
  • -Disponibilidad lunes a viernes
  • -Salario a convenir
  • -Beneficios (Seguro Complementario, Amipass $4.500 por día laborado, convenios, actividades, bonos)

APPLY VIA WEB
Gross salary $2300 - 2400 Full time
Data Analyst
  • BC Tecnología
  • Santiago (Hybrid)
Python Data Analysis SQL Big Data
En esta posición, te unirás a un equipo de expertos en análisis de datos dentro de BC Tecnología, una consultora de TI que se especializa en la gestión de proyectos y servicios IT para diversos sectores, incluyendo servicios financieros, seguros, retail y gobierno. Nuestro enfoque se centra en brindar soluciones efectivas y de alta calidad a nuestros clientes, utilizando metodologías ágiles para adaptarnos rápidamente a sus necesidades.
El equipo al que te incorporarás trabaja directamente con nuestros clientes del sector bancario para mejorar la toma de decisiones a través del análisis avanzado de datos. Como Data Analyst, tu rol será crucial para optimizar procesos de datos y proporcionar insights que ayuden a impulsar la eficiencia y alcanzar los objetivos estratégicos de nuestros clientes.

Funciones

  • Levantar, analizar y documentar procesos de datos para optimizar flujos y estructuras.
  • Gestionar y modelar datos en Google BigQuery.
  • Implementar funciones automáticas utilizando Google Cloud Functions.
  • Administrar almacenamiento de datos en Google Cloud Storage.
  • Utilizar DBT para transformación de datos y desarrollo de modelos analíticos.
  • Realizar consultas complejas mediante SQL Avanzado.
  • Automatizar tareas y análisis de datos con Python.
  • Trabajar con herramientas de control de versiones como GitLab, Bitbucket o GitHub.

Descripción

Buscamos un Data Analyst con las siguientes habilidades y experiencia:
  • Capacidad para levantar y optimizar procesos de datos.
  • Sólido conocimiento de Google Cloud Platform, especialmente en BigQuery, Cloud Functions y Cloud Storage.
  • Experiencia con DBT para modelos analíticos.
  • Dominio de SQL avanzado y lenguaje Python para automatización.
  • Habilidad para manejar herramientas de versionado de código.

Deseable

Sería ideal contar con experiencia previa en trabajos similares y tener habilidades en la utilización de otras plataformas de análisis de datos.

Beneficios

  • Contrato de proyecto de 4 meses con posibilidad de extensión.
  • Modalidad de trabajo 100% remoto.
  • Disponibilidad requerida a tiempo completo de lunes a viernes.
  • Beneficios adicionales como seguro complementario, Amipass de $4.500 por día laborado, convenios y actividades especiales.

APPLY VIA WEB
Gross salary $3000 - 3200 Full time
Data Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Python Data Analysis Excel SQL

Data Engineer Senior en Banco Falabella tiene la misión de gestionar, desarrollar e implementar el ciclo de vida de iniciativas dentro de la Gerencia de Operaciones. Desde el levantamiento de la situación actual hasta su desarrollo, implementación y mantenimiento continuo. Además, será responsable de la automatización de procesos, integración continua, monitoreo y seguridad, asegurando que las soluciones sean escalables, confiables y eficientes.

Funciones del cargo

  • Automatización de procesos y recopilación de datos: Implementar procesos automatizados para garantizar que los datos utilizados para el análisis sean completos y estén actualizados.
  • Generación y automatización de visualizaciones de datos: Crear dashboards dinámicos que faciliten la comprensión de la información para su uso estratégico.
  • Colaboración interdisciplinaria: Integrarse continuamente con otros equipos para asegurar un trabajo colaborativo eficaz y sin interrupciones.
  • Presentación de informes y recomendaciones: Proporcionar informes claros con recomendaciones fundamentadas para la toma de decisiones.

Requerimientos del cargo

  • Análisis de datos y estadística.
  • Manejo de bases de datos (SQL, BIGQUERY, entre otras).
  • Conocimientos avanzados en lenguajes de programación (Python, SQL).
  • Herramientas de análisis y visualización (Excel, Power BI, Tableau, Data Studio).
  • Experiencia en el manejo de grandes volúmenes de datos (Big Data, Google Big Query).
  • Levantamiento de procesos.

Condiciones

  • Contrato Proyecto de 12 meses
  • Modalidad trabajo: Hibrido
  • Beneficios de la empresa

Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB
Gross salary $3000 - 3500 Full time
Data Scientist Bilingüe – Contrato Indefinido
  • BC Tecnología
  • Santiago (Hybrid)
Python Git SQL Business Intelligence

Somos BC Tecnología, creamos equipos de trabajos y células ágiles para las principales empresas de Chile con presencia global en Servicios Financieros, Tecnología, Banca, Educación, Seguros, Retail y Gobierno.

Evaluar, diseñar y proponer iniciativas relacionadas a procesos, sistemas y/o tecnologías, realizando el levantamiento y análisis funcional/técnico de los requerimientos, de acuerdo a las normas y procedimientos vigentes, con el objetivo de mantener la continuidad operacional de los servicios de TI de la Corporación y entregar un servicio de calidad a las áreas usuarias.

Funciones del cargo

  • Líder tecnológico dentro del equipo, en búsqueda constante de nuevas y mejores formas de trabajar adoptando y probando las nuevas herramientas cloud disponibles, con especial foco en Google Cloud Platform (Suite Corporativa).
  • Definir en conjunto con el equipo de Ingeniería de datos el Universo de información donde se acota un problema de negocio.
  • Data Wrangling: Construir la estructura de los datos para optimizar su manipulación.
  • Feature Engineering: Mejorar la calidad de los datos mediante construcción de características (o atributos), para aumentar la cantidad de conocimiento que aportan los datos para la resolución del problema.
  • Modelamiento: Determinar la técnica de análisis adecuada para calzar con el problema de negocio a tratar.
  • Delivery: Comunicar en el contexto, en tiempo y forma la mejora de proceso que se está buscando resolver.
  • Feedback: Mejorar mediante el método científico el proceso de construcción de conocimiento y participar en la evaluación si existió una mejora al proceso abordado, mediante método científico.
  • Documentación: Registrar los logros, nuevos conocimientos, tecnologías o problemas del proceso en general.

Requerimientos del cargo

Al menos 3 años de experiencia en:

· Métodos numéricos de optimización (programación lineal, programación entera, programación cuadrática, etc.)

· Métodos estadísticos avanzados y mejores prácticas técnicas de modelado avanzadas (modelos gráficos, inferencia bayesiana, nivel básico de PNL, Visión, redes neuronales, SVM).

· Python, SQL, No SQL, programación.

· Experiencia con GCP, AWS o alguna cloud. Power BI, Tableau, streamlit o herramientas afines de visualización. Herramientas de versionamiento (GIT)

· Ingles Avanzado hablado

· Trabajo Hibrido (1 día presencial)

Condiciones

Seguro complementario Salud (Gratis para el trabajador)
Seguro de Vida
Kon3cta Dodo (Beneficio de Salud, donde podran acceder a valores preferenciales en las siguientes disciplinas:
Psicologia
Nutricion
Fonoaudiologia
Kinesiologia
Coaching
Ademas cuenta con un area legal
Amipass $4.500 diario
Sala cuna $350.000
Bono Cuidadora $350.000
Bono Escalaridad $40.000
Bono por Natalidad $200.000
Bono por Matrimonio $200.000
Bono por Fallecimiento Conyuge - Hijo $500.000
Bono por Fallecimiento Padres - Hermanos $200.000
Celebración Aniversario
Aguinaldo Fiestas Patrias y Navidad $80.000
1 Día libre por cumpleaños
Convenio Open English
Convenio con Clinica Eigner
Mutual de Seguridad
Caja de compensación los Andes
Capacitaciones Platzi
Dias Administrativos 2
Día de mudanza 1

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB
Gross salary $3100 - 4500 Full time
Data Engineer
  • Haystack News
  • Lima (Hybrid)
Python Analytics SQL Big Data

Haystack News is the leading local & world news service on Connected TVs reaching millions of users! This is a unique opportunity to work at Haystack News, one of the fastest-growing TV startups in the world. We are already preloaded on 37% of all TVs shipped in the US!

Be part of a Silicon Valley startup and work directly with the founding team. Jumpstart your career by working with Stanford & Carnegie Mellon alumni and faculty who have already been part of other successful startups in Silicon Valley.

You should join us if you're hungry to learn how Silicon Valley startups thrive, you like to ship quickly and often, love to solve challenging problems, and like working in small teams.

See Haystack's feature at this year's Google IO:

Job functions

  • Analyze large data sets to get insights using statistical analysis tools and techniques
  • Collaborate with the Marketing, Editorial and Engineering teams on dataset building, querying and dashboard implementations
  • Support the data tooling improvement efforts and help increase the company data literacy
  • Work with the ML team on feature engineering and A/B testing for model building and improvement
  • Design, test and build highly scalable data management and monitoring systems
  • Build high-performance algorithms, prototypes and predictive models

Qualifications and requirements

  • Strong written and spoken English is a must!
  • Bachelor's degree in Computer Science, Statistics, Math, Economics or related field
  • 2+ years experience doing analytics in a professional setting
  • Advanced SQL skills, including performance troubleshooting
  • Experience with data warehouses (e.g. Snowflake, BigQuery, Redshift)
  • Proficient in Python including familiarity with Jupyter notebooks
  • Strong Math/Stats background with statistical analysis experience on big data sets
  • Strong communication skills, be able to communicate complex concepts effectively.

Conditions

  • Unlimited vacations :)
  • Travel to team's offsite events
  • 100% paid Uber rides to go to the office
  • Learn about multiple technologies

Accessible An infrastructure adequate for people with special mobility needs.
Relocation offered If you are moving in from another country, Haystack News helps you with your relocation.
Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Meals provided Haystack News provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Company retreats Team-building activities outside the premises.
Computer repairs Haystack News covers some computer repair expenses.
Commuting stipend Haystack News offers a stipend to cover some commuting costs.
Computer provided Haystack News provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
APPLY VIA WEB
$$$ Full time
Ingeniero de Operaciones TI
  • Usercode SpA
DevOps Continuous Integration Jenkins CI/CD

Usercode es una empresa tecnológica especializada en el desarrollo de software para instituciones públicas y organizaciones privadas. Nuestro foco son las tecnologías Cloud, la automatización y digitalización de procesos.

Trabajamos 100% remoto, nuestro equipo está en distintas regiones de Chile, México y Perú. Para comunicarnos y trabajar utilizamos Slack, Meet Hangout y Monday.

La necesidad actual:

El volumen del negocio de Usercode está creciendo por la vía de incorporar una mayor cantidad y tipo de proyectos de desarrollo, por un lado, y por otro lado, abriendo líneas de negocio relacionadas, como mantenimiento de infraestructura, y ampliando la cartera de clientes hacia el mercado privado.

Para lograr el éxito en este proceso es clave contar con un equipo de desarrollo capaz, autónomo, responsable, con experiencia, preparado técnicamente, con profundos conocimientos en una serie de herramientas específica, capaz de aprender y adquirir el uso herramientas nuevas.

Funciones del cargo

Para el puesto de Ingeniero de Operaciones TI con un enfoque en servicios cloud y DevOps, debe tener conocimiento en las siguientes características técnicas:

Configuración de máquinas virtuales en entornos Linux (obligatorio): Habilidad para instalar, configurar y mantener sistemas basados en Linux. Experiencia en la administración de servidores, optimización de rendimiento y seguridad de sistemas Linux.

Configuración de servicios web y de aplicaciones (obligatorio): Experiencia en la configuración y administración de servidores web y aplicaciones como Apache, Nginx, y Tomcat. Capacidad para implementar y gestionar procesos con gestores como PM2 para aplicaciones Node.js.

Seguridad de sistemas y redes (obligatorio): Conocimiento en la implementación de políticas de seguridad, gestión de accesos y configuración de firewalls y otros mecanismos de seguridad en entornos cloud y on-premise.

Monitoreo y logística (obligatorio): Experiencia en la configuración de herramientas de monitoreo y logística para garantizar la visibilidad y el rendimiento operativo, utilizando herramientas como Prometheus, Grafana, ELK Stack, etc.

Creación, mantención e implementación de productos digitales como plataformas web, aplicaciones móviles y/o sitios web.

El ingeniero de operaciones TI trabajará en el área de desarrollo de software junto con los demás desarrolladores, arquitecto de software, líder técnico y jefe de proyecto. Los proyectos serán mayoritariamente plataformas web para instituciones públicas o privadas donde debe levantar los diferentes ambientes, configurarlos, asegurar la seguridad, levantar y configurar los servicios necesarios para el correcto funcionamiento de las plataformas web y/o APIs.

Requerimientos del cargo

Requisitos técnicos:

Estamos en búsqueda de un Ingeniero de Operaciones TI, con un enfoque decidido hacia la gestión y optimización de servicios en la nube y prácticas DevOps. Esperamos que el candidato ideal tenga experiencia robusta en la implementación y manejo de ambientes cloud, utilizando herramientas modernas de CI/CD como Jenkins, y que posea habilidades sólidas en la configuración y administración de ambientes de desarrollo, prueba y producción.

El rol implica responsabilidades clave como la configuración de bases de datos y la garantía de su rendimiento óptimo, la implementación de soluciones escalables y la administración de infraestructura como código. Es fundamental que el candidato tenga la capacidad de colaborar estrechamente con equipos de desarrollo para facilitar despliegues rápidos y seguros, y asegurar la alta disponibilidad y resiliencia de los sistemas.

Buscamos a alguien que no solo se encargue de mantener la infraestructura existente, sino que también proponga y ejecute mejoras continuas, aplicando las mejores prácticas de seguridad y optimización de costos en entornos cloud.

Experiencia excluyente:

  • Configuración de máquinas virtuales en entornos Linux.
  • Configuración de servicios web y de aplicaciones.
  • Seguridad de sistemas y redes.
  • Monitoreo y logística.

Comportamiento esperado:

Lo que buscamos en ti:

  • Proactividad
  • Trabajo en equipo
  • Autonomía
  • Orientado a objetivos y resultados

Características personales:

  • Autonomía
  • Cumplimiento
  • Buenas habilidades de comunicación oral y escrita incluyendo comprensión lectora
  • Saber escuchar, atención
  • Ser respetuoso
  • Disposición a colaborar con el equipo
  • Responsable de sus tareas proyectos trabajos

Conocimientos deseables

Conocimiento en servicios AWS: Configuración y gestión de servicios clave de AWS como EC2, S3, RDS, ECS, Lambda, y VPC. Familiaridad con AWS CloudFormation o Terraform.

Gestión de bases de datos: Configuración, optimización y mantenimiento de sistemas de bases de datos. Experiencia en tareas como la configuración de replicación, backups automatizados y tuning de rendimiento.

Configuración y manejo de contenedores: Experiencia en uso de Docker para la creación y gestión de contenedores.

Orquestación con Kubernetes: Capacidad para implementar, configurar y manejar clústeres de Kubernetes.

Implementación y configuración de herramientas de CI/CD: Experiencia en la configuración y uso de Jenkins para la integración y entrega continua. Capacidad para diseñar pipelines de CI/CD.

Automatización y scripting: Habilidad en scripting con Bash, Python, o similar para la automatización de tareas administrativas y de despliegue.

Condiciones

Este puesto ofrece la flexibilidad de un entorno de trabajo remoto, sin embargo, según las necesidades específicas de nuestros clientes, puede haber ocasiones en las que se requiera tu presencia en un lugar de trabajo presencial.

  • Días extra de vacaciones.
  • Días libres 3x5, día libre por cumpleaños, cambio de domicilio, muerte de mascota
  • Pago de certificaciones seleccionadas
  • Pausa activa colaborativa
  • Aguinaldo

APPLY VIA WEB
$$$ Full time
Ingeniero de Operaciones TI
  • Usercode SpA
DevOps Continuous Integration Jenkins CI/CD

Usercode es una empresa tecnológica especializada en el desarrollo de software para instituciones públicas y organizaciones privadas. Nuestro foco son las tecnologías Cloud, la automatización y digitalización de procesos.

Trabajamos 100% remoto, nuestro equipo está en distintas regiones de Chile, México y Perú. Para comunicarnos y trabajar utilizamos Slack, Meet Hangout y Monday.

La necesidad actual:
El volumen del negocio de Usercode está creciendo por la vía de incorporar una mayor cantidad y tipo de proyectos de desarrollo, por un lado, y por otro lado, abriendo líneas de negocio relacionadas, como mantenimiento de infraestructura, y ampliando la cartera de clientes hacia el mercado privado.

Para lograr el éxito en este proceso es clave contar con un equipo de desarrollo capaz, autónomo, responsable, con experiencia, preparado técnicamente, con profundos conocimientos en una serie de herramientas específica, capaz de aprender y adquirir el uso herramientas nuevas.

Funciones del cargo

Configuración de máquinas virtuales en entornos Linux (obligatorio): Habilidad para instalar, configurar y mantener sistemas basados en Linux. Experiencia en la administración de servidores, optimización de rendimiento y seguridad de sistemas Linux.

Configuración de servicios web y de aplicaciones (obligatorio): Experiencia en la configuración y administración de servidores web y aplicaciones como Apache, Nginx, y Tomcat. Capacidad para implementar y gestionar procesos con gestores como PM2 para aplicaciones Node.js.

Seguridad de sistemas y redes (obligatorio): Conocimiento en la implementación de políticas de seguridad, gestión de accesos y configuración de firewalls y otros mecanismos de seguridad en entornos cloud y on-premise.

Monitoreo y logística (obligatorio): Experiencia en la configuración de herramientas de monitoreo y logística para garantizar la visibilidad y el rendimiento operativo, utilizando herramientas como Prometheus, Grafana, ELK Stack, etc.

Requerimientos del cargo

Enfoque decidido hacia la gestión y optimización de servicios en la nube y prácticas DevOps. Esperamos que el candidato ideal tenga experiencia robusta en la implementación y manejo de ambientes cloud, utilizando herramientas modernas de CI/CD como Jenkins, y que posea habilidades sólidas en la configuración y administración de ambientes de desarrollo, prueba y producción.

El rol implica responsabilidades clave como la configuración de bases de datos y la garantía de su rendimiento óptimo, la implementación de soluciones escalables y la administración de infraestructura como código. Es fundamental que el candidato tenga la capacidad de colaborar estrechamente con equipos de desarrollo para facilitar despliegues rápidos y seguros, y asegurar la alta disponibilidad y resiliencia de los sistemas.

Buscamos a alguien que no solo se encargue de mantener la infraestructura existente, sino que también proponga y ejecute mejoras continuas, aplicando las mejores prácticas de seguridad y optimización de costos en entornos cloud.

El candidato ideal debe ser proactivo, trabajar bien en equipo, y manejar habilidades de comunicación efectivas. Se valoran personas con orientación a resultados, autonomía, y un enfoque en la mejora continua.

Experiencia excluyente:

  • Configuración de máquinas virtuales en entornos Linux.
  • Configuración de servicios web y de aplicaciones.
  • Seguridad de sistemas y redes.
  • Monitoreo y logística.

Comportamiento esperado:

Lo que buscamos en ti:

  • Proactividad
  • Trabajo en equipo
  • Autonomía
  • Orientado a objetivos y resultados

Características personales:

  • Autonomía
  • Cumplimiento
  • Buenas habilidades de comunicación oral y escrita incluyendo comprensión lectora
  • Saber escuchar, atención
  • Ser respetuoso
  • Disposición a colaborar con el equipo
  • Responsable de sus tareas proyectos trabajos

Opcionales

Conocimiento en servicios AWS: Experiencia en la configuración y gestión de servicios clave de AWS como EC2, S3, RDS, ECS, Lambda, y VPC. Familiaridad con AWS CloudFormation o Terraform.

Gestión de bases de datos: Sólidos conocimientos en la configuración, optimización y mantenimiento de sistemas de bases de datos como MySQL y SQL Server. Experiencia en tareas como la configuración de replicación, backups automatizados y tuning de rendimiento.

Configuración y manejo de contenedores: Experiencia en el uso de Docker para la creación y gestión de contenedores.

Orquestación con Kubernetes : Capacidad para implementar, configurar y manejar clústeres de Kubernetes, optimizando la automatización y escalabilidad de aplicaciones en producción.

Implementación y configuración de herramientas de CI/CD: Experiencia en la configuración y uso de Jenkins para la integración y entrega continua.

Automatización y scripting: Habilidad en scripting con Bash, Python, o similar.

Beneficios

Este puesto ofrece la flexibilidad de un entorno de trabajo remoto, sin embargo, según las necesidades específicas de nuestros clientes, puede haber ocasiones en las que se requiera tu presencia en un lugar de trabajo presencial.

  • Días extra de vacaciones.
  • Días libres 3x5, día libre por cumpleaños, cambio de domicilio, muerte de mascota
  • Pago de certificaciones seleccionadas
  • Pausa activa colaborativa
  • Aguinaldo

APPLY VIA WEB