We didn't find any results.

Try with another group of words.

If you think this is a problem, please contact us.

$$$ Full time
Instructor Full-Stack Python
  • Skillnest
MySQL DevOps Django HTML5

Skillnest es una academia de programación con una presencia global, originada en Silicon Valley y con más de 15 años de experiencia. Llevamos cuatro años ofreciendo nuestros programas en Latinoamérica y nos destacamos por un enfoque flexible, orientado a resultados y centrado en la toma de decisiones basadas en datos. Como equipo joven, estamos comprometidos con transformar vidas a través de la educación en programación y apoyamos activamente la empleabilidad de nuestros graduados.

Funciones del cargo

Como Instructor Full Stack Python, tu misión será impartir clases de manera síncrona, preparando a los estudiantes para iniciar su carrera en la industria tecnológica al graduarse.

Deberás aplicar nuestro currículo de contenidos, guiando a los estudiantes a través de las tecnologías fundamentales y avanzadas que componen el stack de Python

Tus responsabilidades serán

  1. Impartir clases online, siguiendo el currículo de Skillnest, enfocado en buenas prácticas de programación.
  2. Completar los ejercicios y principales asignaciones que los estudiantes deberán aprender.
  3. Enseñar tecnologías clave, incluyendo HTML, CSS, JavaScript, Bootstrap, Github, MySQL, Python, Django y comandos de Linux para el despliegue en AWS.
  4. Facilitar el despliegue de aplicaciones web en el servicio EC2 de AWS, enseñando comandos de Linux.

Requerimientos del cargo

Requerimientos del cargo

  • Experiencia en Fundamentos de Web: HTML, CSS, JavaScript, AJAX, Bootstrap, MySQL, y conocimientos en Algoritmos y Estructuras de Datos.
  • Dominio de los frameworks Django y Flask en el stack de Python, junto con bases de datos MySQL.
  • Conocimiento en Linux y Ubuntu para el despliegue en AWS.
  • Amplia visión y experiencia en desarrollo de software y programación.
  • Nivel de inglés medio o alto.
  • Disponibilidad para recibir capacitación adicional antes del inicio de los cursos.
  • Dedicación laboral de 20 horas por semana.

En el rol de instructor para este bootcamp debes tener al menos 1 año de experiencia enseñando en 3 de 7 áreas del conocimiento:

  • Programación orientada a objetos
  • Python o algún lenguaje de scripting (Python, Java, JavaScript entre otros)
  • Bases de datos
  • Ciberseguridad
  • Conectividad y redes (AWS, Google Cloud, Microsoft Azure)
  • DevOps
  • Data Science & Machine Learning

Opcionales

Pertenecer al Registro y Evaluación Unificada de Facilitadores (REUF de SENCE).

Condiciones

  • Acceso al contenido de los programas de Skillnest para capacitación personal.
  • Capacitación sobre la metodología de enseñanza de Skillnest antes de iniciar el bootcamp.

Si eres un apasionado de la programación, la enseñanza y buscas un entorno de trabajo desafiante, ¡únete a Skillnest y sé parte de la revolución educativa en programación.

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
Gross salary $2000 - 2500 Full time
Systems Engineer
  • Mediastream
  • Bogotá (Hybrid)
Web server Ruby Python Virtualization
Company Description
Mediastream is a leading streaming technology company that has been in business for over 16 years. We collaborate with major companies and broadcasters around the world to offer a quality end-to-end solution for content administration, distribution, audiovisual production, and user experience. Our goal is to connect our customers with their audience in a simple and effective way, creating new revenue streams for their businesses.
Role Description
This is a hybrid role for a Systems Engineer. This role will be responsible for designing, implementing and maintaining Mediastream's content delivery network (CDN) infrastructure and services, ensuring fast, secure, robust and scalable access to our digital services for our customers. customers. users around the world, with a focus on video encoding and transcoding.

Responsibilities

  • Design, configure, and optimize the CDN infrastructure to enhance content delivery speed and security.
  • Continuously monitor CDN performance, identify bottlenecks, and make adjustments to ensure operational continuity and speed.
  • Rotate on-call shifts and synchronously monitor high-concurrency streaming events.
  • Implement robust security measures to safeguard the CDN against threats, including DDoS attacks or others.
  • Collaborate closely with application development and cybersecurity teams to ensure efficient integration of the CDN and the implementation of security policies.
  • Work collaboratively with development and content teams to ensure that content is optimized for delivery through the CDN.
  • Research and evaluate new technologies, trends, and best practices in the CDN solutions domain, and subsequently propose, agree upon, implement, document, and provide training as necessary.

Minimum requirements

  • Operating Systems Linux Server (Ubuntu, Debian, CentOS, etc.): Exceptional
  • Network Infrastructure Management and Support (BGP, HTTP, DNS, DHCP, NTP, TCP/IP, FTP, Firewalls, among others): Advanced
  • Application and Network Monitoring Tools (Desirable: Datadog): Intermediate
  • Scripting Programming in BASH, RUBY, PYTHON, or others: Intermediate
  • Webserver Administration (Nginx): Exceptional
  • AWS Amazon CloudFront & Route 53: Intermediate
  • Video encoding and transcoding: Exceptional
  • Bachelor's degree in Computer Engineering, Systems, Networks, or related field
  • Additional Certifications: Cloud, Cisco, Linux, Networking, Nginx, Docker
  • Other: Streaming Technologies

APPLY VIA WEB
$$$ Full time
Data Scientist
  • Divelement
  • Remoto 🌎
Full Time Python Scipy Numpy OpenCV Git

Ubicación: Remoto global

Tipo de puesto: Tiempo completo – Contrato como empleado/a

Salario: Pagado en USD

Área: Desarrollo de software / Ciencia de datos

Empresa: Divelement

🧠 Sobre el rol

Buscamos un/a Data Scientist con experiencia en computación científica para unirse a nuestro equipo. Vas a trabajar junto a investigadores, desarrollando software que impulsa descubrimientos reales. Si te gustan los desafíos técnicos, la optimización de algoritmos y los entornos colaborativos, esta es tu oportunidad.

💼 Qué vas a hacer

  • Desarrollar software científico y pipelines de análisis.
  • Traducir objetivos científicos en soluciones de código.
  • Optimizar algoritmos para simulaciones y modelos estadísticos.
  • Documentar bien tu trabajo (código y guías).
  • Asegurar rendimiento, escalabilidad y reproducibilidad.
  • Aprender e implementar tecnologías nuevas en el área.

✅ Lo que tenés que traer

  • Título en Computación, Física o algo afín (💥 se valora Maestría o PhD).
  • +5 años programando con Python, Scipy, Numpy, OpenCV.
  • Experiencia con Git y buenas prácticas de desarrollo.
  • Te movés cómodo en entornos de investigación o ciencia.
  • Hacés visualizaciones, entendés algoritmos, documentás bien.

🔥 Plus que suman

  • Experiencia en HPC (High Performance Computing).
  • Conocimiento de Machine Learning, frameworks y técnicas.
  • Experiencia en la nube: AWS, GCP o Azure.
  • Background científico: bioinfo, química computacional, física, etc.
  • Participás en proyectos open-source.
  • Te llevás bien con bases de datos y SQL.

🎁 Qué te ofrecemos

  • 💸 Pago en USD
  • 🏡 Trabajo 100% remoto
  • 🧪 Proyectos con impacto real en la ciencia
  • 📈 Crecimiento profesional
  • 👯‍♀️ Equipo colaborativo, global y con buena onda
  • 🧩 Actividades virtuales, cultura ágil y mucha innovación

¿Sos crack en datos y querés trabajar con impacto real en ciencia y tecnología?

Postulate y ayudanos a construir el futuro de la computación científica.

APPLY VIA WEB
$$$ Full time
AWS Administrator
  • Softtek
  • Remoto 🌎
Full Time Kafka Services Lambda

About Softtek

Founded in 1982, Softtek is a global provider of process-driven IT solutions with 30 offices in North America, Latin America, Europe and Asia. With 15 Global Delivery Centers in the U.S., Mexico, China, Brazil, Argentina, Costa Rica, Spain, Hungary and India. Softtek helps improve and produce predictable outcomes for top-tier corporations in over 20 countries. Softtek is the creator and a leader of the nearshore industry.

For more information on what we do, who we are, and career opportunities, visit www.softtek.com


Requirements:

  • 3+ years in AWS operations or cloud support.
  • Desired experience with VPC, Event Bridge, IAM, S3, AWS Lambda, Kinesis, AWS EKS, AWS ECS.
  • Ability to troubleshoot and prevent issues.
  • Capability to follow runbooks and resolve common AWS service issues under time pressure.
  • CloudWatch
  • Terraform
  • Gitlab CI/CD Pipelines

Nice to Have:

  • AWS Certified Developer or Solutions Architect.
  • Experience with basic scripting (Python, bash) to automate repetitive tasks.
  • Exposure to other AWS Services (SNS, SQS, Route53).
  • Knowledge of ITIL process and change-management frameworks.
  • Kafka knowledge.
  • Exposure to Grafana monitoring, and creating dashboards and alerts.
  • Middleware Technologies knowledge is a plus: TIBCO EMS, tomcat/tcserver, IBM MQ.


Activities to Perform:

  • AWS Service Management:
  • Manage and support AWS services including VPC, Event Bridge, IAM, S3, AWS Lambda, Kinesis, AWS EKS, AWS ECS.
  • Issue Resolution:
  • Troubleshoot and resolve AWS service issues following runbooks.
  • Prevent recurring issues through proactive monitoring and maintenance.
  • Automation:
  • Utilize scripting (Python, bash) to automate repetitive tasks.
  • Monitoring and Reporting:
  • Use CloudWatch and Grafana for monitoring AWS services and creating dashboards and alerts.
  • Collaboration:
  • Work with teams using Terraform and Gitlab CI/CD Pipelines to ensure smooth deployment processes.
  • Continuous Improvement:
  • Stay updated with AWS services and best practices.
  • Implement ITIL process and change-management frameworks.


Required Languages

English Advanced 80-95 %


Location

Remote, México


Softtek’s attractive healthcare & benefits package:

  • 5 Insurance benefits with full coverage: Major Medical Insurance, with UNLIMITED coverage guarantee, Minor Medical Expenses, for you and your family, Urgent Care Insurance, Life Insurance and Permanent Disability Support, Funeral Service Insurance. Christmas bonus: 25 days. Maternity Leave (12 weeks +2 weeks more than standard)Paternity Leave (10 days).Grocery Vouchers. Saving Funds. Personal Loans with interest rate lower than the bank. Car insurance, for you and your family, 50% lower cost than market price. Softtek Contigo Program:
  • Exclusive membership with multiple benefits: nutrition, legal, medical, and psychological assistance, discounts in health, entertainment, education, etc.; home assistance services; pet veterinary assistance, anti-rabies vaccine, pet funeral; and much more.
  • Wellness & Wellbeing:
  • Wellness Hub: nutrition, physical and emotional support. Make a difference with our social missions. Softtek Community:
  • Diverse, inclusive and fun.


At Softtek, we recognize that talent is diverse, we respect each person's life condition, and we promote equity in treatment and opportunities without discrimination.


Join the Softtek team and visit our page https://www.softtek.com/transcend to learn more about our Diversity and Inclusion Policy.

APPLY VIA WEB
$$$ Full time
Analista de Transformación - Turnos Rotativos
  • Grupo Modelo
  • Remoto 🌎
Full Time Macros Negocio Sistemas

Grupo Modelo es líder en la elaboración, distribución y venta de cerveza en México.

Nos enorgullece ser una empresa que ha traspasado fronteras con sus productos. Todo esto gracias a las 30,969 personas que colaboran en esta gran compañía.

Hoy forma parte de AB-InBev, la compañía cervecera más grande del mundo.


Te invitamos a participar en la vacante de:

Analista de Transformación - Turnos Rotativos


Requisitos:

Escolaridad: Lic. o Ing. en tecnología (Sistemas, informática, actuaría, estadística o afín).


Años y área de experiencia: Experiencia de 6 meses en tecnologías/informática.


Idioma: Inglés Intermedio (B1 en adelante).


Conocimientos técnicos:

-Paquetería Office intermedio (Excel intermedio, identificar errores en el robot, generación de reportes).

-Análisis de la información

-Reporteo en Word.


Deseable: Conocimiento básico en Python, Macros y en redes (conexión a servidores remotos).

Competencias:

-Adaptabilidad

- Prioriza actividades

-Trabajo en equipo

- Sentido de urgencia

-Proactivo

-Gestión de stakeholders de manera digital.


Lugar de trabajo: CTS, Tres Centurias, Aguascalientes.


Horarios: Se requiere rolar turnos en base al siguiente esquema:

-2 días turno matutino (7 am – 3 pm)

-2 días turno vespertino (3 pm – 11 pm)

-2 días turno nocturno (11 pm – 7 am)

-Posterior a seguir ese esquema la persona tiene los siguientes 4 días libres.


Propósito y actividades del puesto:

-Ejecutar procesos desarrollados en tecnologías en horarios establecidos (Blue Prism y Python).

-Notificar incidencias al equipo de soporte y negocio.

-Generar evidencias de las ejecuciones realizadas durante el día.

APPLY VIA WEB
Gross salary $4500 - 6000 Full time
Data DevOps Engineer
  • Kore RPO

We understand how complicated it can be to run a recruiting organization. Here at KORE RPO, we help reduce recruiting costs and increase candidate engagement without increasing the number of recruiters in your organization.

We have senior recruitment resources readily available to assist with all your recruiting needs. We can increase the volume of candidates without compromising on the quality.

Unlike many other RPO companies, we have a depth of understanding of staffing and recruiting organizations. We can help you build a process and operation that integrates with your existing team to increase revenue and profitability.

Apply to this posting directly on Get on Board.

Job functions

  • Design, build, test, and maintain existing data integrations, ETL processes, and BI solutions within the Azure platform.
  • Participate in Azure environment refresh and cutover activities for system integration testing and go-live for major and minor releases.
  • Support existing reporting and visualization solutions using enterprise BI tools.
  • Participate in an on-call rotation to support EIM production processes and systems.
  • Build and maintain Continuous Integration and Continuous Delivery pipelines.
  • Implement automated solutions using scripting/programming languages in the Azure environment.
  • Perform other duties as assigned.

Qualifications and requirements

  • Bachelor’s Degree in Computer Science or Information Systems.
  • 1+ years of hands-on experience developing and testing Data Warehouse and Business Intelligence solutions.
  • Experience coding in one of the following languages: Python, Scala, SQL, PowerShell.
  • An understanding of relational database concepts.
  • Cloud Technology experience is a plus.

Conditions

We are looking:

  • Able to multitask and work effectively in a dynamic environment.
  • Highly organized and detail-oriented.
  • Willing to jump in where needed, learn new technologies, and work effectively across the full stack.
  • Able to work both independently and collaboratively.
  • Passionate about continuous learning, leading, and sharing knowledge. Provide subject matter expertise and guidance to less experienced staff members regarding performance management and design best practices.

APPLY VIA WEB
$$$ Full time
DevOps
  • TIMINING
En Timining nos apasiona resolver problemas complejos y generar impacto real en la minería. Desarrollamos soluciones tecnológicas que integran ciencia de datos, geología, planificación minera y diseño estratégico para transformar cómo se toman decisiones en la gran minería: más informadas, eficientes y sustentables.
Nuestra cultura y valores, combina conocimiento técnico, colaboración, aprendizaje continuo y compromiso con la innovación.
Creemos en una minería mejor, y estamos construyéndola con tecnología.

© Get on Board. All rights reserved.

Funciones del cargo

Buscamos un DevOps Engineer que promueva una cultura DevOps de colaboración, automatización y mejora continua, y que cuente con experiencia en automatización de infraestructura, monitoreo, integración y despliegue continuo, y administración de plataformas.
El candidato ideal actuará como un puente entre los equipos de desarrollo y operaciones, facilitando la comunicación y la eficiencia en el flujo de trabajo. Por lo que debe comprender los flujos de desarrollo y despliegue, además de las herramientas de monitoreo, con el fin de garantizar la confiabilidad y escalabilidad de los sistemas en un entorno minero.
1. Monitoreo y observabilidad: Implementar y mantener sistemas de monitoreo y alertas utilizando el stack tecnológico de Prometheus, Grafana y herramientas relacionadas.
2. CI/CD: Diseñar, optimizar y mantener pipelines de integración y despliegue continuo mediante GitHub Actions, para componentes en diversos lenguajes y tecnologías.
3. Colaboración y soporte: Trabajar junto a desarrolladores y operación para facilitar despliegues, troubleshooting, y garantizar el uptime de los servicios, participando activamente con los equipos y sesiones de resolución de problemas para facilitar despliegues y garantizar el uptime de los servicios.
4. Garantizar la calidad del software: Certificar que el software cumple con los requisitos del usuario final y asegurar su correcto funcionamiento en distintas plataformas.
5. Mejora continua y actualización: Optimizar estrategias de prueba, promover prácticas DevOps a los diversos equipos de la organización y mantenerse al día con tendencias del sector.

Requerimientos del cargo

1. | Programación en Go o Python para scripting y automatización
2. | Conocimientos de redes y protocolos
3. | CI/CD con GitHub Actions
4 | Gestión de contenedores (Docker) y orquestador de servicio (Kubernetes o Nomad)
5 | Observabilidad con Prometheus y Grafana

Opcionales

Consul para configuración y descubrimiento de servicios
Seguridad en pipelines y despliegues
Experiencia en entornos de alta disponibilidad
Traefik como proxy inverso
Capacidad analítica en traza de errores

Conditions

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage TIMINING pays or copays health insurance for employees.
Computer provided TIMINING provides a computer for your work.
Informal dress code No dress code is enforced.
APPLY VIA WEB
$$$ Full time
Quality Assurance Engineer
  • Monetech Servicios
JavaScript Python Selenium Cypress
Monetech Servicios is a next-generation fintech startup developing smart and user-friendly solutions to automate financial operations in the B2C segment. Our goal is to transform the market and evolve into a fully licensed financial institution with our own banking infrastructure. This will allow us to issue our own cards, provide credit services, expand our financial offerings, and deliver the level of flexibility, accessibility, and reliability our customers deserve.

We are on track to become Mexico’s next inclusive, datadriven neobank – delivering fair, fast and fully digital finance to millions currently left outside the traditional system.

📌 Since we are a startup with members from several countries, submitting your CV in English will help speed up the selection process.

This job is original from Get on Board.

Day in the Life

  • Deeply immerse yourself in user journeys (on-boarding, loan application, repayment, etc.
  • Log defects, verify fixes and analyze bug trends
  • Propose practical UX improvements based on real user pain points
  • Develop automated test suites for critical flows

Must-Have Skills

  • Understand core QA methodologies and the bug-reporting lifecycle
  • Have hands-on experience testing web and mobile PWAs
  • Rapidly absorb business requirements for a micro-lending product
  • Clearly articulate test cases and defect reports
  • Communicate effectively with cross-functional teams

What Separates the Best from the Rest

  • Hands-on experience writing automated tests (Selenium, Cypress, Appium, etc.
  • Familiarity with JavaScript/Python test frameworks
  • A strong UX sensibility—beyond finding bugs, you suggest ways to make flows smoother
  • Previous FinTech or micro-finance domain experience

Benefits

  • Impact: help millions of users in Mexico access micro-loans
  • Competitive compensation and fully remote work
  • Growth: learn from FinTech experts and level up your automation skills
  • Modern stack: AWS, PWA, Spring Boot, Python, Kubernetes, plus analytics and testing tools

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
$$$ Full time
Senior Cloud Platform & DevOps Engineer
  • BC Tecnología
  • Santiago (In-office)
Python SQL BigQuery Kubernetes

En BC Tecnología somos una consultora de IT con amplia experiencia en diversas áreas tecnológicas. Desde hace 6 años apoyamos a clientes de sectores como servicios financieros, seguros, retail y gobierno, brindando soluciones a medida que incluyen la consultoría, desarrollo de proyectos, outsourcing y administración de servicios IT.

Formamos equipos ágiles especializados para Infraestructura Tecnológica, Desarrollo de Software y Unidades de Negocio que garantizan la entrega de valor y el alineamiento con los objetivos empresariales de nuestros clientes. Nuestro enfoque se centra en la innovación, metodología ágil y excelencia operativa.

El área de Plataformas y Cloud es fundamental dentro de nuestra propuesta, donde integramos conocimientos avanzados en servicios cloud, automatización y DevOps para empujar la transformación digital y eficiencia operativa de las organizaciones que acompañamos.

This job is original from Get on Board.

Funciones principales

Como Ingeniero Senior de Plataformas, serás responsable de la administración y optimización de entornos híbridos en la nube, específicamente en Google Cloud Platform. Esta posición es estratégica para la construcción y mantenimiento de infraestructura como código, automatización de despliegues continuos y soporte a operaciones críticas que aseguren la estabilidad y seguridad de los servicios.

Tu día a día incluirá desarrollar y mantener módulos de Terraform, gestionar clústeres Kubernetes (GKE), administrar pipelines CI/CD en GitLab, y trabajar estrechamente con el equipo para documentar procesos, mejorar la calidad de las implementaciones y asegurar la adherencia a buenas prácticas DevOps.

También implicará colaborar con diversas áreas para evaluar nuevas herramientas y enfoques, resolver incidentes operativos, y garantizar el cumplimiento de políticas de seguridad y gobernanza en el entorno cloud.

Descripción y requisitos del puesto

Buscamos un profesional senior con un perfil técnico sólido en ingeniería de plataformas y amplia experiencia en Google Cloud Platform. Es fundamental el dominio intermedio a avanzado de Python, que será usado para scripts y automatizaciones, junto con conocimientos avanzados en BigQuery y SQL para el manejo eficiente de datos.

Se requiere experiencia en la administración de clústeres GKE y buen nivel en Terraform, desde la creación de módulos hasta la gestión del estado y resolución de problemas. Es imprescindible el manejo de GitLab CI para orquestación de pipelines, así como un manejo básico a intermedio de Unix para la operación en consola.

El candidato debe demostrar pensamiento crítico, autogestión y proactividad para abordar retos técnicos, además de habilidades interpersonales sólidas para trabajo en equipo, atención al cliente y resiliencia ante situaciones complejas. La capacidad para redactar documentación técnica clara y precisa es fundamental.

Se valora un compromiso genuino con la diversidad, inclusión y el respeto por opiniones diversas, reflejando nuestros valores culturales.

Conocimientos y habilidades deseables

Serán altamente valorados conocimientos adicionales en IAM de GCP, particularmente en la gestión de permisos, impersonación y principios de mínimos privilegios, junto con experiencia básica o intermedia en networking tanto en entornos on-premise como en Google Cloud.

Experiencia con Kubernetes on-premise y la administración y mantenimiento de nodos fortalecerá tu candidatura. Además, familiarizarse con herramientas como ArgoCD para CD, Apache Airflow y Composer para orquestación de workflows será una ventaja competitiva.

El manejo de herramientas de inteligencia artificial asistidas como Copilot, Gemini o Cursor, así como un entendimiento de arquitecturas hexagonales y el diseño de pruebas automatizadas en Python reflejarán un perfil técnico avanzado. También se valorará experiencia con ciclos completos DevOps.

Beneficios y cultura organizacional

En BC Tecnología ofrecemos un ambiente de trabajo colaborativo que valoriza el compromiso, el aprendizaje continuo y el desarrollo profesional. Aunque no se detallan beneficios específicos en esta oferta, promovemos la integración estrecha entre equipos para facilitar el intercambio de conocimientos y fomentar tu crecimiento.

Trabajamos con metodologías ágiles junto a clientes de alto nivel en sectores diversos, lo que te permitirá participar en proyectos innovadores y desafiantes, potenciando tu carrera técnica y profesional dentro de un marco de respeto e inclusión social.

APPLY VIA WEB
$$$ Full time
Software Engineer AWS Cloud / Santiago Chile
  • Dynamic Devs
  • Santiago (Hybrid)
C Python PostgreSQL C#

Somos una empresa de servicios de tecnología que busca proyectos de alto impacto haciendo de la innovación y transformación digital parte de diferentes empresas principalmente transnacionales latinoamericanas de diversos sectores económicos como retail, seguros, distribución de equipos médicos, banca y productos digitales masivos utilizados por los consumidores. en todo el continente

Somos partidarios de la excelencia técnica, DevOps, Entrega Continua e Integración Continua, conformando equipos de alto desempeño en proyectos desafiantes, orientados al crecimiento e implementación de nuevas tecnologías. Más importante aún, ofrecemos un entorno colaborativo y multicultural donde puedes aprender, disfrutar y crecer como profesional.

📢 En Dynamic Devs, estamos en la búsqueda de un Software Engineer con experiencia sólida en AWS y en la creación de soluciones basadas en la nube y enfoque orientado a la innovación y la eficiencia,

This job offer is available on Get on Board.

Funciones del cargo

✅ Desarrollar y administrar aplicaciones utilizando servicios de AWS como DMS, Lambda, PostgreSQL, DynamoDB, Glue, SES, SNS.
✅ Diseñar e implementar soluciones escalables y seguras en la nube.
✅ Colaborar con equipos de DevOps para crear pipelines CI/CD y automatizar procesos.
✅ Monitorear el rendimiento y la seguridad 🔐 de las soluciones implementadas.
✅ Integrar soluciones con otros equipos y mejorar la arquitectura tecnológica.
✅ Implementar soluciones en Python y/o C# 🐍💻 para desarrollo y automatización.
✅ Arquitectura: Microservicios, DDD, EDA o afines.

Requerimientos del cargo

🎓 Experiencia mínima de 2 años trabajando con AWS (DMS, Lambda, PostgreSQL, DynamoDB, Glue, SES, SNS).
⚙️ Conocimiento en arquitecturas de microservicios, DDD y EDA.
🖥️ Experiencia en Python y/o C# para desarrollo en la nube y automatización.
🔗 Experiencia en GitHub y DevSecOps.
🛡️ Conocimientos en seguridad en la nube.
📍Disponibilidad para asistir 3 días a la semana de forma presencial a la oficina del cliente ubicada en Santiago-Chile (modalidad híbrida, requisito excluyente).

Opcionales

🏅 Certificación AWS (deseable, pero no obligatoria).

Condiciones

💻 Beneficio Bring Your Own Device (A partir del 4to mes trabajando con nosotros, podrás adquirir un computador propio)
⌚ Horario flexible 🕒
🚀 Haz un impacto. Trabaja en proyectos desafiantes
📚 IT Training: acceso a más de 500 cursos actualizados cada semana 📖
🎤 Dev Talks: conferencias exclusivas con expertos del sector
🎉 Día especial: 🎂 ¡Día libre por cumpleaños!
👥 Trabaja en un equipo talentoso y multicultural usando tecnología increíble
🎙️ Escucha nuestro podcast aquí: 🔗 Escuchar Podcast
🌐 Visítanos en nuestra web: 🔗 Dynamic Devs

Internal talks Dynamic Devs offers space for internal talks or presentations during working hours.
Partially remote You can work from your home some days a week.
Computer provided Dynamic Devs provides a computer for your work.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Ingeniero(a) de Aseguramiento de Calidad (QA)
  • Biometria Aplicada
  • Santiago (In-office)
JavaScript Java Python SQL

En Biometría Aplicada contamos con más de 14 años de experiencia desarrollando soluciones integrales en control biométrico y tecnologías de gestión. Nos especializamos en sistemas avanzados para la gestión de asistencia del personal, control de accesos y administración de casinos corporativos, adaptando cada solución a las necesidades específicas de nuestros clientes. Ofrecemos plataformas robustas, seguras y escalables que mejoran la eficiencia operativa, optimizan el control interno y refuerzan la seguridad en organizaciones públicas y privadas. Innovación, confiabilidad y experiencia son los pilares que nos definen.

Apply to this posting directly on Get on Board.

Responsabilidades Principales

  • Diseñar, implementar y ejecutar pruebas funcionales manuales y automatizadas.
  • Analizar requerimientos funcionales y técnicos para construir casos de prueba efectivos.
  • Desarrollar y mantener scripts de automatización para pruebas de regresión y pruebas continuas.
  • Colaborar con desarrolladores y product owners para asegurar la cobertura de pruebas.
  • Documentar defectos encontrados, hacer seguimiento y verificar su resolución.
  • Participar en revisiones de historias de usuario, criterios de aceptación y documentación técnica.
  • Ejecutar pruebas en diferentes entornos y dispositivos según los criterios del proyecto.
  • Contribuir a la mejora continua del proceso de QA y automatización de pruebas.

Requisitos Técnicos y Competencias

Buscamos un profesional con sólidos conocimientos en metodologías de testing como funcional, regresión, smoke e integración, y experiencia en herramientas de automatización como Selenium, Cypress o Playwright. Es necesario manejar lenguajes de scripting para automatización entre los que se incluyen JavaScript, Python o Java, además de herramientas de gestión de pruebas tales como TestRail, Zephyr o Xray.

También debe tener experiencia en integración continua (CI/CD), ejecutando pruebas automatizadas dentro de pipelines, así como el manejo de pruebas en APIs con Postman u otras herramientas similares. Conocimientos básicos en bases de datos, especialmente SQL para la validación de datos, son necesarios. Es deseable experiencia con herramientas BDD como Cucumber o SpecFlow.

En cuanto a competencias blandas, valoramos la atención al detalle, pensamiento analítico, trabajo en equipo, comunicación efectiva, orientación a la calidad y la mejora continua, proactividad, autonomía y adaptabilidad frente a cambios y nuevas tecnologías. La formación deseada es título en Ingeniería en Informática, Computación, Control de Calidad de Software o carrera afín; sin embargo, la experiencia puede suplir esta necesidad.

Habilidades Deseables

Se considera un plus la experiencia previa con herramientas BDD como Cucumber y SpecFlow, así como familiaridad con la integración de pruebas automatizadas en pipelines CI/CD. Además, se valoran habilidades adicionales en comunicación para la colaboración efectiva con equipos multidisciplinarios y una mentalidad orientada a la innovación y mejora continua en procesos de aseguramiento de calidad.

Beneficios

En Biometría Aplicada ofrecemos un entorno laboral colaborativo y enriquecedor, enfocado en la promoción del desarrollo profesional continuo y la innovación tecnológica. Formarás parte de un equipo experimentado donde la excelencia y el aprendizaje constante son valores centrales que promovemos activamente.

El trabajo es 100% presencial, facilitando una interacción directa y dinámica con el equipo técnico y los líderes de proyecto, lo cual mejora la comunicación y la cooperación diaria.

Fomentamos el crecimiento profesional y personal dentro de un ambiente motivador y comprometido con la calidad, donde podrás aportar significativamente al éxito de nuestros clientes y a la evolución de nuestras soluciones biométricas.

Health coverage Biometria Aplicada pays or copays health insurance for employees.
Computer provided Biometria Aplicada provides a computer for your work.
Informal dress code No dress code is enforced.
APPLY VIA WEB
Gross salary $3600 - 3900 Full time
Senior SRE Bilingüe
  • 23people
  • Santiago (In-office)
Java Python Node.js Jenkins

Equifax Chile es la filial local de Equifax Inc., una compañía global de datos, analítica y tecnología con sede en Atlanta, EE. UU., y presencia en 24 países. Desde 1979, Equifax Chile ha sido un referente en soluciones de información comercial, ofreciendo servicios como evaluación de riesgo crediticio, informes de crédito, monitoreo de identidad y análisis de datos para más de 14,000 empresas en sectores como el financiero, comercial, retail y servicios. ​Nuestra visión es empoderar a personas y organizaciones para tomar decisiones informadas, transformando el uso de la información con transparencia y seguridad. Uno de nuestros principales desafíos es liderar la transformación digital a través de nuestro Centro de Desarrollo en Santiago (SDC), que concentra el 60% de los desarrollos digitales de Equifax a nivel mundial.

Fomentamos una cultura de innovación, colaboración y excelencia técnica, donde el talento local impulsa soluciones tecnológicas de alto impacto.

Exclusive offer from getonbrd.com.

Funciones del cargo

¿Qué harás en tu día a día?

  • Debe garantizar la confiabilidad mediante infraestructura como código, monitoreo proactivo y arquitecturas resilientes. Automatizar despliegues, optimizar rendimiento. Mantiene comunicación constante con líderes en EE.UU. sobre el estado de disponibilidad operativa del sistema.

Requerimientos del cargo

Skills

  • Se requiere más de 5 años de experiencia como Devops
  • Experiencia en soluciones de infraestructura AWS
  • Experiencia en orquestadores de CI/CD. Preferentemente Jenkins.
  • Experiencia en herramientas de Monitoreo. Preferentemente datadog
  • Experiencia en seguridad y mallado de servicios.
  • Experiencia en resolución de incidentes, troubleshooting.
  • Nivel de inglés: B2

Reclutamiento
Modalidad: Híbrido (3 x 2)
Experiencia: Desde 5 años en adelante
Horario: Lunes a viernes de 9:00 a 18:00 hrs.

Deseables

  • Metodologías ágiles
  • Conocimiento de lenguajes de programación. Preferentemente Node.js, Java, Python, Bash Scripting.

APPLY VIA WEB
$$$ Full time
DevOps Senior
  • coderslab.io
  • Santiago (Hybrid)
Python Docker Kubernetes Terraform

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un devops senior para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Official source: getonbrd.com.

Funciones del cargo

  • Diseño, implementación y operación de arquitecturas basadas en contenedores usando Kubernetes, Helm, GitLab CI/CD, ArgoCD y Kong API Gateway.
  • Despliegues seguros, reproducibles y escalables con fuerte orientación a la seguridad.
  • Gestión de secretos y credenciales con HashiCorp Vault, asegurando cumplimiento de estándares como PCI-DSS.
  • Desarrollo y mantenimiento de pipelines CI/CD robustos y automatización de procesos mediante scripting avanzado en Bash y Python.
  • Integración y operación en entornos regulados, especialmente bancarios.
  • Administración y optimización de infraestructura en OCI, incluyendo redes, IAM, VCN, almacenamiento y seguridad (WAF, escaneo de vulnerabilidades).
  • Implementación de infraestructura versionada y reproducible con Terraform.
  • Gestión de imágenes Docker y orquestación con Kubernetes.
  • Colaboración en entornos híbridos y multicloud.

Requerimientos del cargo

  • Experiencia avanzada en Oracle Cloud Infrastructure (OCI).
  • Oracle Linux 8/9: endurecimiento, SELinux, systemd, optimización y troubleshooting.
  • Terraform: módulos reutilizables, workspaces, estados remotos.
  • GitLab CI/CD y ArgoCD para pipelines y GitOps.
  • Kubernetes, Helm, Docker, Argo Workflows, Kong API Gateway.
  • HashiCorp Vault para gestión de secretos y políticas de seguridad.
  • Scripting avanzado en Bash y Python.
  • Experiencia con bases de datos MSSQL, PostgreSQL y MySQL (deseable).
  • Conocimiento en normativas y buenas prácticas de ciberseguridad y cumplimiento (PCI-DSS).

Condiciones

Modalidad de contratación: Plazo fijo
Duración del proyecto: 7 meses

APPLY VIA WEB
Gross salary $2000 - 2500 Full time
DevOps Engineer
  • Kabeli Selección
  • Santiago (Hybrid)
Python Docker Kubernetes DynamoDB

En Kabeli buscamos ser socios estratégicos de nuestros clientes apoyándoles en la implementación de proyectos ágiles y en la transformación digital de sus procesos, con foco en un delivery continuo.

Nuestro objetivo es agregar valor a sus distintos productos y servicios , a través de soluciones tecnológicas innovadoras y fáciles de utilizar.

Apply through Get on Board.

Funciones del cargo

En Kabeli estamos buscando un DevOps Engineer altamente motivado y con experiencia en la automatización y optimización de infraestructura en la nube, para unirse a nuestra área de Desarrollo en modalidad híbrida (Santiago de Chile, metro Manquehue).

  • Diseñar, implementar y gestionar soluciones en la nube utilizando AWS.
  • Configurar y mantener clústeres de contenedores en EKS y manejar herramientas de contenedores como Docker y Kubernetes (K8s).
  • Crear y optimizar scripts en BASH para automatización de procesos.
  • Implementar y mantener servicios serverless utilizando Lambda.
  • Diseñar, desplegar y administrar bases de datos NoSQL con DynamoDB.

Requerimientos del cargo

  • Más de 3 años de experiencia en un rol DevOps similar.
  • Conocimiento avanzado de AWS y sus servicios relacionados.
  • Experiencia trabajando con EKS, Glue, API Gateway, DynamoDB y Lambda.
  • Fuertes habilidades en scripting, especialmente con BASH y Python.
  • Experiencia en contenedores y orquestadores como Docker y Kubernetes (K8s).

Condiciones

  • Modalidad híbrida (metro Manquehue)
  • 2 días administrativos al año
  • Día libre por cumpleaños
  • Bonos de Fiestas Patrias y Navidad
  • Seguro complementario de salud, vida y dental
  • Otros beneficios corporativos

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance Kabeli Selección pays or copays life insurance for employees.
Health coverage Kabeli Selección pays or copays health insurance for employees.
Dental insurance Kabeli Selección pays or copays dental insurance for employees.
Computer provided Kabeli Selección provides a computer for your work.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
Gross salary $2400 - 2600 Full time
Desarrollador Automatizador Senior (Performance Tester)
  • BC Tecnología
  • Santiago (Hybrid)
JavaScript Java Python SQL
En BC Tecnología somos una consultora de servicios IT con amplia experiencia en diversas áreas tecnológicas. Durante más de 6 años hemos diseñado soluciones a medida para clientes de sectores como servicios financieros, seguros, retail y gobierno, gestionando desde portafolios hasta desarrollos complejos y outsourcing profesional.
Este proyecto específico corresponde a la participación en un equipo especializado en pruebas de rendimiento y automatización dentro de clientes de alto nivel, llevado a cabo bajo metodologías ágiles. Nuestra fuerte orientación al cliente, el cambio organizacional y el desarrollo de productos innovadores marcan la diferencia en cada iniciativa que emprendemos.

Official source: getonbrd.com.

Responsabilidades clave

  • Diseñar, desarrollar y ejecutar pruebas de carga y rendimiento utilizando herramientas como JMeter para evaluar sistemas críticos.
  • Automatizar los procesos de testeo mediante scripts en Python, Java o JavaScript, asegurando la eficiencia y repetibilidad de las pruebas.
  • Analizar los resultados obtenidos en las pruebas de performance, identificando cuellos de botella y proponiendo mejoras concretas.
  • Integrar las pruebas de rendimiento dentro de flujos de trabajo CI/CD, colaborando estrechamente con el equipo de QA para garantizar la calidad continua.
  • Participar activamente en reuniones de seguimiento, aportar visiones técnicas y documentar los resultados y procesos de manera clara y precisa.

Requisitos técnicos y perfil

Buscamos un profesional con sólida experiencia como Performance Tester, con un manejo avanzado de herramientas como JMeter para la ejecución de pruebas de carga y consumo de APIs. Es indispensable el conocimiento práctico en automatización utilizando lenguajes como Python, Java o JavaScript.
Se valoran conocimientos adicionales en herramientas complementarias como Postman para pruebas de APIs, Locust para simulaciones de carga, Grafana y Datadog para monitoreo de métricas y análisis, así como competencias en bases de datos SQL y gestión documental con Confluence y Jira.
Desde el punto de vista personal, buscamos un perfil autónomo, analítico y orientado a resultados, capaz de trabajar de manera independiente dentro de un entorno colaborativo. La afinidad o background en matemática y estadística será un plus que permitirá un mejor entendimiento y análisis de datos de performance.

Habilidades y conocimientos deseables

  • Experiencia previa en integración de pruebas de performance en pipelines CI/CD con herramientas modernas de DevOps.
  • Conocimientos en monitoreo y visualización avanzada de métricas con Grafana y Datadog para insights profundos de performance.
  • Familiaridad con metodologías ágiles y trabajo en equipos multidisciplinarios orientados a la mejora continua.
  • Capacidad para documentar procesos técnicos complejos y comunicar hallazgos a equipos técnicos y no técnicos.

Beneficios y cultura organizacional

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB
Gross salary $2400 - 2600 Full time
Cloud Platform Engineer Semi Senior
  • BC Tecnología
  • Santiago (Hybrid)
SQL BigQuery Kubernetes Google Cloud Platform
En BC Tecnología somos una consultora de Servicios IT con amplia experiencia en la administración de portafolios, desarrollo de proyectos, outsourcing y selección de profesionales en el área tecnológica. Desde hace más de seis años, diseñamos soluciones personalizadas para clientes en sectores diversos como servicios financieros, seguros, retail y gobierno. Nuestra empresa se destaca por formar equipos ágiles para áreas clave como Infraestructura Tecnológica, Desarrollo de Software y Unidades de Negocio, siempre orientados a generar valor y adaptarse a las necesidades específicas del cliente. El proyecto actual para el cual buscamos talento está basado en un entorno Cloud, con especial énfasis en tecnologías de Google Cloud Platform y metodologías modernas que potencian el desarrollo y mantenimiento eficiente de infraestructuras y aplicaciones en la nube.

Apply to this job without intermediaries on Get on Board.

Responsabilidades Principales

Como Cloud Platform Engineer Semi-Senior, serás responsable de la implementación, gestión y optimización de infraestructuras en la nube, específicamente dentro del ecosistema de Google Cloud Platform (GCP). Trabajarás en conjunto con los equipos de desarrollo y operaciones para asegurar el despliegue continuo y confiable de aplicaciones utilizando herramientas como Terraform para la infraestructura como código y GitLab CI para la integración y entrega continua.
Además, administrarás contenedores y servicios serverless en GCP, junto con la gestión de clústeres de Kubernetes (GKE). Se espera que utilices BigQuery para la manipulación y consulta eficiente de grandes volúmenes de datos usando SQL. La familiaridad con sistemas Unix será crucial para la administración y automatización de tareas diarias.
Entre tus principales tareas estarán:
  • Diseñar, provisionar y mantener entornos en la nube usando Terraform y otras herramientas.
  • Configurar y mantener pipelines CI/CD en GitLab para acelerar la entrega de software y operaciones.
  • Gestionar contenedores, orquestación con GKE y arquitectura serverless para optimizar recursos y escalabilidad.
  • Realizar consultas complejas y optimizaciones en BigQuery para soporte a análisis de datos.
  • Colaborar en un entorno híbrido, participando activamente tanto presencialmente en Las Condes como remotamente.

Requisitos y Habilidades Clave

Buscamos profesionales con una experiencia mínima de 3 años trabajando en entornos Cloud, con preferencia por Google Cloud Platform (GCP). Es imprescindible tener un dominio sólido de Python para scripting y automatización dentro del ecosistema de la nube.
Se requiere experiencia práctica en la gestión de infraestructura como código, utilizando Terraform para desplegar y mantener recursos de infraestructura de forma replicable y segura. Asimismo, es necesario contar con conocimientos en pipelines de integración y entrega continua con GitLab CI para facilitar la automatización del ciclo de vida del software.
Deberás manejar tecnologías relacionadas con contenedores y orquestación, tales como Kubernetes Engine (GKE), y comprender la arquitectura serverless en GCP para maximizar la eficiencia operativa. También es indispensable el manejo avanzado de BigQuery, empleando SQL para la consulta y análisis de datos en grandes volúmenes.
Además, se valoran conocimientos en sistemas Unix para asegurar la correcta administración, monitoreo y troubleshooting de sistemas y servicios en cloud.
Buscamos candidatos orientados al trabajo en equipo, con buenas habilidades de comunicación y capacidad para adaptarse a metodologías ágiles. El rol exige autonomía, responsabilidad y proactividad para resolver problemas complejos y optimizar procesos continuamente.

Conocimientos y Experiencia Deseable

Es valorable contar con certificaciones oficiales de Google Cloud Platform que respalden tu experiencia y habilidades técnicas. Experiencia previa en proyectos con clientes de sectores financieros, seguros o retail será considerada un plus debido a la naturaleza de nuestros clientes.
Asimismo, recomendamos conocimientos en otras herramientas y servicios complementarios de GCP como Cloud Functions, Pub/Sub y Dataflow, así como experiencia integrando soluciones con APIs externas y sistemas legacy.
La familiaridad con herramientas de monitoreo y logging relacionadas con GCP, como Stackdriver, será una ventaja adicional para la supervisión y mantenimiento proactivo de las plataformas en la nube.

Beneficios y Ambiente Laboral

En BC Tecnología fomentamos un ambiente de trabajo colaborativo que valoriza el compromiso y el aprendizaje continuo. Nuestra cultura está orientada al desarrollo profesional, promoviendo la integración entre equipos para facilitar el intercambio de conocimientos y potenciar el crecimiento de cada profesional.
Trabajamos bajo metodologías ágiles, participando en proyectos innovadores con clientes de alto nivel y sectores diversos. Esta posición es híbrida, ubicada en Las Condes, lo que te permitirá combinar la flexibilidad del trabajo remoto con la cercanía y colaboración presencial.
Aunque esta oferta no detalla beneficios específicos, promovemos un ambiente de inclusión, respeto y oportunidades concretas para el crecimiento técnico y profesional.

APPLY VIA WEB
Gross salary $2000 - 2500 Full time
Ingeniero de Operaciones
  • Robotia
  • Santiago (Hybrid)
Python Git Docker Deep Learning

Estamos en búsqueda de un Ingeniero de Operaciones dinámico y proactivo para unirse a nuestro equipo. La persona seleccionada será responsable de brindar apoyo a nuestra gerencia de servicios, asegurando la eficiencia, seguridad y estabilidad de los sistemas desplegados en los entornos productivos. Reportará directamente al jefe de operaciones.

Apply from getonbrd.com.

Funciones del cargo

1. Monitoreo de sistemas en producción

o Supervisión del estado de los sistemas de visión artificial.

o Gestionar herramientas de monitoreo y diagnóstico.

o Asegurar la estabilidad e integridad de los sistemas.

o Administración de cámaras de vigilancia industriales.

2. Gestión de incidencias y soporte de segundo nivel

o Atender incidentes técnicos, investigar causas raíz y aplicar soluciones.

o Escalar problemas complejos a desarrollo o ciencia de datos si es necesario.

3. Evaluación del rendimiento de modelos deep learning

o Revisar salidas de los modelos (detecciones, clasificaciones) y compararlas contra parámetros de calidad esperados.

o Reportar desviaciones o deterioro de desempeño (por ejemplo, falsos positivos/negativos).

o Descarga y recuperación de registros, métricas y material multimedia para la retroalimentación de los modelos de aprendizaje.

4. Automatización y mejora continua

o Gestión del monitoreo y alerta de sistemas mediante la integración de herramientas automatizadas.

o Contribuir en las definiciones técnicas que maximicen la estabilidad, escalabilidad, rendimiento y seguridad de los sistemas.

5. Documentación y procedimientos operativos

o Mantener documentación clara sobre incidentes, cambios en configuración, y actualizaciones en modelos o sistemas.

6. Interacción con clientes o áreas operativas

o Comunicar hallazgos técnicos de forma clara y efectiva.

o Participar en reuniones operativas y sugerir mejoras.

Requerimientos del cargo

1. Técnicas

o Dominio de sistemas Unix (consola, gestión de procesos, eventos de sistema, administración de servicios, networking). (Obligatorio)

o Manejo de herramientas de monitoreo (Prometheus, Grafana, Nagios u otras). (Obligatorio)

o Conocimientos básicos de deep learning: cómo interpretar outputs de modelos, métricas como precision, recall, etc. (Deseable)

o Sólido manejo de scripting Bash y Python.

o Manejo Git y CI/CD (ideal para revisar versiones de modelos o pipelines).

o Manejo de Docker y administración de contenedores.

o Experiencia con Jira y Confluence. (Deseable)

2. Blandas

o Disponibilidad para visitas a terreno y pasaporte vigente (o en trámite).

o Buena comunicación, tanto oral como escrita.

o Pensamiento analítico y enfoque en resolución de problemas.

o Autoaprendizaje y adaptación a nuevas tecnologías.

o Capacidad para discriminar información relevante (ej. identificar cuándo un modelo está fallando por datos de entrada, por desalineamiento, o por bugs).

Beneficios y Condiciones

o Pertenecer a una compañía joven, con gran potencial de crecimiento regional, líder en el desarrollo de tecnología de visión artificial en el ámbito de la minería y la industria.

o Café de grano gratis en oficina.

o Capacitaciones y certificaciones.

o Snack y galletas gratis en oficina.

o Permiso de 5 días administrativos al año.

o Día de cumpleaños libre.

o Contrato a tres meses, renovación a indefinido según evaluación.

APPLY VIA WEB
$$$ Full time
Ingeniero de Sistemas
  • Mediastream

Mediastream es una empresa líder con más de 16 años de experiencia en tecnología de streaming, dedicada a proveer soluciones integrales y de alta calidad para la administración, distribución y producción audiovisual. Trabajamos con importantes empresas y emisoras a nivel mundial, conectando a nuestros clientes con sus audiencias de manera sencilla y efectiva para generar nuevas fuentes de ingresos. Nuestra plataforma end-to-end está diseñada para optimizar la experiencia de usuario y satisfacer las necesidades dinámicas de la audiencia digital, respaldada por soporte técnico 24/7 y atención personalizada.

Job opportunity on getonbrd.com.

Responsabilidades

  • Diseñar y gestionar la infraestructura tecnológica que incluye servidores físicos y virtuales, redes y sistemas de almacenamiento, asegurando su escalabilidad y redundancia para soportar la transmisión continua de contenido audiovisual.
  • Configurar y administrar entornos de virtualización utilizando tecnologías como VMware y Hyper-V, además de orquestar contenedores mediante Docker y Kubernetes para optimizar recursos y garantizar la flexibilidad del sistema.
  • Monitorizar el rendimiento de la infraestructura tecnológica a través de herramientas especializadas, identificar cuellos de botella y proponer mejoras para asegurar un funcionamiento eficiente y estable de los servicios de streaming.
  • Implementar y mantener sistemas robustos de seguridad, configurando firewalls, sistemas de detección de intrusiones y aplicando políticas de seguridad para proteger la infraestructura y datos sensibles contra amenazas externas e internas.
  • Automatizar tareas operativas recurrentes mediante el desarrollo y mantenimiento de scripts en Bash, Python y PowerShell, además de integrar herramientas y procesos que mejoren la productividad y reduzcan la intervención manual.
  • Colaborar estrechamente con los equipos de desarrollo para integrar aplicaciones en producción, configurar y mantener pipelines de CI/CD, y resolver incidencias relacionadas con la integración y despliegue continuo de software.
  • Proveer soporte técnico avanzado de segundo y tercer nivel, diagnosticando y solucionando problemas complejos, coordinando la atención de problemas críticos y asistiendo a usuarios y equipos internos para garantizar la continuidad operativa.
  • Documentar detalladamente la arquitectura de sistemas y procedimientos operativos, creando y actualizando manuales, guías y protocolos que faciliten el mantenimiento y la mejora continua de la infraestructura.

Descripción del puesto

Buscamos un Ingeniero de Sistemas que asegure la disponibilidad, seguridad y eficiencia de nuestra infraestructura tecnológica, elemento clave para ofrecer una experiencia de streaming ininterrumpida y de alta calidad. El candidato ideal debe poseer sólidos conocimientos técnicos en administración de servidores físicos y virtuales, redes, almacenamiento, virtualización (VMware, Hyper-V) y manejo de contenedores (Docker, Kubernetes).

Es fundamental contar con habilidades para el monitoreo y la optimización del rendimiento, así como experiencia en la implementación y gestión de sistemas de seguridad que protejan la infraestructura y los datos. Además, se valoran competencias en automatización de procesos mediante scripting (Bash, Python, PowerShell) y en la gestión de entornos de integración y despliegue continuo (CI/CD).

Además de las capacidades técnicas, buscamos un profesional proactivo, detallista y orientado a la resolución de problemas complejos, con habilidades para trabajar en equipo y colaborar de manera efectiva con áreas de desarrollo y soporte. La capacidad de documentar procesos y arquitecturas con rigurosidad y claridad también es imprescindible para garantizar la transferencia de conocimiento y la continuidad operativa.

Conocimientos deseables

Se valorará experiencia previa en entornos de streaming o plataformas audiovisuales, así como el manejo de herramientas de orquestación avanzada y automatización de infraestructura como código. Conocimientos en seguridad avanzada, auditorías y cumplimiento normativo serán un plus importante. La familiaridad con metodologías ágiles, DevOps y prácticas de integración continua contribuirá positivamente al desempeño en el puesto.

Beneficios

En Mediastream ofrecemos un entorno laboral dinámico y colaborativo que fomenta la innovación constante y el crecimiento profesional continuo. Promovemos una cultura inclusiva basada en el apoyo mutuo y el desarrollo tanto personal como profesional. Contamos con amplias oportunidades de capacitación en tecnologías de vanguardia y trabajamos en conjunto con un equipo de alto nivel para enfrentar desafíos relevantes dentro de la industria del streaming y distribución audiovisual.

Health coverage Mediastream pays or copays health insurance for employees.
Computer provided Mediastream provides a computer for your work.
Informal dress code No dress code is enforced.
APPLY VIA WEB
Gross salary $2000 - 2700 Full time
DevOps
  • coderslab.io
  • Santiago (Hybrid)

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de DEVOPS para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Find this vacancy on Get on Board.

Funciones del cargo

Analizar procesos actuales (AS-IS):

  • Levantar, mapear y comprender procesos operativos y contables existentes. Identificar puntos críticos, riesgos y oportunidades de mejora.

Coordinar con stakeholders:

  • Organizar y gestionar reuniones con responsables de procesos clave (operaciones, contabilidad, tecnología, etc.), recopilando información relevante de múltiples frentes.

Diseñar procesos futuros (TO-BE):

  • Proponer mejoras o rediseños que aseguren trazabilidad, eficiencia y control.
  • Documentar procesos:
  • Elaborar diagramas, manuales y guías operativas claras y reutilizables.

Desarrollar e implementar soluciones:

  • Construir automatizaciones, conciliaciones, dashboards, y scripts. Validar con usuarios clave y adaptar según feedback.

Requerimientos del cargo

Conocimientos técnicos:

  • SQL avanzado (ideal experiencia con BigQuery en Google Cloud)
  • Python para automatización, validaciones y ETL
  • Excel avanzado (visualizaciones, paneles)
  • Experiencia con herramientas de BI (Looker o Power BI)

Conocimientos funcionales:

  • Procesos bancarios: abonos, cargos, conciliaciones
  • Productos financieros: créditos, cuentas corrientes, CMR, etc.
  • Contabilidad: lectura de asientos contables y análisis de cuentas (haber/debe)

Habilidades clave:

  • Pensamiento analítico y capacidad para detectar desajustes entre sistemas
  • Autonomía para investigar y proponer soluciones
  • Experiencia documentando procesos complejos
  • Manejo de herramientas de comunicación y gestión como Microsoft Teams

Conditions

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
APPLY VIA WEB
$$$ Full time
DevOps Engineer II
  • ZeroFox
  • Santiago (Hybrid)
Python Agile Go DevOps

Opportunity Overview

At ZeroFox, we are passionate about bringing world-class protection to the digital-first world. Together, we have built a system capable of collecting and analyzing data from all over the internet, creating a paradigm-shifting cybersecurity product that helps secure and protect our customers and improves the global threat landscape.

We are a team of software engineers, cybersecurity experts, and data scientists who continue to develop unparalleled solutions for the cyber security industry by providing the best Digital Risk Protection SaaS in the global market. Our company, services, and user base are growing faster than ever and we’d like you to help us innovate. We believe the greatest solutions in the Digital Risk Protection space come from composing teams with varied backgrounds and experiences that can use their complementary skill sets to come up with the best market-defining solutions.

Apply directly through getonbrd.com.

Role and responsibilities

  • Collaborate with product teams and software engineers across security, machine learning, digital risk protection, and cyber threat intelligence to develop the next generation of solutions for the ZeroFox platform
  • Gain in-depth knowledge of our microservices architecture and stack; leverage this knowledge to improve system stability, performance, scalability, and security
  • Own and maintain multiple components of our DevOps infrastructure, including CI/CD pipelines, monitoring solutions, and container orchestration platforms, with a focus on embedding security controls and checks
  • Begin to take on a leadership role within projects, guiding best practices around deployment automation, infrastructure as code, and secure configuration management
  • Research, evaluate, and implement new tooling or capabilities to ensure our systems meet or exceed production security requirements (e.g., scanning, patching, vulnerability management)
  • Coordinate with security stakeholders to review engineering milestones and third-party systems for compliance with security standards

Required qualifications and skills

  • Motivated, communicative, teamwork-oriented professionals comfortable working in agile environments
  • Bachelor’s degree in computer science or a related field, OR equivalent education or experience
  • DevOps experience, typically obtained in 3+ years
  • Good understanding of the software development lifecycle, automation, and CI/CD practices
  • Familiarity with cloud services like AWS for building and scaling web architecture, including basic security considerations and standards
  • Experience working with containerization and orchestration technologies such as Docker, Nomad, or Kubernetes
  • Ability to write and maintain infrastructure as code (e.g., Terraform or AWS CloudFormation), integrating security into IaC workflows
  • Good communication, collaboration, and presentation skills in English
  • Ability to work effectively in a fast-paced, agile environment

Desirable skills

  • Proficiency in scripting languages such as Python, Go, or a similar language
  • Experience troubleshooting networking issues in a cloud environment, including basic network security principles
  • Familiarity with monitoring and alerting tools (e.g., Prometheus, Grafana, Datadog)
  • Solid knowledge of infrastructure best practices, security considerations, and automation tools
  • Understanding of or exposure to security scanning tools (e.g., SAST, DAST, or container image scanners)
  • We also value equivalent experience to these languages and frameworks. If you think you might be a fit, apply!

Benefits

  • Opportunities to learn and contribute your knowledge to our Digital Risk Protection platform
  • Competitive compensation
  • Competitive PTO
  • Complementary health insurance
  • Daily catered lunches for in-office work
  • Respectful and nourishing work environment, where every opinion is heard and everyone is encouraged to be an active part of the organizational culture.
  • Regular team bonding activities like cooking and cocktails classes, bingos, stand up comedy, magic shows, virtual happy hour, lunch and learns, etc.
  • Additional Parental Leave
  • Excellent communication: between teams, people, organizations and leaders

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance ZeroFox pays or copays life insurance for employees.
Meals provided ZeroFox provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage ZeroFox pays or copays health insurance for employees.
Dental insurance ZeroFox pays or copays dental insurance for employees.
Computer provided ZeroFox provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal ZeroFox gives you paid vacations over the legal minimum.
Beverages and snacks ZeroFox offers beverages and snacks for free consumption.
Parental leave over legal ZeroFox offers paid parental leave over the legal minimum.
APPLY VIA WEB
$$$ Full time
QA Automatizador
  • Agilistik
  • Santiago (Hybrid)
JavaScript Java Python Agile
Agilistik es una empresa socia de Scaled Agile (SAFe) y ICAgile, especializada en agilidad y desarrollo de software. Trabajamos con algunos de los clientes más grandes de Chile y LATAM, apoyando la transformación digital mediante metodologías ágiles y soluciones tecnológicas robustas. Nuestro equipo está enfocado en entregar calidad, innovación y excelencia en cada proyecto de desarrollo y automatización, contribuyendo al crecimiento de la agilidad dentro de organizaciones de distintos sectores.

Apply directly from Get on Board.

Responsabilidades del Rol

Como QA Automatizador en Agilistik, serás responsable de diseñar, desarrollar y ejecutar scripts de automatización para asegurar la calidad de los productos de software que entregamos a nuestros clientes. Participarás activamente en la planificación de pruebas, definición de estándares y mejores prácticas para automatización, colaborando estrechamente con equipos multidisciplinarios para detectar y corregir defectos de manera temprana.
Entre tus principales funciones estarán:
  • Diseñar y mantener frameworks de automatización de pruebas que permitan maximizar la cobertura y minimizar la repetición manual.
  • Integrar pruebas automatizadas en pipelines de integración continua y entrega continua (CI/CD) para asegurar despliegues confiables.
  • Ejecutar y documentar casos de prueba automatizados y reportar hallazgos técnicos con precisión.
  • Colaborar con desarrolladores y otros perfiles técnicos para mejorar la calidad general del producto desde las etapas iniciales del ciclo de desarrollo.
  • Participar en sesiones de retroalimentación y mejora continua de procesos de aseguramiento de calidad.
Este rol implica un enfoque proactivo hacia la mejora de la eficiencia en pruebas y un fuerte compromiso con las mejores prácticas ágiles y de calidad de software.

Perfil Requerido

Buscamos un profesional con experiencia en automatización de pruebas dentro de entornos ágiles, con habilidades sólidas en scripting y manejo de herramientas modernas de testing automatizado como Selenium, Cypress, o similares. Conocimiento en lenguajes como Java, JavaScript o Python es esencial. Es importante contar con experiencia en integración de pruebas automatizadas en pipelines CI/CD utilizando herramientas como Jenkins, GitLab CI, o Azure DevOps.
Además, el candidato debe tener capacidad analítica para identificar riesgos y problemas en etapas tempranas, así como habilidades de comunicación para colaborar eficazmente con equipos multifuncionales. La adaptación al cambio, pensamiento crítico y alta orientación al detalle son requerimientos claves.
También valoramos la experiencia en metodologías ágiles como Scrum o SAFe, dado que promovemos una cultura donde la agilidad y calidad van de la mano para entregar soluciones que generan valor tangible a los clientes.

Competencias y Conocimientos Deseables

Serán un plus contar con certificaciones relacionadas con testing automatizado o metodologías ágiles, tales como ISTQB, Certified Agile Tester, o certificaciones SAFe. Experiencia previa en proyectos de escala con clientes grandes o multinacionales y conocimiento en testing de aplicaciones móviles o APIs REST/GraphQL aportarán significativamente.
Adicionalmente, tener habilidades en análisis de desempeño de software y manejo de herramientas de monitoreo en producción puede abrir nuevas áreas de aporte valioso en el rol.

Beneficios de Trabajar con Nosotros

En Agilistik, valoramos a nuestro equipo y ofrecemos una serie de beneficios atractivos:
  • Seguro complementario de salud y seguro de vida para tu tranquilidad y la de tu familia.
  • Bonos especiales por aguinaldos en septiembre y Navidad, cada uno por CLP $100.000, además de una bonificación adicional por tu cumpleaños de CLP $50.000.
  • Oportunidades constantes de capacitación y certificaciones ágiles, fomentando un desarrollo profesional continuo y de alto impacto.
Estamos comprometidos con crear un entorno de trabajo que priorice tanto tu bienestar como tu crecimiento profesional. Únete a nuestro equipo para ser parte de proyectos desafiantes y un ambiente colaborativo y dinámico.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Agilistik pays or copays health insurance for employees.
Computer provided Agilistik provides a computer for your work.
Informal dress code No dress code is enforced.
APPLY VIA WEB
$$$ Full time
QA Automation Engineer Python/Robot Framework
  • coderslab.io
Python Agile MySQL PostgreSQL
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos buscando un Ingeniero Senior en Automatización para unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

Find this vacancy on Get on Board.

Funciones del cargo

1. Desarrollo de Automatización de Pruebas:
o Diseñar e implementar scripts automatizados para pruebas de aplicaciones web, móviles y
APIs utilizando herramientas como Robot Framework y Appium (Android/iOS).
o Garantizar la cobertura de pruebas para servicios REST y GraphQL.
o Usar Python para desarrollar soluciones personalizadas y mejorar los frameworks de prueba
existentes.
2. Pruebas de Bases de Datos:
o Realizar pruebas y validaciones en bases de datos relacionales (e.g., MySQL, PostgreSQL) y
no relacionales (e.g., DynamoDB).
3. Gestión y Colaboración:
o Documentar procesos, resultados y estrategias de prueba en herramientas como Confluence.
o Trabajar en estrecha colaboración con desarrolladores y partes interesadas del negocio para
garantizar que los requisitos de calidad se cumplan.
o Gestionar tareas, estimaciones de esfuerzo y prioridades en Jira.
4. Gestión de Infraestructura:
o Configurar pipelines de integración y despliegue continuo (CI/CD) utilizando GitHub Actions.
o Colaborar en entornos basados en la nube, como AWS, para la ejecución y el mantenimiento
de pruebas automatizadas.
5. Capacitación y Transferencia de Conocimiento:
o Capacitar a los miembros del equipo en herramientas, procesos y mejores prácticas de
automatización.
o Promover una cultura de mejora continua mediante la transferencia de conocimiento y la
mentoría.

Requerimientos del cargo

• Experiencia mínima de 5 años en QAA.
• Experiencia sólida en automatización de pruebas utilizando Robot Framework y Appium
(Android/iOS).
• Conocimiento avanzado en Python para desarrollo de scripts y frameworks.
• Experiencia en diseño y ejecución de pruebas de APIs (REST y GraphQL).
• Familiaridad con bases de datos relacionales y no relacionales (MySQL, PostgreSQL, DynamoDB).
• Conocimiento de herramientas de CI/CD como GitHub Actions.
• Experiencia trabajando con AWS.
• Manejo de herramientas de gestión como Jira y Confluence.
• Habilidades en documentación y colaboración con equipos técnicos y de negocio.
• Experiencia en entornos ágiles (Scrum)
• Capacidad para liderar iniciativas de automatización y fomentar un entorno de aprendizaje
continuo.
• Excelentes habilidades de comunicación y proactividad
• Autonomía y capacidad para gestionar múltiples tareas simultáneamente.

Conditions

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
Gross salary $1800 - 2000 Full time
QA Engineer
  • getxerpa
SQL Docker Jenkins CircleCi

En getxerpa trabajamos para transformar el sector financiero en América Latina, ayudando a bancos e instituciones financieras a modernizar su propuesta digital y fortalecer su vinculación con los clientes mediante el uso de herramientas que promueven la salud financiera y la personalización basada en datos. Nuestra plataforma está diseñada para entregar experiencias digitales mejores y más rápidas, a través de soluciones integrables que apoyan a los usuarios a alcanzar sus metas financieras mientras incrementan la interacción con productos y canales bancarios.

Con presencia en México, Ecuador, Colombia y Chile, colaboramos con grandes actores como Santander, Banco del Pacífico, Scotiabank y Sura, contando actualmente con más de 700 mil usuarios activos que han logrado ahorrar más de USD 1 billón gracias a nuestras herramientas innovadoras y adaptadas a las necesidades regionales.

© Get on Board. All rights reserved.

Responsabilidades del puesto

El/La QA Engineer será responsable de garantizar la calidad y el correcto funcionamiento de las soluciones digitales que ofrecemos a nuestros clientes en el sector financiero.

  • Colaborar con el equipo de desarrollo para identificar los requisitos de prueba, diseñar y crear casos de prueba exhaustivos.
  • Identificar la data clave para poder probar la funcionalidad esperada.
  • Detectar riesgos y dependencias de los requerimientos.
  • Generar Plan de pruebas, Matriz de Escenarios y Casos de Prueba que garanticen la funcionalidad de la solución.
  • Definir la estrategia de pruebas y asegurar la cobertura adecuada de pruebas funcionales, de regresión y de rendimiento.
  • Realizar pruebas automatizadas o manuales de acuerdo al plan y las necesidades del desarrollo.
  • Realizar diversos tipos de pruebas, incluidas pruebas funcionales, de integración, intromisión. regresión y de rendimiento, para garantizar la calidad y estabilidad de nuestras soluciones de identidad.
  • Identificar y gestionar riesgos asociados a la calidad del software y presentar informes de progreso.
  • Colaborar con equipos de desarrollo, Product Owners y otros interesados para alinear los objetivos de calidad con los requisitos del negocio.
  • Realizar análisis de resultados de pruebas y preparar informes detallados sobre la calidad del software, destacando defectos y sugerencias de mejoras.
  • Mantenerse actualizado con las últimas herramientas, tendencias y mejores prácticas de la industria en pruebas automatizadas y aseguramiento de calidad.
  • Conocer el valor que aporta al negocio la funcionalidad que se dará con la solución que se requiere.
  • Dar seguimiento a la liberación en producción, así como a los criterios mínimos de aceptación para poder comenzar con la ejecución de los casos de prueba previstos.

Requisitos y habilidades necesarias

Buscamos profesionales con experiencia comprobable en aseguramiento de calidad para plataformas digitales, preferentemente en entornos fintech o productos digitales orientados al consumidor financiero. Es fundamental contar con fuertes conocimientos técnicos y una mentalidad proactiva para identificar y resolver problemas de manera ágil.

Los requisitos clave incluyen:

  • +2 años Banco o fintech o grandes volúmenes de datos
  • +3 años experiencia QA Engineer
  • +3 años metodologías ágiles
  • +3 años CI/CD
  • Experiencia utilizando herramientas de IA para procesos de testing

Tech

  • +2 años Cypress, Selenium o Playwright o similar (automatización)
  • +2 años CircleCI, Jenkins, GitHub Actions o similar (integración)
  • +2 años Jest, Mocha, Karma o similar (unitarias)
  • +2 años REST Assured, Postman o Supertest o similar (API’s)
  • +2 años Github
  • +2 años AWS
  • +2 años Docker
  • +2 años SQL (Postgres)

Skills

  • Análisis y diseño de requerimientos
  • Ingeniería de Software
  • Arquitectura de Software
  • Arquitectura de componentes en la Nube
  • Patrones de Diseño
  • Seguridad Informática
  • Autonomía - autodidacta
  • Análisis y resolución de problemas
  • Trabajo por objetivos
  • Trabajo en equipo
  • Pensamiento crítico

Se valorarán también habilidades blandas como trabajo en equipo, adaptabilidad a ambientes dinámicos, y enfoque en resultados orientados al cliente final.

Competencias y conocimientos adicionales deseables

Serán altamente valorados aquellos candidatos/as que cuenten con experiencia previa en proyectos fintech o bancarios, así como conocimiento de normativas de seguridad y privacidad en el sector financiero. También recomendamos tener familiaridad con:

    • Excelentes habilidades de organización y comunicación.
    • Experiencia en proyectos complejos.
    • +2 años experiencia Javascript, Python, .NET como BackEnd Developer.
    • +2 años experiencia en programación orientada a objetos, patrones de programación asíncronos
    • +1 año Lighthouse, QebPageTest, Sitespeed.io (rendimiento)
    • +1 año OWASP ZAP, Burp suite o similar (seguridad)

Beneficios y cultura laboral

  • 🧑🏽‍💻 Modalidad de trabajo 100% remoto
  • 🌎 Oportunidad de integrarte a un equipo multicultural e innovador.
  • 🏝️ Días xerpa adicionales a los días normales de vacaciones para un mejor balance vida-personal.
  • 💸 Bono de vacaciones por tomar 10 días hábiles consecutivos.
  • 🎂 Medio día libre en tu cumpleaños para celebrar contigo mismo.
  • 🕰️ Flexibilidad horaria para una gestión óptima de tu tiempo laboral.
  • 🤸🏽‍♀️ Trabajo bajo metodologías ágiles con equipos multidisciplinarios que fomentan la colaboración y el aprendizaje continuo.
  • 💻 Bono mensual para mejorar tu espacio de home office y llevar tu lugar de trabajo a otro nivel.
  • ✈️ Viaje Offsite anual para fortalecer vínculos y motivación de equipo.
  • Muchos otros beneficios que revelaremos al conocernos personalmente.

APPLY VIA WEB
$$$ Full time
Senior Site Reliability Engineer (SRE)
  • Moventi
Python MySQL Go Kubernetes
Moventi is a forward-thinking technology company dedicated to helping organizations embrace innovation through cutting-edge technologies. We provide an environment where multidisciplinary talents collaborate to drive digital transformation and shape the future with technology. Our teams engage with state-of-the-art cloud infrastructure projects and large-scale SaaS platforms designed to scale and maximize reliability and efficiency.
Our current project focuses on designing, building, and operating highly available, scalable infrastructure on cloud platforms such as AWS EKS and Azure AKS. This includes advanced data ingestion pipelines handling hundreds of terabytes to petabytes of data, leveraging technologies like Clickhouse and Kafka. We prioritize observability, security, and automation using modern tools and practices to ensure robust SaaS operations.

Job opportunity on getonbrd.com.

Primary Responsibilities and Role Overview

As a Senior Site Reliability Engineer (SRE), you will be instrumental in architecting, deploying, and managing complex cloud-native infrastructure in large-scale SaaS environments. Your role includes designing and maintaining Kubernetes clusters (AWS EKS, Azure AKS) using Infrastructure as Code tools such as Terraform, ensuring seamless scalability and reliability.
You will be responsible for implementing observability solutions across monitoring, logging, tracing, and metrics collection using Prometheus, Grafana, Datadog, and ELK ecosystem to maintain robust system health and performance. Managing data ingestion pipelines with high-volume technologies like Clickhouse and Kafka will be part of your core tasks.
Collaboration with cross-functional teams to drive GitOps CI/CD processes, writing automation scripts in Python, Go (Golang), and Bash to streamline deployments and operations, and enforcing security best practices involving encryption, key management, and policy enforcement are key duties. In addition, you will design and maintain disaster recovery strategies for critical components such as MySQL, Kafka, and Zookeeper, ensuring business continuity and data integrity.
This role requires active participation in a large, dynamic team environment where your expertise will elevate operational standards and foster innovation around high availability SaaS platforms.

Required Experience and Skills

We are looking for a professional with a minimum of 7 years designing, building, and maintaining SaaS environments with a strong focus on large-scale cloud infrastructure. Candidates must have at least 5 years of hands-on experience working with AWS EKS and Azure AKS managed Kubernetes clusters, leveraging Terraform for infrastructure automation.
Key technical expertise includes managing data ingestion in large environments through Clickhouse and Kafka, handling data volumes scaling up to petabytes. A solid background in observability tools such as Prometheus, Grafana, Datadog, and ELK for monitoring, logging, and tracing is mandatory.
Expertise in GitOps practices and CI/CD pipelines is essential. We expect proven scripting skills in Python, Go (Golang), Bash, and AWS CLI to automate operational workflows. Candidates must demonstrate at least 3 years of experience managing security operations including enforcing infrastructure security policies, managing encryption at rest and in transit, and key management.
In-depth knowledge of disaster recovery planning and execution for distributed systems including MySQL, Kafka, and Zookeeper is required. The ideal candidate should be a proactive and collaborative team player, able to communicate complex technical concepts effectively while taking initiative in a fast-paced innovative environment. Strong problem-solving skills, risk management, and a passion for continuous improvement are imperative to succeed in this role.

Additional Preferred Skills and Experience

Experience with service mesh technologies such as Istio and Kubernetes operators is highly valued to optimize application connectivity and lifecycle management. Familiarity with large scale data architectures and tuning Kafka clusters would be advantageous. Prior exposure to cloud security frameworks and compliance standards, as well as experience leading or mentoring SRE teams within enterprise environments, will be considered a strong plus.
An innovative mindset with eagerness to explore emerging tools and automation techniques is welcome, along with excellent interpersonal skills suitable for a multidisciplinary collaborative culture.

Our Offer and Work Environment

At Moventi, we provide a stimulating and innovative work atmosphere located in the heart of San Isidro, Lima, featuring convenient parking and recreational zones to promote wellbeing during breaks. Our hybrid work model gives you the flexibility to balance time between our fully equipped office and remote work tailored to team and personal preferences.
We prioritize professional growth by exposing you to challenging, diverse projects that foster continuous learning and skills enhancement. Our organizational culture is based on transparency, collaboration, commitment, risk-taking, and innovation. We offer formal employment contracts with full legal benefits from day one, ensuring job security and comprehensive protections.

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
APPLY VIA WEB
Gross salary $2800 - 3700 Full time
Site Reliability Engineer
  • Buk
Java Ruby on Rails Python PHP

En Buk, estamos en una misión audaz 💪🌎:

¡Transformar los entornos laborales en lugares más felices y productivos! Somos un equipo joven, lleno de energía y pasión por revolucionar la gestión de RRHH en Latinoamérica. La tecnología es nuestra herramienta principal, y nos esforzamos por la excelencia en cada aspecto de nuestra plataforma.

Con presencia en Chile, Colombia, México y Perú y próximos a iniciar operaciones en Brasil ¡estamos listos para atraer mentes brillantes que nos ayuden a seguir alcanzando muchas metas con miras al infinito y más allá! si quieres saber cómo es un día de trabajo con nosotros, no dudes en echar un vistazo al siguiente video: https://www.youtube.com/watch?v=jBxmAcOrMZU

Find this vacancy on Get on Board.

Funciones del cargo

  • Te encargarás de desarrollar módulos y componentes transversales de la infraestructura.
  • Serás responsable de la administración de las plataformas internas.
  • Velarás por su estabilidad, disponibilidad, seguridad y escalabilidad.
  • Participarás en la mejora continua identificando mejoras a desarrollar.
  • Te encargarás de atender incidentes.
  • Participarás en la automatización de procesos.

Requerimientos del cargo

  • Al menos 3 años de experiencia en roles similares
  • Experiencia trabajando con Terraform
  • Conocimientos en AWS
  • Experiencia con Stack de monitoreo Grafana/Prometheus
  • Conocimiento en gitOps
  • Experiencia trabajando con Docker y Kubernetes (INDISPENSABLE)
  • Conocimientos de sistemas operativos Linux

Opcionales

  • Administración de bases de datos PostgreSQL
  • Experiencia en desarrollo de software (PHP, Java, Python, RoR, etc.)

Condiciones

  • ¡El mejor ambiente de trabajo! Nuestra misión es crear lugares de trabajo más felices, y bueno, lideramos con el ejemplo!😀
  • VACACIONES ILIMITADAS! 🌴🏖️☀️ Sí! ¡Leíste bien!
  • Plan de Beneficios personalizado ⭐ podrás elegir muchas opciones, entre Seguro complementario de Salud, aguinaldos, bonos, capacitaciones, clases de inglés, gimnasio, giftcards, asesoría financiera, ayuda psicológica, Netflix, Spotify y muchos más!
  • Postnatal Paternal de 5 semanas 🍼💙
  • Flexibilidad horaria, queremos que la gente se motive y trabaje feliz, cumpliendo objetivos, no que marque tarjeta.
  • Modalidad WFA 🌴🌞(Work From Anywhere) trabaja 100% en la oficina/ híbrido/ full remoto ¡Tú eliges!
  • Increíbles oficinas en Latam, modernas y con áreas recreativas: Máquina de cerveza, Helados, Mesa PingPong, Snacks y Café, Nintendo.🍩🍫🍺🍕🍎
  • ¡Olvídate de las corbatas y de los zapatos!
  • Sueldo: propone, si eres la persona que buscamos, no te quedarás fuera

Fully remote You can work from anywhere in the world.
Equity offered This position includes equity compensation (in the form of stock options or another mechanism).
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Buk pays or copays health insurance for employees.
Computer provided Buk provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Buk gives you paid vacations over the legal minimum.
Beverages and snacks Buk offers beverages and snacks for free consumption.
APPLY VIA WEB
$$$ Full time
DevOps Engineer con Conocimientos en Back-end y AWS
  • coderslab.io
Java Python Agile Node.js
En CodersLab es una empresa dedicada al desarrollo de soluciones para empresas y actualmente estamos enfocados en el crecimiento global de nuestros equipos con el objetivo de posicionar nuestros productos en más países de Latinoamérica. Por esta razón, estamos buscando un DevOps Engineer con conocimientos en Backend y AWS

Te sumarás a un equipo desafiante y ambicioso con ganas de innovar en el mercado, haciendo que tus propuestas sean altamente valiosas para el negocio.
¡Aplica ahora para este increíble reto!

Apply through Get on Board.

Funciones del cargo

  • Diseñar, implementar y mantener pipelines CI/CD para aplicaciones backend.
  • Automatizar despliegues y configuraciones en entornos AWS (EC2, Lambda, ECS, EKS, S3, RDS, etc.).
  • Gestionar infraestructura como código usando herramientas como Terraform, CloudFormation o similares.
  • Monitorizar y optimizar el rendimiento de sistemas y aplicaciones.
  • Colaborar con desarrolladores backend para integrar y mejorar procesos de desarrollo y despliegue.
  • Implementar prácticas de seguridad en la infraestructura y aplicaciones.
  • Gestionar la escalabilidad, alta disponibilidad y recuperación ante desastres.
  • Documentar procesos y arquitecturas implementadas.

Requerimientos del cargo

  • Experiencia mínima de 2 años como DevOps Engineer o en roles similares.
  • Conocimientos sólidos en AWS y sus servicios principales.
  • Experiencia en desarrollo backend con lenguajes como Python, Node.js, Java o Go.
  • Dominio de herramientas CI/CD (Jenkins, GitLab CI, GitHub Actions, etc.).
  • Conocimientos en infraestructura como código (Terraform, CloudFormation).
  • Experiencia con contenedores y orquestadores (Docker, Kubernetes).
  • Familiaridad con monitoreo y logging (Prometheus, Grafana, ELK, CloudWatch).
  • Buenas prácticas de seguridad en la nube.
  • Capacidad para trabajar en equipo y comunicar efectivamente.
Deseables:
  • Certificaciones AWS (AWS Certified DevOps Engineer, AWS Solutions Architect).
  • Experiencia con microservicios y arquitecturas serverless.
  • Conocimiento en bases de datos SQL y NoSQL.
  • Experiencia en metodologías ágiles.

APPLY VIA WEB
Gross salary $2000 - 2400 Full time
Site Reliability Engineer (SRE)
  • BC Tecnología
  • Santiago (Hybrid)
Python Linux Go DevOps
En BC Tecnología, somos una consultora de TI dedicada a ofrecer soluciones innovadoras en diversas áreas de la tecnología. Contamos con un equipo de expertos diseñando y ejecutando proyectos en la nube para sectores como servicios financieros, seguros y retail. Nuestras metodologías ágiles y enfoque centrado en el cliente nos permiten garantizar la confiabilidad y escalabilidad de las infraestructuras de nuestros clientes, dándoles un valor añadido significativo.

Opportunity published on Get on Board.

Responsabilidades

  • Implementar y gestionar infraestructura utilizando Terraform en plataformas como AWS, GCP y Azure.
  • Implementar New Relic para garantizar monitoreo efectivo de plataformas y servicios.
  • Asegurar la disponibilidad continua y tiempos de respuesta óptimos en entornos críticos.
  • Automatizar pipelines CI/CD para mejorar el flujo de trabajo y la eficiencia operativa.
  • Aplicar prácticas de DevOps y Site Reliability Engineering para optimizar el rendimiento.

Requisitos Técnicos

  • Experiencia comprobada en AWS, GCP y Azure.
  • Dominio de Terraform para la gestión eficiente de infraestructura.
  • Conocimientos en New Relic para monitoreo y observabilidad de sistemas.
  • Fuerte experiencia en gestión de incidentes, alta disponibilidad y optimización de costos en entornos en la nube.
  • Habilidades en automatización y scripting, preferiblemente en Python, Bash o Go.
  • Conocimientos en seguridad, redes y arquitectura en la nube para implementar soluciones seguras y eficientes.

Habilidades Deseables

Un enfoque proactivo hacia la solución de problemas, habilidad para trabajar en equipo y excelente comunicación son altamente valorados. La experiencia previa en entornos de alta carga de trabajo y habilidades adicionales en otros sistemas de supervisión será un plus.

Que Ofrecemos

Ofrecemos un contrato a plazo fijo que se puede convertir en indefinido, modalidad de trabajo híbrida, y beneficios como seguro complementario de salud, aguinaldo por fiestas patrias y navidad, así como tarjeta de alimentación. En BC Tecnología, valoramos a nuestro personal y buscamos crear un ambiente laboral positivo y colaborativo. 🌟

APPLY VIA WEB
Gross salary $4000 - 5500 Full time
DevOps Data Engineer (Azure & Databricks)
  • Zaelot
Python SQL DevOps Docker

At Zaelot, we pride ourselves on developing scalable solutions for enterprise-grade clients. As a DevOps Data Engineer, you will play a crucial role in maintaining robust, secure, and scalable data pipelines within the Azure cloud ecosystem.
We thrive on collaboration amongst our analysts, designers, and software engineers to not only meet our client needs but to pioneer innovative strategies that set us apart in this rapidly changing technology landscape.

Apply at getonbrd.com without intermediaries.

Key Responsibilities:

  • Collaborate with data scientists, analysts, and developers to design, build, and maintain efficient data pipelines in the Azure environment.
  • Optimize existing cloud-based data solutions to improve performance and reliability.
  • Utilize Azure Data Factory and Azure Databricks for data integration and processing.
  • Implement CI/CD practices using tools like Azure DevOps or GitHub Actions, ensuring seamless deployments.
  • Develop scripts in Python and SQL for automation and data manipulation.
  • Engage in troubleshooting and problem-solving to enhance system efficiency.

Required Skills and Experience:

  • 4+ years of experience as a Data Engineer or DevOps Engineer, demonstrating practical knowledge and expertise.
  • Hands-on proficiency with Azure Data Factory and Azure Databricks.
  • Solid understanding of Python, SQL, and automation scripting.
  • Experience with CI/CD tools like Azure DevOps or GitHub Actions.
  • Familiarity with orchestrating data workflows and creating cloud-based solutions.
  • Advanced English proficiency (both written and spoken) for effective communication with the team.
  • Strong problem-solving skills and a collaborative mindset are essential.

Desirable Skills:

  • Azure certifications such as Azure Data Engineer Associate or DevOps Engineer Expert would be advantageous.
  • Familiarity with container tools like Docker or Kubernetes.

What We Offer:

  • Paid vacations for 20 days after one year.
  • Referrals program
  • Finder's fee
  • Training and certifications program
  • Work from home aid
  • English Classes
  • Fitness Program
  • Profit Share
  • Coaching sessions
At Zaelot, we believe in fostering a supportive and innovative work environment. We look forward to welcoming you to our talented team and achieving great things together! 🚀

Wellness program Zaelot offers or subsidies mental and/or physical health activities.
Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks Zaelot offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Computer provided Zaelot provides a computer for your work.
Fitness subsidies Zaelot offers stipends for sports or fitness programs.
Performance bonus Extra compensation is offered upon meeting performance goals.
Personal coaching Zaelot offers counseling or personal coaching to employees.
APPLY VIA WEB
$$$ Full time
DevOps Engineer
  • Softserve
Python Linux DevOps Virtualization
WE ARE
SoftServe is an IT & global digital solutions company with headquarters in Austin, Texas, founded in 1993 in Ukraine. Our associates work on 2,000+ projects with clients in the USA, Europe, and APAC region. We are about people who create bold things, who make a difference, who have fun, and who love their work. In January 2022, we started our operations in Latin America. We committed to grow our local community to 3,500 associates by 2025 and invest in the market.

Apply at getonbrd.com without intermediaries.

Funciones del cargo

AND YOU WANT TO
  • Collaborate with the LATAM DevOps Practice to contribute to cloud platforms for globally innovative companies
  • Engage in diverse private and public cloud-oriented projects of various scales
  • Participate in enterprise-scale migrations, cloud-native application development, and trending technology initiatives
  • Build, maintain, and optimize CI/CD pipelines for automated deployment and updates
  • Configure and manage scalable, secure, and high-performing cloud environments
  • Use tools like Terraform for infrastructure as code (IaC) to enhance deployment consistency and minimize manual interventions

Requerimientos del cargo

IF YOU ARE
  • Experienced with SRE/DevOps best practices
  • Proficient in AWS core IaaS and PaaS services, including IAM, VPC, Internet Gateway, NAT Gateway, ELB, RDS, EC2, S3, Security Groups, ACLs, and Routing Tables
  • Skilled in Docker, Kubernetes, and EKS
  • Adept in HELM charts and troubleshooting workloads in K8s clusters
  • Knowledgeable in Infrastructure as Code using Terraform or CloudFormation
  • Skilled in scripting languages such as Shell or Bash
  • Proficient in Linux, including administration, command-line expertise, and service debugging
  • Experienced in configuring log collectors and using observability platforms for containerized workloads

Opcionales

  • Good at maintaining existing CI/CD pipelines with tools like Jenkins, GitHub, GitLab, or CircleCI (as a plus)
  • Familiar with Python and tools like Prometheus and Grafana (would be a plus)
  • Knowledgeable in AFT Control Tower and Landing Zone (optional)

Condiciones

SoftServe is an Equal Opportunity Employer. All qualified applicants will receive consideration for employment regardless of race, color, religion, age, sex, nationality, disability, sexual orientation, gender identity and expression, veteran status, and other protected characteristics under applicable law. Let’s put your talents and experience in motion with SoftServe.

Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Softserve pays or copays health insurance for employees.
Computer provided Softserve provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Softserve gives you paid vacations over the legal minimum.
Beverages and snacks Softserve offers beverages and snacks for free consumption.
APPLY VIA WEB
Gross salary $2400 - 3000 Full time
DevOps
  • coderslab.io
  • Santiago (Hybrid)
Ruby Python Git Linux
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente nos encontramos apuntando al crecimiento de nuestros equipos de manera global con el objetivo de posicionarnos con nuestros productos en más países de Latinoamérica, es por ello que estamos en búsqueda de un DEVOPSpara sumarse a nuestro equipo.
Te sumarás a un equipo desafiante y ambicioso con ganas de renovar el mercado, por lo que tus propuestas serán de mucho valor para el negocio.
¡Postula para este tremendo desafío!

This offer is exclusive to getonbrd.com.

Funciones del cargo

  1. Diseño e Implementación de Infraestructura:
    • Diseñar e implementar soluciones de infraestructura que cumplan con los estándares de alta disponibilidad, escalabilidad y observabilidad.
    • Automatizar la configuración y el despliegue de los componentes de la infraestructura utilizando herramientas de Infraestructura como Código (IaC), como Terraform.
  2. Mantenimiento y Monitoreo:
    • Tomar posesión de los componentes de la infraestructura, asegurando su confiabilidad y rendimiento a través de revisiones de código y pruebas.
    • Implementar y gestionar herramientas de monitoreo y observabilidad, incluyendo ELK stack y Datadog, para garantizar la integridad y el rendimiento de los sistemas.
  3. Colaboración y Gestión de Proyectos:
    • Colaborar con otros ingenieros, partes interesadas y equipos de operaciones para comprender los requisitos comerciales y brindar soluciones técnicas efectivas.
    • Trabajar en un entorno de desarrollo ágil, utilizando herramientas como Jira y Confluence para gestionar el trabajo y realizar un seguimiento del progreso.
  4. Optimización y Mejora Continua:
    • Identificar y abordar los puntos débiles en los sistemas de la empresa a través de la automatización y la optimización.
    • Mantenerse actualizado con las tecnologías emergentes y las tendencias de la industria en el espacio DevOps/SRE para impulsar la innovación.
  5. Desarrollo y Scripting:
    • Programar en lenguajes como Python, Ruby y Bash para optimizar procesos y herramientas de infraestructura.

Requerimientos del cargo

  • Experiencia: Mínimo 3 años de experiencia como ingeniero DevOps o en roles relacionados con infraestructura cloud, incluyendo migración de infraestructura.
  • Conocimientos Técnicos:
    • Competencia en lenguajes de programación desde una perspectiva de infraestructura (Python, Ruby, Bash).
    • Familiaridad con servicios Cloud (AWS, Azure, GCP, etc.).
    • Experiencia con herramientas de monitoreo y logs, como ELK stack y Datadog.
    • Conocimiento avanzado de herramientas de infraestructura como código (IaC), específicamente Terraform.
    • Gran comprensión de los principios y prácticas de DevOps.
    • Experiencia en administración de sistemas Linux, control de versiones (Git), y tecnologías de contenedorización (Docker, Kubernetes).
  • Habilidades Personales:
    • Fuertes habilidades de comunicación y colaboración.
    • Capacidad para trabajar en un entorno ágil y adaptarse a cambios.
    • Pensamiento analítico y orientación a resultados.
    • Compromiso con la mejora continua y la innovación.

APPLY VIA WEB
Gross salary $1400 - 2000 Full time
Administrador de Sistemas
  • RiskAmerica
  • Santiago (Hybrid)
Python Linux Sysadmin Continuous Integration
RiskAmerica es una empresa consolidada en la industria FinTech, proveemos servicios de gestión e información a todas las empresas de inversiones de Chile. Nos caracterizamos por ser un agente de innovación y transformación digital estando siempre a la vanguardia en las tecnologías y metodologías que usamos.
Hoy en día nos encontramos en un proceso de expansión y buscamos un nuevo Administrador de Sistemas para ayudar a gestionar múltiples soluciones hospedadas en la nube de Google Cloud Platform con Kubernetes Engine.
¿Te atrae el rol de Solution Architect, Cloud Engineer, DevOps o Administrar Sistemas? Acá podrás aprender mucho de gente muy talentosa y podrás contribuir de manera significativa en toda la cadena de vida de los servicios de la empresa.

This company only accepts applications on Get on Board.

Que necesitamos de ti

  • Diseño, desarrollo, mantención y actualización de infraestructura para soluciones multi-tennant de alta disponibilidad.
  • Construir y administrar herramientas de monitoring de los servicios e infraestructura.
  • Ayudar a diseñar, mantener y probar la seguridad de la infraestructura de red y diversas plataformas.
  • Construir utilidades para apoyar las labores de los ingenieros de software del área.
  • Mejorar la cadena de Integración Continua de los servicios administrados.
  • Administrar la generación, almacenamiento y uso de respaldos de los distintos servicios.
  • Ayudar a diseñar, mantener y probar los planes de continuidad de negocio de los distintos servicios.

Que necesitamos de ti

  • Experiencia en seguridad de Redes
  • Experiencia Bash scripting.
  • Experiencia programando en Python.
  • Experiencia básica usando containers (Docker y/o Kubernetes) tanto en Build como Deploy.
  • Experiencia de al menos 1 año administrando cargas productivas de algún servicio
  • Interés y entusiasmo por aprender de nuevas tecnologías, con el fin de crear soluciones robustas y automáticas que requieran mínima mantención.
  • Versatilidad para aprender de diversas tecnologías y lenguajes para apoyar al equipo de Ingenieros de Software en sus diversas necesidades
  • Experiencia en sistemas Linux
  • Manejo de inglés leído técnico.

Sumas puntos si

  • Certificado de Solution Architect de AWS o GCP
  • Experiencia trabajando con Kubernetes
  • Experiencia trabajando sobre Google Cloud Platform (especialmente GKE, GCS y Compute)
  • Conocimientos teóricos de Kubernetes
  • Experiencia usando Ansible
  • Experiencia con Prometheus & Graphana
  • Experiencia con Bases de Datos MariaDB trabajando en esquemas master-slave o master-master
  • Experiencia implementando cadenas de integración continua (CI)

Que tenemos para ti

  • Excelente clima laboral junto a un gran equipo.
  • Seguro complementario de salud, incluyendo dental, catastrófico y vida.
  • Amplias posibilidades para aprender del rubro de inversiones.
  • Incentivo al ahorro previsional voluntario (APV).
  • Buena relación vida/trabajo.
Si vienes a la oficina:
  • Vestimenta casual
  • Estacionamiento para bicicletas
  • Y un buen café!

Life insurance RiskAmerica pays or copays life insurance for employees.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage RiskAmerica pays or copays health insurance for employees.
Dental insurance RiskAmerica pays or copays dental insurance for employees.
Computer provided RiskAmerica provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Beverages and snacks RiskAmerica offers beverages and snacks for free consumption.
APPLY VIA WEB
$$$ Full time
DevOps Lead
  • Moventi
Python Linux DevOps Virtualization

We are seeking an experienced DevOps Lead to join our team, who will be responsible for designing, implementing, and maintaining our cloud-based infrastructure on Amazon Web Services (AWS).
En este rol, tendrás la oportunidad de liderar proyectos relacionados con la innovación tecnológica, garantizando que cumplamos con los estándares más altos.

Apply directly at getonbrd.com.

Funciones del cargo

As a DevOps Lead, you will be responsible for leading our DevOps team, ensuring the smooth operation of our cloud infrastructure, and driving the adoption of DevOps best practices across the organization.

  • Cloud Infrastructure: Design, implement, and maintain our cloud infrastructure on AWS, ensuring scalability, security, and high availability.
  • CI/CD Pipelines: Develop and maintain CI/CD pipelines using GitHub Actions, ensuring automated testing, building, and deployment of our applications.
  • Automation: Automate repetitive tasks, and implement infrastructure-as-code (IaC) using tools like Chef, CloudFormation, CDK.
  • Containerization: Implement and manage containerization using Docker, ensuring efficient and scalable deployment of our applications.
  • Security: Ensure the security and compliance of our cloud infrastructure, implementing best practices, and adhering to industry standards (e.g., HIPAA, PCI-DSS).
  • Collaboration: Work closely with cross-functional teams, including development, QA, and product, to ensure smooth operation of our applications and infrastructure.
  • Monitoring and Logging: Implement monitoring and logging tools (DataDog, CloudWatch), ensuring real-time visibility into our infrastructure and applications.
  • Troubleshooting: Identify and resolve issues, debugging complex problems, and optimizing system performance.

Requerimientos del cargo

  • Technical Skills:
  • AWS, including EC2, ECS, RDS, IAM
  • Expertise in IaC tools (preferably - AWS CDK)
  • Expertise in CI/CD pipelines using GitHub Actions
  • Proficiency in automation tools like Chef, Ansible, or Puppet
  • Experience with containerization using Docker, including Docker Compose and Docker Swarm
  • Strong understanding of security best practices, including network security, access control, and compliance
  • Strong knowledge of Python and Shell scripting
  • Familiarity with monitoring and logging tools (DataDog, AWS CloudWatch)
  • Soft Skills:
  • Excellent leadership and communication skills
  • Strong problem-solving skills, with the ability to break down complex issues into manageable parts
  • Ability to adapt to changing requirements and priorities
  • Passion for DevOps, automation, and security, with a focus on delivering high-quality solutions
  • Education
  • Bachelor's degree in Computer Science, Information Technology, or a related field
  • Experience
  • At least 5 years of experience in DevOps, with a focus on cloud infrastructure, CI/CD pipelines, and automation
  • Experience leading DevOps teams, with a proven track record of delivering high-quality solutions

Opcionales

Certifications:

  • AWS Certified DevOps Engineer - Professional
  • GitHub Actions Certified Developer
  • Chef Certified Developer
  • Docker Certified Associate

Conditions

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
APPLY VIA WEB
$$$ Full time
QA Automation SSR Adv
  • Improving South America
JavaScript Agile QA Scrum
Leniolabs_ que ahora es Improving South America es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España, USA y Canadá.
Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes.
Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.
Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Apply directly on the original site at Get on Board.

Funciones del cargo

Actualmente, estamos en la búsqueda de un QA Automation SSR Adv/SR que se quiera unir a Leniolabs/Improving South America para trabajar de la mano de uno de nuestros importantes clientes:
  • Se trabajará en el departamento de desarrollo de tecnología de la empresa.
  • Trabajo en equipo - liderazgo.
  • Será responsable de avanzar en los diferentes requerimientos del cliente, junto con el equipo.
  • Su trabajo consiste en hacer que las tareas se realicen utilizando todos los recursos disponibles (tangibles e intangibles).
  • Contamos internamente con personas capacitadas para realizar QA, Líder de proyecto, etc, por lo cual tendrá la responsabilidad de adaptarse a cada equipo.
  • Trabajará para el área de notificaciones del sistema.
  • El trabajo está basado en ayudar a otras personas a conectar mensajes del sistema.
  • El sistema es usado por desarrolladores internos y eternos.

Requerimientos del cargo

  • Nivel de inglés intermedio/avanzado - Excluyente.
  • Experiencia realizando el ciclo completo de testing de software.
  • Experiencia de +5 años probando aplicaciones web y deseable que cuente experiencia en mobile.
  • Experiencia en la construcción de un framework para testing web.
  • Experiencia en POM.
  • Conocimientos o experiencia en JavaScript/TypeScript (Deseable).
  • Experiencia con Playwright o Cypress.
  • Manejo de metodologías agiles (Scrum).

Beneficios

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Internal talks Improving South America offers space for internal talks or presentations during working hours.
Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Improving South America gives you paid vacations over the legal minimum.
APPLY VIA WEB
$$$ Full time
DevOps Senior
  • Lemontech
Python BigQuery Azure Golang
En Lemontech, somos una empresa SaaS líder en Latinoamérica en el área Legaltech, comprometidos con modernizar procesos legales a través de tecnología innovadora. Nos especializamos en desarrollar softwares eficaces para el sector jurídico, simplificando y digitalizando lo que anteriormente era burocrático. Nuestro equipo está compuesto por talentos internacionales, cada uno aportando sus habilidades únicas para crear un ambiente colaborativo y creativo. Buscamos a un DevOps Senior que comparta nuestra visión y pasión por transformar el sistema judicial.

Apply without intermediaries from Get on Board.

Funciones del cargo

Como DevOps Senior, serás responsable de:
  • Manejar e implementar Kubernetes a nivel intermedio-avanzado, asegurando su optimización y rendimiento.
  • Realizar debugeo de infraestructura y aplicativos instalados en Kubernetes.
  • Administrar nuestros servicios en AWS, aplicando tu conocimiento avanzado en la plataforma.
  • Utilizar Helm o herramientas similares para charting, facilitando despliegues eficientes.
  • Implementar y mantener infraestructura como código utilizando Terraform.
  • Trabajar con herramientas GitOps como ArgoCD para integraciones continuas y flujos de trabajo de entrega.
  • Desarrollar y ejecutar pipelines de CI/CD utilizando GitHub Actions.
  • Implementar herramientas de monitoreo como New Relic y Datadog, desde su instalación hasta la creación de dashboards significativos.
  • Programar en lenguajes como Python o Golang para resolver problemas complejos.

Descripción del puesto

Buscamos un DevOps Senior que cuente con las siguientes habilidades y características:
  • Experiencia sólida en la administración de Kubernetes, con un enfoque en la optimización y escabilidad.
  • Haven un dominio intermedio-avanzado en debugeo de infraestructuras.
  • Experiencia avanzada con AWS, incluyendo la gestión de servicios y networking.
  • Habilidad en herramientas de charting como Helm, y en la implementación de infraestructura como código mediante Terraform.
  • Conocimientos en herramientas de CI/CD como GitHub Actions y su aplicación en procesos de desarrollo.
  • Un enfoque proactivo hacia el monitoreo de sistemas, utilizando herramientas de visualización y procesamiento de datos como New Relic y Datadog.
  • Deseable contar con conocimiento de GCP y Azure, así como experiencia usando herramientas de monitoreo con eBPF.
  • Habilidad en el manejo de herramientas de data analytics como BigQuery, dbt y Dagster.

Habilidades deseables

Además de los requisitos mencionados, se valorará:
  • Conocimiento en plataformas de GCP y/o Azure para diversificar nuestra infraestructura.
  • Experiencia con herramientas de monitoreo que utilizan eBPF, para optimizar el rendimiento del sistema.
  • Familiaridad con herramientas de data como BigQuery, dbt, y Dagster que pueden añadir valor a nuestros proyectos en el manejo y análisis de datos.

Beneficios de trabajar en Lemontech

En Lemontech, valoramos a nuestro equipo y ofrecemos una serie de beneficios atractivos:
  • Horarios flexibles que se adaptan a tu estilo de vida.
  • Trabajo remoto y una cultura basada en la colaboración.
  • Seguros de salud complementarios para tu tranquilidad.
  • Un ambiente laboral excepcional donde la buena onda es parte de la rutina, ¡nos encanta fomentar la diversión en el trabajo!
  • Oportunidades de desarrollo profesional, un excelente ambiente de trabajo y eventos sociales regulares que facilitan la creación de lazos entre colegas.

¿Estás listo para unirte a nosotros y hacer un impacto positivo en el sistema judicial? 🌍

Te compartimos nuestro aviso de Privacidad de Postulantes.

Wellness program Lemontech offers or subsidies mental and/or physical health activities.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance Lemontech pays or copays life insurance for employees.
Paid sick days Sick leave is compensated (limits might apply).
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Lemontech pays or copays health insurance for employees.
Dental insurance Lemontech pays or copays dental insurance for employees.
Free car parking You can park your car for free at the premises.
Commuting stipend Lemontech offers a stipend to cover some commuting costs.
Computer provided Lemontech provides a computer for your work.
Education stipend Lemontech covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts Lemontech provides some discounts or deals in certain stores.
Vacation over legal Lemontech gives you paid vacations over the legal minimum.
Beverages and snacks Lemontech offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Parental leave over legal Lemontech offers paid parental leave over the legal minimum.
APPLY VIA WEB
Gross salary $1200 - 1500 Full time
PL/SQL Database Administrator
  • OCUREL
  • Calama (In-office)
Python SQL Oracle ETL
Our mission is to revolutionize lead management by creating a seamless process for acquiring, nurturing, qualifying, and routing prospects for the mining industry. You will play a pivotal role in optimizing the data infrastructure that supports OCUREL's lead journey. We provide solutions and staff to different customers in the mining industry in Chile and beyond.

Apply directly from Get on Board.

Responsibilities

  1. Database Architecture & Maintenance:
    • Design, implement, and maintain scalable PL/SQL databases to support OCUREL’s lead management system.
    • Optimize database schemas for performance and reliability.
  2. Data Integration & Quality Management:
    • Integrate data from multiple sources, including web forms, CRM tools, and marketing platforms.
    • Ensure data accuracy, consistency, and integrity across systems.
    • Develop processes to clean and standardize incoming data.
  3. Performance Optimization:
    • Monitor database performance and optimize queries, indexes, and configurations.
    • Proactively address bottlenecks and implement solutions to scale systems as data volume grows.
  4. Automation & Scripting:
    • Automate data workflows, including ETL (Extract, Transform, Load) processes.
    • Develop scripts to streamline routine database tasks and reporting.
  5. Security & Compliance:
    • Implement robust data security protocols to protect sensitive lead and customer data.
    • Ensure compliance with GDPR, CCPA, and other relevant data privacy regulations.
  6. Collaboration & Support:
    • Work closely with developers to integrate databases with front-end and back-end applications.
    • Support sales and marketing teams by ensuring they have timely access to accurate data.
    • Provide technical guidance and documentation to team members.

Requirements

Technical Skills:
  • Strong experience with PL/SQL and Oracle databases.
  • Proficiency in SQL and one scripting language (e.g., Python, Bash).
  • Hands-on experience with ETL tools and processes.
  • Familiarity with cloud database solutions (AWS RDS, Azure SQL, Google BigQuery, etc.).
  • Knowledge of performance tuning, query optimization, and database indexing.
Data Security & Compliance:
  • Understanding of data protection best practices.
  • Experience implementing GDPR, CCPA, or similar compliance measures.
Soft Skills:
  • C1 English level or higher
  • Excellent problem-solving skills and attention to detail.
  • Strong communication skills for cross-functional collaboration.
  • Ability to manage multiple tasks and prioritize effectively.
Proved experience working with lead magnets.

Conditions

  • 100% in-person in our offices in downtown Calama
  • Benefits as required by law
Te compartimos nuestro aviso de Privacidad de Postulantes.

Library Access to a library of physical books.
APPLY VIA WEB
$$$ Full time
DevOps Engineer
  • Monetech Servicios

Monetech Servicios es una startup fintech de nueva generación que desarrolla soluciones inteligentes y fáciles de usar para automatizar las operaciones financieras en el segmento B2C. Nuestro objetivo es transformar el mercado y evolucionar hasta convertirnos en una entidad financiera totalmente autorizada con nuestra propia infraestructura bancaria. Esto nos permitirá emitir nuestras propias tarjetas, proporcionar servicios de crédito, ampliar nuestra oferta financiera y ofrecer el nivel de flexibilidad, accesibilidad y fiabilidad que nuestros clientes merecen.

Estamos en camino de convertirnos en el próximo neobanco inclusivo y basado en datos de México, ofreciendo financiación justa, rápida y totalmente digital a millones de personas que actualmente están fuera del sistema tradicional.

📌 Dado que somos una startup con miembros de varios países, enviar tu CV en inglés ayudará a agilizar el proceso de selección.

Find this job and more on Get on Board.

Tu día a día

  • Colaborar estrechamente con los equipos de negocio, desarrolladores e ingenieros DevOps para diseñar e implementar soluciones para funciones empresariales.
  • Contribuir al diseño de la arquitectura de infraestructura para los objetivos comerciales a mediano plazo, asegurando su alineación con estrategias de crecimiento a largo plazo.
  • Automatizar la configuración y el mantenimiento de la infraestructura, implementando las mejores prácticas de monitoreo y alertas para reducir el tiempo de resolución de problemas y mejorar la satisfacción del cliente.
  • Mantenerse actualizado sobre las últimas características de la plataforma AWS y adaptarlas a los objetivos de la empresa y las necesidades del equipo.
  • Desarrollar continuamente sus propias habilidades mientras orienta y apoya el crecimiento de los miembros del equipo.

Habilidades Indispensables

  • Experiencia como Ingeniero DevOps o en un rol similar de ingeniería de software.
  • Experiencia práctica con AWS u otros proveedores de nube, incluyendo diseño e implementación de infraestructura (redes, autoescalado, registro de logs, monitoreo, etc.).
  • Experiencia en la implementación de prácticas de seguridad a nivel de infraestructura en la nube y aplicaciones (por ejemplo, PCI DSS, protección de datos, ISO 27001).
  • Dominio de Git y flujos de trabajo con GitHub.
  • Sólidos conocimientos de scripting en Bash y Python.
  • Conocimientos de bases de datos (estructuradas/no estructuradas) y SQL.
  • Nivel de inglés B1 para comunicarse eficazmente con equipos internacionales.
  • Mentalidad resolutiva y espíritu de trabajo en equipo.
  • Título universitario (o equivalente) en Informática, Ingeniería o un campo relevante.
  • Experiencia en el desarrollo o ingeniería de aplicaciones tanto para startups como para empresas de gran escala.

¿Qué Distingue a los Mejores Candidatos?

  • Certificación en AWS (gran ventaja).
  • Experiencia en diseño de arquitectura de infraestructura en una empresa de tamaño medio o grande.
    Habilidad para mentorear y desarrollar miembros del equipo en prácticas de DevOps y cultura empresarial.
  • Fuertes habilidades de comunicación para diseñar y articular principios de infraestructura a largo plazo y patrones de arquitectura que respalden los requisitos empresariales funcionales y no funcionales con una perspectiva de más de 3 años.

¿Por Qué Unirse a Nosotros?

  • Forma parte de una empresa fintech en rápido crecimiento, impulsando la innovación en soluciones de préstamos accesibles.
  • Oportunidad de trabajar en proyectos de alto impacto en un entorno dinámico e innovador.
  • Colabora con un equipo apasionado y comprometido con la inclusión financiera.

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
Gross salary $2000 - 2200 Full time
Analista QA Automatizador
  • BC Tecnología
  • Santiago (Hybrid)
Python PostgreSQL Git QA
En BC Tecnología, somos una consultora de TI con un fuerte enfoque en la creación de soluciones personalizadas que se alinean perfectamente con las necesidades de nuestros clientes. Trabajamos con un diverso portafolio en sectores como servicios financieros, seguros, retail y gobierno. En nuestro proyecto actual, requerimos un Analista QA Automatizador por un periodo de 12 meses, donde el candidato será parte de un equipo ágil, encargado de asegurar la calidad de nuestros desarrollos mediante metodologías de testing avanzadas.

This job is published by getonbrd.com.

Responsabilidades del Analista QA Automatizador

  • Implementar y ejecutar pruebas automatizadas utilizando Selenium WebDriver en Python u otros lenguajes de programación orientados a objetos.
  • Realizar testing de APIs, asegurando la funcionalidad solicitada y la integridad de los microservicios.
  • Manejar repositorios y versiones de software mediante Git y plataformas como GitHub, GitLab o Bitbucket.
  • Interactuar con bases de datos; realizar consultas y pruebas en PostgreSQL como parte del proceso de verificación.
  • Gestionar actividades del equipo y seguimiento de tareas a través de Jira, asegurando el cumplimiento de cronogramas establecidos.
  • Configurar pipelines de CI/CD para facilitar la integración continua y entrega de software fluida.

Requisitos y habilidades del candidato

Buscamos un profesional que posea al menos 3 años de experiencia comprobable en roles similares, con un sólido entendimiento de las prácticas de aseguramiento de calidad. El candidato debe ser capaz de trabajar de manera colaborativa en un ambiente ágil, adoptar metodologías de desarrollo modernas y comunicarse efectivamente con diferentes áreas del equipo. Se valora la proactividad y un enfoque orientado a resultados.

Habilidades deseables

Sería un plus contar con certificaciones relacionadas a testing o metodologías ágiles, así como experiencia en la gestión de pruebas dentro de equipos multidisciplinarios. La experiencia con herramientas adicionales de automatización o conocimientos en lenguajes de programación adicionales también serán considerados positivamente.

Beneficios que ofrecemos

En BC Tecnología, valoramos a nuestro personal y fomentamos un ambiente laboral positivo y colaborativo. Ofrecemos un contrato a plazo fijo que tiene la posibilidad de convertirse en indefinido. Nuestro esquema de trabajo es híbrido, permitiendo así flexibilidad en la modalidad. Además, contamos con beneficios tales como seguro complementario de salud, aguinaldo por fiestas patrias y navidad, y tarjeta de alimentación. 🌟

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB
Gross salary $2000 - 2500 Full time
DBA Oracle
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL Oracle Linux
En *BC Tecnología*, somos una consultora TI con un enfoque claro en el cliente. Nuestros equipos de trabajo ágiles están diseñados para colaborar en proyectos innovadores, especialmente en el sector educativo. Tenemos más de 6 años de experiencia creando soluciones IT que se ajustan a las necesidades de nuestros clientes. Este proyecto específico es emocionante y se basa en la administración y optimización de bases de datos Oracle, siendo una oportunidad ideal para quienes buscan hacer un impacto significativo en su campo.

This job offer is on Get on Board.

Tus responsabilidades:

  • 🔧 Gestionar bases de datos Oracle en producción y desarrollo, asegurando su alta disponibilidad y rendimiento.
  • ⚙️ Configurar y gestionar entornos de alta disponibilidad usando Oracle RAC y Data Guard.
  • ☁️ Migrar bases de datos a Oracle Cloud y otros entornos Cloud.
  • 🛠 Automatizar tareas de DBA y realizar monitoreo continuo para optimizar el rendimiento.
  • 🛡 Diseñar planes de recuperación ante desastres y políticas de backup/restore.
  • 🔄 Colaborar con equipos de desarrollo y operaciones para integrar las bases de datos con las aplicaciones.

¿Qué buscamos?

  • 🎯 Experiencia sólida en Oracle 19c o superior.
  • ⚡ Conocimiento profundo de Oracle RAC, Data Guard, ASM y Oracle Multitenant.
  • ☁️ Experiencia con Oracle Cloud Infrastructure (OCI) y otros servicios Cloud como AWS o Azure (deseable).
  • 🛠 Habilidades en scripting para automatización de tareas DBA (Bash, Python).
  • 📊 Experiencia en monitoreo, tuning y optimización de bases de datos.
  • 🗂 Conocimiento avanzado en PLSQL, tuning de SQL, y gestión de backups (RMAN, Data Pump).
  • 🔐 Experiencia en seguridad y encriptación de bases de datos.

¿Qué ofrecemos?

  • 🚀 Proyecto de 5 meses con posibilidad de extensión.
  • 🌍 Trabajo híbrido en un ambiente dinámico.
  • 🎓 Oportunidades de crecimiento y aprendizaje con nuevas tecnologías.

Beneficios adicionales:

  • Modalidad híbrida (presencial 2 veces por semana) en Lima, Perú.
  • Horario flexible de lunes a viernes de 9:00 a 18:00.
  • Oportunidad de trabajar en proyectos innovadores que impactan el sector educativo.
  • Ambiente dinámico y con muchas oportunidades de crecimiento.
¡Únete a un equipo donde tu talento hará la diferencia! 🌟

Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB
Gross salary $2800 - 3000 Full time
DevOps Semi Senior
  • BC Tecnología
  • Santiago (Hybrid)
Ruby Python Git Linux
En BC Tecnología, somos una consultora de TI con más de 6 años de experiencia ofreciendo soluciones adaptadas a las necesidades de nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestra especialidad incluye la formación de equipos ágiles para distintas áreas de tecnología, incluyendo Infraestructura TI y Desarrollo de Software. Nos enfocamos en la creación de productos innovadores y en el apoyo organizacional mediante metodologías ágiles.

This job is available on Get on Board.

Funciones del Rol

Como Devops Semi Senior, tus responsabilidades incluyen:
  • Implementar y gestionar infraestructuras en la nube utilizando herramientas de primeros niveles como AWS, GCP o Azure.
  • Desarrollar y mantener pipelines de CI/CD utilizando lenguajes de programación como Python, Ruby y Bash.
  • Colaborar en el uso de Infraestructura como Código mediante herramientas como Terraform y Ansible.
  • Monitorear y optimizar clústeres de producción en entornos de Linux, utilizando herramientas como Docker y Kubernetes.
  • Participar activamente en sesiones de migración de infraestructura, asesorando en el proceso de transición de on-premise a Cloud.
  • Soporte técnico continuo para el equipo en prácticas DevOps, asegurando la implementación de mejores prácticas y principios de calidad en el desarrollo.
  • Utilizar y optimizar herramientas de monitoreo y trazabilidad como Prometheus, ELK y Grafana para garantizar el rendimiento efectivo de las aplicaciones.

Descripción del Perfil

Buscamos un profesional con al menos 3 años de experiencia en roles de Ingeniero DevOps o en Infraestructura Cloud, que demuestre un profundo conocimiento en prácticas DevOps. Buscamos habilidades tanto técnicas como interpersonales, incluyendo:
  • Salto de experiencia demostrado en sistemas Linux, control de versiones con Git y implementación de contenedores con Docker y Kubernetes.
  • Conocimientos sólidos en servicios en la nube (AWS, GCP, Azure) y sus respectivas herramientas de monitoreo.
  • Capacidad para trabajar en un entorno híbrido, manteniendo una comunicación efectiva tanto en ambientes remotos como presenciales.
  • Iniciativa propia y aptitud para resolver problemas, así como la capacidad de colaborar colaborativamente dentro de equipos multidisciplinarios.

Habilidades Deseables

Además de los requisitos mencionados, serán valoradas las siguientes habilidades:
  • Experiencia previa con herramientas de Infraestructura como Código como Terraform y Ansible.
  • Certificaciones en plataformas de nube como AWS o Azure.
  • Conocimientos en metodologías ágiles de gestión y desarrollo de software.
  • Capacidades en sistemas de logging y trazabilidad, aumentando la visibilidad del rendimiento de las aplicaciones.

Beneficios de Trabajar en BC Tecnología

En BC Tecnología, cuidamos el bienestar de nuestro equipo. Ofrecemos:
  • Seguro Complementario de Salud y Seguro de Vida para todos los empleados.
  • Bonos de rendimiento y aguinaldos durante festividades importantes.
  • Flexibilidad de horarios con múltiples turnos y una jornada laboral adaptable.
  • Acceso a certificaciones y cursos en AWS, Azure y otras tecnologías relevantes.
  • Convenios con instituciones de salud y acceso a un gimnasio cercano.
  • Oportunidades para participar en actividades externas y enriquecedoras.
¡Únete a un equipo donde tu talento hará la diferencia! 🌟

Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB
Gross salary $2200 - 2700 Full time
QA Automation
  • coderslab.io
Android iOS Python Agile

En CodersLab, actualmente estamos enfocados en el crecimiento global de nuestros equipos con el objetivo de posicionar nuestros productos en más países de Latinoamérica. Por esta razón, estamos buscando un QA AUTOMATION motivado y orientado a objetivos.

Te unirás a un equipo desafiante y ambicioso con ganas de innovar en el mercado, haciendo que tus propuestas sean altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

This company only accepts applications on Get on Board.

Funciones del cargo

Responsabilidades Principales:

1. Desarrollo de Automatización de Pruebas:

o Diseñar e implementar scripts automatizados para pruebas de aplicaciones web, móviles y

APIs utilizando herramientas como Robot Framework y Appium (Android/iOS).

o Garantizar la cobertura de pruebas para servicios REST y GraphQL.

o Usar Python para desarrollar soluciones personalizadas y mejorar los frameworks de prueba existentes.

2. Pruebas de Bases de Datos:

o Realizar pruebas y validaciones en bases de datos relacionales (e.g., MySQL, PostgreSQL) y no relacionales (e.g., DynamoDB).

3. Gestión y Colaboración:

o Documentar procesos, resultados y estrategias de prueba en herramientas como Confluence.

o Trabajar en estrecha colaboración con desarrolladores y partes interesadas del negocio para garantizar que los requisitos de calidad se cumplan.

o Gestionar tareas, estimaciones de esfuerzo y prioridades en Jira.

4. Gestión de Infraestructura:

o Configurar pipelines de integración y despliegue continuo (CI/CD) utilizando GitHub Actions.

o Colaborar en entornos basados en la nube, como AWS, para la ejecución y el mantenimiento de pruebas automatizadas.

5. Capacitación y Transferencia de Conocimiento:

o Capacitar a los miembros del equipo en herramientas, procesos y mejores prácticas de automatización.

o Promover una cultura de mejora continua mediante la transferencia de conocimiento y la mentoría.

Requerimientos del cargo

• Experiencia mínima de 5 años en QAA.

• Experiencia sólida en automatización de pruebas utilizando Robot Framework y Appium (Android/iOS).

• Conocimiento avanzado en Python para desarrollo de scripts y frameworks.

• Experiencia en diseño y ejecución de pruebas de APIs (REST y GraphQL).

• Familiaridad con bases de datos relacionales y no relacionales (MySQL, PostgreSQL, DynamoDB).

• Conocimiento de herramientas de CI/CD como GitHub Actions.

• Experiencia trabajando con AWS.

• Manejo de herramientas de gestión como Jira y Confluence.

• Habilidades en documentación y colaboración con equipos técnicos y de negocio.

• Experiencia en entornos ágiles (Scrum)

• Capacidad para liderar iniciativas de automatización y fomentar un entorno de aprendizaje continuo.

• Excelentes habilidades de comunicación y proactividad

• Autonomía y capacidad para gestionar múltiples tareas simultáneamente.

Conditions

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
Gross salary $2800 - 3000 Full time
Site Reliability Engineer (SRE)
  • BC Tecnología
  • Santiago (Hybrid)
Python Linux Virtualization Amazon Web Services
En *BC Tecnología*, somos una consultora de TI dedicada a ofrecer soluciones personalizadas en tecnología para diversas industrias como servicios financieros, seguros, retail y gobierno. En esta ocasión, buscamos un(a) Site Reliability Engineer (SRE) que se una a nuestro equipo para implementar y mantener soluciones de infraestructura y despliegue continuo en entornos críticos. Este profesional manejará tecnologías de vanguardia en plataformas multinube como AWS, GCP y Azure, desempeñándose en un ambiente dinámico que prioriza la eficiencia y la alta disponibilidad.

Send CV through Get on Board.

Funciones

  • Diseñar, implementar y gestionar pipelines de CI/CD utilizando GitLab y GitHub.
  • Monitorear, diagnosticar y optimizar sistemas para asegurar un alto rendimiento y disponibilidad.
  • Gestionar infraestructura como código (IaC) con Terraform.
  • Automatizar tareas repetitivas a través de scripting en Python y Bash.
  • Administrar clústeres de Kubernetes y servicios en AWS ECS.
  • Proveer soluciones robustas en entornos multinube (AWS, GCP, Azure).
  • Colaborar con equipos de desarrollo y operaciones para resolver incidentes y optimizar procesos.

Requerimientos

Experiencia:

  • Experiencia sólida en administración de infraestructura en AWS.
  • Dominio avanzado de GitLab y GitHub.
  • Experiencia comprobada en Terraform, Kubernetes y scripting con Python.
  • Habilidades en scripting con Bash.
  • Conocimiento de arquitecturas en la nube (IaaS, PaaS) y despliegue de contenedores.

Requisitos Deseables

Requisitos Deseables

  • Experiencia en entornos multinube (AWS, GCP, Azure).
  • Certificaciones relevantes en AWS, Kubernetes o Terraform.
  • Familiaridad con herramientas de monitoreo como Prometheus y Grafana.

Condiciones y Beneficios

Ofrecemos un contrato por proyecto estimado a 6 meses con posibilidad de extensión y una metodología de trabajo híbrida a demanda en Mall Florida / Las Condes, promediando 3 veces a la semana. El horario de trabajo es de lunes a viernes, y el salario es a convenir. Adicionalmente, proporcionamos beneficios como seguro complementario, Amipass de $4,500 por día laborado, convenios con actividades recreativas y bonos. ¡Esperamos tu interés y que te sumes a nuestro equipo en un entorno dinámico y colaborativo! 😊

APPLY VIA WEB
$$$ Full time
Ingeniero de Operaciones TI
  • Usercode SpA
Python Node.js Linux DevOps

Usercode es una empresa tecnológica especializada en el desarrollo de software para instituciones públicas y organizaciones privadas. Nuestro foco son las tecnologías Cloud, la automatización y digitalización de procesos.

Trabajamos 100% remoto, nuestro equipo está en distintas regiones de Chile, México y Perú. Para comunicarnos y trabajar utilizamos Slack, Meet Hangout y Monday.

La necesidad actual:

El volumen del negocio de Usercode está creciendo por la vía de incorporar una mayor cantidad y tipo de proyectos de desarrollo, por un lado, y por otro lado, abriendo líneas de negocio relacionadas, como mantenimiento de infraestructura, y ampliando la cartera de clientes hacia el mercado privado.

Para lograr el éxito en este proceso es clave contar con un equipo de desarrollo capaz, autónomo, responsable, con experiencia, preparado técnicamente, con profundos conocimientos en una serie de herramientas específica, capaz de aprender y adquirir el uso herramientas nuevas.

Apply at the original job on getonbrd.com.

Funciones del cargo

Para el puesto de Ingeniero de Operaciones TI con un enfoque en servicios cloud y DevOps, debe tener conocimiento en las siguientes características técnicas:

Configuración de máquinas virtuales en entornos Linux (obligatorio): Habilidad para instalar, configurar y mantener sistemas basados en Linux. Experiencia en la administración de servidores, optimización de rendimiento y seguridad de sistemas Linux.

Configuración de servicios web y de aplicaciones (obligatorio): Experiencia en la configuración y administración de servidores web y aplicaciones como Apache, Nginx, y Tomcat. Capacidad para implementar y gestionar procesos con gestores como PM2 para aplicaciones Node.js.

Seguridad de sistemas y redes (obligatorio): Conocimiento en la implementación de políticas de seguridad, gestión de accesos y configuración de firewalls y otros mecanismos de seguridad en entornos cloud y on-premise.

Monitoreo y logística (obligatorio): Experiencia en la configuración de herramientas de monitoreo y logística para garantizar la visibilidad y el rendimiento operativo, utilizando herramientas como Prometheus, Grafana, ELK Stack, etc.

Creación, mantención e implementación de productos digitales como plataformas web, aplicaciones móviles y/o sitios web.

El ingeniero de operaciones TI trabajará en el área de desarrollo de software junto con los demás desarrolladores, arquitecto de software, líder técnico y jefe de proyecto. Los proyectos serán mayoritariamente plataformas web para instituciones públicas o privadas donde debe levantar los diferentes ambientes, configurarlos, asegurar la seguridad, levantar y configurar los servicios necesarios para el correcto funcionamiento de las plataformas web y/o APIs.

Requerimientos del cargo

Requisitos técnicos:

Estamos en búsqueda de un Ingeniero de Operaciones TI, con un enfoque decidido hacia la gestión y optimización de servicios en la nube y prácticas DevOps. Esperamos que el candidato ideal tenga experiencia robusta en la implementación y manejo de ambientes cloud, utilizando herramientas modernas de CI/CD como Jenkins, y que posea habilidades sólidas en la configuración y administración de ambientes de desarrollo, prueba y producción.

El rol implica responsabilidades clave como la configuración de bases de datos y la garantía de su rendimiento óptimo, la implementación de soluciones escalables y la administración de infraestructura como código. Es fundamental que el candidato tenga la capacidad de colaborar estrechamente con equipos de desarrollo para facilitar despliegues rápidos y seguros, y asegurar la alta disponibilidad y resiliencia de los sistemas.

Buscamos a alguien que no solo se encargue de mantener la infraestructura existente, sino que también proponga y ejecute mejoras continuas, aplicando las mejores prácticas de seguridad y optimización de costos en entornos cloud.

Experiencia excluyente:

  • Configuración de máquinas virtuales en entornos Linux.
  • Configuración de servicios web y de aplicaciones.
  • Seguridad de sistemas y redes.
  • Monitoreo y logística.

Comportamiento esperado:

Lo que buscamos en ti:

  • Proactividad
  • Trabajo en equipo
  • Autonomía
  • Orientado a objetivos y resultados

Características personales:

  • Autonomía
  • Cumplimiento
  • Buenas habilidades de comunicación oral y escrita incluyendo comprensión lectora
  • Saber escuchar, atención
  • Ser respetuoso
  • Disposición a colaborar con el equipo
  • Responsable de sus tareas proyectos trabajos

Conocimientos deseables

Conocimiento en servicios AWS: Configuración y gestión de servicios clave de AWS como EC2, S3, RDS, ECS, Lambda, y VPC. Familiaridad con AWS CloudFormation o Terraform.

Gestión de bases de datos: Configuración, optimización y mantenimiento de sistemas de bases de datos. Experiencia en tareas como la configuración de replicación, backups automatizados y tuning de rendimiento.

Configuración y manejo de contenedores: Experiencia en uso de Docker para la creación y gestión de contenedores.

Orquestación con Kubernetes: Capacidad para implementar, configurar y manejar clústeres de Kubernetes.

Implementación y configuración de herramientas de CI/CD: Experiencia en la configuración y uso de Jenkins para la integración y entrega continua. Capacidad para diseñar pipelines de CI/CD.

Automatización y scripting: Habilidad en scripting con Bash, Python, o similar para la automatización de tareas administrativas y de despliegue.

Condiciones

Este puesto ofrece la flexibilidad de un entorno de trabajo remoto, sin embargo, según las necesidades específicas de nuestros clientes, puede haber ocasiones en las que se requiera tu presencia en un lugar de trabajo presencial.

  • Días extra de vacaciones.
  • Días libres 3x5, día libre por cumpleaños, cambio de domicilio, muerte de mascota
  • Pago de certificaciones seleccionadas
  • Pausa activa colaborativa
  • Aguinaldo

APPLY VIA WEB
$$$ Full time
Ingeniero de Operaciones TI
  • Usercode SpA
Python MySQL Linux DevOps

Usercode es una empresa tecnológica especializada en el desarrollo de software para instituciones públicas y organizaciones privadas. Nuestro foco son las tecnologías Cloud, la automatización y digitalización de procesos.

Trabajamos 100% remoto, nuestro equipo está en distintas regiones de Chile, México y Perú. Para comunicarnos y trabajar utilizamos Slack, Meet Hangout y Monday.

La necesidad actual:
El volumen del negocio de Usercode está creciendo por la vía de incorporar una mayor cantidad y tipo de proyectos de desarrollo, por un lado, y por otro lado, abriendo líneas de negocio relacionadas, como mantenimiento de infraestructura, y ampliando la cartera de clientes hacia el mercado privado.

Para lograr el éxito en este proceso es clave contar con un equipo de desarrollo capaz, autónomo, responsable, con experiencia, preparado técnicamente, con profundos conocimientos en una serie de herramientas específica, capaz de aprender y adquirir el uso herramientas nuevas.

Applications: getonbrd.com.

Funciones del cargo

Configuración de máquinas virtuales en entornos Linux (obligatorio): Habilidad para instalar, configurar y mantener sistemas basados en Linux. Experiencia en la administración de servidores, optimización de rendimiento y seguridad de sistemas Linux.

Configuración de servicios web y de aplicaciones (obligatorio): Experiencia en la configuración y administración de servidores web y aplicaciones como Apache, Nginx, y Tomcat. Capacidad para implementar y gestionar procesos con gestores como PM2 para aplicaciones Node.js.

Seguridad de sistemas y redes (obligatorio): Conocimiento en la implementación de políticas de seguridad, gestión de accesos y configuración de firewalls y otros mecanismos de seguridad en entornos cloud y on-premise.

Monitoreo y logística (obligatorio): Experiencia en la configuración de herramientas de monitoreo y logística para garantizar la visibilidad y el rendimiento operativo, utilizando herramientas como Prometheus, Grafana, ELK Stack, etc.

Requerimientos del cargo

Enfoque decidido hacia la gestión y optimización de servicios en la nube y prácticas DevOps. Esperamos que el candidato ideal tenga experiencia robusta en la implementación y manejo de ambientes cloud, utilizando herramientas modernas de CI/CD como Jenkins, y que posea habilidades sólidas en la configuración y administración de ambientes de desarrollo, prueba y producción.

El rol implica responsabilidades clave como la configuración de bases de datos y la garantía de su rendimiento óptimo, la implementación de soluciones escalables y la administración de infraestructura como código. Es fundamental que el candidato tenga la capacidad de colaborar estrechamente con equipos de desarrollo para facilitar despliegues rápidos y seguros, y asegurar la alta disponibilidad y resiliencia de los sistemas.

Buscamos a alguien que no solo se encargue de mantener la infraestructura existente, sino que también proponga y ejecute mejoras continuas, aplicando las mejores prácticas de seguridad y optimización de costos en entornos cloud.

El candidato ideal debe ser proactivo, trabajar bien en equipo, y manejar habilidades de comunicación efectivas. Se valoran personas con orientación a resultados, autonomía, y un enfoque en la mejora continua.

Experiencia excluyente:

  • Configuración de máquinas virtuales en entornos Linux.
  • Configuración de servicios web y de aplicaciones.
  • Seguridad de sistemas y redes.
  • Monitoreo y logística.

Comportamiento esperado:

Lo que buscamos en ti:

  • Proactividad
  • Trabajo en equipo
  • Autonomía
  • Orientado a objetivos y resultados

Características personales:

  • Autonomía
  • Cumplimiento
  • Buenas habilidades de comunicación oral y escrita incluyendo comprensión lectora
  • Saber escuchar, atención
  • Ser respetuoso
  • Disposición a colaborar con el equipo
  • Responsable de sus tareas proyectos trabajos

Opcionales

Conocimiento en servicios AWS: Experiencia en la configuración y gestión de servicios clave de AWS como EC2, S3, RDS, ECS, Lambda, y VPC. Familiaridad con AWS CloudFormation o Terraform.

Gestión de bases de datos: Sólidos conocimientos en la configuración, optimización y mantenimiento de sistemas de bases de datos como MySQL y SQL Server. Experiencia en tareas como la configuración de replicación, backups automatizados y tuning de rendimiento.

Configuración y manejo de contenedores: Experiencia en el uso de Docker para la creación y gestión de contenedores.

Orquestación con Kubernetes : Capacidad para implementar, configurar y manejar clústeres de Kubernetes, optimizando la automatización y escalabilidad de aplicaciones en producción.

Implementación y configuración de herramientas de CI/CD: Experiencia en la configuración y uso de Jenkins para la integración y entrega continua.

Automatización y scripting: Habilidad en scripting con Bash, Python, o similar.

Beneficios

Este puesto ofrece la flexibilidad de un entorno de trabajo remoto, sin embargo, según las necesidades específicas de nuestros clientes, puede haber ocasiones en las que se requiera tu presencia en un lugar de trabajo presencial.

  • Días extra de vacaciones.
  • Días libres 3x5, día libre por cumpleaños, cambio de domicilio, muerte de mascota
  • Pago de certificaciones seleccionadas
  • Pausa activa colaborativa
  • Aguinaldo

APPLY VIA WEB
Gross salary $2000 - 2500 Full time
Systems Engineer
  • Mediastream
  • Bogotá &nbsp Santiago &nbsp São Paulo (Hybrid)
Ruby Python Linux Web server
Company Description
Mediastream is a leading streaming technology company that has been in business for over 16 years. We collaborate with major companies and broadcasters around the world to offer a quality end-to-end solution for content administration, distribution, audiovisual production, and user experience. Our goal is to connect our customers with their audience in a simple and effective way, creating new revenue streams for their businesses.
Role Description
This is a hybrid role for a Systems Engineer. This role will be responsible for designing, implementing and maintaining Mediastream's content delivery network (CDN) infrastructure and services, ensuring fast, secure, robust and scalable access to our digital services for our customers. customers. users around the world, with a focus on video encoding and transcoding.

Apply exclusively at getonbrd.com.

Responsibilities

  • Design, configure, and optimize the CDN infrastructure to enhance content delivery speed and security.
  • Continuously monitor CDN performance, identify bottlenecks, and make adjustments to ensure operational continuity and speed.
  • Rotate on-call shifts and synchronously monitor high-concurrency streaming events.
  • Implement robust security measures to safeguard the CDN against threats, including DDoS attacks or others.
  • Collaborate closely with application development and cybersecurity teams to ensure efficient integration of the CDN and the implementation of security policies.
  • Work collaboratively with development and content teams to ensure that content is optimized for delivery through the CDN.
  • Research and evaluate new technologies, trends, and best practices in the CDN solutions domain, and subsequently propose, agree upon, implement, document, and provide training as necessary.

Minimum requirements

  • Operating Systems Linux Server (Ubuntu, Debian, CentOS, etc.): Exceptional
  • Network Infrastructure Management and Support (BGP, HTTP, DNS, DHCP, NTP, TCP/IP, FTP, Firewalls, among others): Advanced
  • Application and Network Monitoring Tools (Desirable: Datadog): Intermediate
  • Scripting Programming in BASH, RUBY, PYTHON, or others: Intermediate
  • Webserver Administration (Nginx): Exceptional
  • AWS Amazon CloudFront & Route 53: Intermediate
  • Video encoding and transcoding: Exceptional
  • Bachelor's degree in Computer Engineering, Systems, Networks, or related field
  • Additional Certifications: Cloud, Cisco, Linux, Networking, Nginx, Docker
  • Other: Streaming Technologies

APPLY VIA WEB
$$$ Full time
Data Engineer
  • Compara
Python PostgreSQL Kafka CI/CD

Compara es una plataforma digital que permite cotizar y comparar los principales seguros y productos financieros de Latinoamérica. En nuestra empresa, buscamos un Data Engineer que ayude a construir, optimizar y evolucionar nuestra infraestructura de datos. Con un énfasis en la modernización y mejora continua, esta posición es clave para asegurar que nuestros procesos de datos sean eficientes y escalables.

Originally published on getonbrd.com.

🎯 ¿Qué harás?

  • Mantener y optimizar nuestro data warehouse en PostgreSQL y los pipelines de ingesta de datos en producción.
  • Liderar la transición hacia una arquitectura moderna basada en Databricks, dbt y un data lake en S3.
  • Desarrollar y escalar pipelines de procesamiento y transformación de datos.
  • Monitorear, depurar y documentar procesos de datos para garantizar su calidad y confiabilidad.

🔎 ¿A quién buscamos?

  • Persona con más de 3 años de experiencia en ingeniería de datos, construyendo y manteniendo pipelines en producción.
  • Dominio de Python para procesamiento de datos, incluyendo el uso de librerías como pandas, SQLAlchemy y psycopg2.
  • Experiencia trabajando con orquestadores de workflows, especialmente Airflow.
  • Conocimiento sólido de bases de datos relacionales, especialmente PostgreSQL, incluyendo modelamiento y optimización de rendimiento.
  • Experiencia práctica con almacenamiento en la nube (S3 o equivalente) y formatos como Parquet.
  • Autonomía y capacidad de tomar decisiones técnicas.

🌟 Será un plus si cuentas con

  • Experiencia con dbt y modelado de datos.
  • Conocimiento en Databricks, Delta Lake, Apache Iceberg o arquitecturas de lakehouse.
  • Experiencia con diseño e implementación de pipelines CDC (Change Data Capture) usando Debezium, Kafka o similares.
  • Conocimientos de buenas prácticas de DevOps para data (versionado de pipelines, testing, CI/CD).
  • Inglés técnico para leer documentación y colaborar en proyectos internacionales.

🚀Únete a nuestro equipo

En Compara, ofrecemos horarios flexibles y un entorno que favorece el crecimiento profesional. Valoramos la cultura de aprendizaje continuo y el desarrollo de cada miembro del equipo, por lo que si disfrutas optimizando infraestructuras de datos, impulsando mejoras estratégicas y explorando nuevas herramientas, ¡nos encantaría conocerte! 🚀

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Compara provides a computer for your work.
Vacation over legal Compara gives you paid vacations over the legal minimum.
APPLY VIA WEB
$$$ Full time
Ingeniero de Datos
  • Assetplan
  • Santiago (Hybrid)
Assetplan es una compañía líder en renta residencial en Chile, con presencia también en Perú. Actualmente, gestionamos más de 30.000 propiedades para clientes retail e institucionales y operamos más de 80 edificios multifamily. Con más de 10 años de trayectoria, Assetplan ha sido pionera en innovar y aplicar tecnología en el sector inmobiliario, promoviendo un modelo de negocio basado en la eficiencia, innovación y mejora continua.
El proyecto al que te integrarás busca potenciar la gestión de datos para respaldar la toma de decisiones estratégicas en toda la organización. Forma parte de un equipo joven con una estructura horizontal que valora el aprendizaje, la colaboración y la generación de valor a través de la innovación tecnológica aplicada a la información y análisis de grandes volúmenes de datos.

Apply directly through getonbrd.com.

Responsabilidades principales

Como Ingeniero de Datos, serás responsable de:
  • Diseñar, desarrollar y optimizar procesos ETL (Extract, Transform, Load) utilizando herramientas clave como Python (librerías Pandas y Numpy) y SQL.
  • Desarrollar y mantener dashboards y paneles en Power BI, integrando visualizaciones estratégicas para acompañar los procesos ETL y proporcionar insights relevantes.
  • Trabajar de forma colaborativa con diferentes áreas de la organización para interpretar y transformar sus necesidades en soluciones de datos que faciliten la toma de decisiones estratégicas.
  • Promover la calidad, escalabilidad y gobernanza de los datos durante el diseño, desarrollo y mantenimiento de los procesos y pipelines de datos, asegurando soluciones escalables y accesibles.
  • Mantener una comunicación efectiva con los equipos de negocio y tecnología para asegurar que las soluciones implementadas se alineen con los objetivos corporativos y generen impacto real en la organización.

Requisitos y habilidades necesarias

Buscamos un profesional con 1 a 3 años de experiencia demostrable en el área de datos, en roles de ingeniería o análisis que impliquen manipulación y transformación de datos.
  • Manejo de SQL Medio
  • Manejo de Python Intermedio/Avanzado (excluyente)
  • Manejo de Power BI Medio
  • Manejo de Excel Avanzado
  • 1-3 años de experiencia (excluyente)

Conocimientos adicionales deseables

Es deseable poseer experiencia en ambientes ágiles y metodologías de desarrollo colaborativo que faciliten la integración entre equipos técnicos y de negocio.
Valoramos conocimientos en otras herramientas de visualización o procesamiento de datos, así como experiencia en gestión de la calidad y gobernanza de datos que permitan fortalecer el ecosistema de información de la empresa.

Beneficios y cultura empresarial

En Assetplan valoramos y reconocemos el esfuerzo y dedicación de nuestros colaboradores, ofreciendo un ambiente laboral positivo basado en el respeto mutuo y la colaboración.
Entre nuestros beneficios contamos con:
  • Días extras de vacaciones por años de antigüedad
  • Modalidad de trabajo híbrido y flexibilidad para trámites personales
  • Monto mensual en app de snacks en la oficina
  • Medio día libre en tu cumpleaños
  • Copago en seguro complementario de salud
  • Reajuste anual de renta basado en IPC
  • Bono anual por desempeño
  • Eventos empresa y happy hours financiados por la compañía
  • Acceso a plataforma de cursos de formación
  • Convenios con gimnasios, descuentos y más

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Assetplan pays or copays health insurance for employees.
Computer provided Assetplan provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Assetplan gives you paid vacations over the legal minimum.
Beverages and snacks Assetplan offers beverages and snacks for free consumption.
APPLY VIA WEB
$$$ Full time
Especialista de Big Data
  • SONDA
  • Santiago (Hybrid)
Java Python PostgreSQL SQL

En SONDA, somos una empresa líder en transformación digital en la región. Desde nuestros inicios, creemos en el rol que desempeñamos para contribuir al desarrollo de las sociedades donde operamos mediante soluciones tecnológicas avanzadas. Actualmente, dentro de unidad de negocio de Digital Application Services, para proyecto SII - Servicio de impuestos indirectos, buscamos a Especialista de Big Data.

This job offer is on Get on Board.

Funciones del cargo

· Ser responsable de crear el "Big Data", tubería de datos, desde la recolección hasta la entrega para su análisis o para alimentar un producto o servicio basado en análisis predictivos en producción.

· Asegurar que la arquitectura de datos sea factible para que los científicos de datos trabajen con ella.

· Construir y mantener un Data Lakes y ofrece API para acceder al Especialista de Data Science que usa los datos para su análisis y ejecución de modelos de Machine Learning.

· Ser responsable de dar todo el apoyo para que el trabajo del Especialista de Data Science suceda, y sea “más efectivo”.

Requerimientos del cargo

· Estudios superiores en áreas relacionados.

· Desde 2 años de experiencia en cargos similares.

· Construcción de procesos e integración de datos en Big Data

· Conocimiento de conceptos de computación distribuida

· Experiencia y conocimiento en el uso de SQL.

· Uso de bases de datos relacionales, particularmente en Oracle y postgreSQL.

· Bases de Datos NoSQL
· Manejo de sistemas Unix/linux, shell script

· Programación orientada a objetos usando JAVA o Python

· Programación Funcional en Scala/Spark

· Manejo de herramientas de CI/CD.

· Conocimiento de almacenamiento de Datos.
· Diseño de Esquemas de datos

· Conocimiento de Hive, Impala, Kudu

· Conocimiento de Kafka ​

· Deseable conocimiento en el uso de servicios en entorno Cloudera.

Opcionales

Y mucho mejor si destacas por tener alguna certificación o curso en alguno de estos tópicos: ​

· Integración de datos

· Big data

· Desarrollo API

· Microservicios, springboot, springbatch

· Desarrollo en nube

· Desarrollo seguro

· Diseño de aplicaciones

· Metodologías ágiles

Conditions

Wellness program SONDA offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance SONDA pays or copays life insurance for employees.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage SONDA pays or copays health insurance for employees.
Retirement plan SONDA pays or matches payment for plans such as 401(k) and others.
Dental insurance SONDA pays or copays dental insurance for employees.
Commuting stipend SONDA offers a stipend to cover some commuting costs.
Computer provided SONDA provides a computer for your work.
Education stipend SONDA covers some educational expenses related to the position.
Fitness subsidies SONDA offers stipends for sports or fitness programs.
APPLY VIA WEB
Gross salary $2000 - 2500 Full time
Arquitecto/a de Datos Big Data
  • Interfell
Python SQL NoSQL Scala

En Interfell, impulsamos el futuro de las empresas conectándolas con el mejor talento IT de Latinoamérica. Somos una organización comprometida con el desarrollo y la fidelización de profesionales calificados, promoviendo el trabajo remoto y la inclusión en el sector tecnológico. Actualmente apoyamos un proyecto estratégico que demanda la renovación y optimización de la arquitectura de datos empresarial en un entorno híbrido, integrando tecnologías Big Data y cloud. Nuestro enfoque está en ofrecer soluciones escalables, seguras y alineadas con las metas corporativas para ayudar a las empresas a transformar sus sistemas de información y potenciar sus capacidades analíticas y de inteligencia artificial.
La persona trabajará con el equipo de analítica, producto e inteligencia artificial para garantizar la constante innovación y desafíos tecnológicos de la empresa.

Applications: getonbrd.com.

Responsabilidades principales

  • Diseñar arquitecturas escalables para el manejo eficiente de datos estructurados y no estructurados en ambientes cloud, on-premise e híbridos.
  • Asegurar la interoperabilidad entre sistemas locales y en la nube, considerando aspectos críticos como latencia, sincronización y seguridad.
  • Elaborar modelos de datos conceptuales, lógicos y físicos que reflejen y soporten los objetivos estratégicos del negocio.
  • Definir y establecer estándares rigurosos de calidad, acceso y gobernanza de datos aplicables en entornos mixtos.
  • Liderar y gestionar la migración de sistemas legados hacia arquitecturas modernas y flexibles, garantizando la continuidad operacional.
  • Diseñar estrategias para una transición progresiva hacia la nube, minimizando riesgos e impactos en la operación diaria.
  • Diagnosticar y optimizar el rendimiento de sistemas distribuidos para asegurar eficiencia y estabilidad.
  • Gestionar de forma eficiente los costos y recursos tanto en plataformas cloud como en infraestructura local.
  • Coordinar colaborativamente con áreas de datos, producto, inteligencia artificial y analítica para anticipar y solucionar necesidades tecnológicas.
  • Promover la adopción de tecnologías emergentes que impulsen el manejo estratégico de los datos e innovación corporativa.

Descripción del perfil requerido

Formación y experiencia: Contar con al menos 5 años de experiencia en tecnologías Big Data como Snowflake, Databricks, Apache Spark y bases NoSQL. Mínimo 3 años de trabajo en plataformas cloud AWS o Azure, con sólida familiaridad en entornos híbridos u on-premise.

Habilidades técnicas: Experiencia demostrable en diseño de arquitecturas mixtas (cloud + local), avanzado modelado de datos y desarrollo de procesos ETL complejos. Conocimiento en gestión de data lakes, data warehouses distribuidos y seguridad de datos, incluyendo respaldo y recuperación en ambientes heterogéneos. Competencia en programación orientada a datos usando SQL, Python o Scala.

Competencias blandas: Capacidad para comunicarse eficazmente con stakeholders técnicos y de negocio, liderar equipos en entornos dinámicos y colaborativos, poseer pensamiento analítico y resolver problemas de manera proactiva y eficiente.

Beneficios y condiciones

Oportunidad de crecimiento con un equipo multinivel

Vacaciones y feriados

Flexibilidad y autonomía

Pago USD

Trabajo remoto - Latam

APPLY VIA WEB
Gross salary $1900 - 2600 Full time
Data Scientist
  • Data Qu
  • Santiago (Hybrid)
Python Git Machine Learning AI

En DataQu, somos una empresa pionera en tecnologías avanzadas con más de una década de experiencia en análisis de datos, modelado matemático y desarrollo de software innovador. Nuestra pasión se centra en la Inteligencia Artificial y Big Data, creando sistemas personalizados que se integran con múltiples plataformas para optimizar procesos empresariales y acelerar el crecimiento estratégico de clientes en sectores como minería, salud, banca, retail, acuicultura y cementeras.

Operamos mayoritariamente en entorno remoto, con una cultura colaborativa y creativa, realizando encuentros regulares para fortalecer la cohesión y la innovación. Actualmente, estamos en expansión con proyectos innovadores en España, buscando potenciar nuestra influencia global mediante soluciones que transforman la experiencia de nuestros clientes.

Apply from getonbrd.com.

Responsabilidades principales

En esta posición, serás responsable de aplicar técnicas avanzadas de ciencia de datos para resolver problemas del mundo real a través de modelos predictivos y analíticos.

  • Desarrollar, implementar y optimizar modelos de machine learning supervisados y no supervisados para apoyar la toma de decisiones estratégicas.
  • Procesar, limpiar y transformar grandes volúmenes de datos para asegurar su calidad y utilidad en los modelos.
  • Gestionar el versionamiento de código utilizando herramientas dedicadas para mantener la trazabilidad y colaboración en los proyectos.
  • Colaborar con equipos multidisciplinarios para integrar modelos de inteligencia artificial generativa y tecnologías de modelos de lenguaje (LLM), incluyendo arquitecturas RAG (Retrieval-Augmented Generation).
  • Contribuir al diseño de soluciones que se adapten a las necesidades especificas de los clientes, facilitando la adopción de tecnologías de IA.
  • Participar en reuniones presenciales y remotas, fomentando un ambiente de trabajo productivo y colaborativo en la modalidad semi-presencial en Santiago, Chile.

Requisitos y perfil buscado

Buscamos un profesional semi-senior en Ciencia de Datos con una base sólida en machine learning clásico y un enfoque innovador para la aplicación práctica de análisis avanzados.

  • Dominio avanzado de Python para el desarrollo y despliegue de modelos analíticos, con experiencia gestionando librerías científicas y frameworks de modelado.
  • Experiencia comprobable en el procesamiento de datos, así como en métodos de modelado supervisado y no supervisado, garantizando resultados confiables y relevantes.
  • Conocimiento actualizado en herramientas de versionamiento de código como Git, asegurando prácticas colaborativas profesionales y ordenadas en los proyectos.
  • Idealmente, experiencia en tecnologías emergentes como modelos de lenguaje a gran escala (LLM), arquitecturas RAG y aplicaciones de inteligencia artificial generativa, lo que potenciará los productos que desarrollamos.
  • Habilidades interpersonales para trabajar en equipo, con comunicación efectiva y compromiso con la mejora continua.
  • Capacidad para adaptarse a un entorno semi-presencial dinámico en Santiago, donde la interacción directa apoyará la innovación y productividad del equipo.

Habilidades y conocimientos valorados

Serán altamente valoradas las siguientes competencias y experiencias que complementen el perfil principal:

  • Experiencia previa en proyectos con clientes de sectores complejos como salud, minería o banca, aportando una visión integral del negocio.
  • Familiaridad con otras herramientas y lenguajes de programación orientados a análisis de datos y visualización avanzada.
  • Conocimiento práctico en la implementación de soluciones de inteligencia artificial escalables en producción.
  • Capacidad para documentar y comunicar resultados técnicos y de negocio de manera clara y efectiva.
  • Interés en participar en la cultura colaborativa que fomenta DataQu, incluyendo la participación en actividades de equipo y mejora continua.

Beneficios y ambiente laboral

  • Ambiente laboral agradable y de compañerismo, con un equipo experimentado dispuesto a apoyarte en tus desafíos profesionales.
  • Horario establecido que permite un balance adecuado entre la vida personal y profesional.
  • La posibilidad de implementar, probar y experimentar con diversas tecnologías de la información para mantener la innovación constante.
  • Bono en fechas patrias y navidad como reconocimiento adicional.
  • Proyección y crecimiento profesional a largo plazo dentro de la organización.
  • Seguro de salud que garantiza bienestar y seguridad para ti y tu familia.

Nos encontramos en una etapa de expansión y buscamos talentos que quieran acompañarnos en la creación de soluciones transformadoras a nivel global.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Data Qu pays or copays health insurance for employees.
Computer provided Data Qu provides a computer for your work.
APPLY VIA WEB
Gross salary $2300 - 2500 Full time
Data Reporting Engineer
  • Contac Ingenieros
  • Santiago (Hybrid)
Python SQL Azure ETL

En Contac buscamos aportar y potenciar los equipos especializados de nuestros clientes, agregando valor a sus procesos a través de la experiencia de nuestros profesionales.
El equipo de trabajo está orientado a desarrollar, implementar y mantener sistemas avanzados de reportes y visualización de datos, con la finalidad de mejorar la gestión empresarial.

Exclusive to Get on Board.

Principales Desafíos

En esta posición, serás el protagonista en la transformación de datos en conocimiento relevante para la toma de decisiones estratégicas dentro de la minería.

  • Diseñar, desarrollar y optimizar reportes y herramientas de visualización que faciliten el acceso y análisis de la información, asegurando que sea clara y estratégica para los diferentes niveles de la organización.
  • Construir, mantener y mejorar las plataformas de datos que alimentan las soluciones de reportabilidad, garantizando la integridad y actualización continua de la información.
  • Integrar y gestionar procesos ETL (Extract, Transform, Load) para asegurar que la información sea confiable, oportuna y eficiente, soportando la toma de decisiones diarias.

Conocimientos Claves y Requisitos

Buscamos profesionales con un perfil técnico avanzado que combine conocimientos en ingeniería con habilidades sólidas en análisis y visualización de datos dentro del sector minero.

  • Python avanzado, con experiencia práctica utilizando librerías especializadas como Pandas, NumPy, Matplotlib, Plotly y Dash para manipulación, análisis y creación de visualizaciones dinámicas.
  • SQL avanzado y competencia en manejo y optimización de bases de datos complejas.
  • Power BI avanzado, capaz de construir dashboards impactantes que faciliten la interpretación y comunicación de datos a niveles estratégicos.
  • Experiencia en gestión de ETL y modelamiento de datos, con familiaridad en el ecosistema Azure para administrar y optimizar plataformas de datos en la nube.
  • Título profesional en Ingeniería Civil o Industrial, preferentemente con especialidad en Metalurgia, Química o Minería, aportando una visión práctica de los procesos productivos y operativos mineros.
  • Conocimiento sólido de los procesos mineros y manejo de indicadores clave del negocio para convertir datos en información relevante y accionable.
  • Mínimo 2 años de experiencia específica en reportabilidad y análisis de datos, preferentemente en el sector minero o industrias relacionadas.
  • Inglés Intermedio (B2)
  • Capacidad para trabajar en equipo, pensamiento analítico, atención al detalle, y orientación a resultados con compromiso en entregar soluciones de calidad que agregan valor.

Competencias y Habilidades Deseables

Es valorado contar con habilidades complementarias que potencien el impacto del rol, tales como:

  • Experiencia previa en industrias de minería o sectores industriales similares, aportando contexto y comprensión profunda de los requerimientos del negocio.
  • Conocimientos en otras herramientas de visualización o BI adicionales a Power BI, como Tableau o QlikView.
  • Familiaridad con metodologías ágiles para gestión de proyectos y desarrollo de soluciones analíticas.
  • Capacidad para comunicar hallazgos técnicos a audiencias no técnicas, facilitando la adopción de soluciones basadas en datos.
  • Interés por la innovación tecnológica y aprendizaje continuo en el ámbito de ciencia de datos y análisis avanzado.

Que ofrecemos

  • Una carrera en tecnología y analítica avanzada, con oportunidades de crecimiento y especialización.
  • Un grato ambiente laboral, donde la colaboración, el aprendizaje y el desarrollo profesional son prioridad.

APPLY VIA WEB
Gross salary $1800 - 2800 Full time
Business Intelligence Analyst
  • Compara
Python PostgreSQL Git SQL

Compara es una plataforma digital que permite cotizar y comparar los principales seguros y productos financieros de Latinoamérica. Estamos en búsqueda de un Business Intelligence Analyst para unirse a nuestro equipo de Product Operation. Tu misión será ayudarnos a entender y mejorar el desempeño de nuestros productos de inteligencia artificial, transformando datos en decisiones que generen impacto real.

This company only accepts applications on Get on Board.

¿Qué harás?

  • Generar reportes detallados, dashboards interactivos y métricas clave que permitan monitorear el desempeño y la efectividad de los productos de inteligencia artificial desarrollados por Compara.
  • Analizar los KPIs relevantes para identificar errores, tendencias y oportunidades de mejora que potencien el rendimiento y la experiencia del usuario.
  • Colaborar estrechamente con los equipos de producto, tecnología y otras áreas funcionales para abordar desafíos estratégicos basados en datos y asegurar una comunicación fluida entre departamentos.
  • Apoyar en la configuración, mantenimiento y optimización continua de los productos de inteligencia artificial, incluyendo la ejecución de tareas especializadas relacionadas con prompt engineering, que mejoran la interacción con modelos de lenguaje.

¿A quién buscamos?

  • Experiencia en roles de Business Intelligence.
  • Manejo de herramientas BI (idealmente Metabase).
  • Dominio de SQL (preferiblemente PostgreSQL).
  • Conocimientos prácticos de Python para análisis o automatización de datos.
  • Conocimiento básico de versionado con Git.
  • Pensamiento analítico, autonomía y habilidades colaborativas para definir métricas de producto y resolver problemas con actitud proactiva.

Será un plus si cuentas con:

  • Conocimiento en data engineering: ETL/ELT, pipelines y automatización de procesos.
  • Experiencia en prompt engineering o trabajo con modelos de lenguaje (LLMs).

¿Qué ofrecemos?

En Compara ofrecemos horarios flexibles que permiten un equilibrio ideal entre la vida personal y laboral, fomentando un ambiente que favorece el crecimiento profesional y el aprendizaje continuo. Valoramos la cultura de desarrollo individual y de equipo, brindando una atmósfera colaborativa para la innovación y la optimización constante de infraestructuras de datos y procesos tecnológicos. Si te apasiona trabajar con datos, impulsar mejoras estratégicas y adoptar nuevas herramientas tecnológicas, ¡nos encantaría que formes parte de nuestro equipo! 🚀

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Compara provides a computer for your work.
Vacation over legal Compara gives you paid vacations over the legal minimum.
APPLY VIA WEB
$$$ Full time
Data Engineer
  • NeuralWorks
  • Santiago (Hybrid)
Python Data Analysis SQL Big Data

NeuralWorks es una compañía de alto crecimiento fundada hace 3 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

Apply to this job without intermediaries on Get on Board.

Descripción del trabajo

El equipo de Data y Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.
Dentro del equipo multidisciplinario con Data Scientist, Translators, DevOps, Data Architect, tu rol será clave en construir y proveer los sistemas e infraestructura que permiten el desarrollo de estos servicios, formando los cimientos sobre los cuales se construyen los modelos que permiten generar impacto, con servicios que deben escalar, con altísima disponibilidad y tolerantes a fallas, en otras palabras, que funcionen. Además, mantendrás tu mirada en los indicadores de capacidad y performance de los sistemas.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Como Data Engineer, tu trabajo consistirá en:

  • Participar activamente durante el ciclo de vida del software, desde inception, diseño, deploy, operación y mejora.
  • Apoyar a los equipos de desarrollo en actividades de diseño y consultoría, desarrollando software, frameworks y capacity planning.
  • Desarrollar y mantener arquitecturas de datos, pipelines, templates y estándares.
  • Conectarse a través de API a otros sistemas (Python)
  • Manejar y monitorear el desempeño de infraestructura y aplicaciones.
  • Asegurar la escalabilidad y resiliencia.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia práctica de al menos 3 años en entornos de trabajo como Data Engineer, Software Engineer entre otros.
  • Experiencia con Python.
    Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida optimización de consultas.
  • Pasión en problemáticas de procesamiento de datos.
  • Experiencia con servidores cloud (GCP, AWS o Azure), especialmente el conjunto de servicios de procesamiento de datos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.
  • Habilidades de comunicación y trabajo colaborativo.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” D. Gaucher , J. Friesen and A. C. Kay, Journal of Personality and Social Psychology, 2011.

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Vestimenta informal
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
APPLY VIA WEB
$$$ Full time
Data Scientist
  • NeuralWorks
  • Santiago (Hybrid)
Python Data Analysis SQL Amazon Web Services

NeuralWorks es una compañía de alto crecimiento fundada hace 3 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

Apply exclusively at getonbrd.com.

Descripción del trabajo

El equipo de Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.

Como Data Scientist, trabajarás en conjunto con Machine Learning Engineers,Translators, Data Engineers entre otros perfiles, construyendo productos basados en datos que permitan llevar las prácticas de negocio al siguiente nivel.

El equipo de Analítica no opera como un equipo de Research separado, sino que está profundamente integrado con nuestros clientes y sus unidades de negocio, esto permite un feedback loop rápido para iterar, corregir y perfeccionar para finalmente conseguir el impacto de negocio.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, una pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Tu trabajo variará de proyecto a proyecto, pero siguiendo una estructura similar:

  • Identificar problemas de analítica que tengan un mayor impacto para la organización.
  • Familiarizarte con el problema junto a expertos, recabar información, opiniones y facts
  • Investigar las mejores prácticas de la industria.
  • Definir hipótesis de trabajo y approach técnico para resolver el problema, incluyendo el set de datos a utilizar, variables, periodo de tiempo, etc.
  • Recopilar datasets estructurados y no estructurados desde múltiples fuentes.
  • Realizar limpieza de datos y validar correctitud.
  • Aplicar modelos y algoritmos para minería de datos.
  • Analizar resultados e identificar patrones y tendencias.
  • Diseñar junto a Machine Learning Engineers soluciones que permitan capturar oportunidades.
  • Comunicar los resultados y discutirlos junto a expertos o tomadores de decisiones.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia previa en roles de Data Scientist, Data Engineer o similar.
  • Experiencia con Python.
  • Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida la optimización de consultas.
  • Entendimiento de flujo de vida completo modelos de Machine Learning y productos de datos.
  • Habilidades analíticas, de diseño y resolución de problemas.
  • Habilidades de colaboración y comunicación.
  • Buen manejo comunicacional y skills colaborativos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” D. Gaucher , J. Friesen and A. C. Kay, Journal of Personality and Social Psychology, 2011.

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Experiencia con servidores cloud (GCP, AWS o Azure), especialmente el conjunto de servicios de procesamiento de datos.
  • Experiencia usando pipelines de CI/CD y Docker.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Vestimenta informal
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
APPLY VIA WEB
Gross salary $2000 - 3000 Full time
Ingeniero/a de Datos / AI
  • Devups
Devups es una empresa dedicada al staffing tecnologico, focalizados con una vision de proveer a nuestros clientes con talento de calidad pero priorizando el bienestar de nuestros recursos. Para nosotros el cliente es importante, pero el desarrollador aun mas por eso actuamos como representantes de talentos y trabajamos para mejorar la calidad de vida de estos.
DevUps nace de la famosa frase de Barney Stinson, Suit Up.

© Get on Board. All rights reserved.

Job functions

  • Definir y diseñar pipelines de datos junto al PM asignado.
  • Colaborar en la validación, limpieza y testing de datasets.
  • Reportes diarios: lo que hiciste hoy, qué harás mañana y tus bloqueadores.
  • Asistir al menos a 2 llamadas semanales con el equipo de planificación Devups.

Qualifications and requirements

El perfil que buscamos deberá comprender la arquitectura de data lakes y warehouses, aplicando patrones de ETL/ELT probados. Deberá contar con experiencia en optimización de performance de procesamiento masivo y la habilidad para comunicar claramente desafíos técnicos de AI/ML. Experiencia trabajando en entornos ágiles y altamente iterativos es deseable.
Nivel de inglés: B2+.
Se debe cumplir con al menos (1) de los siguientes:
Python & Frameworks:

  • Pandas, NumPy, PySpark
  • Airflow o Prefect
Big Data / Databases:

  • Hadoop, Spark
  • SQL (PostgreSQL, MySQL) o NoSQL (MongoDB, Cassandra)

Desirable skills

  • Experiencia en AWS/GCP (Redshift, BigQuery, S3).
  • Conocimientos de TensorFlow, PyTorch o scikit-learn.
  • Implementación de APIs de inferencia en FASTAPI o Flask.

Conditions

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
Gross salary $1700 - 2500 Full time
Ingeniero de Datos Semi Senior
  • coderslab.io
  • Santiago (Hybrid)
Python Git SQL BigQuery
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de Ingeniero de Datos para unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

Apply to this job at getonbrd.com.

Funciones del cargo

  • Desarrollar y mantener pipelines ETL para ingesta, transformación y carga de datos en GCP.
  • Modelar datos para asegurar la calidad, integridad y optimización en BigQuery.
  • Implementar soluciones usando Cloud Functions, Airflow y Cloud Storage para automatización y orquestación de procesos.
  • Colaborar con equipos multidisciplinarios para cumplir con los objetivos del proyecto Lago de Datos 2.0.
  • Utilizar DBT para la transformación y modelado de datos (cuando aplique).
  • Gestionar versiones y colaborar en el control de código mediante GitLab, Bitbucket o GitHub.
  • Documentar procesos técnicos y mantener buenas prácticas en el manejo de datos.

Requerimientos del cargo

  • Experiencia en desarrollo de proyectos de datos (ETLs) en Google Cloud Platform (GCP).
  • Conocimiento y manejo de productos GCP: BigQuery, Cloud Functions, Airflow, Cloud Storage.
  • Experiencia ideal con DBT (Data Build Tool).
  • Dominio de lenguajes SQL y Python.
  • Experiencia con gestores de versionamiento como GitLab, Bitbucket o GitHub.
  • Experiencia en modelado de datos en GCP.

APPLY VIA WEB
Gross salary $1900 - 2500 Full time
Ingeniero de Datos Senior
  • coderslab.io
  • Santiago (Hybrid)
Python Git SQL BigQuery
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de Ingeniero de Datos para unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

This job offer is available on Get on Board.

Funciones del cargo

  • Desarrollar y mantener ingestas de datos hacia Google Cloud Platform.
  • Implementar pipelines ETL eficientes y escalables para procesamiento de datos.
  • Colaborar con equipos técnicos y de negocio para asegurar la calidad y disponibilidad de la información.
  • Gestionar y optimizar el almacenamiento y procesamiento de datos utilizando BigQuery, Cloud Functions, Airflow y Cloud Storage.
  • Utilizar DBT para transformación y modelado de datos (ideal).
  • Controlar versiones y colaborar en el desarrollo mediante herramientas como GitLab, Bitbucket o GitHub.
  • Documentar procesos y asegurar buenas prácticas en el manejo de datos.
  • Apoyar en la identificación y resolución de problemas técnicos relacionados con ingesta y procesamiento de datos.

Requerimientos del cargo

  • Conocimientos técnicos obligatorios:
    • Desarrollo de proyectos ETL en Google Cloud Platform (GCP).
    • Uso avanzado de productos GCP: BigQuery, Cloud Functions, Airflow, Cloud Storage.
    • Experiencia ideal con DBT (Data Build Tool).
    • Dominio de lenguajes SQL y Python.
    • Manejo de gestores de versionamiento: GitLab, Bitbucket o GitHub.

APPLY VIA WEB
$$$ Full time
Data Analyst
  • ARKHO
  • Santiago (Hybrid)
Python Agile Data Analysis SQL

ARKHO es una consultora experta en tecnologías de la información, que ofrece servicios expertos de TI en el marco de modernización de aplicaciones, analítica de datos, IA y migración a la nube. Nuestro trabajo facilita y acelera la adopción de la cloud en múltiples industrias.
Nos destacamos por ser Partner Advanced de Amazon Web Services con foco estratégico en la generación de soluciones usando tecnología en la nube, somos obsesionados por lograr los objetivos propuestos y tenemos especial énfasis en el grupo humano que compone ARKHO (nuestros Archers), reconociendo a nuestro equipo como un componente vital para el logro de los resultados.

¿Te motivas? ¡Te esperamos!

Find this job on getonbrd.com.

Funciones del cargo

Estamos en busca de un Data Analyst con por lo menos tres años de experiencia, para incorporarse a nuestro equipo ágil en proyectos de Data Analytics. Buscamos a alguien con experiencia en recopilar, procesar y analizar datos para ayudar a las organizaciones a tomar decisiones informadas, este rol es clave para convertir los datos en información significativa que pueda impulsar la toma de decisiones y la estrategia empresarial. Dentro de las principales actividades se encuentran:

  • Obtener datos de diversas fuentes, que pueden incluir bases de datos internas, archivos Excel, sistemas de gestión empresarial, APIs (interfaces de programación de aplicaciones), entre otros.
  • Preparar y limpiar datos para garantizar su calidad y confiabilidad. Esto implica eliminar duplicados, corregir errores, manejar valores faltantes y estandarizar formatos.
  • Explorar y analizar datos mediante técnicas estadísticas y visualización para comprender su distribución, identificar patrones, y detectar posibles outliers.
  • Crear informes y dashboards que resuman los resultados del análisis de datos de manera clara y comprensible para los interesados, como gerentes y tomadores de decisiones.
  • Identificar tendencias a lo largo del tiempo y patrones en los datos que puedan ser útiles para la toma de decisiones estratégicas.
  • Aplicar técnicas de modelado de datos para prever tendencias futuras o realizar proyecciones basadas en datos históricos.
  • Trabajar en estrecha colaboración con equipos interdisciplinarios, como científicos de datos, ingenieros de datos y profesionales de negocios, para comprender mejor los objetivos y desafíos de la organización.
  • Participar en el control y seguimiento de tareas utilizando herramientas como Jira, asegurando la correcta trazabilidad del avance de los proyectos y la priorización de actividades.
  • Mantenerse al tanto de las tendencias tecnológicas y de la industria, así como actualizar y mejorar continuamente los procesos y métodos utilizados en el análisis de datos.

Perfil

Buscamos un profesional con sólidas habilidades analíticas y conocimientos técnicos en herramientas y lenguajes de programación, capaz de comunicar de manera efectiva los resultados de sus análisis a diferentes audiencias dentro de la organización. Si eres una persona apasionada por los datos, con un enfoque en resolver problemas de negocio y habilidades técnicas destacadas, ¡queremos conocerte! En nuestra compañía valoramos a personas autosuficientes, proactivas e innovadoras, que puedan gestionar su propia carga de trabajo, tomar decisiones acertadas y cumplir con los plazos y objetivos establecidos. ¡Buscamos profesionales de excelencia e íntegros, dentro y fuera de la cancha!"

En tu carrera profesional deberías contar al menos con:

  • Experiencia mínima de 3 años en proyectos de Data Analyst y/o Business Intelligence o en roles similares.
  • Habilidad avanzada en SQL para consultas y análisis de bases de datos.
  • Conocimiento en herramientas de visualización de datos como Tableau, Power BI, AWS QuickSight, etc.
  • Experiencia en el manejo de servicios de AWS relacionados con análisis de datos (AWS Glue, Redshift, Athena, S3, cloudwatch, RDS, etc.).
  • Familiaridad con el uso de Python o R para análisis de datos.
  • Habilidades analíticas y capacidad para interpretar datos complejos y traducirlos en insights accionables.
  • Excelentes habilidades de comunicación para presentar datos de manera clara y concisa a partes interesadas no técnicas.
  • Profesional en Ingeniería de Sistemas, Ciencias de la Computación, Matemáticas, Estadística u otros.

Habilidades Opcionales

Si posees experiencia en los puntos siguientes, es un plus:

  • Experiencia trabajando en ambientes de consultoría o proyectos con múltiples clientes.
  • Nivel de inglés Intermedio - Avanzado
  • Experiencia en metodologías ágiles como Scrum

Condiciones

📆 Día administrativo semestral hasta los 12 meses
🏖️ Week off: 5 días de vacaciones extra
🎉 ¡Celebra tu cumpleaños!
📚 Path de entrenamiento
☁️ Certificaciones AWS
🏡 Flexibilidad (trabajo híbrido con posibilidad a remoto)
💍 Regalo por casamiento + 5 días hábiles libres
👶 Regalo por nacimiento de hijos
✏️ Kit escolar
🤱 Beneficio paternidad
❤️ Bonda (plataforma de descuentos y bienestar)

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Computer provided ARKHO provides a computer for your work.
Vacation over legal ARKHO gives you paid vacations over the legal minimum.
APPLY VIA WEB
$$$ Full time
Analista de Operaciones Medios de Pago
  • coderslab.io
  • Santiago (Hybrid)
Python Data Analysis SQL Power BI

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de ANALISTA DE OPERACIONES - MEDIOS DE PAGO para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

This offer is exclusive to getonbrd.com.

Funciones del cargo

  1. Desarrollo de Paneles:
    • Crear y mantener paneles interactivos en Power BI y Looker Studio para la visualización de datos.
    • Asegurar que los paneles reflejen métricas clave y sean accesibles para los usuarios finales.
  2. Explotación de Datos:
    • Realizar la extracción y transformación de datos desde diversas fuentes.
    • Implementar procesos de limpieza y validación de datos.
  3. Análisis de Datos:
    • Analizar grandes volúmenes de datos para identificar tendencias, patrones y oportunidades de mejora.
    • Generar informes analíticos que apoyen la toma de decisiones estratégicas.
  4. Extracción y Análisis Multiplataforma:
    • Integrar datos de diferentes plataformas y sistemas, asegurando una visión holística del rendimiento.
    • Colaborar con equipos de IT para optimizar la infraestructura de datos.
  5. Colaboración Interdepartamental:
    • Trabajar de manera colaborativa con otros departamentos para entender sus necesidades de datos y proporcionar soluciones efectivas.
    • Participar en reuniones de equipo para discutir resultados y proyecciones.
  6. Documentación:
    • Mantener documentación clara y concisa de procesos, análisis y hallazgos.
    • Presentar resultados de manera efectiva a diferentes niveles de la organización.

Requerimientos del cargo

Habilidades/Conocimientos Obligatorios

  • Herramientas y Tecnologías:
    • Power BI
    • GCP (Google Cloud Platform)
    • Looker Studio
    • SQL
    • Python
  • Educación:
    • Título universitario en áreas relacionadas (Ingeniería, Estadística, Ciencias de la Computación, etc.).
  • Experiencia:
    • Experiencia previa en análisis de datos o roles similares (preferentemente en el sector de medios de pago).
  • Habilidades Técnicas:
    • Dominio de SQL para la manipulación y consulta de bases de datos.
    • Conocimiento práctico de Python para análisis de datos y automatización de procesos.
    • Experiencia en el uso de herramientas de visualización (Power BI, Looker Studio).
  • Habilidades Blandas:
    • Excelentes habilidades de comunicación y presentación.
    • Capacidad para trabajar en equipo y colaborar con diferentes áreas.
    • Pensamiento analítico y atención al detalle.

APPLY VIA WEB
Gross salary $1800 - 2800 Full time
Business Intelligence Analyst
  • Compara
Python PostgreSQL Git SQL

Compara es una plataforma digital que permite cotizar y comparar los principales seguros y productos financieros de Latinoamérica. Estamos en búsqueda de un Business Intelligence Analyst para unirse a nuestro equipo de Product Operation. Tu misión será ayudarnos a entender y mejorar el desempeño de nuestros productos de inteligencia artificial, transformando datos en decisiones que generen impacto real.

Apply exclusively at getonbrd.com.

¿Qué harás?

  • Generar reportes detallados, dashboards interactivos y métricas clave que permitan monitorear el desempeño y la efectividad de los productos de inteligencia artificial desarrollados por Compara.
  • Analizar los KPIs relevantes para identificar errores, tendencias y oportunidades de mejora que potencien el rendimiento y la experiencia del usuario.
  • Colaborar estrechamente con los equipos de producto, tecnología y otras áreas funcionales para abordar desafíos estratégicos basados en datos y asegurar una comunicación fluida entre departamentos.
  • Apoyar en la configuración, mantenimiento y optimización continua de los productos de inteligencia artificial, incluyendo la ejecución de tareas especializadas relacionadas con prompt engineering, que mejoran la interacción con modelos de lenguaje.

¿A quién buscamos?

  • Experiencia en roles de Business Intelligence.
  • Manejo de herramientas BI (idealmente Metabase).
  • Dominio de SQL (preferiblemente PostgreSQL).
  • Conocimientos prácticos de Python para análisis o automatización de datos.
  • Conocimiento básico de versionado con Git.
  • Pensamiento analítico, autonomía y habilidades colaborativas para definir métricas de producto y resolver problemas con actitud proactiva.

Será un plus si cuentas con:

  • Conocimiento en data engineering: ETL/ELT, pipelines y automatización de procesos.
  • Experiencia en prompt engineering o trabajo con modelos de lenguaje (LLMs).

¿Qué ofrecemos?

En Compara ofrecemos horarios flexibles que permiten un equilibrio ideal entre la vida personal y laboral, fomentando un ambiente que favorece el crecimiento profesional y el aprendizaje continuo. Valoramos la cultura de desarrollo individual y de equipo, brindando una atmósfera colaborativa para la innovación y la optimización constante de infraestructuras de datos y procesos tecnológicos. Si te apasiona trabajar con datos, impulsar mejoras estratégicas y adoptar nuevas herramientas tecnológicas, ¡nos encantaría que formes parte de nuestro equipo! 🚀

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Compara provides a computer for your work.
Vacation over legal Compara gives you paid vacations over the legal minimum.
APPLY VIA WEB
Gross salary $1700 - 2100 Full time
Data Scientist
  • Kunzapp
  • Santiago &nbsp Ciudad de México (Hybrid)
Python Git Data Analysis SQL

En Kunzapp buscamos un Data Scientist con fuerte ambición y deseo de aprender para desarrollar e implementar modelos de machine learning, análisis de datos, y colaborar con visualizaciones de los KPIs que miden nuestros productos. Esta persona será parte de un equipo de desarrollo pequeño pero poderoso, en un entorno de startup donde la velocidad y la ejecución son clave. Buscamos a alguien que ame el análisis de datos, la experimentación, y construir cultura mientras escalamos.

Apply without intermediaries through Get on Board.

🚀 Responsabilidades

  • Desarrollar e implementar modelos de machine learning y análisis estadístico.
  • Diseñar y mantener pipelines de datos eficientes y escalables.
  • Participar activamente en el proceso de Scrum: grooming, sprint planning, dailies.
  • Colaborar con producto para traducir iniciativas de negocio en soluciones basadas en datos.
  • Promover un ambiente de trabajo transparente, donde se pueda aprender, compartir y crecer.
  • Implementar y mantener sistemas de monitoreo de modelos y métricas clave.
  • Desarrollar experimentos A/B y análisis estadísticos para validar hipótesis.
  • Comunicar hallazgos y recomendaciones basadas en datos al equipo y stakeholders.

🛠 Stack tecnológico actual:

Backend: Go (Gin+Gorm), Python

Análisis de datos: Python, Jupyter Notebooks

Data Engineering: SQL, DynamoDB, SQS, EventBridge

Otros: Git, Docker, AWS Sagemaker, AWS Bedrock, Datadog, Elasticsearch

¿ Qué necesitamos de ti ? 🕵🏻

  • Experiencia en data science y machine learning en entornos productivos.
  • Sólidos conocimientos en estadística y matemáticas.
  • Dominio de Python y sus principales librerías de data science.
  • Mentalidad de "ship fast, fix fast", con enfoque en resultados medibles.
  • Experiencia en implementación y monitoreo de modelos en producción.
  • Ambición, ganas de crecer, y mucho deseo de aprender y mejorar habilidades técnicas.
  • Capacidad para comunicar efectivamente hallazgos técnicos a audiencias no técnicas.
  • Inglés intermedio-avanzado (nuestra documentación se escribe en inglés).

✅ Beneficios

  • Aguinaldo 15 días en Diciembre
  • Bono anual de hasta 1 mes de sueldo basado en performance.
  • Crecimiento constante y acelerado, basado en el crecimiento de Kunzapp.
  • Stock options: Posibilidad a obtener stock optionsOtros beneficios

Wellness program Kunzapp offers or subsidies mental and/or physical health activities.
Equity offered This position includes equity compensation (in the form of stock options or another mechanism).
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Company retreats Team-building activities outside the premises.
Computer provided Kunzapp provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Vacation over legal Kunzapp gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Data Engineer with Snowflake Expertise
  • Moventi
Python Agile SQL Business Intelligence
At Moventi, we focus on helping organizations lead with innovation through technology. Our team consists of a multidisciplinary group of talents working together to adopt new technologies, methodologies, and collaborative work styles that enhance professional growth and project impact. The office is centrally located, equipped with parking, recreational areas for break times, and agile meeting spaces to foster teamwork across different professional profiles. Our organizational culture emphasizes transparency, strong coordination, commitment, willingness to take risks, and daily innovation with original ideas that generate positive impact.

Apply directly through getonbrd.com.

Job Responsibilities and Core Functions

We are looking for a Data Engineer skilled in Snowflake, Airflow, Python, SQL, and Tableau who will play a key role in designing, developing, and maintaining efficient data pipelines and workflows. The primary goal is to enable reliable data processing and visualization to support business intelligence efforts.
  • Design, implement, and optimize data pipelines using Airflow and Python for automated and scalable data processing.
  • Develop and maintain Snowflake data warehouses ensuring data integrity, performance, and security.
  • Create SQL queries and scripts for data preparation, transformation, and loading processes.
  • Build and maintain interactive, insightful dashboards and reports in Tableau to provide actionable insights to stakeholders.
  • Collaborate cross-functionally with data analysts, business users, and other engineering teams to understand data needs and translate them into technical solutions.
  • Troubleshoot, monitor, and optimize existing data workflows and dashboards to improve performance and reliability.

Required Skills and Experience

The ideal candidate will have proven hands-on experience working in data engineering roles, particularly with Snowflake as the data warehousing solution. Strong proficiency in Python and Airflow is essential for orchestrating data workflows. Advanced SQL skills are critical for querying and managing complex datasets. Experience in building Tableau dashboards to enable data visualization and reporting is necessary to communicate insights effectively.
Beyond technical expertise, candidates should be proactive, detail-oriented, and have strong problem-solving capabilities. Excellent communication skills and the ability to work collaboratively in a team environment are vital to succeed in this role. We value professionals who embrace transparency and are committed to innovation and continuous learning.

Desirable Skills and Traits

Experience with cloud environments and other data orchestration tools will be advantageous. Familiarity with additional BI tools or programming languages can enhance your profile. Prior experience in agile methodologies and working in multidisciplinary teams will help you excel and adapt quickly within Moventi’s culture.

Benefits and Work Environment

We are dedicated to the professional development of our team members by offering challenging projects and continuous learning opportunities. From your first day, you will have formal employment as a contractor and can enjoy a birthday free day to celebrate your special moment.
  • Opportunities for ongoing professional growth and learning
  • Formal employment contract starting day one as a contractor
  • Birthday free day to celebrate you
  • Engagement in challenging and impactful projects

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
APPLY VIA WEB
$$$ Full time
Ingeniero Analítica y Gestión Financiera
  • Agrosuper
  • Rancagua (Hybrid)
Python SQL Data Transformation Power BI

En Agrosuper, tenemos la misión de llevar alimentos de la más alta calidad a las familias de Chile y el mundo. Nos mueve el deseo de alimentar el talento y las ganas de crecer constantemente. Buscamos mejorar y fomentar un entorno donde todos disfruten lo bueno de la vida, por lo que valoramos a las personas, que son el alma de nuestra organización .

Te invitamos a participar del proceso de selección para el cargo Ingeniero Analítica y Gestión Financiera. Buscamos incorporar profesionales de formación Ingeniero Civil, para trabajar en la Gerencia de Planificación y Gestión de Administración y Finanzas, y desempeñarse en la ciudad de Rancagua.

El objetivo del cargo es integrar habilidades en data science y desarrollo de proyectos tecnológicos, proporcionando soporte estratégico y analítico a los equipos de la Gerencia de Planificación y Gestión; Además de colaborar estrechamente con las áreas de excelencia operacional, transformación digital y tecnología & datos.

Job opportunity published on getonbrd.com.

Funciones del cargo

1 .Desarrollo de Modelos Predictivos y Prescriptivos: Crear modelos que integren variables financieras y operativas en coordinación con los equipos de planificación y control de gestión para mejorar las proyecciones.
2. Asesoría Técnica en Análisis y Sensibilización de Escenarios: Proveer asesoría técnica para el análisis de escenarios, detección de patrones y optimización de proyecciones financieras.
3. Aseguramiento de la Calidad e Integridad de los Datos: Garantizar la calidad e integridad de los datos, involucrando a los equipos pertinentes para obtener resultados precisos y confiables.
4. Diseño e Implementación de Paneles y Reportes Interactivos: Diseñar e implementar paneles y reportes interactivos para monitorear y controlar KPIs financieros, operativos y estratégicos.
5 Consolidación y Transformación de Datos: Consolidar y transformar datos de diversas fuentes en análisis integrales, trabajando con los equipos involucrados para decisiones basadas en información confiable.
6 Liderazgo en Proyectos de Transformación Digital y Automatización: Liderar iniciativas de transformación digital y proyectos de automatización en procesos recurrentes como cierre mensual y proyecciones.
7. Evaluación de Viabilidad Financiera y Técnica de Proyectos: Evaluar la viabilidad financiera de proyectos de inversión y la viabilidad técnica de proyectos de transformación, proporcionando herramientas de análisis a los equipos.
8.Soporte Analítico y Promoción de Cultura Data-Driven: Colaborar con equipos de planificación financiera y gestión estratégica, asesorar en la formulación de proyectos y evaluaciones del negocio, y promover una cultura basada en datos.

Requerimientos del cargo

1.Ingeniero Civil
2.Experiencia en el uso de herramientas de visualización de datos (ej.: Power BI, Tableau).
3. Dominio de herramientas de análisis de datos (ej. Python, R o SQL).
4. Disponibilidad para trabajar en Rancagua 4x1.
5. Deseable experiencia en gestión financiera.

Condiciones

Te mostramos algunos de nuestros beneficios:
Planes de crecimiento y desarrollo.
Capacitaciones y becas de estudios.
Convenios con distintas instituciones.
Bonos asociados al desempeño.

Computer provided Agrosuper provides a computer for your work.
APPLY VIA WEB
Gross salary $1800 - 2500 Full time
Data Engineer Semisenior / Senior
  • Lisit
  • Santiago (Hybrid)
Python SQL Spark Google Cloud Platform

Lisit es una empresa dedicada a la creación, desarrollo e implementación de servicios de software enfocados en proporcionar herramientas de automatización y optimización que impulsan la eficiencia operativa de sus clientes. Trabajamos con un enfoque constante en la innovación y la pasión por superar desafíos tecnológicos. Nuestra propuesta diferencial radica en un acompañamiento consultivo integral, utilizando diversas herramientas y prácticas tecnológicas que permiten a los clientes alcanzar con éxito sus objetivos de transformación digital.

Apply to this job without intermediaries on Get on Board.

Responsabilidades y Objetivos del Puesto

Como Data Engineer en Lisit, serás responsable de diseñar, construir y mantener pipelines de datos robustos que faciliten la integración entre múltiples sistemas, asegurando un modelado de datos eficiente y alineado con los requerimientos del negocio. Te encargarás de implementar soluciones escalables utilizando herramientas de Infraestructura como Código (IaC) y gestionar el versionamiento del código para garantizar calidad y trazabilidad.

Participarás activamente en la implementación y optimización de soluciones cloud sobre plataformas como Google Cloud Platform (GCP) y Azure, utilizando productos específicos como Airflow, Cloud Run, Cloud Composer, BigQuery y Azure Functions. La elaboración y mantenimiento de procesos ETL/ELT serán clave para asegurar el flujo y la calidad de los datos.

Trabajarás colaborativamente con equipos multidisciplinarios, manteniendo una comunicación fluida y contribuyendo a la innovación continua en los proyectos, siempre con foco en la entrega de valor y el cumplimiento de los objetivos tecnológicos y de negocio.

Requisitos y Habilidades Exigidas

  • Mínimo 3 años de experiencia profesional en manejo y procesamiento de datos, enfocándose en la generación de pipelines, integración de sistemas y modelado de datos.
  • Dominio intermedio a avanzado en lenguajes de programación como Python y Spark, con capacidad para desarrollar y optimizar scripts y procesos complejos.
  • Sólidos conocimientos intermedios a avanzados en Infraestructura como Código (IaC), especialmente usando Terraform.
  • Amplia experiencia con sistemas de versionamiento de código, preferentemente GitHub y GitLab, garantizando buenas prácticas de control y colaboración.
  • Conocimiento avanzado en SQL y bases de datos relacionales y no relacionales, capaces de diseñar consultas complejas y optimizar el rendimiento.
  • Familiaridad intermedia a avanzada con plataformas cloud como Google Cloud Platform y Microsoft Azure, así como con herramientas específicas como Airflow, Cloud Run, Cloud Composer, BigQuery y Azure Functions.
  • Experiencia avanzada con herramientas ETL/ELT, destacándose el uso de Azure Data Factory, siendo este un requisito excluyente.
  • DESEABLE: Certificaciones relevantes en Data Engineering valoradas positivamente, incluyendo Microsoft Azure DP-700, AZ-203, DP-600, Google Cloud Digital Leader y Google Cloud Associate Cloud Engineer.
  • DESEABLE: Conocimientos deseables en Microsoft Power BI y Microsoft Fabric para complementar la visualización y análisis de datos.

Además, buscamos profesionales con capacidad analítica, buenas habilidades comunicativas, actitud proactiva y capacidad para trabajar en equipo, orientados a la mejora continua y la entrega eficiente y efectiva de soluciones.

Conocimientos y Certificaciones Deseables

Valoraremos positivamente candidatos que posean certificaciones oficiales en ingeniería de datos como Azure DP-700, AZ-203, DP-600, Google Cloud Digital Leader, o Google Cloud Associate Cloud Engineer que demuestren compromiso con la actualización continua. También será un plus contar con conocimientos en Microsoft Power BI y Microsoft Fabric, herramientas que aportan valor agregado para el manejo y visualización avanzada de datos, y que complementan el enfoque técnico del puesto.

Beneficios y Ambiente Laboral

Ofrecemos la oportunidad de integrarte a proyectos tecnológicos desafiantes y de largo plazo, trabajando dentro de un equipo técnico altamente colaborativo que promueve un ambiente profesional y amigable. Nuestro entorno está pensado para facilitar la comunicación constante y el compromiso del equipo, con un estilo de trabajo 100% remoto que favorece la conciliación entre la vida personal y profesional.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Computer provided Lisit provides a computer for your work.
APPLY VIA WEB
$$$ Full time
Data Engineer GCP
  • Factor IT
Python Data Analysis SQL NoSQL

En FactorIT, somos líderes en el sector de tecnología y ofrecemos soluciones innovadoras en Data y Analytics, Transformación Digital e Inteligencia Artificial. Con presencia en 8 países de Latinoamérica, nos apasiona abordar los desafíos tecnológicos de grandes empresas. Únete a nuestro equipo de ingenieros de datos que están a la vanguardia de la transformación tecnológica. Trabajamos en proyectos de gran impacto, creando soluciones personalizadas que integran tecnologías emergentes y analítica avanzada.

Apply to this job at getonbrd.com.

Responsabilidades del Ingeniero de Datos

Como Data Engineer en FactorIT, tu objetivo será diseñar, construir y mantener infraestructuras y sistemas de datos que permitan a nuestros clientes tomar decisiones informadas. Tus responsabilidades incluirán:

  • Desarrollar y mantener pipelines de datos eficientes y escalables.
  • Colaborar con equipos multidisciplinarios para analizar necesidades de datos y proporcionar soluciones efectivas.
  • Implementar y optimizar herramientas de integración de datos.
  • Monitorear la calidad y eficiencia de los sistemas de procesamiento de datos.
  • Participar en la gestión y almacenamiento de datos, asegurando la integridad y confidencialidad.

Tu papel será fundamental para impulsar la transformación digital y potenciar la analítica en nuestras soluciones.

Requisitos del Puesto

Buscamos un Data Engineer con pasión por la tecnología y habilidades tanto técnicas como interpersonales. Las características que valoramos son:

  • Título en Ingeniería Informática, Ciencias de la Computación o campos relacionados.
  • Conocimientos en lenguajes de programación como Python o SQL.
  • Experiencia con herramientas de ETL y plataformas de análisis de datos.
  • Aptitudes analíticas y capacidad para resolver problemas.
  • Habilidades de comunicación efectiva para trabajar en equipo y entender las necesidades del cliente.

Valorizamos un enfoque proactivo y la capacidad de aprender de manera continua.

Habilidades Deseables

Si bien no es obligatorio, será un plus contar con:

  • Experiencia en herramientas de Big Data como Hadoop o Spark.
  • Conocimientos en la implementación y gestión de bases de datos no relacionales (NoSQL).
  • Familiaridad con prácticas de DevOps relacionadas con el manejo de datos.
  • Certificaciones en tecnologías de datos o análisis.

Estas habilidades complementarias serán valoradas en el proceso de selección.

Beneficios de Trabajar en FactorIT

Ofrecemos un entorno de trabajo dinámico y colaborativo, donde podrás trabajar con tecnologías de punta y acceder a un plan de crecimiento profesional. Además, brindamos capacitaciones en IA y automatización. Nuestros beneficios incluyen:

  • Trabajo 100% remoto 🌍 para mantener un equilibrio entre tu vida personal y laboral.
  • Flexibilidad laboral para adaptarte a tus necesidades.
  • Un salario competitivo acorde a tu experiencia.

Únete a nosotros y sé parte de un equipo que está transformando el futuro de la tecnología en la región.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Factor IT provides a computer for your work.
APPLY VIA WEB
Gross salary $1800 - 3000 Full time
Ingeniero/a de Datos para Asistente Conversacional IA
  • Lisit
Python PostgreSQL SQL MongoDB
Lisit es una empresa dedicada a la creación, desarrollo e implementación de servicios de software que brindan herramientas de automatización y optimización para sus clientes, manteniendo un fuerte enfoque en la innovación y la pasión por resolver desafíos tecnológicos complejos. Buscamos incorporar talento para trabajar en un proyecto puntero que consiste en el desarrollo de un asistente conversacional inteligente basado en inteligencia artificial.
El proyecto se centra en la construcción de un sistema capaz de procesar lenguaje natural (NLP) utilizando datos de diversas fuentes, para lo cual se requiere una infraestructura de datos sólida, escalable y fiable que permita alimentar los modelos inteligentes de lenguaje y mejorar continuamente la interacción conversacional, aportando valor a nuestros clientes mediante soluciones eficientes y tecnológicamente avanzadas.

Apply to this job at getonbrd.com.

Descripción del rol y responsabilidades

Como Ingeniero/a de Datos en este proyecto, serás responsable de diseñar, construir y mantener pipelines ETL/ELT que permitan la ingesta y procesamiento eficiente de datos diversos y no estructurados, como chats, correos electrónicos y logs, transformándolos en formatos precisos y útiles para el entrenamiento y operación de modelos de procesamiento de lenguaje natural (NLP).
Asimismo, integrarás fuentes de datos externas a través de APIs RESTful, gestionarás bases de datos relacionales como PostgreSQL y NoSQL como MongoDB, y optimizarás el almacenamiento de grandes volúmenes de datos en soluciones cloud como S3, BigQuery o Redshift. También garantizarás la calidad, trazabilidad y gobernanza de los datos para mantener la confiabilidad del sistema.
El rol incluye implementar medidas de anonimización y protección para los datos sensibles, asegurando el cumplimiento de normativas vigentes en materia de privacidad y manejo ético de la información, y colaborarás con el equipo multidisciplinario para cumplir con los objetivos tecnológicos y de negocio del proyecto.

Requisitos y habilidades esenciales

Buscamos un profesional con experiencia sólida en Python, utilizando librerías especializadas como Pandas, PySpark o Dask para el procesamiento y transformación de datos a gran escala. Es necesario tener un dominio avanzado en SQL y experiencia práctica con bases de datos relacionales y NoSQL, especialmente PostgreSQL y MongoDB.
Se requiere conocimiento comprobable en herramientas de orquestación de flujos de trabajo de datos, como Apache Airflow, y manejo de almacenamiento en la nube en plataformas como Azure, AWS S3 o Google Cloud Storage (GCS).
Es fundamental contar con experiencia en el procesamiento de datos no estructurados aplicados a modelos de NLP y manejo adecuado de APIs RESTful para la integración de diferentes fuentes y servicios.
Además de las habilidades técnicas, valoramos competencias orientadas a la gestión minuciosa de la calidad y gobernanza de datos, capacidad analítica y pensamiento crítico para mantener estándares rigurosos que garanticen la efectividad del asistente conversacional inteligente.

Conocimientos y experiencia deseables

Se valorará experiencia previa en proyectos relacionados con asistentes virtuales o tecnologías de procesamiento de lenguaje natural (NLP), así como familiaridad con prácticas DataOps para la gestión eficiente de pipelines y control de versiones de datos.
El conocimiento de normativas internacionales de privacidad y protección de datos, como GDPR e HIPAA, junto con técnicas avanzadas de anonimización, será un plus muy importante para desempeñarse con éxito en el cargo.

Beneficios y ambiente laboral

Ofrecemos la oportunidad de participar en proyectos tecnológicos desafiantes y de largo plazo dentro de un equipo técnico colaborativo, en un ambiente laboral amigable y profesional.

El trabajo es 100% remoto, lo cual fomenta la conciliación entre la vida personal y profesional sin perder la comunicación fluida y el compromiso con el equipo.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
APPLY VIA WEB
$$$ Full time
Data Architect Semi Senior Advanced
  • Improving South America
Python Azure ETL Power BI

Leniolabs_ es ahora Improving South America!

Somos una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA principalmente.

Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.

Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development y También trabajamos en desarrollo backend.

Valoramos a las personas dinámicas en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Apply only from getonbrd.com.

Job functions

En mproving South America buscamos un Data Architect Senior para sumarse a este equipo multicultural. Diseñarás modelos y pipelines ETL/ELT en Azure, optimizarás SQL de alto rendimiento y liderarás mejores prácticas de calidad y gobierno de datos, colaborando de forma 100 % remota con equipos técnicos y de negocio. Si te apasiona transformar datos complejos en decisiones estratégicas, este desafío es para vos.

Qualifications and requirements

  • Alrededor de8 años en desarrollo/arquitectura de datos,
  • Nivel de inglés intermedio–avanzado
  • .SQL avanzado (tuning, stored procs, optimización de queries)
  • Modelado de datos & Data Warehouse (diseño lógico/físico, diagramado)
  • ETL/ELT & Orquestación: SSIS / Azure Data Factory, pipelines CI/CD (Azure DevOps, Git)
  • Python + Pandas / PySpark para profiling y data wrangling
  • Cloud Azure (Storage, Synapse, contenedores)
  • Power BI (visualización, mejores prácticas de reporting)
  • Conocimientos de data quality, data retention & compliance
  • Experiencia diseñando data flows y migraciones entre sistemas legacy/API

Conditions

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
APPLY VIA WEB
Gross salary $1700 - 1900 Full time
Administrador de Bases de Datos
  • ZerviZ
  • Santiago (In-office)
En ZerviZ, somos una empresa líder en innovación tecnológica y transformación digital desde 2017, con presencia en más de 16 países de América Latina. Nos especializamos en diseñar, implementar y optimizar proyectos digitales que mejoran la experiencia del cliente y optimizan procesos operativos, atención, servicio y gestión. Participarás en un equipo que impulsa más de 150 proyectos exitosos utilizando tecnologías de punta y metodologías ágiles, siempre buscando ir más allá de lo convencional para entregar soluciones flexibles y personalizadas a clientes en diversas industrias.

Apply directly from Get on Board.

Funciones

  • Administrar y optimizar bases de datos relacionales (SQL Server, MySQL, PostgreSQL) y no relacionales (MongoDB).
  • Desarrollar y ejecutar scripts en SQL para automatizar tareas y mejorar el rendimiento.
  • Implementar y mantener políticas de seguridad de bases de datos (encriptación, control de acceso, auditoría).
  • Gestionar planes de backup, recuperación de datos y garantizar alta disponibilidad.
  • Monitorear el rendimiento de las bases de datos y diagnosticar posibles problemas.
  • Gestionar bases de datos en entornos virtualizados y plataformas en la nube (AWS, Azure, Google Cloud).

Requisitos

  • Experiencia en Sistemas de Gestión de Bases de Datos (SGBD): Se requiere experiencia en el manejo y administración de SGBD como Microsoft SQL Server, MySQL, PostgreSQL, MongoDB, entre otros, tanto en bases de datos relacionales como no relacionales.
  • Instalación, configuración y administración: Se debe contar con la capacidad para instalar, configurar y administrar diferentes tipos de SGBD, adaptándolos a las necesidades específicas de la organización.
  • Conocimientos en arquitectura de bases de datos: Se debe tener un conocimiento sólido en la arquitectura de bases de datos, comprendiendo su diseño, escalabilidad y optimización, asegurando un desempeño eficiente y seguro de las bases de datos.

Experiencias Deseables

  • Seguridad de la información: Conocimiento en herramientas y técnicas de seguridad, encriptación de datos y gestión de riesgos.
  • Certificaciones en Cloud: Certificaciones en plataformas de computación en la nube como AWS, Azure o Google Cloud.
  • Business Intelligence (BI): Conocimientos en herramientas de BI para el análisis y visualización de datos.
  • Automatización y scripting: Familiaridad con herramientas de automatización y scripting (PowerShell, Python, etc.) para optimizar procesos y tareas administrativas.

APPLY VIA WEB
Gross salary $2000 - 2500 Full time
Data Scientist
  • ARKHO
Python SQL Machine Learning Deep Learning

ARKHO es una consultora experta en tecnologías de la información, que ofrece servicios expertos de TI en el marco de modernización de aplicaciones, analítica de datos, IA y migración a la nube. Nuestro trabajo facilita y acelera la adopción de la cloud en múltiples industrias.

Nos destacamos por ser Partner Advanced de Amazon Web Services con foco estratégico en la generación de soluciones usando tecnología en la nube, somos obsesionados por lograr los objetivos propuestos y tenemos especial énfasis en el grupo humano que compone ARKHO (nuestros Archers), reconociendo a nuestro equipo como un componente vital para el logro de los resultados.

¿Te motivas? ¡Te esperamos!

Apply through Get on Board.

Funciones

Estamos en busqueda de un Data Scientist con por lo menos dos años de experiencia, para incorporarse a nuestro equipo ágil para diversos proyectos Data Analytics. Será el encargado de velar por soluciones integrales para las problemáticas de cada uno de los clientes y proyectos en los cuales se desenvuelva junto al equipo.
Dentro de sus actividades principales se encuentran:
  • Comprender el contexto de negocio del cliente, desde la bajada comercial, indicadores claves que se busca potenciar, fuentes de datos y cómo sacar el mayor provecho de esta data para potenciar los resultados.
  • Analizar datos de alta complejidad utilizando técnicas de análisis estadístico, aprendizaje automático.
  • Acompañar y orientar al cliente respecto a diversas alternativas de solución.
  • Todos nuestros proyectos nos desafían a desplegar productos y servicios más rápidos, seguros, escalables y robustos en la nube.
Nos gusta conformar equipos colaborativos y auto-gestionados, por lo que las habilidades de comunicación y responsabilidad son muy importantes. ¡Buscamos profesionales de excelencia e íntegros dentro y fuera de la cancha!

Perfil del rol

En nuestra compañía valoramos a las personas autosuficientes, proactivas e innovadoras. Debes ser capaz de organizar tu propia carga de trabajo, tomar decisiones, cumpliendo los plazos y objetivos.
En tu carrera profesional deberías contar al menos con:
  • Experiencia mínima de 3 años en roles similares.
  • Técnicas de machine learning (Clustering, PCA, regresión logística, etc) y Deep Learning.
  • Desarrollo e implementación de modelos de IA utilizando embeddings y Large Language Models (LLMs)
  • Dominio de lenguajes de programación: Structured Query Language (SQL) y Python.
  • Experiencia con AWS cloud (SageMaker, S3, Lambda, bedrock).
  • Manejo de librerías: Pandas, Sklearn, Numpy, Matplotlib.
  • Ser graduado de Ingeniería de sistemas, Ingeniería matemática o afín.

Habilidades opcionales

  • Idioma inglés nivel intermedio

Beneficios del Archer

  • Día administrativo semestral hasta los 12 meses
  • Week off: 5 días de vacaciones extra
  • ¡Celebra tu cumpleaños!
  • Path de entrenamiento
  • Certificaciones AWS
  • Aguinaldos Fiestas Patrias y Navidad
  • Seguro complementario (sólo para Chile)
  • Flexibilidad (trabajo híbrido o remoto)
  • Regalo por casamiento + 5 días hábiles libres
  • Regalo por nacimiento de hijos
  • Kit escolar
  • Beneficio paternidad + 10 días (5 días adicionales a la Ley Chilena)
  • Bonda (Workshops de temáticas diversas, Wellness y descuentos en locales comerciales)

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
Vacation over legal ARKHO gives you paid vacations over the legal minimum.
APPLY VIA WEB
Gross salary $2000 - 2500 Full time
Data Engineer
  • TECLA
Python Excel SQL BigQuery

TECLA is a fully remote software development company with a diverse and highly skilled team of 100+ experts across Latin America. We specialize in AI, cloud, automation, and DevOps, building innovative solutions for high-growth startups and established mid-market technology companies in the U.S.

Our work culture is agile, collaborative, and fast-paced—we take our work seriously while keeping the environment fun and engaging. As a remote-first company, we emphasize strong teamwork and close collaboration, working seamlessly with our U.S. partners as one integrated unit. Whether optimizing cloud environments, developing AI-driven applications, or enhancing DevOps automation, TECLA is at the forefront of technical innovation, solving complex challenges with cutting-edge technology.

Apply directly on Get on Board.

Job Details:

We are seeking a motivated, detail-oriented, and technically curious Data Engineer to become part of our core team. This is a foundational role for someone with 2+ years of experience who wants to go beyond just writing code—someone who’s excited to take ownership, work directly with clients, and help small businesses grow using data, automation, and smart systems. You’ll play a hands-on role in building data pipelines, automation workflows, dashboards, and client deliverables. Because we are a small and nimble team, you will also participate in client meetings, contribute to workshops, and take ownership of delivering insightful, high-quality work that creates real business value.

Responsibilities:

The role will evolve as your experience grows, but initially your time will likely break down across the following 4 areas:

1. Data Engineering and Automation (60%)

  • Build and maintain ETL pipelines using tools like Google Apps Script, Coupler.io, Zapier, and other low/no-code tools.
  • Clean and transform raw data from systems like QuickBooks, HubSpot, and ActiveCampaign into structured, usable formats.
  • Maintain and improve our internal Google Sheets-based data warehouse and reporting dashboards.
  • Automate repetitive workflows and monitor data reliability.
  • Work across the Google technology stack (Sheets, Apps Script, BigQuery, etc.), with exposure to the Microsoft stack (Excel, Power BI, SharePoint, etc.), and a future roadmap involving Supabase and SQL.
  • Use Asana (or a similar project management tool) to manage scope, tasks, and requirements—and maintain clear, self-managed progress updates.

2. Client Delivery and Communication (25%)

  • Attend and sometimes lead client meetings and working sessions.
  • Present dashboards, explain workflows, and gather feedback directly from clients.
  • Communicate findings clearly and help translate business needs into data solutions.
  • Take ownership of key deliverables and contribute meaningfully to client success.

3. Documentation and Data Ops (10%)

  • Document data models, business logic, and pipeline workflows.
  • Create and maintain SOPs and data dictionaries.
  • Help build scalable internal systems and templates for reuse.

4. Internal Projects and Tooling (5%)

  • Support our internal reporting, project tracking, and automation initiatives.
  • Identify and propose improvements to our data and operational infrastructure.

Requirements:

  • 2+ years of professional or internship experience in data, engineering, or operations.
  • 1+ year of experience leveraging LLMs via integrated coding tools, Python, and SQL.
  • Proficiency in Google Sheets, Excel, and basic scripting (e.g., Apps Script or Python).
  • Strong written communication and documentation skills.
  • Excellent task and time management—you will be expected to own and organize your work independently using task tracking tools.
  • A strong sense of ownership, curiosity, and drive to solve real business problems.
  • Comfort working in a fast-paced, client-facing environment where priorities shift.

Nice to have:

  • Familiarity with APIs and REST integrations.
  • Experience with tools like Coupler.io, Zapier, Make.com, or Retool.
  • Experience with the Google Workspace or Microsoft Teams technical stack.
  • Consulting or small business exposure.
  • Interest or experience in SQL, Supabase, or dashboarding tools like Power BI.

Benefits:

  • A fully remote position with a structured schedule that supports work-life balance.
  • The opportunity to help small businesses scale through data, automation, and smart systems.
  • Two weeks of paid vacation per year.
  • 10 paid days for local holidays.

*Please note we are only looking for full-time dedicated team members who are eager to fully integrate within our team.

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
$$$ Full time
Senior Ingeniero de Datos / Sector Bancario
  • Devsu
  • Quito (Hybrid)
Java Python SQL Scala
Con más de 10 años de experiencia creando innovación para empresas, desde startups hasta las mayores compañías de Estados Unidos y Latinoamérica en diferentes industrias como entretenimiento, banca, salud, retail, educación y seguros. En Devsu, queremos crear un ambiente donde puedas prosperar tanto personal como profesionalmente
Buscamos un Ingeniero de Datos con amplia experiencia en el ciclo completo de desarrollo de soluciones de información, incluyendo análisis, diseño, desarrollo, certificación, despliegue y mantenimiento, en entornos OnPremise y tecnologías Big Data.

Es una posición híbrida en la ciudad de Quito-Ecuador, en donde serás asignado/a a uno de nuestros clientes más importantes en el sector financiero/bancario de Latinoamérica.

Trabajarás en un entorno ágil, con un equipo increíble en la implementación de productos de software de clase mundial.

This job is exclusive to getonbrd.com.

Funciones del cargo

  • Diseñar y desarrollar soluciones de datos alineadas con la visión de Arquitectura de Datos.
  • Crear y optimizar ETLs, ELTs y APIs para manejo eficiente de datos.
  • Implementar estrategias de testing para validar calidad funcional y no funcional.
  • Proponer mejoras continuas en procesos y productos de datos.
  • Resolver incidencias técnicas y documentar soluciones conforme a estándares.
  • Mentorizar y apoyar el onboarding de nuevos integrantes del equipo.

Requerimientos del cargo

  • Al menos 3 años de experiencia como ingeniero de datos.
  • Experiencia en optimizacion de SQL y Spark.
  • Experiencia con streaming de datos.
  • Bases de datos relacionales y NoSQL, diseño de Datawarehouse, Datamarts, Datalakes y Lakehouse.
  • Procesamiento distribuido con Hadoop, Spark y arquitecturas batch/streaming.
  • Desarrollo en Python, Scala o Java, aplicando principios de Clean Code.
  • Construcción de pipelines con herramientas ETL (Azure Data Factory, AWS Glue, SSIS).
  • Estrategias de DataOps/MLOps y despliegue CI/CD.
Deseable: Certificaciones en AWS, Azure, o Big Data, y experiencia en arquitecturas modernas como Data Mesh o Data Fabric.

Herramientas y Tecnologías

  • Apache Spark, Kafka, Flink, Hadoop, HDFS.
  • Servicios Cloud: AWS, Azure, GCP.
  • Lenguajes: Python, Scala, Java.

Beneficios

En Devsu, queremos crear un ambiente donde puedas prosperar tanto personal como profesionalmente. Al unirte a nuestro equipo, disfrutarás de:
  • Un contrato estable a largo plazo con oportunidades de crecimiento profesional
  • Seguro médico privado
  • Programas continuos de capacitación, mentoría y aprendizaje para mantenerte a la vanguardia de la industria
  • Acceso gratuito a recursos de capacitación en IA y herramientas de IA de última generación para elevar tu trabajo diario
  • Una política flexible de tiempo libre remunerado (PTO) además de días festivos pagados
  • Proyectos de software desafiantes de clase mundial para clientes en Estados Unidos y Latinoamérica
  • Colaboración con algunos de los ingenieros de software más talentosos de Latinoamérica y Estados Unidos, en un entorno de trabajo diverso
Únete a Devsu y descubre un lugar de trabajo que valora tu crecimiento, apoya tu bienestar y te empodera para generar un impacto global.

Wellness program Devsu offers or subsidies mental and/or physical health activities.
Internal talks Devsu offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Digital library Access to digital books or subscriptions.
Health coverage Devsu pays or copays health insurance for employees.
Computer provided Devsu provides a computer for your work.
Education stipend Devsu covers some educational expenses related to the position.
Personal coaching Devsu offers counseling or personal coaching to employees.
APPLY VIA WEB
$$$ Full time
Senior Data Engineer
  • Playbypoint
Python SQL Machine Learning Kafka
🏓 Senior Data Engineer
📍 Remote | Full-time
Join us in building the future of racquet sports.

🧠 About the Team & Project
At Playbypoint, we're on a mission to transform the racquet sports industry with powerful, intuitive software. From tennis to pickleball, our platform helps clubs thrive by elevating player engagement and simplifying operations. As part of our Data & Insights team, you’ll work alongside backend engineers, product leaders, and business stakeholders to turn raw data into actionable insights that shape our product strategy and operational decisions.
Our team plays a critical role in helping the company scale. We believe that better data leads to better decisions—and we're building the infrastructure to make that possible.

Apply to this job opportunity at getonbrd.com.

🔧 What You’ll Do

As a Senior Data Engineer, you'll design, develop, and maintain scalable data pipelines to support our real-time and batch analytics needs. You’ll take ownership of how data flows through our system, ensuring it’s clean, accessible, and reliable for use across engineering, product, and business teams.
You’ll:
  • Build and optimize data pipelines using Kafka, Airflow, and cloud-native tools.
  • Manage data lakes and warehouses using Apache Iceberg, Amazon S3, and ClickHouse or Snowflake.
  • Ensure data integrity and quality across all stages of our pipeline.
  • Collaborate closely with analysts and engineers to support key business metrics and machine learning workflows.
  • Contribute to internal tooling that improves data observability and developer experience.
Your success will be measured by the reliability, scalability, and performance of the data infrastructure you build—as well as your ability to empower others with trusted data.

✅ What We’re Looking For

We’re looking for someone who thrives in a fast-paced startup environment and is passionate about building systems that scale.
Required:
  • 5+ years of experience in Data Engineering
  • Strong experience with streaming technologies like Kafka
  • Proficiency in Python and SQL
  • Solid experience with workflow orchestration tools (e.g., Airflow)
  • Familiarity with OLAP databases such as Snowflake, Clickhouse, or Redshift
  • Experience managing data workflows in a cloud environment (preferably AWS)

Desirable skills

Nice to Have:
  • Experience with ClickHouse
  • Certifications in AWS, Snowflake, or similar platforms
  • Hands-on knowledge of DataOps or ML Ops at scale
  • Experience with LLMs &/or Agents building
  • Familiarity with data versioning and formats like Parquet, Iceberg, or Delta Lake

🌍 Why Playbypoint?

We're not just building tools—we're building a movement to connect people through the joy of sports. You’ll join a collaborative, ambitious team where your work directly impacts thousands of players and clubs across the world. Plus, we’re remote-first and flexible, so you can work from wherever you do your best thinking.
🎯 Ready to serve up your next challenge?
Apply now and help shape the future of racquet sports.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Company retreats Team-building activities outside the premises.
Computer provided Playbypoint provides a computer for your work.
Conference stipend Playbypoint covers tickets and/or some expenses for conferences related to the position.
APPLY VIA WEB
Gross salary $2500 - 3000 Full time
Data Engineer – Process Analysis (Mid Level)
  • Niuro
Python Data Science Data Visualization PI System
Niuro is a company dedicated to connecting projects with elite technological teams, collaborating with leading companies based in the United States. Our mission is to simplify the global acquisition of technology talent through innovative solutions that optimize efficiency and quality. We provide autonomous, high-performance technical teams that specialize in partnering with top-tier U.S. companies. Our focus is on enabling continuous professional growth by offering training in both technical and soft skills, as well as leadership development opportunities. We manage all administrative operations, including hiring, payroll, and training, so our teams can focus exclusively on delivering exceptional technical results. Through a collaborative environment and an emphasis on talent development, we strive to help our professionals realize their full potential.

This job offer is on Get on Board.

Key Responsibilities

As a Data Engineer specializing in process analysis, your role will focus on supporting and improving operational processes within industrial environments, with a particular emphasis on the hydrometallurgical sector. Your core responsibilities will include the collection and documentation of critical process parameters, continuous monitoring and control of variability in those process metrics, and the execution of detailed statistical and trend analyses. You will also be responsible for process balancing and inventory management, including maintaining inventories of strategic inputs and spare parts essential to operations. Additionally, you will generate comprehensive operational reports that drive informed decision-making and propose initiatives aimed at continuous process improvement. Your role involves collaboration on software development efforts that facilitate data analysis and process efficiency. Importantly, you will provide innovative suggestions based on data insights to enhance operational performance and drive forward-looking improvements across the industrial processes.

Requirements

Education: Candidates must hold a degree as a civil or applied engineer specializing in chemical, metallurgical, or mining engineering, or alternatively, a bachelor's degree in mathematics or physics.
Experience: Applicants should have at least one year of hands-on experience applying data science principles to hydrometallurgical or industrial process environments, demonstrating a solid understanding of industrial operations and data-driven analysis.
Technical Skills: Advanced programming abilities in Python and Visual Basic are essential for this role, accompanied by strong proficiency in Microsoft Office, especially Excel. Experience working with the PI System, including Asset Framework (AF) and Data Archive components, at a user level is crucial. Candidates must have a robust knowledge of data science methods and mathematical modeling techniques applicable to process improvement and analysis.
Other Requirements: Due to the nature of the role and collaboration needs, residence in Chile is mandatory.

Desirable Skills and Experience

While not explicitly stated, candidates with additional experience in advanced statistical software, data visualization tools, or knowledge of other process automation technologies would find their skills highly complementary to this role. Familiarity with other industrial data management systems or frameworks, along with a background in continuous improvement methodologies such as Six Sigma or Lean Manufacturing, would also be beneficial. Strong analytical problem-solving skills, adaptability in dynamic environments, and excellent communication abilities to translate technical data for operational teams would enhance effectiveness.

What We Offer

We provide involvement in impactful, technically rigorous industrial data projects that foster both professional growth and sectoral innovation. Our work environment is highly process-focused and technically solid, encouraging collaboration and continuous innovation. Niuro offers the flexibility of 100% remote work within Chile, allowing team members to work from the location that suits them best.
We are committed to supporting career development through ongoing training and leadership opportunities. After successfully completing a trial period, candidates receive stable full-time employment, reinforcing our long-term investment in talent. Joining Niuro also means becoming part of a global community dedicated to excellence in technology, all supported by robust administrative infrastructure to enable focus on impactful work.

Partially remote You can work from your home some days a week.
APPLY VIA WEB
$$$ Full time
Data Engineer Spark y AWS / Santiago Chile
  • Dynamic Devs
  • Santiago (Hybrid)
Python Git SQL Big Data

Somos una empresa de servicios de tecnología que busca proyectos de alto impacto haciendo de la innovación y transformación digital parte de diferentes empresas principalmente transnacionales latinoamericanas de diversos sectores económicos como retail, seguros, distribución de equipos médicos, banca y productos digitales masivos utilizados por los consumidores. en todo el continente

Somos partidarios de la excelencia técnica, DevOps, Entrega Continua e Integración Continua, conformando equipos de alto desempeño en proyectos desafiantes, orientados al crecimiento e implementación de nuevas tecnologías. Más importante aún, ofrecemos un entorno colaborativo y multicultural donde puedes aprender, disfrutar y crecer como profesional.

📢 En Dynamic Devs, estamos en la búsqueda de un Data Engineer con experiencia en procesamiento de datos a gran escala y un sólido conocimiento en PySpark, AWS EMR y Glue.

Official job site: Get on Board.

Funciones del cargo

✅ Diseñar, desarrollar y optimizar pipelines de datos utilizando PySpark, AWS EMR y Glue.
✅ Procesar grandes volúmenes de datos en entornos distribuidos y escalables.
✅ Implementar y mantener soluciones de integración y transformación de datos en la nube ☁️.
✅ Monitorear y optimizar el rendimiento de las soluciones de datos.
✅ Garantizar la seguridad y gobernanza de los datos en el ecosistema AWS.
✅ Integrar datos desde múltiples fuentes y asegurar su correcta transformación y almacenamiento.

Requerimientos del cargo

🎓 Experiencia mínima de 2 años en Databricks o AWS EMR.
🛠️ Conocimientos sólidos en SQL y modelado de datos.
⚙️Conocimientos en otras herramientas de AWS como: S3, Redshift, Athena, Glue o Lambda.
🐍 Desarrollo en Python aplicado a procesamiento de datos.
📊 Conocimientos en frameworks de Big Data y optimización de rendimiento en entornos distribuidos.
🔗 Experiencia en Git.
📍 Disponibilidad para asistir 3 días a la semana de forma presencial a la oficina del cliente ubicada en Santiago - Chile (modalidad híbrida, requisito excluyente).

Condiciones

💻 Beneficio Bring Your Own Device (A partir del 4to mes trabajando con nosotros, podrás adquirir un computador propio)
⌚ Horario flexible 🕒
🚀 Haz un impacto. Trabaja en proyectos desafiantes
📚 IT Training: acceso a más de 500 cursos actualizados cada semana 📖
🎤 Dev Talks: conferencias exclusivas con expertos del sector
🎉 Día especial: 🎂 ¡Día libre por cumpleaños!
👥 Trabaja en un equipo talentoso y multicultural usando tecnología increíble
🎙️ Escucha nuestro podcast aquí: 🔗 Escuchar Podcast
🌐 Visítanos en nuestra web: 🔗 Dynamic Devs

Internal talks Dynamic Devs offers space for internal talks or presentations during working hours.
Partially remote You can work from your home some days a week.
Computer provided Dynamic Devs provides a computer for your work.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Junior Data Analyst & Automation
  • Banco Santander Chile
  • Santiago (Hybrid)
Python Data Analysis SQL Power BI

Banco Santander Chile es una organización internacional líder en el sector financiero con presencia en más de 20 países, reconocida por su compromiso con el desarrollo profesional, el aprendizaje continuo y la movilidad interna. La Vicepresidencia de Tecnología y Operaciones del banco es un área estratégica que impulsa la innovación tecnológica, la optimización y mejora de procesos con el objetivo de contribuir al progreso de las personas y empresas. Este departamento está enfocado en liderar iniciativas tecnológicas de vanguardia que fortalecen la posición de Santander como líder en el sector financiero chileno y a nivel internacional, promoviendo un ambiente de trabajo colaborativo, desafío constante y crecimiento profesional.

Apply exclusively at getonbrd.com.

Misión del cargo

Buscamos jóvenes profesionales comprometidos y flexibles para integrarse al equipo de Tecnología y Operaciones, donde contribuirán a la optimización y mejora continua de procesos mediante el uso de tecnologías punteras.

El rol implica colaborar en proyectos estratégicos que impulsen la innovación tecnológica dentro del banco, trabajando estrechamente con diferentes áreas para apoyar la transformación digital y la eficiencia operativa.

Además, se espera que el candidato participe activamente en el aprendizaje permanente y el desarrollo de competencias técnicas y colaborativas, favoreciendo un ambiente dinámico y orientado al trabajo en equipo.

Qué te ayudará a tener éxito en el proceso

  • Para tener éxito en esta posición, buscamos egresados de carreras como Ingeniería Civil Industrial, Ingeniería Civil en Informática o afines, con no más de un año de experiencia profesional, ya que aspiramos a formar jóvenes talentos que aporten con nuevas ideas y ganas de aprender.
  • Debe contar con formación o experiencia en automatización de procesos, analítica avanzada y manejo de datos, con conocimientos intermedios en SQL, Power BI y/o Tableau. Se valoran conocimientos deseables en Python, Spark y Appian, orientados a potenciar habilidades técnicas y tecnológicas en análisis de datos.
  • El candidato debe tener un nivel intermedio de inglés (B1), mostrando capacidad para manejar información en este idioma y comunicarse de forma básica en el contexto laboral.
  • Buscamos personas con interés genuino en las herramientas tecnológicas de análisis de datos, motivadas a contribuir en un entorno desafiante y colaborativo, con habilidades blandas como adaptabilidad, actitud proactiva y capacidad de trabajo en equipo.
  • Se requiere disponibilidad para incorporarse en junio de 2025.

Conocimientos y habilidades deseables

  • Nos interesa especialmente candidatos que hayan desarrollado conocimientos en programación avanzada, analítica de datos con Python y Spark, así como familiaridad con plataformas de automatización como Appian.
  • Valoramos la capacidad para desenvolverse en entornos multidisciplinarios, con habilidades comunicativas y de gestión del tiempo, que contribuyan a un equipo colaborativo y efectivo.
  • Además, la experiencia en proyectos relacionados con la transformación digital y optimización de procesos se considera un plus importante, aunque no es requisito excluyente.

¿Qué te ofrecemos?

  • Formar parte de la principal empresa financiera de Chile y uno de los mejores lugares para trabajar en el país.
  • Aprendizaje mediante la experiencia práctica, con múltiples oportunidades de desarrollo, formación continua y movilidad interna para participar en proyectos estratégicos.
  • Acompañamiento formativo durante el proceso de adaptación y desarrollo del rol, asegurando una integración exitosa y crecimiento profesional.
  • Redes internas de colaboración que potencian el aprendizaje, la creación de vínculos profesionales y la expansión de la mirada laboral.
  • Beneficios orientados a mejorar la calidad de vida y el desarrollo profesional del colaborador.
  • Contrato indefinido que aporta estabilidad laboral y seguridad.

APPLY VIA WEB
Gross salary $3000 - 4000 Full time
Senior Data Engineer (Rag)
  • Niuro
Python MySQL PostgreSQL SQL
Niuro is a company dedicated to connecting projects with elite technology teams specializing in partnerships with leading U.S. companies. Our mission focuses on simplifying global talent acquisition through innovative and efficient solutions that emphasize maximizing quality and performance. We empower autonomous, high-performance tech teams by offering a collaborative environment enriched with continuous professional growth, training in both technical and soft skills, and leadership development. Through managing all administrative tasks, including hiring, payments, and training, Niuro allows teams to concentrate fully on delivering excellent and innovative outcomes aligned with cutting-edge technology and client needs.

Exclusive to Get on Board.

Responsibilities

  • Design, implement, and maintain scalable, reliable, and efficient data pipelines tailored to Retrieval-Augmented Generation (RAG) based applications, ensuring seamless automation of intelligent query processes.
  • Configure, manage, and optimize vector databases and advanced search engines to support high-performance embedding and retrieval functionalities.
  • Collaborate closely with Data Scientists and AI Engineers to deploy embedding models and generative AI solutions, fostering integration across teams.
  • Develop and fine-tune ETL/ELT processes to guarantee outstanding data quality, pipeline performance, and resilience within production environments.
  • Ensure system scalability, stability, and operational efficiency to support high-demand data workloads and AI-powered services.

Requirements & Professional Profile

We require candidates with a minimum of 4 to 5 years of experience as a Data Engineer, demonstrating a proven track record managing data-intensive projects and environments. Expertise in Retrieval-Augmented Generation (RAG) methodologies is essential as you will lead innovative data pipeline development.
Technical proficiency must include deep experience with at least one tool or technology from each of the following categories:
  • Vector Databases: Experience with Pinecone, Milvus, Qdrant, Weaviate, or equivalent solutions to manage embedding data effectively.
  • Databases: Proficiency in SQL databases such as PostgreSQL and MySQL, plus NoSQL databases including MongoDB and Cassandra.
  • Data Warehousing: Knowledge of warehouse platforms such as Redshift, BigQuery, or Snowflake to support analytical processing.
  • ETL/ELT Tools: Skilled in dbt, Apache NiFi, Talend, or Informatica for robust data transformation workflows.
  • Big Data Frameworks: Experience with Apache Spark and Kafka for handling large-scale data streams.
  • Search Engines: Familiarity with Elasticsearch, Solr, or OpenSearch to implement advanced search capabilities.
  • Cloud Platforms: Working knowledge of AWS, Google Cloud Platform, or Azure for scalable cloud infrastructure.
  • Containers: Proficient with Docker to containerize and deploy applications reliably.
  • Programming: Advanced skills in Python for scripting, automation, and integration.
Strong analytical aptitude and problem-solving capabilities are vital to address complex data challenges. We seek candidates who thrive in agile, cross-functional teams and possess excellent communication and collaboration skills to work effectively across different roles and disciplines.

Nice-to-have Skills

  • Experience with machine learning frameworks including TensorFlow, PyTorch, and Scikit-learn to support advanced model deployment.
  • Familiarity with natural language processing tools such as spaCy, NLTK, and Hugging Face Transformers to enhance text and language-related functionalities.
  • Knowledge of generative AI models like OpenAI, Azure GPT, and Amazon Bedrock is beneficial for working on cutting-edge AI augmentation projects.
  • Competence in container orchestration using Kubernetes to manage containerized applications at scale.

What We Offer

  • 🌍 100% Remote – Embrace full flexibility by working from anywhere around the world, enabling an optimal work-life balance.
  • 📈 Career Growth – Become part of a tech-forward, innovative, and collaborative team committed to your ongoing professional development and success.
  • 📝 Full-time employment contract with an initial 3-month trial period followed by an indefinite contract, ensuring job stability and continuous collaboration.

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
APPLY VIA WEB
$$$ Full time
Data Scientist
  • Forma - Moovmedia Group
Python SQL BigQuery Docker
¡Hola! Somos Forma y somos parte de Moov Media Group, una familia de empresas que también integran Metrix y Moov. Nuestro modelo es colaborativo, ¿qué significa esto? Que trabajamos de manera específica o integral según las necesidades de cada cliente.
Buscamos ser el mejor partner de nuestros clientes apañándolos en la transformación digital. Nos peinamos con el desarrollo tecnológico y el uso de datos, siempre con una mirada estratégica que nos lleve a tomar la mejor decisión.
Hoy queremos seguir creciendo y para eso buscamos un Data Scientist que nos acompañe a recorrer el mundo digital en una empresa con cultura flexible, ágil e innovadora. ¿Te interesa? Entonces déjanos contarte un poco más.
El proceso de selección consta de:

  • Llamado telefónico
  • Entrevista con Selección
  • Entrevista con jefatura directa.
¿Te interesa? ¡Dale! Escríbenos y conversemos.

Apply at the original job on getonbrd.com.

Funciones del cargo

Diseñar, entrenar y desplegar modelos de Machine Learning y algoritmos de predicción (scikit-learn, XGBoost, etc.)
Liderar procesos de análisis estadístico y modelado de datos con Python y SQL
Automatizar pipelines de datos e integraciones con APIs (Google Ads, Meta, ecommerce, CRM)
Desarrollar dashboards interactivos y embebidos (Power BI, Looker Studio, Tableau)
Validar y mantener la calidad de modelos en producción, utilizando ML Ops básico
Colaborar con equipos de ingeniería, automatización, media y producto

Requerimientos del cargo

Requisitos técnicos:
  • Lenguajes obligatorios: Python (Pandas, Scikit-learn, Numpy, Matplotlib), SQL.
  • Cloud: GCP o AWS (manejo de BigQuery, S3, Redshift u otros).
  • Automatización: Airflow, dbt o scripts programados.
  • Visualización: Power BI y/o Looker Studio (excluyente).
  • Modelos ML: Clasificación, regresión, clustering, análisis de series temporales.
Otros requisitos:
  • Ingeniero en Estadística, Computación, Ciencia de Datos o afín.
  • 3+ años de experiencia en proyectos de data science o advanced analytics.
  • Capacidad para explicar conceptos técnicos a equipos no técnicos.
  • Mentalidad de experimentación y prototipado rápido (MVPs, hackathons).

Opcionales

Deseable: ML Ops (Vertex AI, SageMaker, MLflow), APIs REST, web scraping, Docker
Deseable: experiencia en ecommerce, retail o marketing digital.

Conditions

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
$$$ Full time
Data Scientist & GCP Specialist
  • Forma - Moovmedia Group
Python SQL BigQuery Machine Learning

¡Hola! Somos Moov Media Group, una familia de empresas integrada por Moov, Metrix y Forma. Nuestro modelo es colaborativo, ¿qué significa esto? Que trabajamos de manera específica o integral según las necesidades de cada cliente.

Navegamos en el mundo digital usando la tecnología, la data analytics, los medios y la publicidad para encontrar soluciones de marketing multicanal que nos conviertan en los más secos de Latinoamérica.

Hoy queremos seguir creciendo y para eso buscamos un Data Scientist & GCP Specialist que nos acompañe a recorrer el mundo digital en una empresa con cultura flexible, ágil e innovadora. ¿Te interesa? Entonces déjanos contarte un poco más.

El proceso de selección consta de:

  • Llamado telefónico
  • Entrevista con Selección
  • Entrevista con jefatura directa.

¿Te interesa? ¡Dale! Escríbenos y conversemos.

Exclusive offer from getonbrd.com.

Funciones del cargo

Diseñar, entrenar y desplegar modelos de Machine Learning avanzados usando Vertex AI.
Gestionar y optimizar infraestructura cloud en GCP (BigQuery, Cloud Storage, Dataflow, Compute Engine).
Automatizar pipelines avanzados de datos con Cloud Composer (Airflow), Cloud Functions y APIs externas.
Desarrollar dashboards interactivos avanzados principalmente con Looker Studio.
Implementar y gestionar prácticas de ML Ops avanzadas (monitoreo, versionado, CI/CD) en Vertex AI.
Colaborar y asesorar técnicamente a equipos de ingeniería, media y producto.

Requerimientos del cargo

Requisitos técnicos:

  • Lenguajes obligatorios: Python (Pandas, TensorFlow/Keras, Scikit-learn, Numpy), SQL.
  • Cloud: Google Cloud Platform (Vertex AI, BigQuery, Dataflow, Cloud Storage, Compute Engine).
  • Automatización: Cloud Composer (Airflow), Cloud Functions, Dataflow.
  • Visualización: Looker Studio (excluyente), Power BI o Tableau (deseable).
  • Modelos ML: Clasificación, regresión, clustering, detección de anomalías, series temporales.
  • Ingeniero en Estadística, Computación, Ciencia de Datos o carrera afín.
  • 3+ años de experiencia especializada en proyectos utilizando Google Cloud Platform y Vertex AI.

Opcionales

Deseable: experiencia previa en ecommerce, retail o marketing digital.

Conditions

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
$$$ Full time
Data Engineer
  • 2BRAINS
Python Git Data Analysis SQL

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

This job offer is available on Get on Board.

El/la Data Engineer de 2Brains

Se encarga de participar en el diseño y desarrollo de los nuevos modelos de información de gestión y las mantenciones evolutivas de los existentes. Participar en las iniciativas de Analítica avanzada del área, apoyando las exploración de modelos de información internos y externos (Data Discovery). Obtener datos históricos desde múltiples fuentes de información interna para apoyar las iniciativas de analítica avanzada del equipo.

El/la Data Engineer de 2Brains debe

  • Construir y optimizar pipelines de datos para la ingesta, transformación y carga eficiente de información.
  • Manejar infraestructuras en la nube (AWS, GCP, Azure), asegurando escalabilidad y eficiencia en costos.
  • Automatizar y monitorear procesos mediante herramientas de DevOps como Airflow, Terraform o Kubernetes.
  • Implementar controles de calidad y gobernanza para garantizar la integridad y disponibilidad de los datos.
  • Colaborar con equipos de Data Science, Producto y Desarrollo para diseñar soluciones alineadas con las necesidades del negocio.

Qué conocimientos buscamos en/la Data Engineer

  • Excluyente Experiencia trabajando con tecnologías de BI
  • Experiencia en la construcción/operación de sistemas distribuidos de extracción, ingestión y procesamiento de grandes conjuntos de datos de gran disponibilidad.
  • Capacidad demostrable en modelado de datos, desarrollo de ETL y almacenamiento de datos.
  • Experiencia en el uso de herramientas de informes de inteligencia empresarial (Power BI)
  • Excluyente conocimiento en consumo de microservicios de APIs Rest
  • Excluyente conocimiento en Git , Bitbucket, Docker,Jenkins,Webhooks
  • Programación con Python y bases sólidas de ingeniería de software.
  • Automatización y scripting.
  • Uso de librerías de Python para manipulación y análisis de datos y Apache Spark.
  • Conocimientos en bases de datos SQL y NoSQL.
  • Conocimiento en CI/CD, Dataflow
  • Conocimiento en S3, Redshift y Glue AWS

Que competencias buscamos en/la Data Engineer

  • Empatía
  • Buena capacidad de comunicación.
  • Colaboración y trabajo en equipo.
  • Proactividad.
  • Autonomía.
  • Foco en los objetivos de proyectos.

Condiciones

Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos

Acceso a grandes clientes y proyectos desafiantes

Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales

Un entorno de trabajo flexible y dinámico

Beneficios especiales: día libre para tu cumpleaños, días de descanso a convenir.

Informal dress code No dress code is enforced.
Vacation over legal 2BRAINS gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Data Engineer
  • Niuro
Python MySQL Git Docker
At Niuro, we connect elite tech teams with top-tier U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality. We empower projects by providing autonomous, high-performance tech teams, and we offer continuous professional growth opportunities to ensure everyone involved is set for success in innovative and challenging projects.

© getonbrd.com.

Key Responsibilities

  • Ingest, process, and integrate data from multiple systems and platforms using Big Data tools.
  • Design and implement data pipelines to transfer data from source to destination systems, ensuring alignment with integration standards and existing frameworks.
  • Guarantee high data quality, availability, and compliance across applications and digital products.
  • Collaborate with product teams to identify required datasets and evaluate existing sources (e.g., update frequency, data reliability, known issues).
  • Contribute to the delivery of scalable, strategic data engineering solutions aligned with our data roadmap.

Requirements

🔹 Experience: 3+ years in data engineering or a similar role.
🔹 Tech Stack:
  • Cloud & Big Data: Proficient with AWS services including Lambda, S3, Glue.
  • Data Orchestration: Experience designing and managing workflows using Airflow.
  • Data Modeling & Transformation: Hands-on experience with dbt.
  • Data Warehousing: Solid knowledge of Snowflake.
  • Databases: Experience with MySQL or SQL Server.
  • Programming: Strong Python skills, including scripting, automation, and unit testing.
🔹 Other Skills:
  • Good understanding of data quality and governance practices.
  • Familiarity with various data sources and types in data mining and analytics.
  • Intermediate to advanced English for international team collaboration.

Nice to Have

🔸 Experience deploying dbt in production environments.
🔸 Knowledge of Data Lake and Lakehouse architectures.
🔸 Familiarity with CI/CD tools and Git-based version control (GitHub, GitLab, or Azure DevOps).
🔸 Experience with Docker for containerized data workflows.

What We Offer

  • 🌍 100% Remote – Work from anywhere in the world.
  • 🚀 Growth Opportunities – Be part of shaping a robust and modern data ecosystem.

Informal dress code No dress code is enforced.
APPLY VIA WEB
Gross salary $2000 - 2200 Full time
Data Engineer Senior GCP
  • coderslab.io
  • Santiago (Hybrid)
Python SQL Big Data BigQuery

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente nos encontramos apuntando al crecimiento de nuestros equipos de manera global con el objetivo de posicionarnos con nuestros productos en más países de Latinoamérica, es por ello que estamos en búsqueda de un Data Engineer Senior - GCP para sumarse a nuestro equipo.

Te sumarás a un equipo desafiante y ambicioso con ganas de renovar el mercado, por lo que tus propuestas serán de mucho valor para el negocio.

¡Postula para este tremendo desafío!

This job is original from Get on Board.

Job functions

  • Ejecutar procesos de ingesta y modelamiento de datos en entornos de Google Cloud Platform (GCP).
  • Participar activamente en el desarrollo y mantenimiento de pipelines de datos (ETLs).
  • Colaborar en el diseño y optimización de arquitecturas de datos eficientes.
  • Trabajar de forma colaborativa en equipos multidisciplinarios, tanto de forma remota como presencial.
  • Documentar procesos y contribuir a las buenas prácticas de desarrollo y versionamiento de código.

Qualifications and requirements

Experiencia comprobable en proyectos de datos (ETLs) sobre GCP.

Dominio de productos de GCP como:

  • BigQuery
  • Cloud Functions
  • Cloud Composer / Airflow
  • Cloud Storage

Conocimientos en DBT (deseable).

Sólida experiencia en SQL y Python.

Experiencia trabajando con sistemas de versionamiento como GitLab, Bitbucket o GitHub.

Habilidades blandas:

  • Alta capacidad de trabajo en equipo.
  • Autonomía y habilidades de autogestión.
  • Buenas capacidades analíticas y de resolución de problemas.

Conditions

Modalidad: Híbrida (mínimo 2 días presencial en Santiago, Chile)
Duración: contrato por 8 meses con extension

APPLY VIA WEB
Gross salary $2400 - 2600 Full time
Data Engineer AWS
  • BC Tecnología
  • Santiago (Hybrid)
Python Data Analysis SQL Web server
En BC Tecnología, nos especializamos en la consultoría de TI, ofreciendo un amplio rango de servicios para adaptarnos a las necesidades específicas de nuestros clientes, principalmente en finanzas, seguros, retail y gobierno. Nuestro equipo trabaja mediante metodologías ágiles, lo que nos permite diseñar e implementar soluciones tecnológicas efectivas y dirigidas al cliente. Actualmente, estamos buscando un Data Engineer con experiencia en AWS para sumarse a nuestro equipo y contribuir a proyectos innovadores en la gestión y explotación de datos.

Exclusive to Get on Board.

Responsabilidades del Cargo

  • Desarrollar y gestionar procesos de ETL, asegurando la calidad y fiabilidad de los datos.
  • Optimizar la explotación de datos a través de técnicas de Tuning.
  • Implementar soluciones utilizando herramientas de AWS, incluyendo Glue, Lambda, S3, Redshift y DynamoDB.
  • Colaborar con los equipos de desarrollo de software para asegurar la integración de datos eficiente.
  • Realizar análisis y visualización de datos para apoyar en la toma de decisiones.
  • Mantener un enfoque en la innovación y la mejora continua de los procesos y herramientas utilizadas.

Descripción del Cargo

Buscamos un Data Engineer AWS con un mínimo de 3 años de experiencia en el manejo de datos. El candidato ideal tendrá conocimientos sólidos en:
  • Explotación de datos y Tuning.
  • Diseño e implementación de procesos ETL.
  • Desarrollo de consultas efectivas en SQL.
  • Programación en Python.
  • Uso de herramientas de orquestación como Apache Airflow (deseable).
Valoramos habilidades como el trabajo en equipo, la proactividad y la capacidad para adaptarse a nuevas tecnologías. La combinación de habilidades técnicas y soft skills es esencial para unirse a nuestro equipo dinámico.

Habilidades Deseables

Además de los requisitos mencionados, sería beneficioso contar con experiencia en:
  • Integraciones y gestión de datos en múltiples fuentes.
  • Implementación de soluciones en la nube de AWS.
  • Conocimientos en herramientas de visualización de datos.
Estas habilidades ayudarán al candidato a integrarse de manera efectiva en nuestros equipos de trabajo y contribuir a proyectos futuros.

Beneficios de Trabajar con Nosotros

En BC Tecnología, valoramos a nuestro equipo y ofrecemos un entorno flexible y beneficios atractivos:
  • Contrato indefinido.
  • Modalidad híbrida, combinando trabajo remoto y en oficina.
  • Paquete de beneficios corporativos que incluye salud prepaga de primer nivel para el empleado y su familia.
  • Un día de home office a la semana, junto con desayunos y un comedor en la planta.
  • Acceso a un Sport Club y asistencia de un nutricionista.
¡Únete a nosotros y marca una diferencia en el mundo de la tecnología! 🎉

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB
$$$ Full time
Data Engineer
  • Compara
Python PostgreSQL DevOps Kafka

Compara es una plataforma digital que permite cotizar y comparar los principales seguros y productos financieros de Latinoamérica. En nuestra empresa, buscamos un Data Engineer que ayude a construir, optimizar y evolucionar nuestra infraestructura de datos. Con un énfasis en la modernización y mejora continua, esta posición es clave para asegurar que nuestros procesos de datos sean eficientes y escalables.

Find this vacancy on Get on Board.

🎯 ¿Qué harás?

  • Mantener y optimizar nuestro data warehouse en PostgreSQL y los pipelines de ingesta de datos en producción.
  • Liderar la transición hacia una arquitectura moderna basada en Databricks, dbt y un data lake en S3.
  • Desarrollar y escalar pipelines de procesamiento y transformación de datos.
  • Monitorear, depurar y documentar procesos de datos para garantizar su calidad y confiabilidad.

🔎 ¿A quién buscamos?

  • Persona con más de 3 años de experiencia en ingeniería de datos, construyendo y manteniendo pipelines en producción.
  • Dominio de Python para procesamiento de datos, incluyendo el uso de librerías como pandas, SQLAlchemy y psycopg2.
  • Experiencia trabajando con orquestadores de workflows, especialmente Airflow.
  • Conocimiento sólido de bases de datos relacionales, especialmente PostgreSQL, incluyendo modelamiento y optimización de rendimiento.
  • Experiencia práctica con almacenamiento en la nube (S3 o equivalente) y formatos como Parquet.
  • Autonomía y capacidad de tomar decisiones técnicas.

🌟 Será un plus si cuentas con

  • Experiencia con dbt y modelado de datos.
  • Conocimiento en Databricks, Delta Lake, Apache Iceberg o arquitecturas de lakehouse.
  • Experiencia con diseño e implementación de pipelines CDC (Change Data Capture) usando Debezium, Kafka o similares.
  • Conocimientos de buenas prácticas de DevOps para data (versionado de pipelines, testing, CI/CD).
  • Inglés técnico para leer documentación y colaborar en proyectos internacionales.

🚀Únete a nuestro equipo

En Compara, ofrecemos horarios flexibles y un entorno que favorece el crecimiento profesional. Valoramos la cultura de aprendizaje continuo y el desarrollo de cada miembro del equipo, por lo que si disfrutas optimizando infraestructuras de datos, impulsando mejoras estratégicas y explorando nuevas herramientas, ¡nos encantaría conocerte! 🚀

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Vacation over legal Compara gives you paid vacations over the legal minimum.
APPLY VIA WEB
Gross salary $1700 - 2000 Full time
Business Analyst Especializado en Inteligencia Artificial
  • Factor IT
Python Data Analysis Big Data Artificial Intelligence
En FactorIT, una empresa líder en tecnología presente en 8 países de Latam, estamos en búsqueda de un Business Analyst que se una a nuestro equipo especializado en Inteligencia Artificial (IA). Nuestro enfoque en soluciones innovadoras y personalizadas nos posiciona como el socio estratégico que las grandes empresas necesitan en su transformación digital.
Estamos comprometidos con abordar los retos más complejos de nuestros clientes, utilizando IA para optimizar procesos y mejorar la eficiencia. Al unirte a nosotros, participarás en proyectos significativos que generan un impacto real en el desarrollo de soluciones tecnológicas avanzadas.

Job source: getonbrd.com.

Responsabilidades:

  • Colaborar con los stakeholders para identificar necesidades y oportunidades de mejora mediante el uso de IA.
  • Traducir los requerimientos del negocio en especificaciones técnicas para equipos de desarrollo de IA.
  • Analizar y modelar datos, generando insights relevantes que faciliten la toma de decisiones.
  • Participar en la planificación, diseño e implementación de soluciones de IA en los procesos de negocio.
  • Realizar pruebas y validaciones de las soluciones implementadas asegurando su alineación con los objetivos de negocio.
  • Asegurar que las soluciones de IA sean escalables, sostenibles y alineadas con las necesidades del negocio.

Requisitos:

  • Experiencia mínima: 4 años como Business Analyst con un enfoque en proyectos de IA.
  • Conocimientos técnicos en análisis de datos, modelado predictivo y herramientas de IA.
  • Dominio de herramientas como Python, R, o plataformas como TensorFlow y PyTorch.
  • Capacidad para traducir problemas complejos de negocio en soluciones claras de IA.
  • Fuertes habilidades analíticas y de resolución de problemas.

Desirable

Valoramos la experiencia en proyectos multidisciplinarios y la capacidad de trabajar en equipos internacionales. Habilidades de comunicación efectiva y una mentalidad proactiva también son aspectos deseables.

Ofrecemos:

  • Un entorno de trabajo remoto y flexible que favorece el equilibrio entre la vida personal y laboral.
  • Proyectos innovadores en IA y Machine Learning que desafían tus habilidades.
  • Oportunidades de crecimiento profesional y desarrollo continuo en el ámbito de IA.
  • Colaboración con equipos internacionales que enriquecen la experiencia laboral.
¡Si eres un experto en ingeniería de datos con pasión por la Inteligencia Artificial, te estamos esperando! 🚀

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
Gross salary $2200 - 2600 Full time
Data Analytics Residente Uruguay
  • BC Tecnología
Python Analytics Data Analysis SQL
En BC Tecnología, somos una consultora de TI especializada en diversas áreas tecnológicas, con más de seis años de experiencia diseñando soluciones adecuadas a las necesidades de nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestro enfoque incluye consultoría y diseño de soluciones, formación de equipos, desarrollo de proyectos y servicios de soporte y administración IT.

This job is published by getonbrd.com.

Responsabilidades principales:

  • Extraer y procesar datos desde diversas fuentes mediante SQL y Python (PySpark).
  • Diseñar y optimizar modelos de datos en Power BI para reportes avanzados.
  • Implementar y mejorar flujos ETL para la integración de datos.
  • Colaborar con áreas de negocio para entender necesidades analíticas y generar soluciones BI.
  • Asegurar la calidad y disponibilidad de los datos en los reportes.

Requisitos:

  • SQL Avanzado: Creación, optimización y modelado de datos.
  • Python (PySpark): Procesamiento y transformación de datos en entornos Big Data.
  • Power BI: Nivel medio-alto en creación de reportes y dashboards interactivos.
  • Databricks: Deseable, con experiencia en plataformas de datos en la nube.
  • Experiencia mínima de 3 años en roles de BI, Data Analytics o similares.
  • Habilidades de comunicación y trabajo en equipo para traducir necesidades de negocio en soluciones BI.

Deseable:

  • Experiencia con Databricks sería un plus, mostrando la capacidad de trabajar con plataformas de datos en la nube.

Condiciones

  • Trabajo 100% remoto.
  • El cargo puede ser desempeñado desde cualquier lugar del mundo.
En BC Tecnología, fomentamos un entorno laboral flexible que impulsa el crecimiento profesional. Si te consideras una mente analítica que quiere marcar la diferencia, ¡te invitamos a ser parte de nuestro equipo y a impulsar la transformación organizacional! 🚀✨

APPLY VIA WEB
$$$ Full time
Data Booster
  • 2BRAINS
Python Data Analysis SQL Web server

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

Official source: getonbrd.com.

El/la Data Booster de 2Brains

Se encarga de participar en el diseño y desarrollo de los nuevos modelos de información de gestión y las mantenciones evolutivas de los existentes. Participar en las iniciativas de Analítica avanzada del área, apoyando las exploración de modelos de información internos y externos (Data Discovery). Obtener datos históricos desde múltiples fuentes de información interna para apoyar las iniciativas de analítica avanzada del equipo.

Qué harás como Data Booster de 2Brains

  • Identificar oportunidades y definir hipótesis basadas en datos para mejorar procesos y generar impacto en el negocio.
  • Diseñar y ejecutar experimentos que permitan validar soluciones con métricas claras y medibles.
  • Construir modelos analíticos y aplicar IA para transformar datos en insights accionables.
  • Facilitar la co-creación de productos de datos, asegurando que sean escalables y sostenibles.
  • Optimizar el desarrollo y adopción de soluciones según la madurez del squad y las necesidades del negocio.
  • Colaborar con equipos de tecnología, negocio y data science para alinear soluciones con los objetivos estratégicos.
  • Garantizar la calidad y gobernanza de los datos, promoviendo mejores prácticas en el manejo y uso de información.

Qué conocimientos buscamos en/la Data Booster

  • Métodos de análisis estadístico (regresión, pruebas de hipótesis, análisis multivariante).
  • Técnicas de modelado predictivo y prescriptivo.
  • Análisis de series temporales.
  • Algoritmos de machine learning supervisados y no supervisados.
  • Modelos de clasificación, regresión, clustering, y reducción de dimensionalidad.
  • Técnicas de deep learning y redes neuronales.
  • Limpieza, transformación y preprocesamiento de datos (ETL).
  • Manejo de grandes volúmenes de datos y optimización del procesamiento (Big Data).
  • Uso de herramientas de análisis de datos como Pandas, NumPy, Spark.
  • Diseño de experimentos (A/B testing, pruebas de causalidad).
  • Métodos de validación de modelos (cross-validation, métricas de evaluación).
  • Técnicas de evaluación de impacto y pruebas de hipótesis.
  • Creación de dashboards y reportes con herramientas como Tableau, Power BI, Looker.
  • Visualización avanzada con bibliotecas de Python como Matplotlib, Seaborn, Plotly.
  • Python/R para análisis de datos y desarrollo de modelos.
  • SQL para consultas y manipulación de bases de datos.
  • Experiencia con plataformas de nube como AWS, GCP, Azure para almacenamiento y procesamiento de datos.
  • Uso de servicios de data engineering en la nube (como Google BigQuery, Amazon Redshift, Azure Synapse).
  • Prácticas de DevOps aplicadas a proyectos de datos (automatización, integración continua).
  • MLOps para la automatización de la implementación y monitoreo de modelos.
  • Estándares y buenas prácticas en el manejo de datos (calidad, privacidad, seguridad).
  • Herramientas para la gobernanza de datos como Apache Atlas, Collibra.

Que competencias buscamos en/la Data Booster

  • Empatía
  • Buena capacidad de comunicación.
  • Colaboración y trabajo en equipo.
  • Proactividad.
  • Autonomía.
  • Foco en los objetivos de proyectos.

Te ofrecemos

  • Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos
  • Acceso a grandes clientes y proyectos desafiantes
  • Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales
  • Un entorno de trabajo flexible y dinámico
  • Beneficios especiales: día libre para tu cumpleaños, 4 semanas de vacaciones

Wellness program 2BRAINS offers or subsidies mental and/or physical health activities.
Internal talks 2BRAINS offers space for internal talks or presentations during working hours.
Education stipend 2BRAINS covers some educational expenses related to the position.
Informal dress code No dress code is enforced.
Shopping discounts 2BRAINS provides some discounts or deals in certain stores.
Vacation over legal 2BRAINS gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
Gross salary $1000 - 1300 Full time
Data Scientist Junior
  • coderslab.io
  • Santiago (Hybrid)
Python SQL Business Intelligence Big Data

CodersLab es una empresa dedicada al desarrollo de soluciones en el sector IT. Actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina. Por eso, estamos buscando un Data scientist Junior para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Official job site: Get on Board.

Job functions

  • Diseñar y desarrollar modelos de aprendizaje automático utilizando herramientas de Vertex AI (AutoML, Pipelines, Feature Store, etc.).
  • Implementar flujos de trabajo de datos en GCP, utilizando servicios como BigQuery, Dataflow, Pub/Sub y Cloud Storage.
  • Desplegar y gestionar modelos de ML en producción, asegurando rendimiento, escalabilidad y monitoreo continuo.
  • Crear y optimizar pipelines de MLOps para el desarrollo ágil de modelos y su mantenimiento.
  • Colaborar con ingenieros de datos, analistas y DevOps para integrar los modelos en sistemas productivos.
  • Analizar grandes volúmenes de datos y generar insights accionables que respondan a las necesidades del negocio.
  • Comunicar resultados técnicos y hallazgos analíticos a audiencias técnicas y no técnicas.
  • Mantenerse actualizado sobre las últimas innovaciones en GCP, Vertex AI y aprendizaje automático.

Qualifications and requirements

  • Experiencia mínima de 3 años trabajando como Data Scientist o en roles similares.
  • Conocimiento avanzado de Google Cloud Platform (GCP), incluyendo:
    • BigQuery
    • Dataflow
    • Cloud Storage
    • Pub/Sub
    • Cloud Composer
  • Experiencia en el uso de Vertex AI para el desarrollo y despliegue de modelos de aprendizaje automático.
  • Dominio de lenguajes como Python y SQL.
  • Conocimiento de frameworks de aprendizaje automático como TensorFlow, PyTorch o scikit-learn.
  • Experiencia en construcción de pipelines de datos y MLOps.
  • Familiaridad con herramientas de visualización como Looker, Tableau o Data Studio.

Conditions

Hibrido en Santigo de Chile
Renta en pesos Chilenos

APPLY VIA WEB
$$$ Full time
Data Scientist
  • 2BRAINS
Python SQL NoSQL Big Data

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

Apply exclusively at getonbrd.com.

El Data Scientist de 2Brains

Es responsable de analizar y extraer conocimiento a partir de datos mediante técnicas de Machine Learning, estadística y análisis avanzado, con el fin de optimizar la toma de decisiones y generar impacto en el negocio. Trabaja en conjunto con el equipo digital para desarrollar productos de datos, asegurando su calidad, documentación y correcta implementación. Además, mide el impacto de sus soluciones mediante estándares de experimentación, contribuyendo a la mejora continua y eficiencia operativa.

El Data Scientist de 2Brains deberá

  • Analizar grandes volúmenes de datos para identificar patrones, tendencias y oportunidades de mejora.
  • Diseñar, desarrollar e implementar modelos de Machine Learning y técnicas estadísticas para resolver problemas de negocio.
  • Desarrollar productos de datos en colaboración con el equipo digital, asegurando calidad, mantenimiento y escalabilidad.
  • Aplicar métodos de experimentación y validación (A/B testing, causal inference, etc.) para medir el impacto de las soluciones implementadas.
  • Garantizar la correcta documentación de los modelos, algoritmos y procesos desarrollados.
  • Optimizar y mejorar continuamente los modelos en producción en función de su desempeño y nuevos datos.
  • Colaborar con equipos de negocio y tecnología para alinear soluciones de datos con objetivos estratégicos.
  • Explorar nuevas herramientas y tecnologías para potenciar el uso de datos dentro de la organización.

¿Qué conocimientos buscamos en el/la Data Scientist?

  • Python/R, SQL y Spark. Para programar modelos de machine learning, realizar análisis estadístico y manipular datos, además de procesar grandes volúmenes de datos en paralelo y a gran escala.
  • Machine Learning, métricas de evaluación de modelos.
  • Pruebas A/B.
  • Deployment de modelos
  • Análisis estadístico
  • Desarrollo de productos de datos.
  • Deseables:
  • NoSQL, Bayesian Statistics, MLOps avanzado.
  • Herramientas de visualización como Streamlit.

¿Qué competencias buscamos en el/la Data Scientist?

  • Curiosidad
  • Foco en los objetivos
  • Colaboración y trabajo en equipo (ínter y multidisciplinario)
  • Proactividad
  • Autonomía

Te ofrecemos

  • Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos.
  • Un proyecto con foco en los usuarios, visión de UX e integrada al desarrollo.
  • Acceso a grandes clientes y proyectos desafiantes.
  • Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales.
  • Un entorno de trabajo flexible y dinámico.
  • Beneficios especiales: un día libre de regalo por tu cumpleaños, días de descanso (previa coordinación), convenios para cursos de especialización.

Wellness program 2BRAINS offers or subsidies mental and/or physical health activities.
Internal talks 2BRAINS offers space for internal talks or presentations during working hours.
Informal dress code No dress code is enforced.
Shopping discounts 2BRAINS provides some discounts or deals in certain stores.
Vacation over legal 2BRAINS gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Data Engineer Azure
  • Factor IT
  • Santiago (Hybrid)
Python Agile SQL NoSQL
En FactorIT, buscamos un Ingeniero de Datos con experiencia en banca y entidades financieras para liderar y ejecutar proyectos de Data & Analytics. Te unirás a un equipo innovador en el que tu trabajo impactará directamente en la transformación digital de importantes instituciones en el sector financiero.
Este rol es clave para potenciar el uso de datos dentro de la banca, asegurando que la infraestructura y los procesos estén alineados con los objetivos estratégicos del negocio. Tendrás la oportunidad de trabajar con tecnologías de vanguardia, incluyendo Azure Databricks y otros servicios en la nube, asegurando soluciones escalables y seguras que optimicen la toma de decisiones.

Apply to this job through Get on Board.

Responsabilidades:

  • Diseñar y desarrollar soluciones de ingestión, transformación y modelado de datos en Azure Databricks y otras tecnologías relacionadas.
  • Optimizar procesos de ETL/ELT, asegurando calidad, integridad y eficiencia en el procesamiento de datos.
  • Colaborar con equipos de negocio para entender sus necesidades, identificar oportunidades y proponer soluciones basadas en datos.
  • Implementar arquitecturas de datos escalables que soporten analítica avanzada, machine learning e inteligencia de negocio.
  • Garantizar la seguridad y el cumplimiento normativo en el manejo de datos, siguiendo estándares bancarios y regulatorios.
  • Desarrollar y optimizar pipelines de datos para la explotación en entornos analíticos y de reportes.
  • Documentar procesos, arquitecturas y modelos de datos, asegurando buenas prácticas de gobernanza.
  • Trabajar en conjunto con equipos de Data Science, BI y Tecnología para garantizar la disponibilidad y calidad de los datos.

Requisitos Técnicos y Habilidades:

Buscamos un profesional con un mínimo de 3 años de experiencia en ingeniería de datos, idealmente en el sector financiero. Debe poseer un conocimiento avanzado en:
  • Azure Databricks, Spark y servicios de datos en la nube como Azure Data Factory, Azure Synapse y Data Lake.
  • Modelado de datos, optimización de consultas y bases de datos en SQL y NoSQL.
  • Programación en Python y/o Scala para el desarrollo de pipelines y procesamiento de datos.
  • Arquitecturas de datos escalables y distribuidas.
  • Principios de seguridad y cumplimiento normativo en banca (ej. GDPR, PCI-DSS, BCBS 239).
  • Herramientas de orquestación y automatización de flujos de datos.
Además, necesitaremos que cuentes con habilidades blandas como excelente comunicación, pensamiento analítico, proactividad y capacidad de trabajo en equipo en entornos ágiles y dinámicos.

Habilidades Deseables:

Sería un plus contar con experiencia previa en proyectos de transformación digital en el sector bancario, así como familiaridad con herramientas de visualización de datos y reportes. La capacidad para adaptarse rápidamente a nuevas tecnologías y seguir aprendiendo continuamente es muy valorada dentro de nuestra cultura.

Beneficios:

En FactorIT, brindamos un entorno de trabajo dinámico y colaborativo donde puedes trabajar con tecnologías de punta. Ofrecemos un plan de crecimiento profesional, capacitaciones en IA y automatización, y un salario competitivo acorde a tu experiencia.
Promovemos el equilibrio entre la vida personal y laboral mediante trabajo 100% remoto 🌍 y flexibilidad laboral. Únete a nosotros y sé parte de un equipo que está transformando el futuro de la tecnología en la región.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Computer provided Factor IT provides a computer for your work.
APPLY VIA WEB
Gross salary $2000 - 2500 Full time
Analista de BI Latam
  • BC Tecnología
Python Analytics Data Analysis SQL

En BC Tecnología, somos una consultora de TI especializada en diversas áreas tecnológicas, ofreciendo un entorno de trabajo colaborativo donde se valora el compromiso y el desarrollo profesional. Trabajamos con clientes en los sectores de servicios financieros, seguros, retail y gobierno, diseñando soluciones adecuadas a sus necesidades desde hace más de seis años. Nuestro enfoque incluye consultoría y diseño de soluciones, formación de equipos, desarrollo de proyectos, y servicios de soporte y administración IT.

Applications at getonbrd.com.

Responsabilidades principales:

  • Extraer y procesar datos desde diversas fuentes mediante SQL y Python (PySpark).
  • Diseñar y optimizar modelos de datos en Power BI para reportes avanzados.
  • Implementar y mejorar flujos ETL para la integración de datos.
  • Colaborar con áreas de negocio para entender necesidades analíticas y generar soluciones BI.
  • Asegurar la calidad y disponibilidad de los datos en los reportes.

Requisitos:

  • SQL Avanzado – Creación, optimización y modelado de datos.
  • Python (PySpark) – Procesamiento y transformación de datos en entornos Big Data.
  • Power BI (Nivel medio-alto) – Creación de reportes y dashboards interactivos.
  • Databricks (Deseable) – Experiencia en plataformas de datos en la nube.
  • Experiencia mínima de 3 años en roles de BI, Data Analytics o similares.
  • Habilidades de comunicación y trabajo en equipo para traducir necesidades de negocio en soluciones BI.

Deseable:

Experiencia con Databricks sería un plus, mostrando la capacidad de trabajar con plataformas de datos en la nube.

Conditions

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
$$$ Full time
Data Engineer
  • Improving South America
SQL Business Intelligence Virtualization Amazon Web Services
Leniolabs_ que ahora es Improving South America es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España, USA y Canadá.
Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes.
Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.
Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

This job is published by getonbrd.com.

Responsabilidades del Ingeniero de Datos

  • Descubrimiento de Fuentes Legacy: Utilizar SQL avanzado y scripting (Python/PowerShell) para automatizar procesos y documentar sistemas heredados.
  • Análisis de Calidad de Datos: Ejecutar perfiles de datos, identificar problemas de calidad y generar métricas clave de calidad (KPIs).
  • Limpieza Inicial de Datos: Aplicar herramientas ETL/ELT (Informatica, Talend, dbt) y realizar limpieza de datos en base a las comunicaciones con expertos.
  • Definición de Estrategias de Archivo vs. Migración: Diseñar modelos de datos y evaluar soluciones de almacenamiento equilibrando cumplimiento y costos.
  • Mapping a la Plataforma del Proveedor: Desarrollar procesos de mapeo y transformación para garantizar la correcta transferencia de datos.
  • Análisis de Necesidades Actuales de BI/Reportes: Colaborar con usuarios para optimizar consultas SQL y estructurar datos para reportes.
  • Tareas Adicionales: Orquestación de pipelines (Airflow), CI/CD, contenedorización (Docker, Kubernetes) y automatización en la nube (AWS).

Requisitos Técnicos y Habilidades Deseadas

Buscamos un profesional con el siguiente perfil:

  • Dominio en SQL avanzado, así como experiencia en herramientas ETL/ELT como Informatica, Talend y dbt. Conocimientos en sistemas de almacenamiento en la nube (AWS S3, Redshift)
  • Habilidades en orquestación de pipelines (Airflow, Docker, Kubernetes)
  • Familiaridad con herramientas de BI como Power BI o Tableau.
  • Nivel de inglés intermedio/avanzado o avanzado.
  • A nivel de habilidades blandas, esperamos que los candidatos tengan un fuerte pensamiento crítico, atención al detalle y la capacidad de comunicar hallazgos técnicos a diferentes públicos.

Habilidades Deseables

Si bien no son imprescindibles, se valorarán conocimientos adicionales en el trabajo con big data y experiencia en entornos ágiles. La capacidad de adaptarse rápidamente a nuevas herramientas y requisitos será muy apreciada, al igual que la iniciativa para proponer mejoras a nuestros procesos actuales.

¿Qué Ofrecemos?

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Power BI Analyst Sr
  • Improving South America
Data Analysis SQL Big Data BigQuery
Leniolabs_ es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA.
Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.
Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.

Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Job source: getonbrd.com.

Funciones del cargo

En Leniolabs estamos en la búsqueda de un SR Power BI Analyst.

El candidato ideal debe contar con un mínimo de 6 años de experiencia, el equipo está buscando recursos para ayudar a satisfacer las necesidades de sus clientes internos de EE. UU. Los miembros de nuestro equipo recibirán tickets de solución de ServiceNow y ejecutarán informes/consultas centrados en los datos de uso del cliente, la validación de datos, etc.

El objetivo es crear un equipo de mejora. Este grupo quiere familiarizarse y sentirse cómodo con la mejora.

El rol implica colaborar estrechamente con arquitectos, ingenieros y propietarios de producto para diseñar soluciones técnicas que soporten altos niveles de disponibilidad y consistencia.

Buscamos perfiles con un compromiso claro con la excelencia técnica, la innovación y un interés genuino en las últimas tecnologías, capaces de trabajar en un entorno ágil y de alto rendimiento.

Requerimientos del cargo

  • Contar con mínimo 6 años de experiencia trabajando con Power BI y SQL.
  • Manejo de Google Cloud Platform (GCP) y BigQuery.
  • Experiencia en ETL (idealmente con Talend) y capacidad para trabajar con grandes volúmenes de datos (terabytes).
  • Sólidas habilidades de redacción y comunicación, además de iniciativa.
  • Nivel de inglés intermedio-avanzado (B2/C1).

Beneficios

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Internal talks Improving South America offers space for internal talks or presentations during working hours.
Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Improving South America gives you paid vacations over the legal minimum.
APPLY VIA WEB
Gross salary $2000 - 2300 Full time
Data Engineer – Proyecto de 6 Meses
  • BC Tecnología
  • Santiago (Hybrid)
Python Git SQL Scala
En BC Tecnología, somos una consultora de TI comprometida con ofrecer soluciones innovadoras y adaptadas a las necesidades de nuestros clientes. Con más de 6 años de experiencia en el sector, trabajamos con empresas en diferentes industrias, incluyendo servicios financieros, seguros, retail y gobierno. En este proyecto de Data Engineering, tendrás la oportunidad de contribuir al diseño y construcción de pipelines de datos para nuestros clientes, utilizando metodologías ágiles y colaborando con equipos altamente especializados.

Apply to this job opportunity at getonbrd.com.

Responsabilidades del Rol

  • Diseñar y construir pipelines de datos efectivos para cumplimentar las necesidades analíticas de nuestros clientes.
  • Programar usando lenguajes como Python, Scala o SQL para manipulación y transformación de datos.
  • Implementar y gestionar herramientas de orquestación de pipelines, como Airflow, Mage, NiFi o similares.
  • Colaborar en prácticas de CI/CD, incluidos conocimientos básicos en Git y versionado de código.
  • Integrar arquitecturas de datos, con un enfoque en Datalakes, Datawarehouses o Lakehouse.
  • Participar en modelado de datos utilizando técnicas dimensional, estrella y copo de nieve, si es requerido.

Requisitos y Habilidades

Buscamos candidatos que cuenten con al menos 2 años de experiencia en el área de Data Engineering. Deberán tener competencias en diseño y construcción de pipelines de datos, así como experiencia con lenguajes de programación pertinentes como Python, Scala o SQL.
Es esencial dominar herramientas de orquestación de datos, y tener un conocimiento básico sobre integraciones de CI/CD y flujos de trabajo de versionamiento de código. Adicionalmente, es deseable contar con experiencia en arquitecturas de datos y modelado, incluidos Datalakes y técnicas de modelado específicas.
La modalidad de trabajo es híbrida, lo que permitirá equilibrar la colaboración en persona con flexibilidad laboral.

Habilidades Deseables

Si bien no es un requisito, consideraremos positivamente la experiencia previa con Datalakes y Datawarehouses, así como familiaridad con técnicas de modelado como dimensional, estrella o copo de nieve. Esto contribuirá a un mejor entendimiento del contexto de las soluciones que desarrollaremos.

Beneficios y Condiciones

Ofrecemos un contrato por proyecto de 6 meses, con posibilidad de extensión. Los empleados disfrutarán de un sueldo a convenir, además de beneficios adicionales como:
  • Seguro complementario.
  • Amipass de $4,500 por día laborado.
  • Convenciones, actividades y bonos.
Estamos ubicados en Alto Las Condes, permitiendo un ambiente de trabajo funcional y moderno. ¡Nos encantaría contar contigo en nuestro equipo! 🌟

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB
Gross salary $2000 - 2300 Full time
Data Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Python Git SQL Scala
En BC Tecnología, somos una consultora de TI que cuenta con un equipo experto en diversas áreas tecnológicas. Nuestra misión es brindar soluciones personalizadas que se adapten a las necesidades de nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Actualmente, buscamos incorporar un Data Engineer para diseñar, construir y mantener pipelines de datos, utilizando tecnologías modernas.
Contamos con un enfoque ágil y orientado al cliente, lo que nos permite ofrecer servicios de consultoría, desarrollo de proyectos y administración IT de alta calidad.

Official source: getonbrd.com.

✅ Funciones

  • Diseñar y construir pipelines de datos eficientes para mover y transformar datos.
  • Garantizar que los procesos de datos sean consistentes y confiables en el tiempo.
  • Implementar flujos de trabajo de CI/CD para la integración con ambientes de desarrollo y productivos.
  • Colaborar con el equipo para mejorar la calidad y eficiencia de los procesos de datos.
  • Apoyarse en líderes técnicos para lineamientos y mejores prácticas en el desarrollo.

✅ Requerimiento:

Se requiere entre 1 a 2 años de experiencia en diseño y construcción de pipelines de datos. Consideraciones específicas incluyen:
  • Lenguajes de programación: Python, Scala o SQL.
  • Herramientas de orquestación de pipelines: Airflow, Mage, NiFi o similares.
  • CI/CD: Conocimientos básicos en Git y flujos de trabajo de versionamiento de código.

Deseables:

  • Arquitectura de datos: Familiaridad con Datalakes, Datawarehouses o Lakehouse.
  • Modelado de datos: Conocimiento en técnicas como dimensional, estrella, copo de nieve.

✅ Condiciones:

El contrato es por proyecto, estimado en 3 meses, con metodología de trabajo híbrido en Alto las Condes (2 a 3 veces por semana). Los postulantes deben tener disponibilidad de lunes a viernes. Sueldo a convenir y disfrutará de beneficios como seguro complementario, Amipass de $4,500 por día laborado, convenios, actividades y bonos. 🌟

APPLY VIA WEB
Gross salary $1500 - 1700 Full time
Analista de Datos
  • BC Tecnología
  • Buenos Aires (Hybrid)
Python Data Analysis SQL Business Intelligence
En BC Tecnología, somos una consultora especializada en servicios IT, trabajando con clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestro equipo de BI & Analytics juega un papel crucial en la optimización de procesos y toma de decisiones informadas mediante la administración y análisis de datos. Buscamos un Analista de Datos que se una a nuestro equipo, aportando experiencia y conocimiento en herramientas clave.

Job opportunity published on getonbrd.com.

Responsabilidades

Como Analista de Datos, serás el representante del equipo de BI & Analytics en Argentina. Tus responsabilidades incluirán:
  • Desarrollar y optimizar consultas SQL para la extracción y transformación de datos.
  • Implementar y gestionar pipelines de datos en Databricks.
  • Aplicar Python para el procesamiento y análisis avanzado de datos.
  • Servir como enlace entre el equipo de BI & Analytics y las áreas de negocio en el país, asegurando que las iniciativas de BI estén alineadas con las necesidades estratégicas de la empresa.
  • Asegurar la calidad y disponibilidad de los datos para la toma de decisiones.
  • Colaborar con equipos multidisciplinarios para definir y mejorar modelos analíticos.

Requisitos

  • Experiencia sólida en desarrollo BI con SQL avanzado.
  • Conocimiento y experiencia en Databricks (deseable).
  • Habilidad en Python para manipulación y análisis de datos.
  • Experiencia en entornos de análisis y procesamiento de datos en la nube (Azure, AWS, GCP es un plus).

Habilidades Deseables

Buscamos a alguien que no solo cumpla con los requisitos técnicos, sino que también posea habilidades interpersonales para colaborar efectivamente con equipos diversos y facilitar la comunicación entre departamentos. La adaptabilidad y una mentalidad centrada en soluciones son altamente valoradas en nuestra cultura de trabajo.

Beneficios

En BC Tecnología, te ofrecemos un entorno laboral dinámico y colaborativo, con un modelo de trabajo híbrido que idealiza la integración entre lo presencial y lo remoto. Además, tendrás acceso a oportunidades de capacitación continua, un ambiente que fomenta la innovación y centenares de oportunidades para crecer profesionalmente al lado de expertos. Valoramos a nuestros colaboradores y buscamos su desarrollo constante.

Health coverage BC Tecnología pays or copays health insurance for employees.
APPLY VIA WEB
$$$ Full time
Microsoft Power BI Developer
  • Improving South America
SQL SAP Big Data Azure

Leniolabs_ es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA.

Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.

Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.

Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Apply from getonbrd.com.

Funciones del cargo

En Leniolabs estamos en la búsqueda de un SSR/SR Microsoft Power BI Developer.

El candidato ideal debe contar con un mínimo de 5 años de experiencia. Además de conocimientos y experiencia en informes analíticos, es fundamental que tenga experiencia en SQL, ya que en el proyecto deberá trabajar en reportes, realizar extracción y manejo de datos en SQL.

El rol implica colaborar estrechamente con arquitectos, ingenieros y propietarios de producto para diseñar soluciones técnicas que soporten altos niveles de disponibilidad y consistencia.

Buscamos perfiles con un compromiso claro con la excelencia técnica, la innovación y un interés genuino en las últimas tecnologías, capaces de trabajar en un entorno ágil y de alto rendimiento.

Requerimientos del cargo

  • Contar con aproximadamente 5 años de experiencia como Data Engineer.
  • Manejo de Power BI y SQL (Excluyente).
  • Experiencia con Synapse y Azure Data Factory.
  • Es deseable la experiencia con Data Lake y SAP SCM
  • Habilidad para crear documentación técnica.
  • Inglés avanzado.

Beneficios

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo,

Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Improving South America gives you paid vacations over the legal minimum.
APPLY VIA WEB
Gross salary $2500 - 2800 Full time
Data Scientist
  • Niuro
Python SQL Azure Artificial Intelligence
At Niuro, we are dedicated to connecting cutting-edge projects with elite tech teams, collaborating closely with leading U.S. companies. Our mission revolves around simplifying global talent acquisition through innovative solutions that enhance efficiency and quality. As part of our team, you will engage in dynamic and challenging projects that are pivotal to our clients' success.
By providing autonomous, high-performance tech teams, we empower our professionals through continuous training in both technical and soft skills, along with leadership development. Our structure supports collaborative growth and excellence.

Official job site: Get on Board.

Responsibilities:

  • Design, develop, and evaluate machine learning and statistical models aimed at enhancing various business processes.
  • Analyze large datasets to derive insights and formulate data-driven strategies.
  • Deploy models into production utilizing tools such as TensorFlow, PyTorch, or Scikit-learn.
  • Create dashboards and reports via visualization tools like Tableau, Power BI, or Looker.
  • Collaborate with engineering teams to optimize data pipelines and model infrastructures.
  • Deliver findings and recommendations to non-technical stakeholders in a clear and concise manner.

Requirements:

  • 3-5 years of experience in data science, machine learning, and statistical analysis.
  • Proficiency in Python with solid knowledge of data science libraries including Pandas, Polars, Scikit-learn, TensorFlow, and PyTorch.
  • Experience with SQL and both relational and non-relational databases.
  • Knowledge of feature engineering, model selection, and cross-validation techniques.
  • Experience with Generative AI frameworks and libraries, such as Hugging Face Transformers and LangChain, alongside API usage and prompt engineering skills.
  • Able to visualize data with tools like Matplotlib, Seaborn, and Plotly.
  • Strong communication skills with a knack for data storytelling.
  • Intermediate to advanced English proficiency (written and spoken).

Nice-to-Haves:

  • Experience with cloud computing platforms such as AWS, GCP, or Azure.
  • Familiarity with real-time data processing using tools like Apache Kafka or Spark Streaming.
  • Working knowledge of deep learning frameworks.
  • Understanding of MLOps techniques for deploying models effectively.
  • Curiosity and enthusiasm for exploring the latest trends in Generative AI within the field of data analysis.

Salary & Benefits:

We offer a competitive salary ranging from $2,500 to $2,800 USD per month, depending on your experience. Our organization embraces a fully remote work environment, paired with flexible working hours to enhance your work-life balance.
At Niuro, you will find ample opportunities for professional development, along with access to training in advanced data analysis tools. Join us, and be part of a team that values continuous learning and growth!

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
APPLY VIA WEB
Gross salary $3000 - 3900 Full time
Senior Data Engineer
  • Apply Digital Latam
Python Agile SQL Virtualization
ABOUT APPLY DIGITAL
Apply Digital is a global digital transformation partner for change agents. Leveraging expertise that spans Business Transformation Strategy, Product Design & Development, Commerce, Platform Engineering, Data Intelligence, Change Management, and beyond, we enable our clients to modernize their organizations and deliver meaningful impact to the business and to their customers. Our 650+ team members have helped transform global companies like Kraft Heinz, NFL, Moderna, Lululemon, Games Workshop, Atlassian, and The Very Group. Visit applydigital.com to learn how we can unlock your company’s potential.
If you'd like to learn more about Apply Digital's culture click HERE.
LOCATION: Apply Digital is hybrid/remote-friendly. The preferred candidate should be based in Latin America, preferably working in hours that align to ET (Eastern Timezone) or PT (Pacific Timezone).

Apply exclusively at getonbrd.com.

Responsibilities:

  • Design, build, and optimize ETL/ELT pipelines using Python and SQL
  • Develop and maintain data warehouse schemas and analytics solutions
  • Implement data models and ensure data quality, consistency, and integrity
  • Leverage cloud data platforms (e.g., AWS Athena, Databricks, Snowflake, Azure Synapse/Fabric, Google BigQuery) for storage, processing, and querying
  • Create and maintain optimal data pipeline architecture.
  • Collaborate with analysts and stakeholders to define requirements and deliver data solutions that meet business needs
  • Communicate with stakeholders to understand data requirements and develop solutions.
  • Design, develop, implement, and maintain data architectures and pipelines.
  • Optimize query performance and ensure efficient data workflowsDocument data pipelines, architectures, and processes
  • Continuously improve and refine existing data infrastructure and solution
  • Develop and implement best practices for data management, security, and privacy.

Requirements:

  • A Bachelor's degree in Computer Science, Information Systems, or a related field.
  • At least 5 years of experience in data engineering or related fields.
  • Strong expertise in SQL, ETL, and data warehousing technologies.
  • Strong working knowledge of Python and PySpark
  • Proven experience with at least one major cloud data platform (AWS Athena, Databricks, Snowflake, Azure Synapse/Fabric, or Google BigQuery)
  • Knowledge of data migration tools and techniques.
  • Good knowledge of databases.
  • Strong background in data warehouse design, ETL/ELT processes, and data modeling, ideally with modern data warehouse and DBT
  • Familiarity with cloud engineering concepts and best practices
  • Experience working with large datasets and optimizing performance
  • Excellent problem-solving skills and attention to detail
  • Outstanding communication skills in English, both written and verbal.

Nice-to-haves:

  • Knowledge of multiple cloud platforms (AWS, Azure, GCP) and their data services
  • Familiarity with data governance and compliance requirements
  • Knowledge of CI/CD practices for data engineering
  • Familiarity with Agile development methodologies
  • Experience with containerization (Docker, Kubernetes)

Conditions

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Apply Digital Latam provides a computer for your work.
Vacation over legal Apply Digital Latam gives you paid vacations over the legal minimum.
Beverages and snacks Apply Digital Latam offers beverages and snacks for free consumption.
APPLY VIA WEB
$$$ Full time
Ingeniero/a de Estudios Actuariales Senior
  • BNP Paribas Cardif
  • Santiago (Hybrid)
C Python Data Analysis Excel
¿Quieres ser parte de los líderes en la revolución de los seguros?
BNP Paribas Cardif está presente en más de 30 países en América, Europa y Asia, contamos con 25 años de trayectoria en Chile y nuestra misión es hacer los seguros más accesibles, justos y valiosos.
✅ Por nuestro ambiente laboral único, somos una organización centrada en el bienestar de las personas y nuestro espíritu Cardif está presente en la oficina y fuera de ella.
✅ Porque el deporte y sus valores son parte de nuestra cultura: la colaboración, la empatía y el respeto guían nuestro trabajo.
✅ Por la cercanía con nuestros líderes, somos una organización que cree en el talento y damos las oportunidades para desarrollarte y aprender juntos.
✅ Por nuestro modelo de trabajo mixto, teletrabajando tres días a la semana.
✅ Estamos comprometidos con el medio ambiente.
✅ Estamos comprometidos con la diversidad, equidad e inclusión, siendo ésta parte de nuestra cultura y estrategia de la compañía.

This job is available on Get on Board.

Funciones del cargo

Hoy buscamos a un Ingeniero(a) de Estudios Actuariales que se sume al equipo de Modelos de Riesgos y Estudios, de la Gerencia Técnica - Financiera, donde tú misión será proveer a las distintas áreas de la gerencia técnica y de la compañía con parámetros técnicos, a través de estudios y herramientas, con el fin que se puedan tomar las decisiones correctas a la hora de evaluar rentabilidad de los productos.
Además de:
• Analizar grandes volúmenes de datos en SAS, Excel y Python, para estudiar el comportamiento de las coberturas de seguros a través de parámetros técnicos, con el fin de entregárselos a pricing y distintas áreas de la compañía para la toma de decisiones.
• Proveer de herramientas al área técnica de la compañía, con el fin de facilitar la toma de decisiones, a través de actualizaciones de Dashboard o creación de nuevas herramientas.
• Seguimiento, estudio y control, de los diferentes riesgos que enfrenta la compañía.
• Gestionar y analizar los datos de la compañía con el fin de abordar distintas problemáticas actuariales que permitan apoyar el proceso de transformación.
• Participar activamente en proyectos transversales tanto a la gerencia técnica como a nivel compañía, aportando desde el punto de vista técnico y financiero.
• Buscar la mejora continua de los procesos y procedimientos del área, buscando la agilidad y perfeccionamiento de las metodologías de cálculo, ya sea proponiendo nuevas herramientas o modelos o mejorando los utilizados actualmente.

Requisitos Mínimos

a. Formación

- Ingeniería Civil Industrial, Ingeniería en Estadística o afín.
b. Experiencia Requerida

- Deseable: Experiencia previa en áreas de analisis de datos, ya sea en manejo de grandes volumenes de datos, reporterías, monitoreos de KPI’s, modelación estadística o similares.
Tiempo: 0 – 2 años
c. Conocimientos y Habilidades

- Conocimiento avanzado de Excel, SAS y Python.
- Conocimiento Básico – Intermedio de Power BI.
- Nivel de inglés intermedio – avanzado.
- Conocimiento del ámbito asegurador
- Alta capacidad de síntesis y análisis
- Autonomía y autogestión
- Proactividad
- Capacidad de trabajo en equipo.
- Habilidades comunicacionales orales y escritas.
- Capacidad de generar ideas y mejoras continuas
- Orientación a resultados.
- Efectividad en presentaciones.
- Capacidad de planificación y seguimiento.

Beneficios

  • Trabajamos eficientemente: 40 horas semanales en horarios flexibles y los viernes salimos a las 14:00.
  • ¡Tenemos más vacaciones y días libres! Una semana adicional de vacaciones + 1 día libre considerando tu cumpleaños y quehaceres personales.
  • Apoyamos tu formación profesional: Acceso ilimitado a nuestra plataforma Coursera y dos días libres al año por estudios.
  • Cardif te cuida: Contarás con telemedicina gratis, seguro de vida, de salud y dental.
  • Queremos que seas tú mismo: Contamos con política de vestimenta flexible.
Y muchos otros beneficios que podrás conocer al avanzar en nuestro proceso de selección

¿Te sumas a la revolución de la industria del seguro?

Esperamos tu postulación ¡seguro y con todo!

“Todas las contrataciones están sujetas a la ley 21015. En BNP Paribas Cardif creemos en lugares de trabajos inclusivos y diversos, donde todas las personas son bienvenidas. En caso de necesitar adaptaciones para ser parte de nuestro proceso de selección, favor comunicarlo en la sección de preguntas.”

APPLY VIA WEB
Gross salary $3100 - 4500 Full time
Data Engineer
  • Haystack News
  • Lima (Hybrid)
Python Analytics Data Analysis SQL

Haystack News is the leading local & world news service on Connected TVs reaching millions of users! This is a unique opportunity to work at Haystack News, one of the fastest-growing TV startups in the world. We are already preloaded on 37% of all TVs shipped in the US!

Be part of a Silicon Valley startup and work directly with the founding team. Jumpstart your career by working with Stanford & Carnegie Mellon alumni and faculty who have already been part of other successful startups in Silicon Valley.

You should join us if you're hungry to learn how Silicon Valley startups thrive, you like to ship quickly and often, love to solve challenging problems, and like working in small teams.

See Haystack's feature at this year's Google IO:

This job is published by getonbrd.com.

Job functions

  • Analyze large data sets to get insights using statistical analysis tools and techniques
  • Collaborate with the Marketing, Editorial and Engineering teams on dataset building, querying and dashboard implementations
  • Support the data tooling improvement efforts and help increase the company data literacy
  • Work with the ML team on feature engineering and A/B testing for model building and improvement
  • Design, test and build highly scalable data management and monitoring systems
  • Build high-performance algorithms, prototypes and predictive models

Qualifications and requirements

  • Strong written and spoken English is a must!
  • Bachelor's degree in Computer Science, Statistics, Math, Economics or related field
  • 2+ years experience doing analytics in a professional setting
  • Advanced SQL skills, including performance troubleshooting
  • Experience with data warehouses (e.g. Snowflake, BigQuery, Redshift)
  • Proficient in Python including familiarity with Jupyter notebooks
  • Strong Math/Stats background with statistical analysis experience on big data sets
  • Strong communication skills, be able to communicate complex concepts effectively.

Conditions

  • Unlimited vacations :)
  • Travel to team's offsite events
  • 100% paid Uber rides to go to the office
  • Learn about multiple technologies

Accessible An infrastructure adequate for people with special mobility needs.
Relocation offered If you are moving in from another country, Haystack News helps you with your relocation.
Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Meals provided Haystack News provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Company retreats Team-building activities outside the premises.
Computer repairs Haystack News covers some computer repair expenses.
Commuting stipend Haystack News offers a stipend to cover some commuting costs.
Computer provided Haystack News provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
APPLY VIA WEB
Gross salary $2000 - 2800 Full time
Ingeniero/a de Proyectos
  • Itrend Chile
  • Santiago (Hybrid)

En el Instituto para la Resiliencia ante Desastres (Itrend) estamos dedicados a la creación de bienes y servicios públicos mediante la colaboración y la innovación informadas por el conocimiento científico-tecnológico, con el objetivo de mitigar el impacto de desastres socionaturales en el país. Nuestro equipo especializado se conecta con diversos actores de la sociedad para fomentar un desarrollo sostenible y resiliente. Actualmente, buscamos un/a ingeniero/a de proyectos que se una al área de proyectos de Itrend.

Apply from getonbrd.com.

Funciones del cargo

  • Indagar y levantar información para el desarrollo adecuado de los proyectos. Esto incluye revisar la normativa vigente relacionada a la Gestión del riesgo de desastres.
  • Implementar modelos y realizar análisis, asegurando la calidad de los datos y de los resultados en consistencia con los objetivos establecidos en conjunto con las contrapartes.
  • Diseñar y/o seleccionar metodologías para la modelación y análisis de amenazas naturales y antrópicas.
  • Investigar e integrar nuevas tecnologías y enfoques en la modelación de riesgos para mejorar la precisión y utilidad de los modelos.
  • Comunicar los resultados de los análisis de riesgo a distintos públicos, incluyendo autoridades, comunidades y equipos técnicos, reconociendo supuestos y limitaciones de los modelos desarrollados.
  • Elaborar informes técnicos detallados y documentación de avances y resultados de los proyectos en los que participe.

Requerimientos del cargo

  • Título universitario en ingeniería civil o civil industrial y disciplinas afines a las funciones y desafíos del cargo.
  • Entre 2 a 5 años de experiencia laboral comprobable de preferencia en consultoras, centros de
    investigación, centros de estudios o áreas de I+D en empresas de ingeniería civil.
  • Conocimiento básico de programación científica (deseable Python).
  • Capacidad para comunicar análisis complejos de manera clara y efectiva, tanto a públicos
    técnicos como no técnicos.
  • Conocimiento intermedio del idioma inglés, oral y escrito.
  • Disponibilidad para el trabajo de forma presencial en las oficinas de Itrend, al menos cuatro días
    a la semana.

¿Qué habilidades adicionales serían beneficiosas?

  • Experiencia desarrollando proyectos relacionados a la gestión del riesgo de desastres y/o modelamiento de sistemas, o temáticas afines.
  • Conocimiento y manejo de Sistemas de Información Geográficos (SIG), además de experiencia
    en geoprocesos y manejo de información espacial (ráster y vector). Deseable manejo en QGIS o ArcGIS.
  • Experiencia en desarrollo de investigación científica o de consultorías.

Beneficios de trabajar con nosotros

Ofrecemos un ambiente de trabajo orientado a la colaboración y el crecimiento, con beneficios que incluyen:

  • Modalidad de trabajo híbrido y flexible, permitiendo un día de teletrabajo a la semana.
  • 5 Días de vacaciones adicionales a las legales y vacaciones proporcionales antes de cumplir un año de antigüedad.
  • 5 Días administrativos al año para facilitar trámites personales.
  • Día libre por cumpleaños y días adicionales de postnatal para el padre.
  • Oportunidades de desarrollo profesional y personal, enfocadas en el bienestar de nuestra comunidad.

Itrend es una organización sin fines de lucro enfocada en mejorar la resiliencia de Chile ante
desastres socionaturales. Te ofrecemos la oportunidad de que tu trabajo tenga un impacto real
en el bienestar y seguridad de tu comunidad y todo el país.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance Itrend Chile pays or copays life insurance for employees.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Computer provided Itrend Chile provides a computer for your work.
Vacation over legal Itrend Chile gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB