No encontramos ningún resultado.

Prueba con otro grupo de palabras.

Si crees que esto es un error, por favor contáctanos.

Gross salary $1800 - 2600 Tiempo completo
Desarrollador Full-Stack (Predominio en Back-end)
  • coderslab.io
  • Santiago (Hybrid)
JavaScript Java Ruby Ruby on Rails

En CodersLab, actualmente estamos enfocados en el crecimiento global de nuestros equipos con el objetivo de posicionar nuestros productos en más países de Latinoamérica. Por esta razón, estamos buscando un DESARROLLADOR FULLSTACK CON PREDOMINIO EN EL BACKEND motivado y orientado a objetivos.

Te unirás a un equipo desafiante y ambicioso con ganas de innovar en el mercado, haciendo que tus propuestas sean altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Applications are only received at getonbrd.com.

Funciones del cargo

  • Desarrollo Backend: Diseñar, desarrollar e implementar soluciones de backend utilizando lenguajes y frameworks como Node.js, Python, Ruby on Rails, Java, o similares.
  • APIs: Crear y mantener APIs RESTful y/o GraphQL que faciliten la interacción entre el frontend y el backend.
  • Base de Datos: Diseñar y gestionar bases de datos SQL (PostgreSQL, MySQL) y NoSQL (MongoDB, Redis), optimizando la consulta y el almacenamiento de datos.
  • Integración Continua: Configurar y mantener herramientas de Integración y Entrega Continua (CI/CD) para automatizar el proceso de pruebas y despliegue.
  • Colaboración: Trabajar en estrecha colaboración con diseñadores UX/UI, otros desarrolladores y equipos de producto para garantizar la entrega de soluciones de alta calidad que cumplan con las especificaciones y tiempos de entrega.
  • Mantenimiento y Soporte: Realizar mantenimiento y soporte en las aplicaciones existentes, identificando y resolviendo problemas de rendimiento y errores.
  • Documentación: Proporcionar documentación clara y concisa sobre la arquitectura del software, módulos y procedimientos de implementación.

Requerimientos del cargo

  • Experiencia: Mínimo 3 a 5 años de experiencia en desarrollo de aplicaciones web, con un fuerte énfasis en el desarrollo backend.
  • Lenguajes de Programación: Dominio en al menos uno de los siguientes lenguajes de backend: Node.js, Python, Java, Ruby, o similares.
  • Frameworks: Experiencia en frameworks de desarrollo web, como Express.js, Django, Ruby on Rails, Spring, etc.
  • Base de Datos: Experiencia sólida en bases de datos relacionales y no relacionales; conocimiento avanzado en consultas, optimización y diseño de esquemas.
  • Control de Versiones: Familiaridad con Git como herramienta de control de versiones.
  • Frontend: Conocimientos intermedios en tecnologías frontend como HTML, CSS, JavaScript y frameworks/librerías como React, Angular o Vue.js.
  • Metodologías Ágiles: Participación en equipos que implementan metodologías ágiles como Scrum o Kanban.
  • Pruebas: Conocimiento en pruebas unitarias y de integración.

POSTULAR VÍA WEB Ver trabajo
Gross salary $1200 - 1500 Tiempo completo
Desarrollador de Soluciones Java y Spring
  • BC Tecnología
  • Lima (Hybrid)
Java Agile MySQL SQL
En BC Tecnología, somos una consultora de TI compuesta por un equipo de expertos en diversas áreas tecnológicas. Nos dedicamos a administrar portafolios, desarrollar proyectos, realizar outsourcing y seleccionar profesionales. Durante más de 6 años, hemos creado soluciones personalizadas para las necesidades de nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno.
Nuestras principales áreas de negocio incluyen:
  • Consultoría y diseño de soluciones.
  • Formación de equipos de trabajo y outsourcing de personal.
  • Desarrollo de proyectos.
  • Servicios de soporte y administración IT.
Nos enfocamos en la satisfacción del cliente, utilizando metodologías ágiles y promoviendo el desarrollo de productos eficientes.

Official source: getonbrd.com.

Funciones del puesto

En este rol, serás responsable de desarrollar soluciones Java y Spring que satisfagan las necesidades de nuestros clientes en el ámbito financiero. Entre tus principales responsabilidades se incluyen:
  • Desarrollar aplicaciones utilizando JAVA y Spring (CORE, BOOT y SECURITY).
  • Implementar y gestionar bases de datos, como DB2400, SQL y MySQL.
  • Crear y mantener microservicios y servicios web tanto en el backend como en el frontend.
  • Colaborar con equipos de trabajo ágil para asegurar la eficacia y eficiencia de los proyectos.
  • Participar activamente en la mejora continua de nuestros procesos de desarrollo.

Este es un proyecto estimado a 12 meses, que te brinda una oportunidad emocionante para contribuir con tus conocimientos y habilidades.

Descripción del perfil

Buscamos a un Analista Desarrollador con al menos 5 años de experiencia en desarrollo de software, especializado en el uso de JAVA. Requerimos:
  • Conocimiento avanzado de JAVA (JDK 1.6 en adelante).
  • Manejo sólido de Spring y sus módulos (CORE, BOOT y SECURITY).
  • Experiencia específica en instituciones financieras.
  • Capacidad para desarrollar soluciones en microservicios, servicios web y sistemas tanto de backend como de frontend.
  • Habilidades para trabajar en equipo, con una mentalidad colaborativa y enfocada en el cliente.
Buscamos personas proactivas, con buenas habilidades de comunicación y un enfoque en la solución de problemas, que puedan contribuir en un ambiente dinámico y colaborativo.

Beneficios de unirte a nosotros

  • -Proyecto a 12 meses - Contratación por planilla
  • -Metodología de trabajo: Hibrido, Lima, San Isidro (3 días a la semana en oficina)
  • -Disponibilidad lunes a viernes 9:00 am a 6:00 pm
  • -Salario a convenir

Esperamos tu interés y que te sumes a nuestro equipo en un entorno dinámico y colaborativo! 😊

POSTULAR VÍA WEB Ver trabajo
Gross salary $1100 - 1300 Tiempo completo
Desarrollador Web Full-Stack Semi Senior
  • Defontana
JavaScript .Net HTML5 CSS

¿Te gusta trabajar con las últimas tecnologías? ¿Te consideras innovador y quieres participar proyectos de modernización de plataformas? Si tu respuesta es SÍ, este desafío es para ti. En Defontana buscamos nuevos talentos para formar parte de nuestros proyectos y construir en conjunto las mejores soluciones empresariales del mercado.

DEFONTANA ofrece soluciones empresariales 100% WEB, siendo la empresa líder del mercado latinoamericano en la implementación de software ERP.

Buscamos ofrecer grato ambiente laboral, compañerismo, conocimiento y desafíos, todos los ingredientes necesarios para hacer de tu día a día en Defontana algo interesante, algo diferente y que crezcas profesionalmente.

En el área de desarrollo de DEFONTANA estamos embarcados en una serie de proyectos que buscan expandir las funcionalidades disponibles para nuestros clientes, intentando generar un ecosistema que les entregue todo lo que necesitan para administrar con éxito sus empresas.

Find this job and more on Get on Board.

Funciones del cargo

Buscamos un desarrollador web Full Stack Semi Senior con experiencia NodeJs/ Netcore-Net 6+, React /Angular, SQL. Experiencia en AWS (opcional). Sus funciones serán implementar nuevos productos y dar soporte a las aplicaciones solicitadas por clientes de Defontana.

Las tareas de ejecutar son las siguientes:
- Mantenimiento a productos existentes.
- Desarrollo de productos según las necesidades de la empresa.
- Desarrollo de nuevas funcionalidades.
- Comunicación con equipos de internos y externos a la empresa, según corresponda a cada proyecto.

Para el trabajo remoto, se requiere tenga una buena conexión a Internet para conectarse a reuniones junto a sus compañeros de equipo.

Requerimientos del cargo

Requerimos que el postulante al cargo tenga los siguientes conocimientos:

  • NodeJs
  • Desarrollo y Administración en AWS (Lambda, API Gateway, DynamoDB, S3) (opcional)
  • CDK/Serverless Framework.
  • React
  • TypeScript, JavaScript
  • .Net Core 3.1 o superior
  • Net Framework
  • Net6+
  • Entity Framework
  • SQL
  • Angular 2+
  • Conceptos de Desarrollo Web (Frontend, Backend, HTML, CSS, API RESTful, Autenticación, Requests, CORS, etc)
  • SQL Server
  • Git

Opcionales

Conocimiento sobre Scrum y otras metodologías de trabajo en desarrollo de software.

Beneficios

Trabajo remoto.
La empresa entrega un PC de trabajo remoto al desarrollador, por lo que solo se solicita poseer un PC a través del cual se pueda conectar al mismo en forma remota.
Bono trimestral de medio sueldo, según resultados de la empresa y tiempo de permanencia en la misma.

Fully remote You can work from anywhere in the world.
Computer provided Defontana provides a computer for your work.
Informal dress code No dress code is enforced.
Beverages and snacks Defontana offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1800 - 2400 Tiempo completo
Desarrollador TypeScript
  • BC Tecnología
  • Santiago (Hybrid)
Redis SQL NoSQL DevOps
En *BC Tecnología*, contamos con un equipo experto en diversas áreas de tecnología, brindando servicios IT a una variedad de sectores, incluyendo servicios financieros, seguros, retail y gobierno. Durante 6 años, hemos creado soluciones personalizadas adaptadas a las necesidades de nuestros clientes. Nuestro enfoque incluye consultoría, formación de equipos, desarrollo de proyectos y soporte tecnológico, utilizando metodologías ágiles y un fuerte enfoque en la satisfacción del cliente. Como Desarrollador TypeScript, serás parte fundamental de este proceso, desarrollando soluciones innovadoras que impacten directamente en nuestros clientes.

Apply directly through getonbrd.com.

¿Qué harás?

  • Desarrollarás soluciones tecnológicas modernas utilizando TypeScript, NestJS y AWS.
  • Implementarás arquitecturas robustas y escalables, trabajando con microservicios y bases de datos avanzadas.
  • Garantizarás el alto desempeño y la escalabilidad de las aplicaciones.

Experiencia requerida:

  • Experiencia sólida con TypeScript, NestJS y Serverless.
  • Conocimientos prácticos en AWS (SQS, SNS, Lambda, RDS, Funciones Escalonadas) y manejo de bases de datos NoSQL (Dynamo, Mongo, Redis) y SQL.
  • Familiaridad con DevOps, monitoreo y despliegue continuo.
  • Experiencia en microservicios avanzados e implementación de arquitectura hexagonal.
  • Conocimientos en patrones de diseño.

Conocimientos Deseables:

  • Terraform
  • New Relic
  • Kubernetes
  • Docker

Ofrecemos

  • Contrato indefinido.
  • Modalidad híbrida.
  • Beneficios adicionales que fomentan el desarrollo continuo y el bienestar del empleado.
En *BC Tecnología*, valoramos tu experiencia y estamos emocionados por la posibilidad de que te unas a nuestro equipo. ¡Esperamos tu interés! 😊

Health coverage BC Tecnología pays or copays health insurance for employees.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1200 - 2000 Tiempo completo
Developer Python Semi Senior
  • coderslab.io
Python Agile SQL Virtualization
En CodersLab actualmente nos encontramos apuntando al crecimiento de nuestros equipos de manera global con el objetivo de posicionarnos con nuestros productos en más países de Latinoamérica, es por ello que estamos en búsqueda de un DEVELOPER SEMI SENIOR Y SENIOR quien deberá ser una persona motivada y orientada al cumplimiento de objetivos.
Te sumarás a un equipo desafiante y ambicioso con ganas de renovar el mercado, por lo que tus propuestas serán de mucho valor para el negocio.
¡Postula para este tremendo desafío!

Official job site: Get on Board.

Funciones del cargo

  1. Desarrollo de Componentes:
    • Diseñar y desarrollar componentes utilizando Python, asegurando que sean escalables y optimizados para el rendimiento.
  2. Automatización de Procesos:
    • Implementar automatizaciones relacionadas con medios de pago, mejorando la eficiencia operativa y reduciendo errores manuales.
  3. Integración y Manejo de Datos:
    • Trabajar con SQL para la manipulación e integración de datos, garantizando la correcta carga y almacenamiento de información en las bases de datos.
  4. Implementación en la Nube:
    • Desplegar y administrar aplicaciones en Google Cloud Platform (GCP), utilizando BigQuery para el manejo de grandes volúmenes de datos.
  5. Contenedorización:
    • Usar Docker para crear contenedores de aplicaciones, asegurando que las aplicaciones sean fáciles de desplegar y escalar.
  6. Orquestación de Contenedores:
    • Gestionar orquestación de contenedores con Kubernetes, asegurando la disponibilidad y el rendimiento de las aplicaciones desplegadas.
  7. Colaboración en Equipo:
    • Trabajar en conjunto con otros desarrolladores y equipos de operaciones para identificar y resolver problemas técnicos y mejorar los procesos existentes.
  8. Documentación:
    • Documentar el código y las funcionalidades implementadas, así como compartir conocimientos con otros miembros del equipo.

Requerimientos del cargo

  • Lenguajes de Programación:
    • Experiencia avanzada en desarrollo con Python.
  • Base de Datos:
    • Sólido conocimiento de SQL para la manipulación y consulta de bases de datos.
  • Cloud Computing:
    • Experiencia trabajando con Google Cloud Platform (GCP) y BigQuery.
  • Contenerización y Orquestación:
    • Conocimiento en Docker y Kubernetes para el despliegue y gestión de aplicaciones.
  • Metodologías Ágiles:
    • Preferiblemente experiencia en entornos de trabajo ágil (Scrum, Kanban).

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Developer
  • BICE VIDA
  • Santiago (Hybrid)
Java MySQL SQL React
En BICE VIDA somos líderes en el rubro de las aseguradoras y queremos satisfacer las necesidades de seguridad, prosperidad y protección de nuestros clientes. Estamos apostando por la transformación digital, buscando nuevas formas de realizar el negocio, para mantenernos vigente y responder a los constantes cambios que el entorno nos exige.

En Bice Vida buscamos a nuestro próximo Developer de la gerencia de División Comercial, quien será el responsable de coordinar el diseño de soluciones tecnológicas, con una visión full stack. Este rol será encargado de guiar a equipos de desarrolladores para lanzar productos digitales, donde podrás colaborar con equipos de alto desempeño, aprender de diversas experiencias profesionales y entregar siempre tu mirada experta en cómo lograr los objetivos.

© Get on Board.

¿Qué buscamos?


Qué buscamos?
En BICE Vida nos encontramos en búsqueda de un Desarrollador Full Stack quien estará encargado de analizar, diseñar, construir e integrar Sistemas de Información de acuerdo a estándares tecnológicos y de calidad definidos por la Subgerencia.
En este rol deberás:
  • Analizar, diseñar, construir e integrar de acuerdo a las historias de usuario de los sistemas de información incluyendo Bases de Datos, Capa de Negocio y Capa de Presentación
  • Participar en las pruebas con el equipo funcional, Tester QA y equipo de desarrollo.
  • Analizar incidentes de mayor complejidad y diseño de parches a sistemas ya en producción.
  • Recibir sistema de información de proveedores y validarlos respecto a los estándares tecnológicos y de calidad.
En este rol deberás:

¿A quién buscamos? 👀

• Estudios de Ingeniería Civil o Ingeniería en Ejecución, con especialización en Informática o carrera afín.
• Al menos 3 años de experiencia en cargos similares y trabajando Servicios Web y Java.
• Conocimientos: Programación en JAVA, construcción de Servicios REST, y SQL – Mysql.
• Experiencia en Frontend (React JS).

Sumarás puntos si cuentas con:

  • Conocimiento Docker.
  • Conocimiento AWS.

¿Cómo es trabajar en BICE Vida 🤔?

  • Contamos con la mejor cobertura de la industria y te brindamos un seguro complementario de salud, dental y vida, y además un seguro catastrófico (Para ti y tus cargas legales).
  • Bonos en UF dependiendo de la estación del año y del tiempo que lleves en nuestra Compañía.
  • Salida anticipada los días viernes, hasta las 16:00 hrs, lo que te permitirá balancear tu vida personal y laboral.
  • Dress code casual, porque privilegiamos la comodidad.
  • Almuerzo gratis en la oficina (con viernes de barra no-fit)
  • Contamos con capacitaciones constantes, para impulsar y empoderar equipos diversos con foco en buscar mejores resultados y becas para estudios de pregrado y diplomados.
  • Contamos con gimnasio en casa matriz y talleres extraprogramáticos.
  • Nuestra Casa Matriz se encuentran en el corazón de Providencia a pasos del metro de Pedro de Valdivia.
  • Puedes venir en bicicleta 🚴🏻 la cuidamos por ti, tenemos bicicleteros en casa matriz.
  • Todo lo legal y mucho más. Pregunta por lo que te interesa 🤓.

Life insurance BICE VIDA pays or copays life insurance for employees.
Meals provided BICE VIDA provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage BICE VIDA pays or copays health insurance for employees.
Dental insurance BICE VIDA pays or copays dental insurance for employees.
Computer provided BICE VIDA provides a computer for your work.
Education stipend BICE VIDA covers some educational expenses related to the position.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Desarrollador Back-end
  • Forma - Moovmedia Group
  • 6 cities (Hybrid)
.Net C Agile SQL

¡Hola! Somos Forma y somos parte de Moov Media Group, una familia de empresas que también integran Metrix y Moov. Nuestro modelo es colaborativo, ¿qué significa esto? Que trabajamos de manera específica o integral según las necesidades de cada cliente.

Buscamos ser el mejor partner de nuestros clientes apañándolos en la transformación digital. Nos peinamos con el desarrollo tecnológico y el uso de datos, siempre con una mirada estratégica que nos lleve a tomar la mejor decisión.

Hoy queremos seguir creciendo y para eso buscamos un Desarrollador ASP .Net C# que nos acompañe a recorrer el mundo digital en una empresa con cultura flexible, ágil e innovadora. ¿Te interesa? Entonces déjanos contarte un poco más.

El proceso de selección consta de:

  • Llamado telefónico
  • Entrevista con Selección
  • Entrevista con jefatura directa.

¿Te interesa? ¡Dale! Escríbenos y conversemos.

© Get on Board. All rights reserved.

Funciones del cargo

- Desarrollar aplicaciones web utilizando ASP .NET C#
- Optimizar las aplicaciones web
- Implementar y mantener bases de datos y su integración con aplicaciones
- Optimizar el rendimiento y seguridad de las aplicaciones
- Realizar pruebas y depuración de código
- Colaborar con otros equipos de desarrollo y áreas del negocio
- Documentar el desarrollo de las aplicaciones
- Mantenerse actualizado con las últimas tecnologías y herramientas en .NET y desarrollo web

Requerimientos del cargo

- Estudios en Ciencias de la Computación, Ingeniería de Software, o un campo relacionado.
- Conocimiento en lenguaje de programación C# y Framework ASP .NET (Excluyente)
- Conocimiento sólido de las bases de datos SQL (DDL, DML, DQL, DCL, TCL) y NoSQL (Excluyente)
- Entity Framework (Exlcuyente)
- Manejo de framework OData (Excluyente)
- DevExpress Framework (Deseable)
- Bitbucket o github (Deseable)
- Experiencia con metodologías ágiles de desarrollo de software como Scrum o Kanban (deseable)
- Jira Software (deseable)
- Comprensión sólida de los principios de seguridad de la información y las mejores prácticas para proteger los datos sensibles y privados.

Condiciones

  • Días administrativos por semestre.
  • Día libre de cumpleaños.
  • Tarde libre para el día de cumpleaños de tu hijo.
  • Día libre para realizar tu mudanza.
  • Convenio con Dodo, plataforma que aporta al bienestar/salud mental.
  • Entre otros.

Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1800 - 2800 Tiempo completo
Semi Senior Full-Stack Developer
  • Mediastream
  • 11 cities (Hybrid)
JavaScript Agile Front-end Node.js
Company Description
Mediastream is a leading streaming technology company that has been in business for over 16 years. We collaborate with major companies and broadcasters around the world to offer a quality end-to-end solution for content administration, distribution, audiovisual production, and user experience. Our goal is to connect our customers with their audience in a simple and effective way, creating new revenue streams for their businesses.

Role Description
This is a hybrid role for a Semi Senior Full-Stack Developer. This role will be responsible for play a pivotal role as a fundamental member of the development team, leveraging their technical expertise to create and enhance high-quality software solutions. Their commitment to development standards and proficiency in Node.js will be crucial in ensuring efficiency, quality, and customer satisfaction across all projects.

Apply from getonbrd.com.

Responsibilities

  • Conduct prior analysis and modeling of proposed solutions to ensure a clear understanding of project requirements and objectives.
  • Actively participate in the requirements gathering process, providing technical expertise to define effective solutions.
  • Precisely estimate development times, contributing to effective project planning.
  • Develop high-quality software in accordance with company standards and guidelines, using technologies and best development practices.
  • Maintain and improve existing software, collaborating with the team to implement enhancements and corrections.
  • Conduct thorough testing of developed solutions before handing them over to the Quality Assurance (QA) team to ensure optimal performance.
  • Use methodologies, technologies, and tools defined by the company to maintain coherence and efficiency in the development process.
  • Support team training and guidance, sharing knowledge and experiences for collective growth.
  • Actively participate in code reviews, promoting quality standards and good programming practices.
  • Place the customer at the center of all actions, generating solutions that meet their needs and expectations.
  • Constantly seek opportunities for improvement in development activities and propose solutions to overcome identified deficiencies.
  • Ensure efficient use of company resources and technologies, avoiding waste and optimizing productivity.
  • Maintain a strong alignment with the team and company's strategy and culture, contributing to the achievement of common objectives.
  • Foster positive and effective relationships between different areas and clients of the company, promoting collaboration and fluid communication.

Minimum requirements

  • Bachelor's degree in Computer Science, Computer Engineering, or related fields.
  • Proven experience as a developer for at least 4 years.
  • Demonstrated experience in development using Node.js, Javascript, NodeJS, ReactJS, or related technologies.
  • Deep knowledge of good programming practices and software design.
  • Experience with relational and/or NoSQL databases.
  • Experience in using data structures and algorithms.
  • Ability to analyze requirements and propose effective technical solutions.
  • Capability to estimate development times accurately.
  • Experience in collaborative work within multidisciplinary teams.
  • Knowledge of agile development methodologies.
  • Excellent communication skills and ability to share knowledge.
  • Focus on customer satisfaction and a commitment to quality.
  • Dedication to continuous improvement and innovation.
  • Flexibility to travel as needed for the project.

Conditions

Partially remote You can work from your home some days a week.
Health coverage Mediastream pays or copays health insurance for employees.
Computer provided Mediastream provides a computer for your work.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 3000 Tiempo completo
Back-end Software Engineer
  • Barracks SpA
JavaScript HTML5 C Python

Barracks es una startup de tecnología de alto y rápido crecimiento en el mercado de los esports.

Nuestro foco es mejorar la experiencia en que se viven los esports tanto desde una mirada de jugador como de observador, donde el manejo de nuevas tecnologías, data y mejora continua pasa a ser un punto fundamental en nuestro trabajo.

Actualmente la empresa tiene presencia en más de 16 países y en más de 30 de las más importantes ligas profesionales de esports en el mundo, nuestros softwares ayudan a miles de personas a crear poderosos espacios y flujos de trabajo, a entregar experiencias inolvidables y a hacer lo imposible, posible.

Si estás buscando impactar a todas las personas que consumen esports en el mundo, este es el lugar correcto para estar!

Find this vacancy on Get on Board.

Job functions

  • Cooperar en el planteamiento y diseño de sistemas y estructuras de API Rest.
  • Desarrollar sistemas Backend API Rest en Python y/o NodeJS.
  • Contribuir en el modelamiento, implementación y mantención de bases de datos SQL.
  • Desarrollar aplicaciones de procesamiento web y procesos en segundo plano basado en servicios cloud y contenedores docker.
  • Desarrollar modelos de arquitectura de software y servicios para implementación de nuevos productos de la empresa.
  • Implementar flujos automatizados de revisión, publicación y mantención de servicios en entornos cloud.

Qualifications and requirements

  • Conocimientos en lenguajes de programación Python, NodeJS o C#.
  • Experiencia en autenticaciones de usuario basadas en JWT o Oauth2.
  • Conocimientos en bases de datos SQL (MySQL y PostgreSQL).
  • Experiencia desarrollando sistemas de API Rest.
  • Experiencia en servicios de contenedores Docker y Kubernetes.
  • Conocimientos en arquitecturas y servicios cloud basadas en GCP y/o AWS.
  • Conocimientos en implementación de flujos automatizados de CI/CD.
  • Manejo básico de GIT para versión de código.

Desirable skills

  • Conocimiento básico en Programación web usando Javascript, HTML5 y CCS3.
  • Conocimientos en desarrollo de funciones y aplicaciones serverless.
  • Conocimiento en bases de datos de caché en memoria tipo Redis.
  • Conocimiento en entornos de datos en tiempo real con Firebase o Websockets.
  • Desarrollar plugins y aplicaciones de escritorio de mediana complejidad en Modo Escritorio de Windows.
  • Conocimientos avanzados en uno o varios esports competitivos actuales (League of Legends, CSGO, Dota2, Valorant, etc).
  • Nivel de idioma Inglés avanzado (escrito y hablado).

Conditions

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Barracks SpA pays or copays health insurance for employees.
Dental insurance Barracks SpA pays or copays dental insurance for employees.
Computer provided Barracks SpA provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Vacation over legal Barracks SpA gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Operations Developer
  • Forma - Moovmedia Group
JavaScript .Net HTML5 CSS

¡Hola! Somos Forma y somos parte de Moovmedia Group, una familia de empresas que también integran Metrix y Moov. Nuestro modelo es colaborativo, ¿qué significa esto? Que trabajamos de manera específica o integral según las necesidades de cada cliente.

Buscamos ser el mejor partner de nuestros clientes apañándolos en la transformación digital. Nos peinamos con el desarrollo tecnológico y el uso de datos, siempre con una mirada estratégica que nos lleve a tomar la mejor decisión.

Hoy queremos seguir creciendo y para eso buscamos un Operations Developer que nos acompañe a recorrer el mundo digital en una empresa con cultura flexible, ágil e innovadora. ¿Te interesa? Entonces déjanos contarte un poco más.

El proceso de selección consta de:

  • Llamado telefónico
  • Entrevista con Selección
  • Entrevista con jefatura directa.

¿Te interesa? ¡Dale! Escríbenos y conversemos.

Job source: getonbrd.com.

Funciones del cargo

· Dar soporte técnico tanto a nivel de código fuente como a nivel funcional, para garantizar el correcto funcionamiento de los diferentes ambientes y/o aplicaciones web.

· Realizar análisis, planeación y ejecución de mejora contina de los diferentes procesos de desarrollo, mitigando las incompatibilidades generadas por sus respectivas actualizaciones y/o controles de cambio.

· Escribir código eficiente, probable y bien diseñado mediante buenas prácticas de desarrollo de software

· Cooperar con los diseñadores web para adaptar la intención del diseño visual

Requerimientos del cargo

- Título Universitario (idealmente) Ing. Informática (Excluyente) , Analista Programador, Licenciado en Computación o carrera a fin.
- 3-4 años en desarrollo
- Un sólido conocimiento del funcionamiento de las ambientes web en cuanto a seguridad, gestión de sesiones y buenas prácticas de desarrollo.
- Dominio en lenguajes como PHP, C# .Net, .Net Core 3, JavaScript, AngularJS, Maquetación con HTML, CSS, Bootstrap
- Desarrollo en CMS Wordpress, Drupal, LMS (Moodle), Framework como jQuery, Yii, Symfony .
- Manejo de Base de datos MySql, PostgreSQL.

Condiciones

  • 3 balance day por semestre.
  • Día libre de cumpleaños.
  • Tarde libre para el día de cumpleaños de tu hijo.
  • Día libre para realizar tu mudanza.
  • 5 días libres con goce de sueldo al cumplir 1 año laboral.
  • Convenio con caja de compensación Los Andes.
  • Convenio con Dodo, plataforma que aporta al bienestar/salud mental.

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 2000 Tiempo completo
Programador Full-Stack en .NET Core y Angular
  • Genesys Tecnologías de Inform. SpA
JavaScript .Net Agile Front-end

Somos una empresa con 30 años en el mercado, contamos con servicios de fábrica de desarrollo de software y prestación de servicios de profesionales a través de Outsourcing, nuestra matriz está en Concepción y contamos con una operación en Santiago.

  • Oportunidad de trabajar en un proyecto innovador y estratégico que impactará positivamente en la eficiencia y competitividad de la empresa.
  • Exposición a tecnologías de vanguardia y experiencia en el despliegue de soluciones empresariales de gran escala .
  • Desarrollo profesional continuo a través de la participación en formaciones y certificaciones
  • Colaboración con un equipo multidisciplinario y la oportunidad de establecer relaciones sólidas con profesionales de diferentes áreas.

Originally published on getonbrd.com.

Descripción del cargo

Estamos en búsqueda de un Programador Senior Fullstack con experiencia en .NET Core y Angular para unirse a nuestro equipo de desarrollo. En este rol, serás responsable de desarrollar aplicaciones web utilizando estas tecnologías, así como también colaborar en la implementación de soluciones basadas en SQLServer. Valoramos la experiencia en metodologías ágiles, especialmente en Scrum, y la capacidad de trabajar de manera autónoma y en equipo.

Responsabilidades:

  • Desarrollar aplicaciones web utilizando .NET Core y Angular.
  • Colaborar en la implementación de soluciones basadas en SQLServer.
  • Participar en el diseño y la planificación de proyectos, siguiendo metodologías ágiles.
  • Mantenerse actualizado con las últimas tecnologías y tendencias en el desarrollo de software.

Excluyentes

  • Experiencia mínima de 4 a 5 años en desarrollo con .NET Core y Angular.
  • Conocimiento avanzado de SQLServer.
  • Experiencia en el uso de metodologías ágiles, preferiblemente Scrum.
  • Capacidad para trabajar de manera autónoma y en equipo.
  • Excelentes habilidades de comunicación y resolución de problemas.

Conditions

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero(a) de Software
  • Gatblac
JavaScript Java C REST API

Gatblac es una empresa de tecnología con más de 8 años en el mercado, dedicada al desarrollo de soluciones a medida para importantes clientes de la industria nacional.
Contamos con un equipo de más de 90 profesionales, con amplia experiencia en el mercado bursátil, bancario y maquinarias.

Trabajamos con metodologías apoyadas en principios ágiles, que nos permiten generar desarrollos incrementales, por etapas/sprints, con el compromiso de brindar sistemas de calidad, escalables y extensibles.

Official job site: Get on Board.

Funciones del cargo

Buscamos Ingeniera/o en Informática, Analista Programador/a o Profesional afín, para desempeñar diversas soluciones de software dentro de las que se encuentran el desarrollo de sistemas web, desktop, mobile y chatbots, dependiendo de la asignación según perfil para Ingeniero(a) de Software.

El/la profesional participará en proyectos y desarrollo de soluciones de software para importantes clientes de Gatblac en industrias tales como financiera, bursátil, maquinarias y minería.

Sus principales funciones serán:

  • Desarrollar componentes y piezas de software.
  • Automatizar procesos y tareas manuales.
  • Diseñar soluciones de software en base a buenas prácticas en patrones de Arquitectura de Software.
  • Atender requerimientos usuarios e incidencias para aplicaciones que estén en ambiente productivo.
  • Colaborar en las etapas de análisis y toma de requerimientos usuarios.

El/la profesional que se integre al equipo será supervisado y mentoreado por su líder técnico asignado y apoyado por el trabajo colaborativo de los desarrolladores e ingenieros de Gatblac.

Requerimientos del cargo

Se requiere de un profesional de software con al menos 1 año de experiencia en proyectos de desarrollo de software y los siguientes conocimientos:

  • Dominio demostrable en lógica de programación.
  • Lenguajes de programación Golang, NodeJS, JAVA y/o C#.
  • Experiencia en el desarrollo de API (REST, gRPC, SOAP)
  • Conocimientos básicos de arquitecturas de software.
  • Manejo de Bases de Datos SQL/NoSQL.

Es importante contar con buenos compañeros de trabajo por lo que necesitamos que poseas:

  • Alta capacidad de enfrentar desafío complejos.
  • Buscamos alguien con iniciativa, que tenga capacidad de comunicarse con el equipo, proponer ideas y recibir sugerencias de pares y expertos.
  • Ser un profesional de software integral que se involucre en las distintas etapas de un proyecto de desarrollo y tenga conocimiento de su alcance.
  • Disponibilidad Inmediata.

Beneficios

  1. Bonificación de Almuerzo con Carga Mensual Tarjeta Pluxee (Ex-Sodexo).
  2. Afiliación Caja de Compensación Los Héroes.
  3. Afiliación Asociación Chilena de Seguridad ACHS.
  4. Bonificación por trabajo híbrido.
  5. Bonificación fechas especiales: fiestas patrias y fiestas de fin de año
  6. Acceso continuo a Certificaciones y Cursos
  7. Tarde libre día de cumpleaños.
  8. Acceso a Seguro Complementario de Salud y Dental con cobertura extendida para hijos/as
  9. Bonificación por nacimiento de hijos/as y matrimonio de colaboradores
  10. Bonificación por fallecimiento de padres, cónyuges e hijos/as.
  11. Retroalimentación continua.
  12. convenios con bancos.

Internal talks Gatblac offers space for internal talks or presentations during working hours.
Digital library Access to digital books or subscriptions.
Health coverage Gatblac pays or copays health insurance for employees.
Computer repairs Gatblac covers some computer repair expenses.
Dental insurance Gatblac pays or copays dental insurance for employees.
Computer provided Gatblac provides a computer for your work.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Desarrollador de Software
  • Gatblac
  • Santiago (Hybrid)
JavaScript Java CSS C

Gatblac es una empresa de tecnología con más de 8 años en el mercado, dedicada al desarrollo de soluciones a medida para importantes clientes de la industria nacional.
Contamos con un equipo de más de 90 profesionales, con amplia experiencia en el mercado bursátil, bancario y maquinarias.

Trabajamos con metodologías apoyadas en principios ágiles, que nos permiten generar desarrollos incrementales, por etapas/sprints, con el compromiso de brindar sistemas de calidad, escalables y extensibles.

Apply without intermediaries from Get on Board.

Descripción del cargo

Buscamos Ingeniera/o en Informática, Analista Programador/a o Profesional afín, para desempeñar diversos proyectos de software dentro de las que se encuentran el desarrollo de sistemas web, escritorio y backend, dependiendo de la asignación de soluciones según perfil.
El profesional participará en proyectos y desarrollo de soluciones de software para importantes clientes de Gatblac en industrias tales como financiera, bursátil, maquinarias y minería.

Sus principales funciones serán:

  • Desarrollar componentes y piezas de software.
  • Automatizar procesos y tareas manuales.
  • Atender incidencias de usuarios para aplicaciones que estén en ambiente productivo.
  • Colaborar en las etapas de análisis y toma de requerimientos a usuarios.

Modalidad de trabajo para el rol:

  • Híbrido: 3 días presencial + 2 día teletrabajo (3x2 semanal).
  • Ubicación referencial: Santiago Centro.

El profesional que se integre al equipo será supervisado y mentoreado por su líder técnico asignado y apoyado por el trabajo colaborativo de los desarrolladores e ingenieros de Gatblac.

Requerimientos del cargo

Si bien no es requerido tener basta experiencia en proyectos de software, es excluyente que poseas conocimientos en:

  • Dominio demostrable en lógica de programación.
  • Bases de datos SQL.
  • Conocimientos básicos de arquitecturas de software.
  • Disponibilidad Inmediata.

Deseables

No excluyente que poseas conocimiento en alguno de los siguientes temas:

  • Conocimiento de tecnologías web abiertas como JavaScript, HTML y CSS.
  • Experiencia en Angular y Frameworks JS.
  • Lenguajes de programación JAVA y/o C#.

Es importante contar con buenos compañeros de trabajo por lo que necesitamos que poseas:

  • Alta capacidad de enfrentar desafíos complejos.
  • Buscamos a alguien con iniciativa, que tenga capacidad de proponer ideas, recibir sugerencias de expertos y ser independiente.
  • Ser un/a desarrollador/a participativa/oy dispuesta/oa colaborar con sus pares de equipo.

Beneficios

  1. Bonificación de Almuerzo con Carga Mensual Tarjeta Pluxee (Ex-Sodexo).
  2. Afiliación Caja de Compensación Los Héroes.
  3. Afiliación Asociación Chilena de Seguridad ACHS.
  4. Bonificación por trabajo híbrido.
  5. Bonificación fechas especiales: fiestas patrias y fiestas de fin de año
  6. Acceso continuo a Certificaciones y Cursos
  7. Tarde libre día de cumpleaños.
  8. Acceso a Seguro Complementario de Salud y Dental con cobertura extendida para hijos/as
  9. Bonificación por nacimiento de hijos/as y matrimonio de colaboradores
  10. Bonificación por fallecimiento de padres, cónyuges e hijos/as.
  11. Retroalimentación continua.
  12. convenios con bancos.

Internal talks Gatblac offers space for internal talks or presentations during working hours.
Life insurance Gatblac pays or copays life insurance for employees.
Meals provided Gatblac provides free lunch and/or other kinds of meals.
Bicycle parking You can park your bicycle for free inside the premises.
Commuting buses Gatblac provides free commuting buses from and to the offices.
Digital library Access to digital books or subscriptions.
Health coverage Gatblac pays or copays health insurance for employees.
Computer repairs Gatblac covers some computer repair expenses.
Dental insurance Gatblac pays or copays dental insurance for employees.
Computer provided Gatblac provides a computer for your work.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2800 - 3300 Tiempo completo
Jefe de Proyectos Telco
  • Apiux Tecnología
  • Santiago (Hybrid)
Excel SQL Project Manager SOA

Somos un agente de cambio que Impacta la vida de las personas a través de talento e ideas tecnológicas.

Apoyamos a nuestros clientes en la creación e implementación de soluciones relacionadas con tecnología, para que estos puedan enfocarse al 100% en su especialidad de negocio.

Hoy nuestros servicios digitales responden a las necesidades de la industria, siendo parte de nuestro portafolio un amplio stock de soluciones cloud conjugado con equipos de células ágiles. Sumado a esto, también ofrecemos soluciones digitales concretas como Docux, Captux y Librux, productos desarrollados por Apiux.

Nuestra meta es crecer junto a todos nuestros colaboradores. En la actualidad contamos con presencia en Chile, Perú, Colombia, España y EEUU. ¡Vamos por más!

This posting is original from the Get on Board platform.

Funciones del cargo

¿Eres un apasionad@ por descifrar desafíos empresariales? ¿Te apasiona la tecnología y ser parte de la industria más revolucionaria?

Apiux Tecnología es una empresa que acelera y permite el crecimiento con tecnología, innovación y desarrollo del talento. Con ello, apoyamos a las organizaciones en su proceso de transformación digital, modernización e implementaciones.

¡Aplica ahora y prepárate para liderar el cambio!

Súmate como nuestro siguiente Jefe de Proyectos para importante proyecto con uno de nuestros clientes en una importante empresa de telecomunicaciones.

Algunas de tus funciones serán:

● Participación en evaluaciones de alto impacto, ajustando alcance, presupuesto y tiempo.

● Planificación de actividades junto con los recursos establecidos para los distintos proyectos del área.

● Apoyar en el diseño detallado de la solución

● Comunicar activamente los avances de los proyectos y gestionar los riesgos y problemas para que no afecten en el alcance y a plazos estipulados.

Requerimientos del cargo

Conocimientos Específico: Manejo avanzado de herramientas computacionales MS Office (Excel, Word, Power Point, Project, JIRA, VISIO).

Conocimiento de los procesos internos de la compañía para la gestión de los distintos proyectos bajo su responsabilidad. Gestión de proyectos.

Experiencia en proyectos Telco

Debe tener disponibilidad para trabajar en modalidad híbrida 3x2 en Santiago.

Conocimientos en:

📍Metodologías de desarrollo de software.

Conocimientos en componentes de Software. -Arquitectura orientada a Servicios.

📍Al menos 4 años de experiencia en el desarrollo e implementación de software en entornos productivos.

📍Conocimiento de SQL y conceptos de bases de datos

Condiciones

Para tu seguridad: Seguro Complementario de Salud, Seguro Dental y Seguro de Vida.
Trabajo híbrido 3x2 en Santiago
$400 (USD) anuales para ampliar tu conocimiento.
Happy Points: Acumula puntos por tus logros y cámbialos por días libres.
Día de Cumpleaños libre.
Bonos de Referidos, Boda y Recién nacido.
Aguinaldo en Diciembre y Septiembre.
Descuentos en OpenEnglish.
Convenios con Coopeuch, Banco de Chile.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Technical Lead
  • BICE VIDA
  • Santiago (Hybrid)
JavaScript Python JEE Agile
En BICE VIDA somos líderes en el rubro de las aseguradoras y queremos satisfacer las necesidades de seguridad, prosperidad y protección de nuestros clientes. Estamos apostando por la transformación digital, buscando nuevas formas de realizar el negocio, para mantenernos vigente y responder a los constantes cambios que el entorno nos exige.
¡Únete a un equipo apasionado y altamente motivado por brindar soluciones innovadoras a sus clientes!
“Esta oferta se enmarca en la ley 21.015 que incentiva la inclusión laboral de personas en situación de discapacidad. Aquellos interesados, contarán con el apoyo de la Compañía para realizar un proceso inclusivo y en igualdad de condiciones. BICE Vida se compromete a resguardar la información que postulantes en situación de discapacidad proporcionen de manera voluntaria”.

Apply directly at getonbrd.com.

¿Qué buscamos?

Te contamos que estamos en búsqueda de un Technical Lead, quien estará encargado de ser un referente técnico para el equipo de desarrollo y ecosistema, para cumplir con los objetivos de negocio a través de la creación, desarrollo y mejora de sistemas, además ser capaz de velar por la correcta planificación y dirección de los aspectos tecnológicos al interior de las células y vínculo con todo TI.​
En este rol deberás:
  • Definir el diseño e implementación de soluciones técnicas robustas para las necesidades de su célula, que estén alineadas con la visión tecnológica corporativa.
  • Velar por el desarrollo profesional de los desarrolladores de su célula. A través de mentoring, training y promoviendo espacios de aprendizajes y mejora.
  • Desarrollar funcionalidades técnicas para las soluciones digitales.
  • Coordinar con otros equipos de la compañía el desarrollo de funcionalidades técnicas.
  • Ser el responsable tecnológico de su Squad, en aspectos como la calidad, arquitectura, DevOps, ciberseguridad, infraestructura y estabilidad de los sistemas en producción.

¿Qué necesitamos?

  • Formación académica en Ingeniería Informática o carrera afín.
  • Experiencia en: desarrollo de software tanto de front como de back (idealmente también mobile), y en desarrollo de productos con equipos Scrum.
  • Conocimiento de desarrollo Front-end (React, Angular).
  • Conocimiento de desarrollo Back-end (Node, J2EE, Weblogic, Python deseable).
  • Conocimiento de bases de datos (MongoDB, Oracle PL/SQL).
  • Conocimiento de plataformas Cloud (AWS).
  • Conocimiento de DevOps.
  • Conocimiento de patrones de diseño y arquitectura.
  • Conocimiento de metodologías ágiles (Scrum, Kanban, Extreme Programming, etc.).
  • Conocimiento de arquitectura de software.
  • Conocimiento sobre microservicios.

¿Cómo es trabajar en BICE Vida?

  • Contamos con la mejor cobertura de la industria y te brindamos un seguro complementariode salud, dental y vida, y además un seguro catastrófico (Para ti y tus cargas legales).
  • Bonos en UF dependiendo de la estación del año y del tiempo que lleves en nuestraCompañía.​
  • Salida anticipada los días viernes, hasta las 16:00hrs, lo que te permitirá balancear tu vida personal y laboral.​
  • Dresscode casual, porque privilegiamos la comodidad.​
  • Almuerzo gratis en la oficina (con viernes de barra no-fit) 🍟
  • Contamos con capacitaciones constantes, para impulsar y empoderar equipos diversos con foco en buscar mejores resultados y becas para estudios de pregrado y diplomados.​
  • Contamos con diversos convenios de descuentos.​
  • Contamos con gimnasio en casa matriz y talleres extraprogramáticos.​
  • Nuestra Casa Matriz se encuentra a pasos del metro de Pedro de Valdivia.​
  • Puedes venir en bicicleta 🚴🏻 la cuidamos por ti, tenemos bicicleteros en casa matriz.
  • Todo lo legal y mucho más 🤓.

Wellness program BICE VIDA offers or subsidies mental and/or physical health activities.
Life insurance BICE VIDA pays or copays life insurance for employees.
Meals provided BICE VIDA provides free lunch and/or other kinds of meals.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Health coverage BICE VIDA pays or copays health insurance for employees.
Dental insurance BICE VIDA pays or copays dental insurance for employees.
Computer provided BICE VIDA provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3500 - 5000 Tiempo completo
Software Development Engineer in Test (SDET) CI/CD
  • Agility IO
JavaScript Python PHP Git

Agility IO is a software development firm that designs and builds custom applications for startups and Fortune 500 companies. We are a global team of over 400 developers, QA engineers, project managers, and UX/UI designers with offices in New York City and Vietnam.

We’re seeking a proactive SDET to help elevate our software quality through automated testing, tooling, and best practices. You’ll contribute to test automation, integration testing, observability, and CI/CD to ensure robust, reliable systems.

This job offer is available on Get on Board.

Job Responsibilities

  • Design and maintain automated test suites for web and API layers using tools such as Playwright, Jest, and Supertest.
  • Implement and manage behavior-driven testing with Cucumber and Gherkin.
  • Develop test cases and mocking strategies using Jest Mocks, Sinon, or Axios Mock Adapter.
  • Conduct comprehensive API testing utilizing Postman, Newman, and REST-assured.
  • Monitor system logs and performance metrics with Application Insights, Splunk, and similar tools.
  • Validate authentication flows, including machine-to-machine (m2m) scenarios.
  • Collaborate closely with developers and DevOps teams to integrate automated tests within CI/CD pipelines using GitHub Actions and containerized environments like Docker.
  • Ensure test environments are scalable, observable, and aligned with modern microservices architectures.

Qualifications & Experience

  • Proficiency in JavaScript, TypeScript, and experience with Python; familiarity with PHP is a plus.
  • Hands-on experience with modern testing tools including Jest, React Testing Library, Mocha, and Pytest.
  • Experience with E2E testing tools such as Playwright, Puppeteer, Selenium, or Cypress.
  • Familiarity with containerization and cloud platforms, especially Docker, AWS, and/or GCP.
  • Working knowledge of SQL databases and ORM tools.
  • Comfortable using Git and participating in code review processes, with an understanding of code coverage and test structure best practices.
  • Strong English communication skills are required to effectively collaborate with both clients and internal teams, and to successfully meet project goals.

Preferred Qualifications

  • Experience defining and implementing test strategies for scalable web applications.
  • Exposure to microservices architecture and distributed system observability.
  • Experience with telemetry and performance monitoring tools such as Application Insights and Splunk.
  • Familiarity with complex authentication workflows, including machine-to-machine (m2m) authentication.
  • Strong collaboration and communication skills within Agile environments.

What We Offer

  • Competitive salary and performance-based bonuses.
  • Remote work arrangements allowing flexibility.
  • Career development opportunities and mentorship programs.
  • A collaborative and forward-thinking team culture committed to innovation and excellence.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1100 - 1400 Tiempo completo
Administrador de Bases de Datos (DBA) Controller Call Center
  • S3 Chile
  • Santiago (In-office)
Data Analysis Excel SQL Business Intelligence

S3 Chile es una empresa especializada en la entrega de servicios de Outsourcing enfocados en los procesos de negocios de sus clientes, con una fuerte presencia en la gestión de operaciones relacionadas con el área de Contact Centers y análisis de datos. El equipo está comprometido con la innovación tecnológica y la mejora continua, apoyando a sus clientes mediante soluciones de análisis de datos y reportes que optimizan la operación de campañas y segmentaciones dentro del entorno de call centers, utilizando herramientas avanzadas de Business Intelligence y administración de bases de datos.

Apply to this job at getonbrd.com.

Responsabilidades

  • Diseñar, desarrollar y mantener reportes y dashboards que faciliten la visualización y toma de decisiones para las operaciones del call center.
  • Gestionar bases de datos y segmentaciones, asegurando la integridad, disponibilidad y actualización oportuna de la información.
  • Analizar grandes volúmenes de datos para detectar oportunidades de mejora en los procesos y campañas, aportando con insights basados en datos reales.
  • Colaborar estrechamente con el equipo de Business Intelligence para optimizar procesos, mejorar la calidad de la información y automatizar tareas relacionadas con el análisis y la generación de reportes.

Requisitos

Buscamos un profesional con formación en Ingeniería o carreras afines, que cuente con experiencia en Business Intelligence o análisis de datos, idealmente en entornos de Contact Centers. Es imprescindible un manejo avanzado de SQL para administrar y consultar bases de datos complejas, así como experiencia con herramientas de visualización de datos como Power BI o similares. El candidato debe contar con conocimientos avanzados de Excel para procesamiento y análisis de información.

Además, se valorará experiencia previa o conocimiento en Genesys Cloud, una plataforma líder en gestión de centros de contacto, lo que facilitará la integración y administración de las campañas vía base de datos.

Las habilidades blandas incluyen capacidad analítica, orientación al detalle, trabajo colaborativo, proactividad en la mejora continua y una actitud hacia el aprendizaje constante de nuevas tecnologías.

Deseable

Se valorará positivamente experiencia específica en administración y optimización de campañas en call centers, conocimiento en otras plataformas de gestión de centros de contacto, y habilidades en programación para automatización de reportes o tareas analíticas (por ejemplo, Python o R). También es deseable experiencia en diseño de dashboards interactivos y manejo de grandes volúmenes de datos.

Lo que ofrecemos

💼 Renta competitiva acorde al mercado.
📈 Oportunidades reales de desarrollo profesional dentro de la empresa.
🎁 Beneficios corporativos.
👥 Un equipo comprometido y un entorno de aprendizaje continuo, en línea con los nuevos desarrollos tecnológicos.En S3 Chile fomentamos una cultura orientada a datos y mejora continua, con foco en la innovación y crecimiento profesional constante. Formarás parte de un equipo que valora el trabajo colaborativo y la actualización permanente de sus conocimientos.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
QA Funcional Senior
  • 2BRAINS
  • Santiago (Hybrid)
Excel SQL QA Jira
2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.
Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.
En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

Find this vacancy on Get on Board.

¿Cuáles son las funciones del QA Funcional?

Estamos en búsqueda de un/a QA Funcional con experiencia en certificación de soluciones tecnológicas para sumarse a un equipo que trabaja en proyectos clave de alto impacto. Buscamos personas comprometidas con la calidad, detallistas y orientadas a la mejora continua.

  • 📍 Modalidad de trabajo: Híbrida (remoto con instancias presenciales coordinadas según necesidad del proyecto)

Funciones:

  • Ejecutar actividades de certificación funcional en distintas iniciativas tecnológicas.
  • Revisar y comprender los requisitos funcionales entregados por el equipo de análisis.
  • Diseñar la estrategia de pruebas funcionales y elaborar planos de prueba considerando los criterios de aceptación.
  • Ejecutar casos de uso y registrar resultados con documentación clara y trazable.
  • Detectar, registrar, hacer seguimiento y gestionar el cierre de defectos encontrados durante las pruebas.
  • Apoyar en pruebas de regresión y validación de flujos críticos antes de la puesta en producción.
  • Analizar y reproducir incidencias, confirmando condiciones y pasos para facilitar el diagnóstico técnico.
  • Validar correcciones aplicadas mediante pruebas específicas, asegurando que no se generen efectos colaterales.
  • Coordinador con los equipos de análisis, desarrollo, QA técnico y usuarios clave para asegurar un flujo de certificación continuo.
  • Mantener actualizado un tablero de certificación con métricas clave: cobertura de pruebas, estado de ejecución, errores detectados, etc.
  • Consolidar semanalmente entregables como planos de prueba, evidencias, aprobaciones formales y documentación técnica del proceso de validación.

¿Qué conocimientos buscamos en el/la QA Funcional?

  • Al menos 3 años de experiencia en QA funcional o aseguramiento de calidad en proyectos tecnológicos.
  • Manejo sólido de herramientas ofimáticas (Excel, Word).
  • Dominio de Jira como herramienta de gestión de incidencias.
  • Conocimientos en bases de datos relacionales y capacidad para realizar consultas en SQL .
  • Experiencia generando documentación clara, estructurada y alineada con estándares técnicos.
  • Deseable experiencia en industrias financieras, previsionales o seguridad social (ej. AFP, cajas de compensación, IPS).

¿Qué competencias buscamos en/la QA Funcional?

  • Atención al detalle y orientación a la calidad.
  • Capacidad analítica y pensamiento estructurado.
  • Habilidad para trabajar de forma autónoma y organizada.
  • Comunicación efectiva con equipos funcionales y técnicos.
  • Proactividad y compromiso con la mejora continua.
  • Adaptabilidad a entornos colaborativos y normativos.

Te ofrecemos

  • Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos.
  • Acceso a grandes clientes y proyectos desafiantes.
  • Aprendizaje y crecimiento permanente, organizamos encuentros, capacitaciones y actividades culturales.
  • Un entorno de trabajo flexible y dinámico.
  • Beneficios especiales: un día libre de regalo por tu cumpleaños, días de descanso (previa coordinación), convenios para cursos de especialización, asignación por internet y uso del computador.

Outdoors The premises have outdoor spaces such as parks or terraces.
Wellness program 2BRAINS offers or subsidies mental and/or physical health activities.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks 2BRAINS offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Health coverage 2BRAINS pays or copays health insurance for employees.
Computer provided 2BRAINS provides a computer for your work.
Education stipend 2BRAINS covers some educational expenses related to the position.
Informal dress code No dress code is enforced.
Shopping discounts 2BRAINS provides some discounts or deals in certain stores.
Vacation over legal 2BRAINS gives you paid vacations over the legal minimum.
Beverages and snacks 2BRAINS offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Administrador de Base de Datos
  • Zerviz Technologies
  • Santiago (Hybrid)
MySQL Oracle Azure SQL Server
En ZerviZ innovamos e implementamos proyectos de transformación digital con la mejor tecnología, acompañando a nuestros clientes desde el diseño hasta la implementación ágil y personalizada de soluciones tecnológicas. Desde 2017, hemos transformado procesos en diversas industrias y países de América Latina, posicionándonos como especialistas en tecnología y experiencia de cliente. Con más de 150 proyectos en 16 países, apoyamos la optimización operativa, atención, servicio y gestión a través de desarrollos a medida y soluciones innovadoras.

Apply directly at getonbrd.com.

Funciones

  • Administración de bases de datos en SQL Server y MySQL (excluyente), Oracle (no excluyente).
  • Monitoreo del rendimiento, realización de respaldos y tuning.
  • Gestión de múltiples entornos: desarrollo, testing, staging y producción.
  • Administración de accesos, roles y permisos a nivel base de datos y servidor.
  • Implementación de políticas de auditoría y cumplimiento normativo.
  • Monitoreo del uso de CPU, memoria, disco y tiempos de respuesta de bases de datos.
  • Revisión y optimización de scripts.
  • Conocimiento en Azure y AWS será valorado pero no excluyente.

Descripción

Buscamos un DBA con experiencia sólida en la administración de bases de datos SQL Server y MySQL, con capacidad para gestionar múltiples entornos y asegurar la disponibilidad y rendimiento óptimo de las plataformas. Es fundamental tener conocimientos en configuración de roles, permisos y auditorías para garantizar la seguridad y cumplimiento en las bases de datos.
Se valoran habilidades analíticas para el monitoreo del desempeño, resolución de problemas y optimización (tuning). La proactividad, atención al detalle y responsabilidad serán claves para la correcta ejecución de las tareas. Se requiere conocimientos básicos o intermedios en la nube, especialmente Azure y AWS, que permitan futuras integraciones o migraciones.
El puesto demanda trabajar en modalidad híbrida (3 días presencial, 2 remoto), valorando la adaptabilidad y capacidad de trabajo en equipo en entornos colaborativos.

Deseable

Conocimientos en Oracle para soporte secundario o complementario.
Experiencia en ambientes de alta disponibilidad y recuperación ante desastres.
Familiaridad con herramientas de monitoreo en la nube y automatización de tareas.
Certificaciones relacionadas con bases de datos o plataformas cloud.

Beneficios

Ofrecemos un ambiente laboral colaborativo y enriquecedor, ideal para tu desarrollo profesional continuo. Puedes disfrutar de flexibilidad laboral y la oportunidad de trabajar en proyectos internacionales, lo que te brindará una vasta experiencia en el ámbito digital.
En ZerviZ, fomentamos un ambiente diverso e inclusivo donde la creatividad y la innovación son fundamentales.
Apoyamos tu crecimiento profesional y confiamos en tu capacidad para marcar la diferencia en nuestros proyectos.
Modalidad de trabajo híbrida 3x2, con un sueldo líquido de $2.200.000 CLP.

Wellness program Zerviz Technologies offers or subsidies mental and/or physical health activities.
Relocation offered If you are moving in from another country, Zerviz Technologies helps you with your relocation.
Partially remote You can work from your home some days a week.
Health coverage Zerviz Technologies pays or copays health insurance for employees.
Mobile phone provided Zerviz Technologies provides a mobile phone for work use.
Computer provided Zerviz Technologies provides a computer for your work.
Informal dress code No dress code is enforced.
Beverages and snacks Zerviz Technologies offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Cloud/DevOps Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Python NoSQL DevOps Virtualization
En BC Tecnología somos una consultora de IT con amplia experiencia en diversas áreas tecnológicas, trabajando para clientes de sectores financieros, seguros, retail y gobierno. Nuestro enfoque está en el diseño y desarrollo de soluciones, administración de portafolios y outsourcing de profesionales, siempre bajo metodologías ágiles y con un fuerte alineamiento con las necesidades de los clientes. Este proyecto en particular tiene una duración inicial de 6 meses con posibilidad de extensión, y se basa en tecnologías punteras de la nube, automatización e infraestructura como código, enfocándose en ambientes cloud modernos y escalables.

Apply directly at getonbrd.com.

Responsabilidades principales

  • Participar en el desarrollo, implementación y mantenimiento de infraestructura en Google Cloud Platform (GCP), utilizando herramientas como BigQuery, Cloud Run, GKE y Cloud Scheduler.
  • Automatizar procesos y gestionar infraestructura mediante Terraform, asegurando la correcta gestión de recursos y estados.
  • Configurar y mantener pipelines CI/CD en GitLab, promoviendo la integración y entrega continua de software.
  • Administrar contenedores usando Docker y orquestación con Kubernetes para asegurar despliegues consistentes y escalables.
  • Gestionar bases de datos SQL y NoSQL, así como servicios serverless para optimizar la arquitectura del proyecto.
  • Trabajar en entornos Unix/Linux, asegurando la estabilidad y buen funcionamiento de la infraestructura.
  • Documentar procesos técnicos y colaborar activamente con el equipo para proponer mejoras continuas y soluciones innovadoras.

Requisitos técnicos y perfil del candidato

Buscamos un profesional con experiencia intermedia o superior en Python, capaz de desarrollar y automatizar componentes relacionados con DevOps y Cloud. Se requiere un sólido conocimiento en GCP, incluyendo servicios esenciales como BigQuery, Cloud Run, GKE y Cloud Scheduler, para construir infraestructuras escalables y eficientes.
El manejo avanzado de Terraform es imprescindible para gestionar la infraestructura como código, incluyendo la administración de recursos y estados. Además, la familiaridad con GitLab CI/CD es necesaria para orquestar pipelines de integración y despliegue continuo.
Se valoran también competencias en Docker y Kubernetes para la gestión de contenedores, así como experiencia en bases de datos SQL y NoSQL y en la utilización de servicios serverless. Un buen dominio de sistemas operativos Unix/Linux es requerido para el correcto desempeño en el entorno de trabajo.
Desde el punto de vista de habilidades blandas, buscamos personas con pensamiento crítico, autonomía y proactividad para detectar y sugerir mejoras en procesos. La capacidad para documentar procedimientos y colaborar eficazmente en equipo es fundamental para el éxito en este rol.
Si te apasiona trabajar en entornos cloud modernos con tecnologías escalables y afrontar retos técnicos constantes, esta posición es una gran oportunidad para seguir desarrollándote profesionalmente.

Habilidades y conocimientos adicionales valorados

Se valorará experiencia previa en manejo de servicios serverless avanzados y en la implementación de soluciones completas de infraestructura como código que involucren múltiples nubes o servicios híbridos. Conocimientos en metodologías ágiles, como Scrum o Kanban, serán apreciados, junto con habilidades para proponer y ejecutar mejoras que optimicen la eficiencia operacional. La experiencia en entornos de trabajo colaborativo y multidisciplinarios también es deseable.

Beneficios y ambiente laboral

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

POSTULAR VÍA WEB Ver trabajo
Gross salary $1100 - 1400 Tiempo completo
Ingeniero DevOps
  • TREM Group
Python Redis MySQL Linux
En TREM Group nos especializamos en proyectos tecnológicos innovadores orientados al sector inmobiliario. Nuestra misión es crear soluciones tecnológicas que transformen y optimicen los procesos en esta industria. El equipo de Ingeniería es el núcleo técnico que desarrolla y mantiene infraestructuras robustas y escalables en la nube para soportar un crecimiento masivo y entrega continua. Buscamos profesionales que se unan a este equipo, participando activamente en el diseño, construcción y evolución de plataformas de alto rendimiento y alta disponibilidad, facilitando a los desarrolladores alcanzar su máximo potencial mediante una base tecnológica sólida, flexible y segura.

Exclusive offer from getonbrd.com.

Funciones del Puesto

Como Ingeniero DevOps, formarás parte de un equipo técnico multidisciplinario encargado de diseñar, crear, mantener, escalar, monitorear y proteger nuestra infraestructura en la nube. Colaborarás estrechamente con equipos de ingeniería para identificar y aplicar herramientas que permitan iterar rápidamente nuestras líneas de productos, garantizando la seguridad en cada despliegue.
Entre tus responsabilidades principales estarán:
  • Implementar y mantener pipelines de integración y entrega continua automatizadas.
  • Gestionar infraestructuras usando herramientas de Infraestructura como Código (IaC) para asegurar la reproducibilidad y escalabilidad.
  • Optimizar el rendimiento, confiabilidad y seguridad de los sistemas en producción.
  • Monitorear y responder proactivamente a incidentes utilizando sistemas de observabilidad como Prometheus, Grafana y Loki.
  • Ejecutar y administrar contenedores en producción con plataformas como Docker, Kubernetes o AWS ECS.
  • Brindar soporte y colaboración técnica a desarrolladores para que conviertan buenas prácticas en estándares de excelencia.
  • Comunicar de manera clara los planes, avances y desafíos al equipo de ingeniería, facilitando la toma de decisiones y la mejora continua.

Requisitos y Habilidades

Buscamos un ingeniero con entre 2 y 6 años de experiencia (preferentemente 4 o más) que disfrute una combinación de ingeniería de software, confiabilidad del sitio, automatización, optimización y operaciones. Debes ser un usuario avanzado de Linux, con sólida experiencia en scripting Bash y familiaridad con herramientas Open Source.
Es fundamental que tengas experiencia construyendo y gestionando infraestructuras en la nube utilizando Infraestructura como Código, con herramientas como Terraform, Ansible, scripting en Go o Python y el uso directo de APIs de proveedores cloud.
Debes conocer profundamente la creación y operación de contenedores (Docker principalmente) y la gestión de éstos en producción usando plataformas como AWS ECS, Kubernetes o Docker Swarm.
Tienes que haber implementado pipelines de integración y entrega continua con herramientas como GitLab CI, Travis o CircleCI, que permitan despliegues automatizados y confiables.
Serás competente manejando bases de datos relacionales y NoSQL como MySQL, Redis, Elasticsearch y MongoDB, comprendiendo su alta disponibilidad y limitaciones operativas.
Valoramos que tengas una mentalidad orientada a la toma de decisiones basada en datos y que puedas comunicar con claridad temas técnicos complejos, manteniendo la calma bajo presión y mostrando empatía y escucha activa en el equipo.
Experiencia con monitoreo y observabilidad a través de herramientas como Prometheus, Grafana y Loki es imprescindible.
Contar con conocimientos en distribuciones avanzadas de despliegue de software como Canary Deploys o Blue/Green Deployments, así como en pruebas de producción automatizadas, es un plus importante.
Preferimos candidatos que entiendan las arquitecturas distribuidas, los compromisos entre consistencia, disponibilidad y tolerancia a particiones, y que tengan experiencia con AWS y metodologías ágiles.

Conocimientos y Experiencia Deseables

Te destacará tener experiencia en software desarrollado en ámbitos académicos o de estudios de grado. El manejo de metodologías ágiles y trabajo en entornos dinámicos será una ventaja. Deseamos candidatos con capacidad para implementar prácticas avanzadas de despliegue continuo (Canary y Blue/Green) y que puedan diferenciar claramente cuándo usar bases de datos relacionales o NoSQL.
Una experiencia superior a 3 años con AWS y en infraestructura basada en Terraform o Ansible será muy valorada, al igual que la capacidad para aportar en proyectos distribuidos y escalables. El trabajo 100% remoto es posible, por lo que buscamos profesionales autónomos y con excelente comunicación remota.

Beneficios

  • Compensación competitiva acorde a la experiencia.
  • Relación laboral a largo plazo (freelance, contrato o tiempo completo).
  • Acceso a las mejores plataformas de e-learning para crecimiento continuo.
  • Ambiente de trabajo colaborativo, innovador y con gran soporte entre compañeros.
Nuestro proceso de selección incluye una prueba técnica corta online. Si estás listo para trabajar en proyectos reales e impactantes del sector inmobiliario con un equipo dinámico y comprometido, esta es tu oportunidad para crecer y desarrollar tu carrera profesional.

Fully remote You can work from anywhere in the world.
Pet-friendly Pets are welcome at the premises.
Digital library Access to digital books or subscriptions.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
DevOps Sr
  • coderslab.io
  • Santiago (Hybrid)
Python Docker Kubernetes CI/CD

CodersLab es una compañía dedicada al desarrollo de soluciones para empresas y actualmente estamos enfocados en el crecimiento global de nuestros equipos con el objetivo de posicionar nuestros productos en más países de Latinoamérica. Por esta razón, estamos buscando un Devops

Te sumarás a un equipo desafiante y ambicioso con ganas de innovar en el mercado, haciendo que tus propuestas sean altamente valiosas para el negocio.

¡Aplica ahora para este increíble reto!

Find this job on getonbrd.com.

Funciones del cargo

  • Diseñar e implementar arquitecturas basadas en contenedores usando Kubernetes
  • Gestionar infraestructura como código (IaC) utilizando Terraform
  • Implementar y mantener pipelines CI/CD
  • Administrar plataformas de automatización y orquestación
  • Garantizar la seguridad y cumplimiento normativo de la infraestructura
  • Optimizar y mantener sistemas Oracle Linux
  • Desarrollar scripts de automatización

Requerimientos del cargo

🔧 REQUISITOS TÉCNICOS
Cloud y Virtualización:

  • Experiencia avanzada en Oracle Cloud Infrastructure (OCI)
  • Conocimiento de redes, IAM, VCN, WAF en OCI
  • Manejo de almacenamiento en la nube

Sistemas Operativos:

  • Dominio de Oracle Linux 8/9
  • Experiencia en hardening y tuning de sistemas
  • Conocimientos de SELinux y systemd

Contenedores y Orquestación:

  • Docker y Kubernetes
  • Helm Charts
  • ArgoCD
  • Kong API Gateway

IaC y Automatización:

  • Terraform (nivel avanzado)
  • GitLab CI/CD
  • HashiCorp Vault
  • Experiencia en GitOps

Programación:

  • Bash scripting avanzado
  • Python para automatización
  • APIs REST

Bases de Datos:

  • Conocimientos en MSSQL, PostgreSQL y MySQL (deseable)

Seguridad:

  • Experiencia en implementación de estándares PCI-DSS
  • Gestión de secretos y políticas de seguridad
  • Escaneo de vulnerabilidades

👥 HABILIDADES BLANDAS

  • Capacidad de liderazgo técnico
  • Excelente comunicación
  • Resolución de problemas complejos
  • Trabajo en equipo
  • Gestión de stakeholders

📝 DETALLES DEL CONTRATO

  • Duración: 12 meses
  • Inicio: 16 de junio 2025
  • Modalidad: Híbrida
  • Ubicación: Presidente Riesco 5435, Las Condes, Santiago, Chile

🎯 EXPERIENCIA REQUERIDA

  • Mínimo 5 años en roles DevOps
  • Experiencia demostrable en entornos bancarios o regulados
  • Proyectos exitosos de implementación de IaC y CI/CD

💪 VALORAMOS

  • Certificaciones en OCI, Kubernetes, Terraform
  • Experiencia en transformación digital
  • Conocimiento de metodologías ágiles
  • Participación en proyectos multicloud

Condiciones

Modalidad de contratación: Plazo fijo
Duración del proyecto: 7 meses

POSTULAR VÍA WEB Ver trabajo
Gross salary $2500 - 3500 Tiempo completo
System Administrator & Developer (D365)
  • TECLA
C C# DevOps Azure

TECLA is a fully remote software development company with a diverse and highly skilled team of 100+ experts across Latin America. We specialize in AI, cloud, automation, and DevOps, building innovative solutions for high-growth startups and established mid-market technology companies in the U.S.

Our work culture is agile, collaborative, and fast-paced—we take our work seriously while keeping the environment fun and engaging. As a remote-first company, we emphasize strong teamwork and close collaboration, working seamlessly with our U.S. partners as one integrated unit. Whether optimizing cloud environments, developing AI-driven applications, or enhancing DevOps automation, TECLA is at the forefront of technical innovation, solving complex challenges with cutting-edge technology.

This job is exclusive to getonbrd.com.

Job Details:

We are seeking an experienced Microsoft Dynamics 365 (D365) System Administrator and Developer to support our enterprise D365 environment. This role will be responsible for administration, customization, and development within D365 modules (such as Finance & Operations, Supply Chain, and/or Customer Engagement).

Responsibilities:

System Administration

  • Configure, manage, and maintain D365 environments, including user management, security roles, workflows, and data management.
  • Oversee system health, monitor performance, and troubleshoot system errors or issues.
  • Collaborate with internal teams to define and implement security models and access controls.
  • Manage integrations with third-party applications and services, including Power BI and Azure services.
  • Perform system upgrades, patches, and routine maintenance to ensure optimal performance.

Development

  • Design, develop, test, and deploy customizations, extensions, and integrations using X++, C#, Power Platform, and other Microsoft technologies.
  • Create and maintain reports and dashboards using built-in D365 reporting tools and Power BI.
  • Develop and maintain data import/export routines, APIs, and other integrations between D365 and external systems.
  • Collaborate with business users and functional teams to gather requirements and translate them into technical solutions.

Additional Duties

  • Provide training and support to end-users as needed.
  • Participate in system audits, compliance reviews, and documentation efforts.
  • Recommend best practices for D365 governance and change management.

Qualifications:

  • 3+ years of experience as a D365 System Administrator or Developer (Finance & Operations, Supply Chain, or Customer Engagement).
  • Strong knowledge of D365 administration, security, and customization.
  • Possesses hands-on experience in X++, C#, .NET Framework, and the Power Platform (specifically Power Apps and Power Automate).
  • Demonstrates expertise in SQL Server, data management, and Power BI integration within D365 environments.
  • Familiarity with Azure services and DevOps tools is a plus.
  • Excellent communication skills and the ability to work independently or as part of a team.

Benefits:

  • A fully remote position with a structured schedule that supports work-life balance.
  • Two weeks of paid vacation per year.
  • 10 paid days for local holidays.

*Please note we are only looking for full-time dedicated team members who are eager to fully integrate within our team.

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero/a de Software en Pruebas (SDET) , Inglés Avanzado
  • Robert Half Chile
JavaScript C Git C#

En Robert Half Chile, una firma global dedicada a la conexión entre tecnología y talento para acelerar el crecimiento profesional y empresarial, formamos parte de un proyecto desafiante dentro de una empresa multinacional líder en la industria de la construcción,
Este proyecto contempla la creación y evolución de herramientas de gestión de última generación que soportan procesos clave de producción y logística, impulsando la transformación digital en el sector.

Apply from getonbrd.com.

Principales funciones

Como Ingeniero/a de Desarrollo de Software en Pruebas (SDET), serás pieza clave en el aseguramiento de la calidad del software mediante la automatización eficiente de pruebas para una aplicación web crítica desarrollada en C#. Tu trabajo contribuirá directamente a mejorar y garantizar la funcionalidad y estabilidad de herramientas de gestión orientadas a fabricantes de componentes de madera estructural.
Entre tus principales responsabilidades estarán:
  • Desarrollar pruebas automatizadas de alta calidad para aplicaciones basadas en C#, aplicando tus sólidas habilidades de programación y testing.
  • Colaborar estrechamente con equipos multidisciplinarios, como desarrollo de producto, aseguramiento de calidad y área creativa, para alinear entregables y alcanzar un estándar óptimo en el ciclo de vida del software.
  • Participar activamente en la planificación y ejecución de ceremonias Agile Scrum, incluyendo sprints, reuniones diarias (Daily Standups), revisiones y retrospectivas.
Este rol demanda una estrecha colaboración y comunicación continua para garantizar el cumplimiento de objetivos técnicos y de calidad, manteniendo un enfoque constante en la mejora continua y la innovación en procesos de testing automatizado.

HABILIDADES Y EXPERIENCIA DESEADAS

Buscamos un/a profesional con formación en informática, tecnología, sistemas de información, ingeniería de software o experiencia equivalente que aporte una base sólida para el desarrollo y automatización de pruebas de software. Es fundamental poseer más de 3 años de experiencia demostrada desarrollando software con tecnologías como C#, ASP.NET Core, REST, Web Services y T-SQL, así como experiencia práctica en Entity Framework (EF Core).
El candidato ideal tendrá habilidades avanzadas para crear pruebas automatizadas, incluyendo conocimientos en JavaScript y herramientas de automatización construidas internamente, aplicando mejores prácticas y reutilización eficiente de código. Se requiere experiencia en pruebas unitarias automatizadas, manuales y exploratorias para asegurar una cobertura y calidad óptimas.
Además, es crucial contar con habilidades comunicativas maduras, capacidad de análisis meticuloso y enfoque en la calidad para cumplir con los tiempos y estándares establecidos. Se valorará la capacidad para tomar decisiones técnicas equilibradas, enfocadas en soluciones sostenibles a largo plazo pero con respuesta a las necesidades inmediatas del proyecto.
Tenemos especial interés en candidatos con experiencia en desarrollo ágil y manejo de CI/CD/CT, así como dominio en sistemas de control de versiones Git y Bitbucket. Además, el conocimiento y uso de JIRA y Confluence para gestión y documentación de proyectos complementa esta experiencia.

Dominio avanzado de Inglés tanto escrito como a nivel conversacional

HABILIDADES Y EXPERIENCIA DESEABLES

Conocimientos adicionales en plataformas Azure, incluyendo App Service, Functions, Logic Apps, AKS, Monitor, Key Vault y Pipelines resultan altamente deseables para ampliar las capacidades dentro del entorno cloud en el que trabaja nuestro cliente

La experiencia con frameworks y herramientas específicas como Playwright para pruebas automatizadas, Blazor para el desarrollo de interfaces web, Telerik Kendo UI para componentes UI avanzados, y familiaridad con arquitecturas limpias (Clean Architecture) son altamente deseables y aportarán un plus significativo al perfil.

BENEFICIOS

Ofrecemos un contrato inicial para el año 2025 en modalidad 100% remota, lo que garantiza máxima flexibilidad y rapidez en la integración a nuestro equipo. Posteriormente, existe la posibilidad de migrar a un modelo híbrido que combina trabajo presencial en nuestras oficinas ubicadas en Santiago con teletrabajo, promoviendo así un equilibrio saludable entre la vida personal y profesional.
Formarás parte de un proyecto retador dentro de una multinacional consolidada, con amplias perspectivas de crecimiento profesional y constante aprendizaje. Trabajamos en un ambiente ágil, colaborativo e innovador que impulsa el desarrollo del talento, la innovación tecnológica y la implementación de las mejores prácticas en ingeniería de software.

Partially remote You can work from your home some days a week.
Computer provided Protiviti provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
QA Engineer Senior
  • ARKHO
  • Santiago (Hybrid)
SQL Oracle Continuous Integration Jenkins
ARKHO es una consultora experta en tecnologías de la información, que ofrece servicios expertos de TI en el marco de modernización de aplicaciones, analítica de datos, IA, ML y migración a la nube. Nuestro trabajo facilita y acelera la adopción de la cloud en múltiples industrias.
Nos destacamos por ser Partner Advanced de Amazon Web Services, con foco estratégico en la generación de soluciones usando tecnología en la nube. Somos obsesionados por lograr los objetivos propuestos y tenemos un especial énfasis en el grupo humano que compone ARKHO (nuestros Archers), reconociendo a nuestro equipo como un componente vital para el logro de los resultados.
¿Te motivas? ¡Te esperamos!

This job is original from Get on Board.

Responsabilidades principales

  • Diseñar, preparar y ejecutar pruebas funcionales, automatizadas y de carga para proyectos diversos.
  • Ejecutar pruebas sobre servicios utilizando SOAP y Postman.
  • Automatizar pruebas para aplicaciones web y móviles con herramientas como Selenium, Appium y Cucumber.
  • Escribir criterios de prueba claros según la metodología Gherkin.
  • Realizar pruebas de carga utilizando JMeter.
  • Utilizar BrowserStack para pruebas cruzadas en diferentes navegadores y dispositivos.
  • Integrar pruebas automatizadas en pipelines de integración continua utilizando Jenkins.
  • Gestionar y dar seguimiento a casos de prueba en herramientas como Xray o Zephyr.
  • Colaborar con equipos bajo metodologías ágiles Scrum y Kanban, además de métodos tradicionales.
  • Participar en revisiones de código y asegurar la calidad técnica del producto.

Requisitos técnicos y formación

  • Formación formal o certificación completa ISTQB.
  • Experiencia integral en pruebas funcionales, automatizadas y de carga.
  • Dominio en pruebas de servicios web y APIs usando SOAP y Postman.
  • Conocimientos sólidos de bases de datos SQL Server, DB2, Oracle y PostgreSQL, con buen manejo de SQL.
  • Experiencia en automatización con Selenium, Cucumber y Appium para aplicaciones web y móviles.
  • Manejo de herramientas para pruebas de carga como JMeter.
  • Uso de BrowserStack para ejecutar pruebas multiplataforma y multiproveedor.
  • Experiencia en pipelines de integración continua con Jenkins.
  • Conocimiento en la gestión de pruebas con herramientas como Jira, Confluence, Xray o Zephyr.
  • Capacidad para trabajar en equipos multidisciplinarios y ágiles, con buena comunicación y colaboración.
  • Compromiso con la calidad y mejora continua.

Habilidades y conocimientos deseables

  • Experiencia en ambientes AWS.
  • Conocimientos en metodologías ágiles Scrum y Kanban.
  • Experiencia en automatización avanzada o en frameworks propios de testing.
  • Capacidad para liderar iniciativas de mejora en calidad de software y optimización de pruebas.
  • Habilidades analíticas para detección proactiva de defectos y mejora de procesos.

Beneficios y cultura

📆 Día administrativo semestral hasta los 12 meses
🏖️ Week off: 5 días extra de vacaciones
🎉 Celebración de cumpleaños
📚 Planes de entrenamiento continuo
☁️ Apoyo y certificación en AWS
🏡 Flexibilidad laboral con modalidad híbrida y posibilidad de trabajo remoto
💍 Regalos y días libres por matrimonio
👶 Beneficios por nacimiento de hijos
✏️ Kit escolar para hijos
🤱 Beneficio paternidad
❤️ Bonda, plataforma de descuentos y bienestar

POSTULAR VÍA WEB Ver trabajo
Gross salary $3500 - 4500 Tiempo completo
Senior QA Analyst
  • Zaelot
SQL QA Selenium English
At Zaelot, we are a progressive team-building company that specializes in developing scalable solutions for our enterprise clients. Our team consists of over 90 dedicated professionals across 9 different countries, fostering a culture of trust, innovation, and collaboration. We prioritize continuous learning and improvement, ensuring that our employees are equipped with the skills needed to thrive in a rapidly changing tech landscape. Joining us as a Senior QA Analyst means becoming part of a passionate group of analysts, designers, and engineers committed to delivering exceptional quality in our products.

This job is exclusive to getonbrd.com.

Key Responsibilities

As a Senior QA Analyst, you will play a vital role in safeguarding the quality and reliability of our web-based applications. Your main responsibilities will include:
  • Designing and executing detailed test plans and test cases.
  • Collaborating with development teams to ensure the timely delivery of high-quality software.
  • Identifying, documenting, and tracking defects using appropriate tools.
  • Performing manual and automated testing, focusing on functional, regression, and integration testing.
  • Utilizing SQL for database validation and Postman for API testing.
  • Participating in release planning and reviews to provide input on quality and risk assessments.

Required Skills and Experience

To be considered for the Senior QA Analyst position, candidates must possess:
  • A minimum of 4 years of experience in testing web-based applications.
  • ISTQB certification, validating your proficiency in testing standards.
  • Excellent proficiency in English, both written and spoken, to communicate effectively with the team.
  • Exceptional communication and interpersonal skills to collaborate across departments.
  • The ability to work independently while fostering a spirit of teamwork.

Desirable Skills

While not mandatory, the following skills and experiences will be advantageous:
  • Familiarity with performance testing tools such as JMeter or BlazeMeter.
  • Experience with Accessibility testing to ensure our products are user-friendly for everyone.
  • Proficiency in the Atlassian suite, including Jira, Confluence, and Bitbucket.
  • Hands-on experience with TestRail and SoapUI.
  • Knowledge of automation tools like Selenium for more efficient testing.

Our Offerings

At Zaelot, we value our team members and offer a range of benefits, including:
  • Paid vacations for 20 days after one year
  • Referrals program
  • Finder's fee
  • Training and certifications program
  • Work from home aid
  • English Classes
  • Fitness Program
  • Profit Share
  • Coaching sessions
We look forward to connecting with you!

Wellness program Zaelot offers or subsidies mental and/or physical health activities.
Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Paid sick days Sick leave is compensated (limits might apply).
Computer provided Zaelot provides a computer for your work.
Fitness subsidies Zaelot offers stipends for sports or fitness programs.
Personal coaching Zaelot offers counseling or personal coaching to employees.
POSTULAR VÍA WEB Ver trabajo
Gross salary $900 - 1500 Tiempo completo
Especialista en BD Access y Azure
  • Almacenes CLK
JavaScript CSS Power BI SQL Server

Nuestra empresa, dedicada al diseño y desarrollo de vestuario y calzado técnico, se enfrenta al desafío de la digitalización y automatización. Contamos con un sistema de control de gestión integral para las producciones e importaciones basado en Microsoft Access. Buscamos modernizar este sistema migrando nuestra base de datos y su interfaz de ingreso de datos a Microsoft Azure, con el objetivo de mejorar la accesibilidad, seguridad y eficiencia de nuestros procesos internos.

Apply directly on Get on Board.

Responsabilidades principales

  • Ejecutar la migración completa de la base de datos desde Microsoft Access a la plataforma Microsoft Azure.
  • Diseñar y desarrollar una nueva interfaz de usuario accesible desde navegadores web para la entrada de datos, preservando la funcionalidad existente y mejorando la experiencia del usuario en los departamentos.
  • Implementar la generación y visualización de informes a través de la nueva plataforma web, asegurando integridad y precisión de la información.
  • Colaborar con los diferentes departamentos para entender sus flujos de trabajo y adaptar la solución a sus necesidades reales.
  • Garantizar la seguridad y confidencialidad de los datos durante y después de la migración.
  • Realizar pruebas de funcionamiento y formación básica para los usuarios clave que utilizarán la nueva herramienta.

Perfil requerido

Buscamos un profesional con experiencia en migración de bases de datos Access a entornos en la nube, especialmente Microsoft Azure. Debe contar con conocimientos sólidos en diseño y desarrollo de aplicaciones web, así como en la gestión y seguridad de bases de datos.

Se valoran habilidades técnicas en SQL Server, Azure SQL Database, y desarrollo web con tecnologías como HTML, CSS y JavaScript para la creación de interfaces amigables. Además, es fundamental tener capacidad para trabajar de manera autónoma, buena comunicación para coordinar con distintos departamentos y orientación al detalle para asegurar la precisión de los datos.

Se requiere capacidad para interpretar los requerimientos de negocio y traducirlos en funcionalidades técnicas, así como experiencia en generación de reportes e integración de sistemas. La proactividad, responsabilidad y enfoque en el cliente interno serán claves para el éxito del proyecto.

Competencias adicionales deseadas

Sería un plus contar con conocimiento en Power BI o herramientas similares de visualización para enriquecer los informes. También se valorará experiencia previa en migraciones similares o en ambientes de producción ligados al sector textil y de vestuario.

Conocimientos en metodologías ágiles para gestión de proyectos y habilidades de formación a usuarios finales serán altamente valorados.

Beneficios

Ofrecemos la oportunidad de trabajar en un proyecto estratégico para la digitalización de nuestros procesos internos en una empresa consolidada del sector. Podrás desarrollar tus habilidades en tecnologías modernas y trabajar en un entorno colaborativo.

La modalidad de trabajo será remota dentro del país, con flexibilidad horaria para facilitar la conciliación personal y laboral.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1000 - 1500 Tiempo completo
Operador(a) de Tecnología de la Información (TI)
  • Biometria Aplicada
  • Santiago (In-office)
Linux PRTG Windows Server Hyper-v
En Biometría Aplicada contamos con más de 14 años de experiencia desarrollando soluciones integrales en control biométrico y tecnologías de gestión. Nos especializamos en sistemas avanzados para la gestión de asistencia del personal, control de accesos y administración de casinos corporativos, adaptando cada solución a las necesidades específicas de nuestros clientes. Ofrecemos plataformas robustas, seguras y escalables que mejoran la eficiencia operativa, optimizan el control interno y refuerzan la seguridad en organizaciones públicas y privadas.
Innovación, confiabilidad y experiencia son los pilares que nos definen.

Apply directly on the original site at Get on Board.

Responsabilidades principales

  • Monitorear continuamente el estado y funcionamiento de las plataformas productivas y sistemas TI para identificar incidentes o anomalías que puedan afectar la operación.
  • Ejecutar procedimientos de despliegue a producción, coordinándose con los equipos de desarrollo para asegurar implementaciones exitosas y sin interrupciones.
  • Aprovisionar y configurar servidores, entornos y bases de datos según las necesidades de los distintos proyectos, garantizando la disponibilidad de recursos adecuados.
  • Administrar sistemas operativos Windows Server (2016, 2019, 2022) y realizar tareas de mantenimiento preventivo para asegurar su óptimo funcionamiento.
  • Gestionar respaldos y recuperación de datos ante posibles fallos para mantener la integridad y disponibilidad de la información.
  • Mantener actualizada la documentación técnica correspondiente a procedimientos, configuraciones y actividades realizadas.
  • Coordinar con otras áreas técnicas la resolución de incidencias, implementación de mejoras y soporte general a las plataformas TI.
  • Velar por el cumplimiento de las políticas de seguridad, control de accesos y auditorías básicas dentro del entorno de TI.
  • Participar en turnos rotativos de guardia o soporte fuera de horario, cuando sea necesario, para atender emergencias o incidentes críticos.

Requisitos y perfil del candidato

Buscamos un profesional o técnico con formación en Informática, Redes, Computación o carreras afines, aunque se valora especialmente la experiencia demostrable en roles similares. El candidato debe tener sólidos conocimientos y experiencia práctica en administración de sistemas Windows Server (versiones 2016, 2019 y 2022) y un conocimiento básico de Linux para tareas de soporte y operación.
Es indispensable la capacidad para manejar herramientas y servicios de infraestructura como Active Directory, DNS, DHCP y GPOs para gestionar y controlar el ambiente de red y usuarios. Asimismo, se requiere conocimientos en administración básica de bases de datos, preferentemente SQL Server, para soporte y configuración.
Debe tener experiencia en herramientas de monitoreo como Zabbix, Nagios, PRTG u otras similares, que permitan la supervisión proactiva de plataformas y alertas tempranas. La automatización de tareas a través de scripts en PowerShell o Bash es necesaria para optimizar procesos operativos y reducir errores manuales.
El candidato debe contar con habilidades en plataformas de virtualización, principalmente VMware e Hyper-V, y conocimientos sobre herramientas y procedimientos de respaldo y recuperación, tales como Veeam o Acronis, para garantizar la disponibilidad de la información ante incidentes.
Deseamos también que tenga familiaridad con herramientas ITSM y sistemas de gestión de tickets para un control eficiente de incidencias y solicitudes.
En cuanto a competencias blandas, valoramos la orientación al detalle, responsabilidad, compromiso con la operación continua y buena comunicación con equipos técnicos y no técnicos. La capacidad para trabajar bajo presión en entornos críticos y una disposición proactiva para aprender y adaptarse a nuevas tecnologías son cualidades esenciales.

Competencias y conocimientos deseables

Es deseable que el candidato tenga experiencia previa en la participación de turnos rotativos, entendiendo la importancia de la disponibilidad para soporte continuo. Se valoran habilidades adicionales en scripting avanzado y la capacidad para proponer mejoras en los procesos tecnológicos.
Además, el manejo de herramientas avanzadas de gestión de configuración y automatización, así como una actitud proactiva para integrar nuevas tecnologías de monitoreo y seguridad, serán considerados una ventaja para el desarrollo del rol.

Beneficios y ambiente laboral

En Biometría Aplicada ofrecemos un entorno laboral colaborativo y enriquecedor, enfocado en la promoción del desarrollo profesional continuo y la innovación tecnológica. Formarás parte de un equipo experimentado donde la excelencia y el aprendizaje constante son valores centrales que promovemos activamente.
El trabajo es 100% presencial, facilitando una interacción directa y dinámica con el equipo técnico y los líderes de proyecto, lo cual mejora la comunicación y la cooperación diaria.
Fomentamos el crecimiento profesional y personal dentro de un ambiente motivador y comprometido con la calidad, donde podrás aportar significativamente al éxito de nuestros clientes y a la evolución de nuestras soluciones biométricas.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero(a) de Aseguramiento de Calidad (QA)
  • Biometria Aplicada
  • Santiago (In-office)
JavaScript Java Python SQL

En Biometría Aplicada contamos con más de 14 años de experiencia desarrollando soluciones integrales en control biométrico y tecnologías de gestión. Nos especializamos en sistemas avanzados para la gestión de asistencia del personal, control de accesos y administración de casinos corporativos, adaptando cada solución a las necesidades específicas de nuestros clientes. Ofrecemos plataformas robustas, seguras y escalables que mejoran la eficiencia operativa, optimizan el control interno y refuerzan la seguridad en organizaciones públicas y privadas. Innovación, confiabilidad y experiencia son los pilares que nos definen.

Send CV through getonbrd.com.

Responsabilidades Principales

  • Diseñar, implementar y ejecutar pruebas funcionales manuales y automatizadas.
  • Analizar requerimientos funcionales y técnicos para construir casos de prueba efectivos.
  • Desarrollar y mantener scripts de automatización para pruebas de regresión y pruebas continuas.
  • Colaborar con desarrolladores y product owners para asegurar la cobertura de pruebas.
  • Documentar defectos encontrados, hacer seguimiento y verificar su resolución.
  • Participar en revisiones de historias de usuario, criterios de aceptación y documentación técnica.
  • Ejecutar pruebas en diferentes entornos y dispositivos según los criterios del proyecto.
  • Contribuir a la mejora continua del proceso de QA y automatización de pruebas.

Requisitos Técnicos y Competencias

Buscamos un profesional con sólidos conocimientos en metodologías de testing como funcional, regresión, smoke e integración, y experiencia en herramientas de automatización como Selenium, Cypress o Playwright. Es necesario manejar lenguajes de scripting para automatización entre los que se incluyen JavaScript, Python o Java, además de herramientas de gestión de pruebas tales como TestRail, Zephyr o Xray.

También debe tener experiencia en integración continua (CI/CD), ejecutando pruebas automatizadas dentro de pipelines, así como el manejo de pruebas en APIs con Postman u otras herramientas similares. Conocimientos básicos en bases de datos, especialmente SQL para la validación de datos, son necesarios. Es deseable experiencia con herramientas BDD como Cucumber o SpecFlow.

En cuanto a competencias blandas, valoramos la atención al detalle, pensamiento analítico, trabajo en equipo, comunicación efectiva, orientación a la calidad y la mejora continua, proactividad, autonomía y adaptabilidad frente a cambios y nuevas tecnologías. La formación deseada es título en Ingeniería en Informática, Computación, Control de Calidad de Software o carrera afín; sin embargo, la experiencia puede suplir esta necesidad.

Habilidades Deseables

Se considera un plus la experiencia previa con herramientas BDD como Cucumber y SpecFlow, así como familiaridad con la integración de pruebas automatizadas en pipelines CI/CD. Además, se valoran habilidades adicionales en comunicación para la colaboración efectiva con equipos multidisciplinarios y una mentalidad orientada a la innovación y mejora continua en procesos de aseguramiento de calidad.

Beneficios

En Biometría Aplicada ofrecemos un entorno laboral colaborativo y enriquecedor, enfocado en la promoción del desarrollo profesional continuo y la innovación tecnológica. Formarás parte de un equipo experimentado donde la excelencia y el aprendizaje constante son valores centrales que promovemos activamente.

El trabajo es 100% presencial, facilitando una interacción directa y dinámica con el equipo técnico y los líderes de proyecto, lo cual mejora la comunicación y la cooperación diaria.

Fomentamos el crecimiento profesional y personal dentro de un ambiente motivador y comprometido con la calidad, donde podrás aportar significativamente al éxito de nuestros clientes y a la evolución de nuestras soluciones biométricas.

Health coverage Biometria Aplicada pays or copays health insurance for employees.
Computer provided Biometria Aplicada provides a computer for your work.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
DevOps Senior
  • coderslab.io
  • Santiago (Hybrid)
Python MySQL PostgreSQL Linux
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un devops senior para unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

This job is original from Get on Board.

Funciones del cargo

  • Diseño, implementación y operación de arquitecturas basadas en contenedores usando Kubernetes, Helm, GitLab CI/CD, ArgoCD y Kong API Gateway.
  • Backend Cloud DEvops
  • Automatización
  • servicios Cloud
  • Despliegues seguros, reproducibles y escalables con fuerte orientación a la seguridad.
  • Gestión de secretos y credenciales con HashiCorp Vault, asegurando cumplimiento de estándares como PCI-DSS.
  • Desarrollo y mantenimiento de pipelines CI/CD robustos y automatización de procesos mediante scripting avanzado en Bash y Python.
  • Integración y operación en entornos regulados, especialmente bancarios.
  • Administración y optimización de infraestructura en OCI, incluyendo redes, IAM, VCN, almacenamiento y seguridad (WAF, escaneo de vulnerabilidades).
  • Implementación de infraestructura versionada y reproducible con Terraform.
  • Gestión de imágenes Docker y orquestación con Kubernetes.
  • Colaboración en entornos híbridos y multicloud.

Requerimientos del cargo

  • Experiencia avanzada en Oracle Cloud Infrastructure (OCI).
  • Oracle Linux 8/9: endurecimiento, SELinux, systemd, optimización y troubleshooting.
  • Terraform: módulos reutilizables, workspaces, estados remotos.
  • GitLab CI/CD y ArgoCD para pipelines y GitOps.
  • Kubernetes, Helm, Docker, Argo Workflows, Kong API Gateway.
  • HashiCorp Vault para gestión de secretos y políticas de seguridad.
  • Scripting avanzado en Bash y Python.
  • Experiencia con bases de datos MSSQL, PostgreSQL y MySQL (deseable).
  • Conocimiento en normativas y buenas prácticas de ciberseguridad y cumplimiento (PCI-DSS).

Condiciones

Modalidad de contratación: Plazo fijo
Duración del proyecto: 7 meses

POSTULAR VÍA WEB Ver trabajo
Gross salary $2400 - 2600 Tiempo completo
Desarrollador Automatizador Senior (Performance Tester)
  • BC Tecnología
  • Santiago (Hybrid)
JavaScript Java Python SQL
En BC Tecnología somos una consultora de servicios IT con amplia experiencia en diversas áreas tecnológicas. Durante más de 6 años hemos diseñado soluciones a medida para clientes de sectores como servicios financieros, seguros, retail y gobierno, gestionando desde portafolios hasta desarrollos complejos y outsourcing profesional.
Este proyecto específico corresponde a la participación en un equipo especializado en pruebas de rendimiento y automatización dentro de clientes de alto nivel, llevado a cabo bajo metodologías ágiles. Nuestra fuerte orientación al cliente, el cambio organizacional y el desarrollo de productos innovadores marcan la diferencia en cada iniciativa que emprendemos.

Originally published on getonbrd.com.

Responsabilidades clave

  • Diseñar, desarrollar y ejecutar pruebas de carga y rendimiento utilizando herramientas como JMeter para evaluar sistemas críticos.
  • Automatizar los procesos de testeo mediante scripts en Python, Java o JavaScript, asegurando la eficiencia y repetibilidad de las pruebas.
  • Analizar los resultados obtenidos en las pruebas de performance, identificando cuellos de botella y proponiendo mejoras concretas.
  • Integrar las pruebas de rendimiento dentro de flujos de trabajo CI/CD, colaborando estrechamente con el equipo de QA para garantizar la calidad continua.
  • Participar activamente en reuniones de seguimiento, aportar visiones técnicas y documentar los resultados y procesos de manera clara y precisa.

Requisitos técnicos y perfil

Buscamos un profesional con sólida experiencia como Performance Tester, con un manejo avanzado de herramientas como JMeter para la ejecución de pruebas de carga y consumo de APIs. Es indispensable el conocimiento práctico en automatización utilizando lenguajes como Python, Java o JavaScript.
Se valoran conocimientos adicionales en herramientas complementarias como Postman para pruebas de APIs, Locust para simulaciones de carga, Grafana y Datadog para monitoreo de métricas y análisis, así como competencias en bases de datos SQL y gestión documental con Confluence y Jira.
Desde el punto de vista personal, buscamos un perfil autónomo, analítico y orientado a resultados, capaz de trabajar de manera independiente dentro de un entorno colaborativo. La afinidad o background en matemática y estadística será un plus que permitirá un mejor entendimiento y análisis de datos de performance.

Habilidades y conocimientos deseables

  • Experiencia previa en integración de pruebas de performance en pipelines CI/CD con herramientas modernas de DevOps.
  • Conocimientos en monitoreo y visualización avanzada de métricas con Grafana y Datadog para insights profundos de performance.
  • Familiaridad con metodologías ágiles y trabajo en equipos multidisciplinarios orientados a la mejora continua.
  • Capacidad para documentar procesos técnicos complejos y comunicar hallazgos a equipos técnicos y no técnicos.

Beneficios y cultura organizacional

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $4500 - 6000 Tiempo completo
Data DevOps Engineer
  • Kore RPO
Python SQL Scala Business Intelligence

We understand how complicated it can be to run a recruiting organization. Here at KORE RPO, we help reduce recruiting costs and increase candidate engagement without increasing the number of recruiters in your organization.

We have senior recruitment resources readily available to assist with all your recruiting needs. We can increase the volume of candidates without compromising on the quality.

Unlike many other RPO companies, we have a depth of understanding of staffing and recruiting organizations. We can help you build a process and operation that integrates with your existing team to increase revenue and profitability.

Apply directly through getonbrd.com.

Job functions

  • Design, build, test, and maintain existing data integrations, ETL processes, and BI solutions within the Azure platform.
  • Participate in Azure environment refresh and cutover activities for system integration testing and go-live for major and minor releases.
  • Support existing reporting and visualization solutions using enterprise BI tools.
  • Participate in an on-call rotation to support EIM production processes and systems.
  • Build and maintain Continuous Integration and Continuous Delivery pipelines.
  • Implement automated solutions using scripting/programming languages in the Azure environment.
  • Perform other duties as assigned.

Qualifications and requirements

  • Bachelor’s Degree in Computer Science or Information Systems.
  • 1+ years of hands-on experience developing and testing Data Warehouse and Business Intelligence solutions.
  • Experience coding in one of the following languages: Python, Scala, SQL, PowerShell.
  • An understanding of relational database concepts.
  • Cloud Technology experience is a plus.

Conditions

We are looking:

  • Able to multitask and work effectively in a dynamic environment.
  • Highly organized and detail-oriented.
  • Willing to jump in where needed, learn new technologies, and work effectively across the full stack.
  • Able to work both independently and collaboratively.
  • Passionate about continuous learning, leading, and sharing knowledge. Provide subject matter expertise and guidance to less experienced staff members regarding performance management and design best practices.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Senior Cloud Platform & DevOps Engineer
  • BC Tecnología
  • Santiago (In-office)
Python SQL BigQuery Kubernetes

En BC Tecnología somos una consultora de IT con amplia experiencia en diversas áreas tecnológicas. Desde hace 6 años apoyamos a clientes de sectores como servicios financieros, seguros, retail y gobierno, brindando soluciones a medida que incluyen la consultoría, desarrollo de proyectos, outsourcing y administración de servicios IT.

Formamos equipos ágiles especializados para Infraestructura Tecnológica, Desarrollo de Software y Unidades de Negocio que garantizan la entrega de valor y el alineamiento con los objetivos empresariales de nuestros clientes. Nuestro enfoque se centra en la innovación, metodología ágil y excelencia operativa.

El área de Plataformas y Cloud es fundamental dentro de nuestra propuesta, donde integramos conocimientos avanzados en servicios cloud, automatización y DevOps para empujar la transformación digital y eficiencia operativa de las organizaciones que acompañamos.

Apply exclusively at getonbrd.com.

Funciones principales

Como Ingeniero Senior de Plataformas, serás responsable de la administración y optimización de entornos híbridos en la nube, específicamente en Google Cloud Platform. Esta posición es estratégica para la construcción y mantenimiento de infraestructura como código, automatización de despliegues continuos y soporte a operaciones críticas que aseguren la estabilidad y seguridad de los servicios.

Tu día a día incluirá desarrollar y mantener módulos de Terraform, gestionar clústeres Kubernetes (GKE), administrar pipelines CI/CD en GitLab, y trabajar estrechamente con el equipo para documentar procesos, mejorar la calidad de las implementaciones y asegurar la adherencia a buenas prácticas DevOps.

También implicará colaborar con diversas áreas para evaluar nuevas herramientas y enfoques, resolver incidentes operativos, y garantizar el cumplimiento de políticas de seguridad y gobernanza en el entorno cloud.

Descripción y requisitos del puesto

Buscamos un profesional senior con un perfil técnico sólido en ingeniería de plataformas y amplia experiencia en Google Cloud Platform. Es fundamental el dominio intermedio a avanzado de Python, que será usado para scripts y automatizaciones, junto con conocimientos avanzados en BigQuery y SQL para el manejo eficiente de datos.

Se requiere experiencia en la administración de clústeres GKE y buen nivel en Terraform, desde la creación de módulos hasta la gestión del estado y resolución de problemas. Es imprescindible el manejo de GitLab CI para orquestación de pipelines, así como un manejo básico a intermedio de Unix para la operación en consola.

El candidato debe demostrar pensamiento crítico, autogestión y proactividad para abordar retos técnicos, además de habilidades interpersonales sólidas para trabajo en equipo, atención al cliente y resiliencia ante situaciones complejas. La capacidad para redactar documentación técnica clara y precisa es fundamental.

Se valora un compromiso genuino con la diversidad, inclusión y el respeto por opiniones diversas, reflejando nuestros valores culturales.

Conocimientos y habilidades deseables

Serán altamente valorados conocimientos adicionales en IAM de GCP, particularmente en la gestión de permisos, impersonación y principios de mínimos privilegios, junto con experiencia básica o intermedia en networking tanto en entornos on-premise como en Google Cloud.

Experiencia con Kubernetes on-premise y la administración y mantenimiento de nodos fortalecerá tu candidatura. Además, familiarizarse con herramientas como ArgoCD para CD, Apache Airflow y Composer para orquestación de workflows será una ventaja competitiva.

El manejo de herramientas de inteligencia artificial asistidas como Copilot, Gemini o Cursor, así como un entendimiento de arquitecturas hexagonales y el diseño de pruebas automatizadas en Python reflejarán un perfil técnico avanzado. También se valorará experiencia con ciclos completos DevOps.

Beneficios y cultura organizacional

En BC Tecnología ofrecemos un ambiente de trabajo colaborativo que valoriza el compromiso, el aprendizaje continuo y el desarrollo profesional. Aunque no se detallan beneficios específicos en esta oferta, promovemos la integración estrecha entre equipos para facilitar el intercambio de conocimientos y fomentar tu crecimiento.

Trabajamos con metodologías ágiles junto a clientes de alto nivel en sectores diversos, lo que te permitirá participar en proyectos innovadores y desafiantes, potenciando tu carrera técnica y profesional dentro de un marco de respeto e inclusión social.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Quality Automation Engineer
  • Nisum Latam
Java SQL Data Science Back-end

Nisum is a leading global digital commerce firm headquartered in California, with services spanning digital strategy and transformation, insights and analytics, blockchain, business agility, and custom software development. Founded in 2000 with the customer-centric motto “ Building Success Together® ,” Nisum has grown to over 1,800 professionals across the United States, Chile,Colombia, India, Pakistan and Canada.

We are looking for a QA Engineer experienced in manual and automated testing of backend systems. This role is crucial in ensuring the high quality of our solutions, working closely with distributed and cross-functional teams across the globe.

If you’re passionate about software quality, skilled in tools like Postman and SQL, and hands-on with automation frameworks like Cucumber or RestAssured — this opportunity is for you!

Nisum is an Equal Opportunity Employer and we are proud of our ongoing efforts to foster diversity and inclusion in the workplace.

Apply directly through getonbrd.com.

What you will do

  • Work with product managers, developers and other Quality Engineers to develop test plans for user and technical stories
  • Test backend applications manually
  • Develop automated tests of backend applications
  • Coordinate with other teams for releases
  • Document bugs with a great level of detail
  • Troubleshoot issues and help on root cause analysis
  • Guarantee the quality of every deliverable
  • Communicate and collaborate with client teams on various topics such as requirements, releases, regression testing etc.

Qualifications and requirements

  • You must reside in Latam
  • 4+ years of relevant experience
  • Manual testing of backend systems, using Postman or similar tools
  • Proficiency in SQL
  • Good hands-on experience with automation frameworks like Cucumber, TestNG and/or RestAssured
  • Experience with Java
  • Excellent problem solving and troubleshooting
  • Excellent communication and collaboration
  • Documentation of test plans
  • Experience with different testing stages such as component testing, integration testing, E2E, regression etc.
  • Collaboration with distributed teams (USA, offshore)
  • Proficiency in English communication (verbal, written)

What can we offer you?

  • Belong to an international and multicultural company that supports diversity.
  • Be part of international projects with a presence in North America, Pakistan, India and Latam.
  • Work environment with extensive experience in remote and distributed work, using agile methodologies.
  • Culture of constant learning and development in current technologies.
  • Pleasant and collaborative environment, with a focus on teamwork.
  • Access to learning platforms, Google Cloud certifications, Databricks, Tech Talks, etc.
  • Being part of various initiatives and continuous participation in internal and external activities of innovation, hackathon, technology, agility, talks, webinars, well-being and culture with the possibility not only to participate but also to be an exhibitor.

POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2700 Tiempo completo
DevOps
  • coderslab.io
  • Santiago (Hybrid)
Python Excel SQL Business Intelligence

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de DEVOPS para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Apply to this job opportunity at getonbrd.com.

Funciones del cargo

Analizar procesos actuales (AS-IS):

  • Levantar, mapear y comprender procesos operativos y contables existentes. Identificar puntos críticos, riesgos y oportunidades de mejora.

Coordinar con stakeholders:

  • Organizar y gestionar reuniones con responsables de procesos clave (operaciones, contabilidad, tecnología, etc.), recopilando información relevante de múltiples frentes.

Diseñar procesos futuros (TO-BE):

  • Proponer mejoras o rediseños que aseguren trazabilidad, eficiencia y control.
  • Documentar procesos:
  • Elaborar diagramas, manuales y guías operativas claras y reutilizables.

Desarrollar e implementar soluciones:

  • Construir automatizaciones, conciliaciones, dashboards, y scripts. Validar con usuarios clave y adaptar según feedback.

Requerimientos del cargo

Conocimientos técnicos:

  • SQL avanzado (ideal experiencia con BigQuery en Google Cloud)
  • Python para automatización, validaciones y ETL
  • Excel avanzado (visualizaciones, paneles)
  • Experiencia con herramientas de BI (Looker o Power BI)

Conocimientos funcionales:

  • Procesos bancarios: abonos, cargos, conciliaciones
  • Productos financieros: créditos, cuentas corrientes, CMR, etc.
  • Contabilidad: lectura de asientos contables y análisis de cuentas (haber/debe)

Habilidades clave:

  • Pensamiento analítico y capacidad para detectar desajustes entre sistemas
  • Autonomía para investigar y proponer soluciones
  • Experiencia documentando procesos complejos
  • Manejo de herramientas de comunicación y gestión como Microsoft Teams

Conditions

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
QA Automation Engineer Python/Robot Framework
  • coderslab.io
Python Agile MySQL PostgreSQL
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos buscando un Ingeniero Senior en Automatización para unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

Apply to this job without intermediaries on Get on Board.

Funciones del cargo

1. Desarrollo de Automatización de Pruebas:
o Diseñar e implementar scripts automatizados para pruebas de aplicaciones web, móviles y
APIs utilizando herramientas como Robot Framework y Appium (Android/iOS).
o Garantizar la cobertura de pruebas para servicios REST y GraphQL.
o Usar Python para desarrollar soluciones personalizadas y mejorar los frameworks de prueba
existentes.
2. Pruebas de Bases de Datos:
o Realizar pruebas y validaciones en bases de datos relacionales (e.g., MySQL, PostgreSQL) y
no relacionales (e.g., DynamoDB).
3. Gestión y Colaboración:
o Documentar procesos, resultados y estrategias de prueba en herramientas como Confluence.
o Trabajar en estrecha colaboración con desarrolladores y partes interesadas del negocio para
garantizar que los requisitos de calidad se cumplan.
o Gestionar tareas, estimaciones de esfuerzo y prioridades en Jira.
4. Gestión de Infraestructura:
o Configurar pipelines de integración y despliegue continuo (CI/CD) utilizando GitHub Actions.
o Colaborar en entornos basados en la nube, como AWS, para la ejecución y el mantenimiento
de pruebas automatizadas.
5. Capacitación y Transferencia de Conocimiento:
o Capacitar a los miembros del equipo en herramientas, procesos y mejores prácticas de
automatización.
o Promover una cultura de mejora continua mediante la transferencia de conocimiento y la
mentoría.

Requerimientos del cargo

• Experiencia mínima de 5 años en QAA.
• Experiencia sólida en automatización de pruebas utilizando Robot Framework y Appium
(Android/iOS).
• Conocimiento avanzado en Python para desarrollo de scripts y frameworks.
• Experiencia en diseño y ejecución de pruebas de APIs (REST y GraphQL).
• Familiaridad con bases de datos relacionales y no relacionales (MySQL, PostgreSQL, DynamoDB).
• Conocimiento de herramientas de CI/CD como GitHub Actions.
• Experiencia trabajando con AWS.
• Manejo de herramientas de gestión como Jira y Confluence.
• Habilidades en documentación y colaboración con equipos técnicos y de negocio.
• Experiencia en entornos ágiles (Scrum)
• Capacidad para liderar iniciativas de automatización y fomentar un entorno de aprendizaje
continuo.
• Excelentes habilidades de comunicación y proactividad
• Autonomía y capacidad para gestionar múltiples tareas simultáneamente.

Conditions

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Senior Site Reliability Engineer (SRE)
  • Moventi
Python MySQL Go Kubernetes
Moventi is a forward-thinking technology company dedicated to helping organizations embrace innovation through cutting-edge technologies. We provide an environment where multidisciplinary talents collaborate to drive digital transformation and shape the future with technology. Our teams engage with state-of-the-art cloud infrastructure projects and large-scale SaaS platforms designed to scale and maximize reliability and efficiency.
Our current project focuses on designing, building, and operating highly available, scalable infrastructure on cloud platforms such as AWS EKS and Azure AKS. This includes advanced data ingestion pipelines handling hundreds of terabytes to petabytes of data, leveraging technologies like Clickhouse and Kafka. We prioritize observability, security, and automation using modern tools and practices to ensure robust SaaS operations.

Apply without intermediaries through Get on Board.

Primary Responsibilities and Role Overview

As a Senior Site Reliability Engineer (SRE), you will be instrumental in architecting, deploying, and managing complex cloud-native infrastructure in large-scale SaaS environments. Your role includes designing and maintaining Kubernetes clusters (AWS EKS, Azure AKS) using Infrastructure as Code tools such as Terraform, ensuring seamless scalability and reliability.
You will be responsible for implementing observability solutions across monitoring, logging, tracing, and metrics collection using Prometheus, Grafana, Datadog, and ELK ecosystem to maintain robust system health and performance. Managing data ingestion pipelines with high-volume technologies like Clickhouse and Kafka will be part of your core tasks.
Collaboration with cross-functional teams to drive GitOps CI/CD processes, writing automation scripts in Python, Go (Golang), and Bash to streamline deployments and operations, and enforcing security best practices involving encryption, key management, and policy enforcement are key duties. In addition, you will design and maintain disaster recovery strategies for critical components such as MySQL, Kafka, and Zookeeper, ensuring business continuity and data integrity.
This role requires active participation in a large, dynamic team environment where your expertise will elevate operational standards and foster innovation around high availability SaaS platforms.

Required Experience and Skills

We are looking for a professional with a minimum of 7 years designing, building, and maintaining SaaS environments with a strong focus on large-scale cloud infrastructure. Candidates must have at least 5 years of hands-on experience working with AWS EKS and Azure AKS managed Kubernetes clusters, leveraging Terraform for infrastructure automation.
Key technical expertise includes managing data ingestion in large environments through Clickhouse and Kafka, handling data volumes scaling up to petabytes. A solid background in observability tools such as Prometheus, Grafana, Datadog, and ELK for monitoring, logging, and tracing is mandatory.
Expertise in GitOps practices and CI/CD pipelines is essential. We expect proven scripting skills in Python, Go (Golang), Bash, and AWS CLI to automate operational workflows. Candidates must demonstrate at least 3 years of experience managing security operations including enforcing infrastructure security policies, managing encryption at rest and in transit, and key management.
In-depth knowledge of disaster recovery planning and execution for distributed systems including MySQL, Kafka, and Zookeeper is required. The ideal candidate should be a proactive and collaborative team player, able to communicate complex technical concepts effectively while taking initiative in a fast-paced innovative environment. Strong problem-solving skills, risk management, and a passion for continuous improvement are imperative to succeed in this role.

Additional Preferred Skills and Experience

Experience with service mesh technologies such as Istio and Kubernetes operators is highly valued to optimize application connectivity and lifecycle management. Familiarity with large scale data architectures and tuning Kafka clusters would be advantageous. Prior exposure to cloud security frameworks and compliance standards, as well as experience leading or mentoring SRE teams within enterprise environments, will be considered a strong plus.
An innovative mindset with eagerness to explore emerging tools and automation techniques is welcome, along with excellent interpersonal skills suitable for a multidisciplinary collaborative culture.

Our Offer and Work Environment

At Moventi, we provide a stimulating and innovative work atmosphere located in the heart of San Isidro, Lima, featuring convenient parking and recreational zones to promote wellbeing during breaks. Our hybrid work model gives you the flexibility to balance time between our fully equipped office and remote work tailored to team and personal preferences.
We prioritize professional growth by exposing you to challenging, diverse projects that foster continuous learning and skills enhancement. Our organizational culture is based on transparency, collaboration, commitment, risk-taking, and innovation. We offer formal employment contracts with full legal benefits from day one, ensuring job security and comprehensive protections.

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
DevOps Engineer con Conocimientos en Back-end y AWS
  • coderslab.io
Java Python Agile Node.js
En CodersLab es una empresa dedicada al desarrollo de soluciones para empresas y actualmente estamos enfocados en el crecimiento global de nuestros equipos con el objetivo de posicionar nuestros productos en más países de Latinoamérica. Por esta razón, estamos buscando un DevOps Engineer con conocimientos en Backend y AWS

Te sumarás a un equipo desafiante y ambicioso con ganas de innovar en el mercado, haciendo que tus propuestas sean altamente valiosas para el negocio.
¡Aplica ahora para este increíble reto!

Apply directly on the original site at Get on Board.

Funciones del cargo

  • Diseñar, implementar y mantener pipelines CI/CD para aplicaciones backend.
  • Automatizar despliegues y configuraciones en entornos AWS (EC2, Lambda, ECS, EKS, S3, RDS, etc.).
  • Gestionar infraestructura como código usando herramientas como Terraform, CloudFormation o similares.
  • Monitorizar y optimizar el rendimiento de sistemas y aplicaciones.
  • Colaborar con desarrolladores backend para integrar y mejorar procesos de desarrollo y despliegue.
  • Implementar prácticas de seguridad en la infraestructura y aplicaciones.
  • Gestionar la escalabilidad, alta disponibilidad y recuperación ante desastres.
  • Documentar procesos y arquitecturas implementadas.

Requerimientos del cargo

  • Experiencia mínima de 2 años como DevOps Engineer o en roles similares.
  • Conocimientos sólidos en AWS y sus servicios principales.
  • Experiencia en desarrollo backend con lenguajes como Python, Node.js, Java o Go.
  • Dominio de herramientas CI/CD (Jenkins, GitLab CI, GitHub Actions, etc.).
  • Conocimientos en infraestructura como código (Terraform, CloudFormation).
  • Experiencia con contenedores y orquestadores (Docker, Kubernetes).
  • Familiaridad con monitoreo y logging (Prometheus, Grafana, ELK, CloudWatch).
  • Buenas prácticas de seguridad en la nube.
  • Capacidad para trabajar en equipo y comunicar efectivamente.
Deseables:
  • Certificaciones AWS (AWS Certified DevOps Engineer, AWS Solutions Architect).
  • Experiencia con microservicios y arquitecturas serverless.
  • Conocimiento en bases de datos SQL y NoSQL.
  • Experiencia en metodologías ágiles.

POSTULAR VÍA WEB Ver trabajo
Gross salary $2100 - 2400 Tiempo completo
Administrador de Base de Datos
  • Genesys Tecnologías de Inform. SpA
  • Concepción or Biobío (Hybrid)
PostgreSQL Oracle Linux Amazon Web Services
Genesys Tecnologías de Inform. SpA es una empresa consolidada en el mercado latinoamericano con más de 30 años de trayectoria, especializada en desarrollo de software y prestación de servicios TI a través de Outsourcing. Con sedes en Concepción y Santiago, Genesys se enfoca en acompañar a sus clientes en sus procesos de Transformación Digital, utilizando tecnologías actuales como Cloud, Data Analytics, Inteligencia Artificial y Automatización de Procesos.
El equipo de desarrollo y soporte se encarga de múltiples proyectos relacionados con la modernización tecnológica de empresas de la región, manteniendo servicios de soporte, mantenimiento de aplicaciones y desarrollo, para asegurar la continuidad operacional y la innovación constante en los negocios de sus clientes.

Applications: getonbrd.com.

Funciones del Cargo

Como Administrador de Base de Datos, serás responsable de la gestión integral de las bases de datos, garantizando su disponibilidad, rendimiento y seguridad. Deberás mantener la plataforma operativa para asegurar la continuidad y la integridad de la información crítica para la operación de la empresa.
  • Administrar, configurar y monitorear bases de datos Oracle, SQL Server, PostgreSQL y MongoDB.
  • Asegurar la seguridad y el control de accesos a la información almacenada.
  • Implementar y mantener soluciones de respaldo y recuperación ante desastres.
  • Supervisar el rendimiento y optimizar consultas y procesos dentro de los sistemas de base de datos.
  • Interactuar eficientemente con usuarios y equipos técnicos para resolver incidencias y requerimientos vinculados a las bases de datos.
  • Trabajar con sistemas operativos Windows Server y Linux, asegurando un entorno estable y seguro para las bases de datos.
  • Colaborar en entornos Cloud como Azure, AWS o Google Cloud, integrando y gestionando bases de datos en la nube cuando corresponda.
Tu enfoque estará puesto en anticipar y resolver problemas, aplicar pensamiento analítico y comunicarte de forma efectiva con diferentes áreas de la organización.

Descripción del Cargo y Requisitos

Estamos buscando un profesional con un mínimo de 3 años de experiencia comprobada en administración de bases de datos, especialmente en entornos Oracle, SQL Server, PostgreSQL y MongoDB. Buscamos alguien con sólidos conocimientos técnicos en sistemas operativos Windows Server y Linux, capaz de desempeñarse en ambientes híbridos que integren tecnología on-premise y en la nube.
El candidato ideal deberá contar con habilidades avanzadas para la resolución de problemas y pensamiento analítico orientado al diagnóstico rápido y solución eficiente. Además, tendrá una gran capacidad de comunicación para interactuar con usuarios y stakeholders, comprendiendo sus necesidades y traduciéndolas en soluciones técnicas efectivas.
Es deseable poseer certificaciones en administración de bases de datos que avalen los conocimientos técnicos y la experiencia práctica en el área.
Buscamos profesionales comprometidos, organizados, con iniciativa y que tengan facilidad para trabajar en equipo, promoviendo un ambiente colaborativo que permita el crecimiento conjunto.

Requisitos Deseables

Se valorará especialmente la experiencia previa en entornos Cloud como Microsoft Azure, Amazon Web Services o Google Cloud Platform, tanto en implementación como en administración de bases de datos en dichas plataformas. Las certificaciones oficiales en gestión de bases de datos, tales como Oracle Certified Professional, Microsoft Certified: Azure Database Administrator Associate o similares, serán consideradas un plus significativo.
Además, se apreciará el conocimiento en automatización de tareas mediante scripts, familiaridad con herramientas de monitoreo y respaldo avanzadas, y la capacidad para integrarse en equipos multifuncionales de proyectos de transformación digital.

Condiciones y Beneficios

Ofrecemos un contrato a plazo fijo dentro de un ambiente laboral dinámico, colaborativo y orientado al desarrollo profesional y aprendizaje constante. Nuestro horario laboral es de lunes a viernes de 08:30 a 18:30 hrs, bajo modalidad híbrida que combina trabajo presencial en la oficina de Concepción y trabajo remoto.
Formarás parte de una empresa con más de tres décadas de experiencia en el sector tecnológico latinoamericano, con presencia en Concepción y Santiago. Valoramos el talento y fomentamos el crecimiento y la innovación continua dentro de un entorno que impulsa la excelencia técnica y la transformación digital.
Únete a Genesys Tecnologías de Inform. SpA y sé parte de un equipo comprometido con mantener los negocios en movimiento y elevar el estándar tecnológico en las empresas de la región. ¡Esperamos crecer juntos contigo! 😊

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
SRE Engineer
  • 2BRAINS
Agile SQL Scrum Kanban

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

This job is original from Get on Board.

El perfil SRE Engineer de 2Brains

Garantizar la confiabilidad, escalabilidad y disponibilidad de los sistemas y servicios de la organización, mediante la implementación de prácticas de Site Reliability Engineering (SRE). Optimizar el rendimiento y la estabilidad de las aplicaciones, alineando la infraestructura con los objetivos del negocio.

¿Qué conocimientos buscamos en el/la SRE Engineer?

  • Implementar y mantener prácticas de observabilidad (métricas, logs, trazas) para mejorar la visibilidad y diagnóstico de sistemas.
  • Definir y gestionar Service Level Indicators (SLIs), Service Level Objectives (SLOs) y Error Budget para garantizar la calidad del servicio.
  • Desarrollar y automatizar procesos de monitoreo, alertas y respuesta a incidentes para minimizar el tiempo de inactividad.
  • Aplicar metodologías de testing automatizado (funcionales, rendimiento, seguridad e integración) para mejorar la confiabilidad del software.
  • Colaborar con equipos de desarrollo para implementar mejoras en la arquitectura y diseño de aplicaciones con un enfoque en escalabilidad.
  • Optimizar el rendimiento y la estabilidad de las aplicaciones web, asegurando tiempos de respuesta eficientes.
  • Aplicar buenas prácticas de seguridad en aplicaciones y desarrollo seguro.
  • Gestionar y mejorar bases de datos relacionales y consultas en SQL para optimizar la eficiencia del acceso a datos.
  • Adoptar y fomentar metodologías ágiles (Scrum, Kanban) en la gestión de proyectos y entrega de software.
  • Participar en la investigación y adopción de nuevas tecnologías para optimizar procesos y mejorar la infraestructura.

¿Qué competencias buscamos en el/la SRE Engineer?

  • Curiosidad
  • Foco en los objetivos
  • Colaboración y trabajo en equipo (ínter y multidisciplinario)
  • Proactividad
  • Autonomía

Te ofrecemos

  • Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos.
  • Un proyecto con foco en los usuarios, visión de UX e integrada al desarrollo.
  • Acceso a grandes clientes y proyectos desafiantes.
  • Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales.
  • Un entorno de trabajo flexible y dinámico.
  • Beneficios especiales: un día libre de regalo por tu cumpleaños, días de descanso (previa coordinación), convenios para cursos de especialización.

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2200 Tiempo completo
Analista QA Automatizador
  • BC Tecnología
  • Santiago (Hybrid)
Python PostgreSQL Git QA
En BC Tecnología, somos una consultora de TI con un fuerte enfoque en la creación de soluciones personalizadas que se alinean perfectamente con las necesidades de nuestros clientes. Trabajamos con un diverso portafolio en sectores como servicios financieros, seguros, retail y gobierno. En nuestro proyecto actual, requerimos un Analista QA Automatizador por un periodo de 12 meses, donde el candidato será parte de un equipo ágil, encargado de asegurar la calidad de nuestros desarrollos mediante metodologías de testing avanzadas.

Apply to this job directly at getonbrd.com.

Responsabilidades del Analista QA Automatizador

  • Implementar y ejecutar pruebas automatizadas utilizando Selenium WebDriver en Python u otros lenguajes de programación orientados a objetos.
  • Realizar testing de APIs, asegurando la funcionalidad solicitada y la integridad de los microservicios.
  • Manejar repositorios y versiones de software mediante Git y plataformas como GitHub, GitLab o Bitbucket.
  • Interactuar con bases de datos; realizar consultas y pruebas en PostgreSQL como parte del proceso de verificación.
  • Gestionar actividades del equipo y seguimiento de tareas a través de Jira, asegurando el cumplimiento de cronogramas establecidos.
  • Configurar pipelines de CI/CD para facilitar la integración continua y entrega de software fluida.

Requisitos y habilidades del candidato

Buscamos un profesional que posea al menos 3 años de experiencia comprobable en roles similares, con un sólido entendimiento de las prácticas de aseguramiento de calidad. El candidato debe ser capaz de trabajar de manera colaborativa en un ambiente ágil, adoptar metodologías de desarrollo modernas y comunicarse efectivamente con diferentes áreas del equipo. Se valora la proactividad y un enfoque orientado a resultados.

Habilidades deseables

Sería un plus contar con certificaciones relacionadas a testing o metodologías ágiles, así como experiencia en la gestión de pruebas dentro de equipos multidisciplinarios. La experiencia con herramientas adicionales de automatización o conocimientos en lenguajes de programación adicionales también serán considerados positivamente.

Beneficios que ofrecemos

En BC Tecnología, valoramos a nuestro personal y fomentamos un ambiente laboral positivo y colaborativo. Ofrecemos un contrato a plazo fijo que tiene la posibilidad de convertirse en indefinido. Nuestro esquema de trabajo es híbrido, permitiendo así flexibilidad en la modalidad. Además, contamos con beneficios tales como seguro complementario de salud, aguinaldo por fiestas patrias y navidad, y tarjeta de alimentación. 🌟

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2500 Tiempo completo
DBA Oracle
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL Oracle Linux
En *BC Tecnología*, somos una consultora TI con un enfoque claro en el cliente. Nuestros equipos de trabajo ágiles están diseñados para colaborar en proyectos innovadores, especialmente en el sector educativo. Tenemos más de 6 años de experiencia creando soluciones IT que se ajustan a las necesidades de nuestros clientes. Este proyecto específico es emocionante y se basa en la administración y optimización de bases de datos Oracle, siendo una oportunidad ideal para quienes buscan hacer un impacto significativo en su campo.

Apply to this job opportunity at getonbrd.com.

Tus responsabilidades:

  • 🔧 Gestionar bases de datos Oracle en producción y desarrollo, asegurando su alta disponibilidad y rendimiento.
  • ⚙️ Configurar y gestionar entornos de alta disponibilidad usando Oracle RAC y Data Guard.
  • ☁️ Migrar bases de datos a Oracle Cloud y otros entornos Cloud.
  • 🛠 Automatizar tareas de DBA y realizar monitoreo continuo para optimizar el rendimiento.
  • 🛡 Diseñar planes de recuperación ante desastres y políticas de backup/restore.
  • 🔄 Colaborar con equipos de desarrollo y operaciones para integrar las bases de datos con las aplicaciones.

¿Qué buscamos?

  • 🎯 Experiencia sólida en Oracle 19c o superior.
  • ⚡ Conocimiento profundo de Oracle RAC, Data Guard, ASM y Oracle Multitenant.
  • ☁️ Experiencia con Oracle Cloud Infrastructure (OCI) y otros servicios Cloud como AWS o Azure (deseable).
  • 🛠 Habilidades en scripting para automatización de tareas DBA (Bash, Python).
  • 📊 Experiencia en monitoreo, tuning y optimización de bases de datos.
  • 🗂 Conocimiento avanzado en PLSQL, tuning de SQL, y gestión de backups (RMAN, Data Pump).
  • 🔐 Experiencia en seguridad y encriptación de bases de datos.

¿Qué ofrecemos?

  • 🚀 Proyecto de 5 meses con posibilidad de extensión.
  • 🌍 Trabajo híbrido en un ambiente dinámico.
  • 🎓 Oportunidades de crecimiento y aprendizaje con nuevas tecnologías.

Beneficios adicionales:

  • Modalidad híbrida (presencial 2 veces por semana) en Lima, Perú.
  • Horario flexible de lunes a viernes de 9:00 a 18:00.
  • Oportunidad de trabajar en proyectos innovadores que impactan el sector educativo.
  • Ambiente dinámico y con muchas oportunidades de crecimiento.
¡Únete a un equipo donde tu talento hará la diferencia! 🌟

Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2200 - 2700 Tiempo completo
QA Automation
  • coderslab.io
Android iOS Python Agile

En CodersLab, actualmente estamos enfocados en el crecimiento global de nuestros equipos con el objetivo de posicionar nuestros productos en más países de Latinoamérica. Por esta razón, estamos buscando un QA AUTOMATION motivado y orientado a objetivos.

Te unirás a un equipo desafiante y ambicioso con ganas de innovar en el mercado, haciendo que tus propuestas sean altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Find this vacancy on Get on Board.

Funciones del cargo

Responsabilidades Principales:

1. Desarrollo de Automatización de Pruebas:

o Diseñar e implementar scripts automatizados para pruebas de aplicaciones web, móviles y

APIs utilizando herramientas como Robot Framework y Appium (Android/iOS).

o Garantizar la cobertura de pruebas para servicios REST y GraphQL.

o Usar Python para desarrollar soluciones personalizadas y mejorar los frameworks de prueba existentes.

2. Pruebas de Bases de Datos:

o Realizar pruebas y validaciones en bases de datos relacionales (e.g., MySQL, PostgreSQL) y no relacionales (e.g., DynamoDB).

3. Gestión y Colaboración:

o Documentar procesos, resultados y estrategias de prueba en herramientas como Confluence.

o Trabajar en estrecha colaboración con desarrolladores y partes interesadas del negocio para garantizar que los requisitos de calidad se cumplan.

o Gestionar tareas, estimaciones de esfuerzo y prioridades en Jira.

4. Gestión de Infraestructura:

o Configurar pipelines de integración y despliegue continuo (CI/CD) utilizando GitHub Actions.

o Colaborar en entornos basados en la nube, como AWS, para la ejecución y el mantenimiento de pruebas automatizadas.

5. Capacitación y Transferencia de Conocimiento:

o Capacitar a los miembros del equipo en herramientas, procesos y mejores prácticas de automatización.

o Promover una cultura de mejora continua mediante la transferencia de conocimiento y la mentoría.

Requerimientos del cargo

• Experiencia mínima de 5 años en QAA.

• Experiencia sólida en automatización de pruebas utilizando Robot Framework y Appium (Android/iOS).

• Conocimiento avanzado en Python para desarrollo de scripts y frameworks.

• Experiencia en diseño y ejecución de pruebas de APIs (REST y GraphQL).

• Familiaridad con bases de datos relacionales y no relacionales (MySQL, PostgreSQL, DynamoDB).

• Conocimiento de herramientas de CI/CD como GitHub Actions.

• Experiencia trabajando con AWS.

• Manejo de herramientas de gestión como Jira y Confluence.

• Habilidades en documentación y colaboración con equipos técnicos y de negocio.

• Experiencia en entornos ágiles (Scrum)

• Capacidad para liderar iniciativas de automatización y fomentar un entorno de aprendizaje continuo.

• Excelentes habilidades de comunicación y proactividad

• Autonomía y capacidad para gestionar múltiples tareas simultáneamente.

Conditions

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1400 - 1700 Tiempo completo
Administrador de Bases de Datos
  • Zerviz Technologies
  • Santiago (In-office)
MySQL PostgreSQL NoSQL MongoDB

En ZerviZ, somos una empresa líder en innovación tecnológica y transformación digital desde 2017, con presencia en más de 16 países de América Latina. Nos especializamos en diseñar, implementar y optimizar proyectos digitales que mejoran la experiencia del cliente y optimizan procesos operativos, atención, servicio y gestión. Participarás en un equipo que impulsa más de 150 proyectos exitosos utilizando tecnologías de punta y metodologías ágiles, siempre buscando ir más allá de lo convencional para entregar soluciones flexibles y personalizadas a clientes en diversas industrias.

This job is original from Get on Board.

Funciones

  • Administrar y optimizar bases de datos relacionales (SQL Server, MySQL, PostgreSQL) y no relacionales (MongoDB).
  • Desarrollar y ejecutar scripts en SQL para automatizar tareas y mejorar el rendimiento.
  • Implementar y mantener políticas de seguridad de bases de datos (encriptación, control de acceso, auditoría).
  • Gestionar planes de backup, recuperación de datos y garantizar alta disponibilidad.
  • Monitorear el rendimiento de las bases de datos y diagnosticar posibles problemas.
  • Gestionar bases de datos en entornos virtualizados y plataformas en la nube (AWS, Azure, Google Cloud).

Requisitos

  • Experiencia en Sistemas de Gestión de Bases de Datos (SGBD): Se requiere experiencia en el manejo y administración de SGBD como Microsoft SQL Server, MySQL, PostgreSQL, MongoDB, entre otros, tanto en bases de datos relacionales como no relacionales.
  • Instalación, configuración y administración: Se debe contar con la capacidad para instalar, configurar y administrar diferentes tipos de SGBD, adaptándolos a las necesidades específicas de la organización.
  • Conocimientos en arquitectura de bases de datos: Se debe tener un conocimiento sólido en la arquitectura de bases de datos, comprendiendo su diseño, escalabilidad y optimización, asegurando un desempeño eficiente y seguro de las bases de datos.

Experiencias Deseables

  • Seguridad de la información: Conocimiento en herramientas y técnicas de seguridad, encriptación de datos y gestión de riesgos.
  • Certificaciones en Cloud: Certificaciones en plataformas de computación en la nube como AWS, Azure o Google Cloud.
  • Business Intelligence (BI): Conocimientos en herramientas de BI para el análisis y visualización de datos.
  • Automatización y scripting: Familiaridad con herramientas de automatización y scripting (PowerShell, Python, etc.) para optimizar procesos y tareas administrativas.

Conditions

Life insurance Zerviz Technologies pays or copays life insurance for employees.
Health coverage Zerviz Technologies pays or copays health insurance for employees.
Dental insurance Zerviz Technologies pays or copays dental insurance for employees.
Computer provided Zerviz Technologies provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1400 - 1900 Tiempo completo
Consultor Data Engineer
  • MAS Analytics
  • Santiago (Hybrid)
SQL Azure ETL Power BI

MAS Analytics es una consultora de datos e inteligencia artificail que nos dedicamos a desarrollar proyectos de Data Science (DS), Inteligencia Artificial, Cloud Architecture y Business Intelligence (BI). Hoy en día tenemos muchos proyectos con clientes de muchos rubros distintos y necesitamos ingeniero/as apasionados que estén buscando aprender y desafiarse trabajando en equipo.

Si estás buscando profundizar y trabajar aplicando tus conocimientos día a día, dentro de un equipo de mucho talento, y alto rendimiento, este puesto es lo que estás buscando.

© getonbrd.com. All rights reserved.

Funciones del cargo

Estamos buscando ingenier@s que sepan trabajar con datos, mover datos, interpretar datos y buscar datos. El cargo está orientado hacia la ingeniería de datos utilizando herramienta de ETL, Bases de datos y herramientas de reportería.

Si no manejas alguno de estos conceptos, no te preocupes, nos importa que tengas las bases para poder aprender y desafiarte día a día.

Tendrás que realizar las siguientes tareas (entre otras):

  1. Reuniones de negocio con clientes
  2. Creación de queries SQL
  3. Creación de pipelines ETL (on premise y cloud)
  4. Creación de visualizaciones en herramientas de BI

El éxito de tu trabajo se evaluará en el nivel de satisfacción de los modelos entregados a los clientes y en el cumplimiento de plazos.

Trabajarás dentro de los equipos de desarrollo de MAS Analytics teniendo reuniones de avance semanal con los clientes y otros miembros del equipo de MAS Analytics.

Requerimientos del cargo

Al ser consultoría en tecnología, necesitamos que tengas habilidades técnicas y habilidades blandas. Se privilegiarán perfiles de ingeniería civil TI o Computación.
En cuanto a las habilidades técnicas, se espera que puedas trabajar con las siguientes herramientas:
  1. Queries SQL (CRUD)
  2. Procesamiento: Dataflow (GCP, Azure), Lambda, Glue (AWS)
  3. Visualizaciones: Qlik, Tableau, Power BI
  4. Modelamiento de datos: modelos dimensionales OLAP
Con respecto a las habilidades blandas, necesitamos que estés preparada/o para:
  1. Llevar comunicación con los clientes
  2. Levantar requerimientos
  3. Trabajo en equipo
  4. Proactividad
  5. Pensamiento analítico

Opcionales

Conocimientos en herramientas Cloud (GCP, AWS, Azure)

Algunos beneficios

  1. Horario flexible
  2. Financiamiento de cursos y certificaciones 👨‍🎓👩‍🎓
  3. Ambiente laboral joven
  4. Viernes medio día
  5. Vacaciones extra 🌞🏝
  6. Celebraciones de cumpleaños 🎁🎊
  7. Actividades de empresa 🍻⚽
  8. Y muchos más que podrás conocer…

Wellness program MAS Analytics offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage MAS Analytics pays or copays health insurance for employees.
Dental insurance MAS Analytics pays or copays dental insurance for employees.
Computer provided MAS Analytics provides a computer for your work.
Education stipend MAS Analytics covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Vacation over legal MAS Analytics gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 2000 Tiempo completo
Business Intelligence Analyst
  • Compara
Python PostgreSQL Git Data Analysis

En Compara estamos buscando un Business Intelligence Analyst para unirse a nuestro equipo de Product Operations.
Tu misión será ayudarnos a comprender y optimizar el desempeño de nuestros productos basados en inteligencia artificial, convirtiendo datos en insights accionables que impulsen decisiones estratégicas y generen un impacto tangible en el negocio.

Apply without intermediaries from Get on Board.

🎯 ¿Qué harás?

  • Generar reportes, dashboards y métricas clave que nos ayuden a monitorear y potenciar nuestros productos de IA.
  • Analizar KPIs, detectar errores y generar insights para la mejora continua.
  • Colaborar con equipos de producto, tecnología y otras áreas para resolver desafíos estratégicos basados en datos.
  • Apoyar la configuración y el mantenimiento de nuestros productos de IA, incluyendo tareas relacionadas a prompt engineering.

🔎 ¿A quién buscamos?

  • Experiencia en roles de Business Intelligence.
  • Manejo de herramientas BI (idealmente Metabase).
  • Dominio de SQL (preferiblemente PostgreSQL).
  • Conocimientos prácticos de Python para análisis o automatización de datos.
  • Conocimiento básico de versionado con Git.
  • Pensamiento analítico, autonomía y habilidades colaborativas para definir métricas de producto y resolver problemas con actitud proactiva.

🌟 Será un plus si cuentas con:

  • Conocimiento en data engineering: ETL/ELT, pipelines y automatización de procesos.
  • Experiencia en prompt engineering o trabajo con modelos de lenguaje (LLMs).
  • Experiencia trabajando en contextos profesionales enfocados en soluciones y proyectos de inteligencia artificial.

Si te motiva trabajar con datos, inteligencia artificial y tecnología de punta en un equipo ágil, colaborativo y con impacto real en el negocio, ¡nos encantaría conocerte!🚀

Beneficios

En Compara, ofrecemos horarios flexibles y un entorno que favorece el crecimiento profesional. Valoramos la cultura de aprendizaje continuo y el desarrollo de cada miembro del equipo, por lo que si disfrutas optimizando infraestructuras de datos, impulsando mejoras estratégicas y explorando nuevas herramientas, ¡nos encantaría conocerte! 🚀

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Compara provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Compara gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
Gross salary $750 - 800 Tiempo completo
Técnico en Informática
  • Datasur
  • Santiago (Hybrid)
Python MySQL PostgreSQL SQL

En Datasur, somos líderes en inteligencia comercial basada en datos de comercio exterior. Nuestra plataforma procesa millones de registros de importaciones y exportaciones de más de 70 países, y estamos listos para escalar más alto.

Este debe asegurar la correcta gestión y actualización de las bases de datos de comercio internacional, manteniendo altos estándares de calidad en la información procesada. Contribuir a la generación de reportes y análisis estratégicos para clientes de diversos sectores.

© getonbrd.com.

Funciones del cargo

El tecnico en informatica sera responsable de la recolección, procesamiento y validación de información de importaciones y exportaciones en la plataforma de Datasur. Su rol es clave para garantizar la precisión y actualización de las bases de datos comerciales, apoyando el desarrollo de reportería y análisis de mercado para los clientes de la empresa.

  • Recopilar y procesar datos de importaciones y exportaciones desde diversas fuentes, incluyendo información aduanera y manifiestos de carga.
  • Validar, limpiar y estandarizar los datos para garantizar su confiabilidad y precisión.
  • Gestionar la carga y actualización de la información en la plataforma de Datasur.
  • Apoyar en la elaboración de reportería y análisis de mercado para clientes.
  • Identificar inconsistencias o errores en la información y coordinar su corrección.
  • Mantener comunicación con proveedores de datos y equipos internos para garantizar la fluidez en el proceso de actualización de información.
  • Cumplir con los protocolos de calidad y seguridad de datos definidos por la empresa.

Requerimientos del cargo

  • Título técnico en Informatica.
  • Manejo intermedio de Python
  • Conocimientos en SQL, PostgreSQL, MySQL/MariaDB
  • Al menos 1 año de experiencia en procesamiento de datos, análisis de información o manejo de bases de datos (No Excluyente)
  • Atención al detalle y precisión en el manejo de datos.
  • Capacidad analítica para identificar patrones y tendencias en la información.
  • Organización y gestión del tiempo para cumplir con cronogramas de actualización.
  • Habilidad para trabajar en equipo y comunicarse de manera efectiva.
  • Orientación a la mejora continua y resolución de problemas.

Condiciones

  • Seguro complementario de salud.
  • Posibilidad de crecimiento hacia roles de mayor especialización en análisis de datos y reportería.
  • Capacitación en herramientas de procesamiento y análisis de información.
  • Desarrollo profesional en un entorno dinámico de tecnología aplicada al comercio internacional.

Partially remote You can work from your home some days a week.
Health coverage Datasur pays or copays health insurance for employees.
Computer provided Datasur provides a computer for your work.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Analytics Engineer
  • Apply Digital Latam
JavaScript UI Design HTML5 CSS

Apply Digital Latam is part of Apply Digital, a global digital innovation and transformation company founded in 2016 in Vancouver, Canada. With over 750 team members across nine cities in North America, South America, the UK, and Europe, Apply Digital delivers impactful digital solutions for major international clients including Kraft Heinz, NFL, Moderna, Lululemon, Dropbox, Atlassian, A+E Networks, and The Very Group. Within Apply Digital, teams operate in 'pods' that combine senior leadership, subject matter experts, and cross-functional skills, facilitating agile delivery through scrum and sprint practices.. This role is based in Latin America.

Apply directly on Get on Board.

About the Role

As an Analytics Engineer at Apply Digital, you will be responsible for designing, implementing, and maintaining cutting-edge digital analytics solutions that serve our diverse client portfolio. Your core objectives will revolve around ensuring the accuracy, scalability, and reliability of data collection platforms and analytics instrumentation.

  • Develop and deploy robust analytics systems leveraging platforms such as Google Analytics (GA4), Adobe Analytics, and Customer Data Platforms (CDPs) like mParticle and Segment.
  • Collaborate closely with cross-functional teams including developers, product managers, data analysts, and client stakeholders to translate business needs into technical analytics solutions.
  • Maintain and enhance tag management strategies using tools like Google Tag Manager and Tealium, ensuring quality assurance of analytics tags across web and mobile properties.
  • Confirm thorough end-to-end tracking coverage, including attribution persistence through complex content management systems (CMS) and dynamic backend databases.
  • Implement, monitor, and refine data layers and tracking rules according to predefined instrumentation frameworks.
  • Conduct quality assurance (QA) and debugging of analytics implementations and collaborate on documentation such as data dictionaries and QA workflows.
  • Present findings and provide actionable technical recommendations to business stakeholders and senior leadership to support data-driven decision-making.
  • Stay current with industry trends and best practices, contributing to the strategic direction for Apply Digital’s Data & Analytics discipline.

Role Requirements and Qualifications

We are seeking a technically proficient Analytics Engineer with deep expertise in digital analytics platforms and tag management systems. Candidates must demonstrate strong problem-solving skills, attention to detail, and excellent communication abilities to work effectively across distributed teams in North America and Latin America.

  • 5+ years of professional experience implementing and managing advanced digital analytics solutions using platforms such as Google Analytics and Adobe Analytics.
  • Expert-level experience with Google Tag Manager, including advanced implementations, troubleshooting, and debugging.
  • Solid front-end development capabilities with strong understanding of JavaScript, HTML, CSS, and DOM manipulation, enabling precise analytics instrumentation.
  • Hands-on expertise with Customer Data Platforms (CDPs) such as mParticle or Segment to streamline and unify data collection and integration.
  • Proficient with SQL for querying large datasets, preferably with experience using BigQuery or similar cloud-based data warehouses.
  • Experience with data modeling, architecture principles, and designing scalable, privacy-compliant analytics infrastructures.
  • Knowledge of ETL/ELT processes and data warehousing concepts.
  • Familiarity with consent management tools and implementation of privacy regulations within analytics frameworks.
  • Demonstrated ability to manage multiple projects simultaneously in a dynamic, fast-paced environment.
  • Strong verbal and written communication skills in English, required to collaborate with remote and international teams.
  • Bachelor’s degree in Computer Science, Data Science, Analytics, Engineering, or a related field.
  • Experience working with BI and visualization tools such as Looker, Tableau, Power BI, or equivalents for effective data reporting.
  • Ability to translate complex data into actionable business insights, supporting strategic decision-making.
  • Experience with AI-augmented data practices, including usage of tools like Gemini AI, ChatGPT, or BigQuery’s AI SQL Assist to enhance data exploration and insight acceleration.

Soft skills essential for success in this role include a proactive mindset, collaboration, adaptability, and a strong commitment to quality and continuous improvement.

Preferred Skills and Experience

While not mandatory, the ideal candidate may also possess:

  • Familiarity with additional tag management platforms such as Tealium.
  • Experience working within Agile pod structures and knowledge of scrum methodologies.
  • Prior engagement within global, cross-cultural remote teams.
  • Advanced knowledge of data privacy laws and compliance standards such as GDPR and CCPA.
  • Experience in mentoring and guiding junior analytics engineers or analysts.
  • Involvement in open-source analytics tools or community initiatives.

Why Join Apply Digital?

  • Flexible work arrangements to ensure you work where you are most productive—remote, hybrid, or in-office.
  • Competitive benefits package tailored to your needs including extended health and dental plans.
  • Generous paid time off policy promoting a strong work-life balance.
  • Opportunities for continuous learning and professional growth with dedicated training budgets, certifications, workshops, and mentorship programs.
  • Inclusive and safe workplace where diversity is celebrated and all team members feel welcomed and respected.
  • Engaging company culture with regular events like karaoke, escape rooms, and axe throwing to foster team bonding.
  • A growing company with clear career progression paths and promotion from within.

POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2300 Tiempo completo
Data Engineer
  • Genesys Tecnologías de Inform. SpA
  • Santiago (Hybrid)
Java Python Git SQL
Genesys Tecnologías de Información SpA es una empresa consolidada en Latinoamérica con más de 30 años de experiencia en el mercado, especializada en soporte y mantenimiento de aplicaciones, RPA, inteligencia artificial, QA Automation, staff augmentation, cloud y más. Acompañamos a las empresas en su camino de transformación digital mediante tecnologías de última generación como Cloud, Data Analytics, Artificial Intelligence y Process Automation. Nuestro equipo multidisciplinario colabora estrechamente con la matriz en Santiago y otras operaciones para brindar soluciones tecnológicas que elevan el estándar tecnológico de las organizaciones.

Applications: getonbrd.com.

Responsabilidades

  • Diseñar y desarrollar canalizaciones de datos (ETL/ELT) robustas y eficientes.
  • Colaborar con equipos de ingeniería para asegurar la integración y calidad de los datos.
  • Implementar y gestionar bases de datos y data warehouses escalables.
  • Optimizar el rendimiento de las bases de datos y sistemas de almacenamiento de datos.
  • Garantizar la calidad, integridad y seguridad de los datos dentro de los sistemas.
  • Automatizar procesos de ingestión y transformación de datos para eficiencia operativa.
  • Monitorizar y solucionar problemas relacionados con los sistemas de datos.
  • Documentar procesos, arquitecturas, y mejores prácticas relacionadas con el manejo de datos para facilitar la continuidad y mejora.

Descripción

Buscamos un Data Engineer talentoso y motivado para integrarse a nuestro equipo de datos. El candidato ideal tendrá experiencia demostrable en roles similares, con habilidades para diseñar, construir y mantener sistemas de datos escalables que faciliten el análisis y la toma de decisiones dentro de la organización.
Requisitos imprescindibles incluyen una licenciatura en Ciencias de la Computación, Ingeniería Informática, Matemáticas o un campo relacionado. Debe poseer conocimientos profundos en SQL y experiencia con bases de datos relacionales y no relacionales, además de manejar grandes volúmenes de datos y trabajar con data lakes.
Es fundamental la experiencia con herramientas de procesamiento de datos como Apache Spark y lenguajes de programación Python. También exigimos conocimiento y experiencia con Google Cloud Platform (Composer, Cloud Functions, BigQuery, Dataproc, etc.), uso de Terraform y git para la gestión de infraestructura y código.
Se valoran igualmente las habilidades analíticas, la capacidad para resolver problemas complejos, excelentes habilidades de comunicación y la capacidad de trabajar colaborativamente en equipo. Además, el candidato debe poseer un nivel de inglés intermedio (B1+) para poder participar activamente en reuniones sin dificultades.

Deseable

  • Conocimientos en el lenguaje de programación Java.
  • Certificaciones relevantes en tecnologías de datos y cloud.
  • Experiencia trabajando en equipos ágiles.

Beneficios

Formarás parte de una empresa consolidada en Latinoamérica con más de tres décadas de experiencia, que valora el talento y fomenta la innovación.
Contamos con un equipo multidisciplinario y una comunicación diaria con nuestra matriz en Santiago y otras operaciones, lo que facilita la colaboración continua y el apoyo técnico.
¡Esperamos que te unas a nuestro equipo para crecer juntos! 😊

Computer provided Genesys Tecnologías de Inform. SpA provides a computer for your work.
Shopping discounts Genesys Tecnologías de Inform. SpA provides some discounts or deals in certain stores.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Analista de Producto, Analítica de Usuarios e Insights
  • BNamericas
  • Santiago (Hybrid)
Python Analytics Agile Data Analysis

BNamericas es la plataforma de inteligencia de negocios líder en América Latina, con 29 años de trayectoria aportando información actualizada y de alto valor de sectores estratégicos de Infraestructura, Minería, Energía Eléctrica, Petróleo y Gas, TIC y Servicios Financieros. Nuestra plataforma ofrece noticias, actualización de proyectos, personas y compañías, facilitando que nuestros clientes tomen decisiones informadas y acertadas.
¿Eres una persona analítica, curiosa y detallista? ¿Te apasiona entender cómo los usuarios interactúan con productos digitales para transformar datos en decisiones estratégicas? Esta oportunidad laboral puede ser para ti.
Hoy buscamos a un/a analista de producto orientada/o a datos, que jugará un rol clave en el análisis del comportamiento de usuarios, el monitoreo del desempeño de la plataforma y la generación de insights estratégicos
que impulsen la evolución de nuestro producto digital.

Send CV through Get on Board.

Responsabilidades Clave

Análisis de comportamiento y uso

  • Monitorear y analizar patrones de uso, puntos de fricción y engagement.
  • Crear dashboards e informes utilizando Amplitude.
  • Compartir insights accionables con los equipos de producto, marketing y liderazgo.
  • Definir y mantener KPIs clave de uso, retención y satisfacción.

Implementación y monitoreo

  • Colaborar con el equipo de desarrollo para asegurar una correcta implementación del tracking.
  • Auditar planes de tracking y asegurar la calidad de los datos.

Soporte al desarrollo de producto

  • Apoyar la validación de hipótesis con datos reales.
  • Participar en discovery entregando insights que guíen la priorización de funcionalidades.

Medición de impacto

  • Evaluar el éxito de lanzamientos mediante KPIs y objetivos de producto.
  • Crear frameworks de medición de product-market fit y satisfacción de usuarios.

Contribución estratégica

  • Identificar oportunidades de mejoras, nuevas funcionalidades y productos.
  • Comunicar hallazgos de forma clara a equipos multidisciplinarios.

Requerimientos del cargo

  • +2 años de experiencia en roles similares (analítica de producto, inteligencia de negocios, data-driven roles).
  • Sólido manejo de herramientas de análisis, idealmente Amplitude.
  • Conocimiento de metodologías ágiles y procesos de desarrollo de producto.
  • Capacidad analítica, pensamiento crítico y excelentes habilidades de comunicación.
  • Conocimiento sobre tracking, eventos y estructuras de datos.
  • Dominio de inglés (oral y escrito).
  • Se valorará experiencia con Python, Pandas, Jupyter y SQL.

Condiciones

En BNamericas fomentamos un ambiente laboral inclusivo, diverso, creativo y altamente colaborativo.

Ofrecemos múltiples beneficios, tales como bono por referidos para la incorporación de nuevos talentos recomendados, salidas anticipadas en fechas especiales como fiestas patrias y Navidad, oportunidades de formación continua y desarrollo profesional, .

Te invitamos a ser parte de una empresa con propósito que promueve el desarrollo sostenible en la región.

Modalidad de trabajo con flexibilidad laboral: híbrido para residentes en Santiago y 100% remoto para el resto de Latinoamérica.

Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Scientist
  • Haystack News
  • Lima (In-office)
Python Data Analysis SQL NoSQL

Haystack News is the leading local & world news service on Connected TVs reaching millions of users! This is a unique opportunity to work at Haystack News, one of the fastest-growing TV startups in the world. We are already preloaded on 37% of all TVs shipped in the US!

Be part of a Silicon Valley startup and work directly with the founding team. Jumpstart your career by working with Stanford & Carnegie Mellon alumni and faculty who have already been part of other successful startups in Silicon Valley.

You should join us if you're hungry to learn how Silicon Valley startups thrive, you like to ship quickly and often, love to solve challenging problems, and like working in small teams.

See Haystack feature at Google IO: https://www.youtube.com/watch?v=-YawUi6qPck

Apply exclusively at getonbrd.com.

Job functions

We are looking for an outstanding Data Scientist to join Haystack and help improve the experience of millions of users that rely on Haystack to get the news every day.

Within the team you’ll find many opportunities to work on various aspects of Data Science, Machine Learning, and Data Engineering. The job offers the opportunity of generating a major impact on the product while working with an awesome and talented team, using the latest technologies.

You will:

  • Analyze large data sets to get insights using statistical analysis tools and techniques
  • Build, evaluate and deploy machine learning models
  • Maintain ongoing reliability, performance, and support of the data infrastructure, providing solutions based on application needs and anticipated growth.
  • Work with tools to configure, monitor and orchestrate data infrastructure and pipelines.
  • Run and monitor AB Tests
  • Build and manage APIs

Qualifications and requirements

  • Bachelor's degree in Computer Science, Statistics, Math or related field.
  • 3+ years experience writing software in a professional setting
  • Knowledge of AWS and Python
  • Strong Math/Stats background with statistical analysis experience on big data sets
  • Experience with SQL and NoSQL (e.g. MongoDb or DynamoDB)
  • Big Plus: Experience with data warehouses (e.g. Snowflake, Big Query, Redshift)
  • Exposure to ML/AI libraries such as sklearn, LightGBM and, XGBoost.
  • Travel Visa to the US (desired)

Conditions

Uber rides to come to the office!
Travel to team's offsite events
Learn about multiple technologies

Accessible An infrastructure adequate for people with special mobility needs.
Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Meals provided Haystack News provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Bicycle parking You can park your bicycle for free inside the premises.
Company retreats Team-building activities outside the premises.
Computer repairs Haystack News covers some computer repair expenses.
Commuting stipend Haystack News offers a stipend to cover some commuting costs.
Computer provided Haystack News provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Vacation over legal Haystack News gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Especialista BI
  • SONDA
  • Santiago (Hybrid)
Data Analysis SQL Business Intelligence Big Data

En SONDA, la Innovación es parte de nuestro ADN.
Miramos hacia el futuro focalizándonos en las últimas tendencias y noticias sobre innovación, tecnologías con impacto y sostenibilidad.
Conocemos los desafíos y demandas de la región y contamos con un amplio portafolio de soluciones de negocio especializadas en las principales industrias del mercado.

Vive la experiencia SONDA en nuestra unidad de negocio Digital Application Services.

Opportunity published on Get on Board.

· Desarrollar y brindar nuevas soluciones de inteligencia empresarial a través del análisis y medición de la calidad de la información utilizada por la empresa para la toma de decisiones, con el fin de maximizar su utilidad.

· Ser responsable de apoyar la recolección, verificación de calidad, compilación, análisis y promoción de interpretaciones correctas de datos.

· Apoyar en el desarrollo de soluciones mediante el uso de plataformas de Business Intelligence (self-service BI), preparación de cuadros de mando e informes para apoyo a la gestión, estructuración, análisis, carga, inclusión, exclusión, alteración y consulta de datos relacionales, multidimensionales y geográficos.

Requerimientos del cargo

· Título profesional o licenciatura es: Ingeniería Civil o Ejecución en Computación e Informática o carrera técnica o profesional afín al rol, con más de 3 años de experiencia en cargos similares.

· Más de 3 años de experiencia en el análisis, diseño e implantación de sistemas de soporte de decisiones (dashboard, scorecard, etc.)

· Más de 3 años de experiencia en el desarrollo de reportes estadísticos.

· Más de 3 años de experiencia en el análisis y gestión de requerimientos para resolver problemas en el ámbito del BI.

· Más de 3 años de experiencia en el desarrollo de proyectos de integración de datos para Data Warehouse o Data Lake.

· Más de 3 años de experiencia en el desarrollo de procesamientos sobre datos (procesamiento SQL).

Idealmente se espera que puedas tener alguna certificación o curso en alguno de estos tópicos:

· Magíster, Diplomado, Postgrado o curso de 40 horas o más atingente a Inteligencia de Negocio o Analítica de Datos.

· Certificaciones/Cursos de desarrollo de reportes y uso de herramientas de visualización.

· Certificaciones/Cursos de bases de datos o SQL.

· Certificaciones/Cursos en herramientas de Integración de datos (ETL).

Conditions

Wellness program SONDA offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance SONDA pays or copays life insurance for employees.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage SONDA pays or copays health insurance for employees.
Retirement plan SONDA pays or matches payment for plans such as 401(k) and others.
Commuting stipend SONDA offers a stipend to cover some commuting costs.
Computer provided SONDA provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 3000 Tiempo completo
Data Engineer (AWS Data Lakes)
  • Niuro
Python SQL Virtualization Big Data
Niuro is a leading global technology talent provider specializing in connecting elite tech teams with top-tier U.S.-based companies. Our mission is to simplify global talent acquisition and maximize project quality through innovative and efficient solutions. We empower autonomous, high-performance teams by handling all administrative aspects such as hiring, payments, and training, enabling our professionals to focus fully on delivering exceptional results. Within this context, we collaborate on impactful industrial data projects with a strong emphasis on innovation and technical excellence. Our teams contribute to challenging projects that leverage cutting-edge data engineering techniques, particularly in cloud-based environments, ensuring both professional growth and meaningful contributions to the client’s success.

Apply to this job from Get on Board.

Role and Responsibilities

As a Data Engineer specializing in AWS Data Lakes, you will play a pivotal role in architecting, building, and managing scalable and robust data lake solutions on the AWS cloud platform. Your primary responsibilities will include designing and implementing data ingestion pipelines, optimizing data transformation processes, and ensuring data quality and integrity to power analytics and business intelligence initiatives.
Key tasks include:
  • Designing and maintaining data lakes using AWS services such as S3, Glue, Athena, Lambda, and Step Functions.
  • Developing and optimizing data processing workflows with PySpark and Python to transform raw data into actionable datasets.
  • Writing efficient SQL queries for data extraction and manipulation.
  • Collaborating closely with U.S.-based cross-functional teams to understand requirements and deliver solutions that align with business objectives.
  • Monitoring, troubleshooting, and improving the performance and reliability of data platforms.
You will be part of a remote, agile, and collaborative environment where continuous improvement and innovation are encouraged.

Skills and Experience Required

We are looking for a motivated Data Engineer with solid experience building and managing data lakes on AWS. The ideal candidate will demonstrate proficiency with core AWS services including S3, Glue, Athena, Lambda, and Step Functions, and have strong programming skills in Python and SQL for processing and transforming data.
Essential qualifications include:
  • Hands-on experience implementing scalable data lake architectures on AWS.
  • Competence with PySpark for distributed data processing.
  • Strong Python programming skills with the ability to create clean, maintainable code.
  • Solid SQL skills for complex queries and data manipulation.
  • Effective communication skills in conversational English to collaborate with teams and stakeholders based in the United States.
Soft skills necessary for success include a proactive attitude, problem-solving mindset, strong attention to detail, and the ability to work independently within a remote work context.

Additional Skills and Technologies (Nice to Have)

While not mandatory, the following skills will enhance your fit for this role and our projects:
  • Experience with backend frameworks and libraries such as FastAPI, Pydantic, and Gunicorn.
  • Familiarity with AWS SDKs such as Boto3 for AWS service integration.
  • Knowledge of web technologies including Aestiva HTML/OS.
  • Containerization and DevOps skills, particularly using Docker.
  • Experience with continuous integration and deployment tools like TeamCity.
  • Version control expertise using GitHub or Gitea.

What We Offer

Joining Niuro means becoming part of an innovative, supportive, and high-performing global community focused on technological excellence. We offer a fully remote position allowing you to work from anywhere in the LATAM region, providing flexibility and work-life balance.
We are committed to your continuous professional growth through ongoing technical and soft skills training, leadership development programs, and opportunities to work on impactful and technically challenging industrial data projects.
Niuro also offers a strong administrative support system, so you can focus entirely on your work without distractions related to hiring, payments, or HR processes.
We maintain a long-term vision for our collaborations, with the possibility of transitioning to stable full-time employment after the initial contract, reflecting our dedication to building lasting relationships with our team members.

Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3000 - 3500 Tiempo completo
Data Engineer Azure Salesforce
  • BC Tecnología
Python Git REST API SQL
En BC Tecnología somos una consultora líder en servicios de TI que brinda soluciones integrales en infraestructura, desarrollo de software y outsourcing para clientes de sectores como servicios financieros, seguros, retail y gobierno. Actualmente, estamos desarrollando un proyecto innovador enfocado en la creación y optimización de pipelines de datos en la nube, utilizando tecnologías de Azure y Salesforce. Buscamos integrar grandes volúmenes de datos para transformar la información en activos estratégicos a través de análisis avanzados y modelos de datos robustos, apoyando a áreas de BI y Data Science para mejorar la toma de decisiones del negocio.

Job opportunity published on getonbrd.com.

Responsabilidades principales

  • Diseñar, desarrollar y mantener pipelines de datos escalables y eficientes en Azure para la integración desde Salesforce, utilizando APIs REST y SOAP.
  • Gestionar la ingesta y almacenamiento de datos en Azure Data Lake Gen2, Azure SQL y Synapse Analytics para facilitar análisis avanzados y reporting.
  • Automatizar flujos de trabajo mediante Azure Data Factory (ADF), Logic Apps y Databricks asegurando la calidad y consistencia de los datos.
  • Implementar controles rigurosos de calidad, limpieza y transformación de datos según políticas corporativas de gobernanza y seguridad.
  • Colaborar de manera interdisciplinaria con equipos de Business Intelligence, Data Science y áreas de negocio para alinear los desarrollos con requerimientos funcionales.
  • Documentar detalladamente los procesos ETL/ELT y mantener actualizado el inventario de flujos y pipelines para facilitar la gestión y mantenimiento a futuro.

Requisitos y perfil del candidato

Buscamos un Data Engineer con al menos 3 años de experiencia en entornos cloud, preferentemente trabajando con Azure y Salesforce. El candidato ideal debe poseer experiencia práctica integrando datos desde Salesforce utilizando APIs REST, Bulk API y herramientas de Azure Data Factory.
Se requiere un conocimiento profundo en tecnologías clave de Azure como Azure Data Factory, Data Lake Gen2, Azure SQL y Synapse, así como experiencia en modelado de datos con esquemas en Estrella y Copo de Nieve.
Habilidades técnicas complementarias incluyen Python, PySpark, T-SQL y manejo avanzado de JSON/XML. Además, el candidato debe estar familiarizado con el uso de sistemas de control de versiones como Git y tener capacidad para trabajar en equipos multidisciplinarios bajo metodologías ágiles.
Valoramos competencias blandas como la proactividad, enfoque al detalle, capacidad analítica, buenas habilidades de comunicación y orientación al trabajo colaborativo.

Habilidades y certificaciones deseables

Es altamente valorado contar con certificaciones oficiales como Microsoft Azure DP-203, Power BI PL-300 y Scrum Master que respalden el conocimiento técnico y metodológico.
Contar con un nivel de inglés intermedio, tanto oral como escrito, es deseable para la comunicación con equipos globales y documentación técnica.
Experiencia previa en proyectos de integración de datos a gran escala y familiaridad con tecnologías complementarias como Logic Apps y Databricks serán consideradas un plus.

¿Qué ofrecemos?

En BC Tecnología promovemos un entorno colaborativo y basado en el aprendizaje continuo, donde valoramos el compromiso y el crecimiento profesional.
Nuestra modalidad de trabajo es 100% remoto, abierta a profesionales ubicados en toda Latinoamérica, lo que permite flexibilidad y balance personal.
Formarás parte de proyectos innovadores con clientes de alto nivel en diferentes industrias, en un clima laboral inclusivo, respetuoso y orientado al desarrollo tanto técnico como profesional.

Fully remote You can work from anywhere in the world.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2500 - 3500 Tiempo completo
Data Engineer Azure (Salesforce)
  • BC Tecnología
Python Git JSON TSQL
En BC Tecnología, una consultora de TI con 6 años de experiencia, nos especializamos en proveer soluciones tecnológicas a clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestro enfoque se centra en la formación de equipos ágiles para áreas de infraestructura, desarrollo de software y unidades de negocio, gestionando proyectos, outsourcing y soporte IT. Actualmente, buscamos incorporar un Data Engineer con experiencia en Azure y Salesforce para un proyecto 100% remoto dirigido a candidatos de LATAM, buscando potenciar nuestro equipo con talento especializado en ingeniería de datos en la nube.

Apply to this job opportunity at getonbrd.com.

Responsabilidades principales

  • Diseñar, desarrollar y mantener pipelines de datos eficientes y escalables en Azure, extrayendo información desde Salesforce utilizando API REST y SOAP.
  • Integrar y consolidar datos en Azure Data Lake Gen2, Azure SQL Database y Synapse Analytics para asegurar la disponibilidad y fiabilidad de la información.
  • Automatizar flujos ETL utilizando herramientas como Azure Data Factory (ADF), Logic Apps y Databricks para optimizar procesos y minimizar errores manuales.
  • Implementar controles estrictos de calidad y limpieza de datos para garantizar la integridad y precisión en todos los conjuntos de datos procesados.
  • Colaborar estrechamente con los equipos de Business Intelligence, Data Science y áreas de negocio para entender requerimientos y entregar soluciones alineadas a objetivos estratégicos.
  • Documentar detalladamente los procesos ETL y asegurar el cumplimiento de políticas de gobernanza de datos, seguridad y mejores prácticas en la nube.

Requisitos y habilidades necesarias

Buscamos un Data Engineer con al menos 3 años de experiencia comprobable trabajando con tecnologías cloud, especialmente en plataformas Microsoft Azure orientadas a la integración de datos desde Salesforce.
Es fundamental que el candidato tenga experiencia real y práctica en la integración de datos mediante APIs de Salesforce (REST, Bulk API) y el uso de Azure Data Factory para la orquestación de pipelines.
Además, se requieren conocimientos sólidos en:
  • Azure Data Factory para construir, automatizar y monitorear pipelines de datos.
  • Azure Data Lake Gen2 para el almacenamiento escalable y seguro de grandes volúmenes de datos.
  • Azure SQL Database y Synapse Analytics para procesamiento y análisis avanzado.
  • Power BI para visualización e interpretación de datos.
  • Lenguajes de programación y scripting como Python, PySpark y T-SQL para manipulación y transformación de datos.
  • Control de versiones con Git.
  • Modelado de datos usando esquemas estrella y copo de nieve, optimizando bases de datos y consultas.
  • Manejo avanzado de formatos de datos complejos como JSON y XML.
El candidato debe ser capaz de trabajar de forma autónoma, tener habilidades comunicativas para colaborar con múltiples equipos y orientarse a resultados con atención al detalle.

Habilidades y certificaciones deseables

  • Certificación Microsoft Azure Data Engineer (DP-203), demostrando dominio avanzado en servicios de datos de Azure.
  • Certificación Power BI Data Analyst (PL-300) para mejorar la capacidad de visualización y análisis de datos.
  • Certificación Scrum Master, lo que contribuiría a una integración más efectiva dentro de equipos ágiles y proyectos iterativos.
  • Nivel de inglés intermedio, tanto oral como escrito, para interactuar en equipos multiculturales y documentación técnica en inglés.

Beneficios y cultura de trabajo

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
Ofrecemos modalidad 100% remota con apertura a talentos de toda Latinoamérica, garantizando flexibilidad y autonomía en la gestión del tiempo.
Participarás en proyectos innovadores y desafiantes con clientes relevantes en sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional continuo.

Fully remote You can work from anywhere in the world.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 2500 Tiempo completo
Consultor Data Analyst Semisenior/Senior
  • Lisit
  • Santiago (Hybrid)
Data Analysis SQL Artificial Intelligence Data Visualization

En Lisit, somos una empresa dedicada a crear, desarrollar e implementar soluciones de software que proporcionan herramientas de automatización y optimización. Nuestro enfoque se centra en acompañar a nuestros clientes a lo largo de sus procesos de transformación digital, combinando innovación, eficiencia operativa y consultoría especializada. Formarías parte de un equipo apasionado por enfrentar desafíos técnicos complejos mediante el uso de tecnologías avanzadas para entregar valor tangible y sostenible a nuestros clientes.

Job source: getonbrd.com.

Responsabilidades del puesto

Como Consultor Data Analyst SemiSenior o Senior, serás responsable de analizar, modelar y transformar datos para extraer insights valiosos que impulsen la toma de decisiones estratégicas. Trabajarás en colaboración con equipos multidisciplinarios para diseñar soluciones basadas en datos que mejoren los procesos internos y la experiencia del cliente.

  • Realizar modelados de datos robustos y eficientes.
  • Desarrollar consultas avanzadas y optimizar bases de datos utilizando SQL.
  • Interpretar y tratar grandes volúmenes de datos para proporcionar análisis claros y accionables.
  • Preparar reportes y visualizaciones que faciliten la comprensión del negocio.
  • Colaborar con áreas técnicas y de negocio para entender requerimientos y traducirlos en soluciones analíticas.
  • Garantizar la calidad y consistencia de los datos procesados.

Requisitos del candidato

Buscamos un profesional con más de 3 años de experiencia en modelado y tratamiento de datos, que posea un conocimiento avanzado en lenguaje SQL y manejo de bases de datos. Es fundamental contar con certificación PL-300, la cual es excluyente para esta posición, dado que asegura competencia en análisis y visualización de datos con tecnologías Microsoft. Además, es deseable tener la certificación DP-600, que indica experiencia en desarrollo de soluciones con inteligencia artificial y bases de datos en Microsoft Azure.

Además de las habilidades técnicas, valoramos cualidades como pensamiento analítico, capacidad para resolver problemas complejos, atención al detalle, y facilidad para comunicar hallazgos a distintos niveles dentro de la organización.

Habilidades y certificaciones valoradas

La certificación DP-600 será altamente valorada, ya que implica conocimientos avanzados en soluciones basadas en inteligencia artificial y bases de datos dentro del ecosistema Microsoft Azure. También se considera un plus la experiencia previa en proyectos de transformación digital, manejo de herramientas de visualización complementarias, y capacidades de trabajo en equipo en entornos ágiles.

Beneficios de trabajar con nosotros

En Lisit promovemos un ambiente laboral dinámico, basado en la innovación constante y el crecimiento profesional. Formarás parte de un equipo que acompaña a clientes en procesos de transformación digital, aplicando las mejores prácticas y tecnologías actuales.

POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 2500 Tiempo completo
Especialista BI – Ssas + Power BI ( Latam)
  • I2B Technologies
Business Intelligence ETL Power BI Data Visualization

I2B Technologies es una empresa reconocida por su acompañamiento permanente a clientes para lograr un salto cualitativo en sus negocios, enfocándose en proyectos de alto impacto que mejoran la calidad de vida de los usuarios. La empresa posee una trayectoria consolidada en proyectos de transformación digital exitosos, basados en consultoría, desarrollo de software, evolución y data science. Como parte del área de Inteligencia de Negocios, participarás en proyectos estratégicos que ofrecen soluciones analíticas de alto valor para mejorar la experiencia y resultados de las empresas con sus usuarios.

This job offer is on Get on Board.

Responsabilidades del rol

  • Modelado de cubos en SQL Server Analysis Services (SSAS), tanto tabulares como multidimensionales.
  • Desarrollo de dashboards ejecutivos en Power BI, incluyendo visualizaciones complejas y avanzadas.
  • Gobierno y administración de reportes, incluyendo performance y seguridad.
  • Apoyo en la arquitectura de soluciones analíticas y procesos relacionados.

Requisitos técnicos

  • Experiencia sólida en diseño y modelado de cubos en SSAS.
  • Conocimiento avanzado en Power BI, incluyendo DAX avanzado, Power Query y creación de visualizaciones complejas.
  • Conocimientos en Data Warehouse y flujos ETL para manejo integrado de datos.
  • Buen manejo y comprensión de KPIs corporativos para la elaboración de reportes relevantes.
  • Se valoran habilidades analíticas, orientación al detalle y capacidad de trabajo en equipo remoto.

Competencias deseables

  • Experiencia previa en proyectos remotos para clientes de Latinoamérica.
  • Conocimientos en otras herramientas de BI o plataformas de datos.
  • Capacidad proactiva para proponer mejoras en procesos analíticos.
  • Habilidades de comunicación efectiva para trabajo colaborativo.

Beneficios

En I2B Technologies promovemos un ambiente laboral cercano, eficiente y colaborativo, libre de burocracia y código de vestimenta, creando un espacio cómodo y flexible para todos nuestros profesionales. Ofrecemos beneficios exclusivos incluso para colaboradores freelance, incluyendo vacaciones pagadas, medios días administrativos durante el año, medio día libre en el cumpleaños propio y de hijos, bonos y días libres por matrimonio o nacimiento. Además, brindamos financiamiento para actividades físicas con FitnessDoer, acceso a una biblioteca digital y apoyo económico para la adquisición de laptops, cursos y certificaciones para el desarrollo profesional. Te invitamos a ser parte de una empresa apasionada por la transformación digital y en constante crecimiento.

Library Access to a library of physical books.
Wellness program I2B Technologies offers or subsidies mental and/or physical health activities.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Digital library Access to digital books or subscriptions.
Computer provided I2B Technologies provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero de Datos AWS
  • BC Tecnología
Java Python SQL Scala
En BC Tecnología somos una consultora de Servicios IT con un equipo experto en diversas áreas tecnológicas. Desde hace 6 años diseñamos soluciones adaptadas a las necesidades de nuestros clientes, que operan en sectores como servicios financieros, seguros, retail y gobierno. Nuestro enfoque es combinar metodologías ágiles y el desarrollo de productos para crear soluciones efectivas y equipos de trabajo colaborativos. Actualmente buscamos un Ingeniero de Datos AWS para un proyecto desafiante que impacta en el área de gestión de datos y exploración de la nube.

Apply directly from Get on Board.

Responsabilidades principales

  • Diseñar e implementar pipelines de ingesta de datos hacia el Data Lake en AWS.
  • Gestionar y optimizar el almacenamiento y procesamiento de datos utilizando servicios como S3, Redshift y Glue.
  • Automatizar procesos mediante Lambda, Step Functions y DataSync para mejorar la eficiencia en flujos de datos.
  • Crear reportes y análisis utilizando Athena y QuickSight para apoyar la toma de decisiones.
  • Mantener la seguridad y controles de acceso con IAM.
  • Administrar bases de datos NoSQL con DynamoDB y manejar flujos de datos en tiempo real mediante Kafka.
  • Utilizar control de versiones con CodeCommit o GitLab para asegurar la calidad y trazabilidad del código.
  • Participar activamente en equipos ágiles, colaborando con equipos multidisciplinarios para cumplir objetivos del proyecto.

Requisitos y perfil del candidato

Buscamos un Ingeniero de Datos con experiencia comprobada en la construcción de soluciones robustas en AWS para la gestión de grandes volúmenes de datos. Es esencial que domine el diseño y la implementación de pipelines hacia Data Lakes y tenga un sólido conocimiento en bases de datos relacionales y no relacionales, SQL y Python.
Deberá contar con experiencia práctica en servicios AWS clave para el manejo y procesamiento de datos, incluyendo S3, Athena, Redshift, Lambda, Glue, QuickSight, IAM, Step Functions, DataSync y DynamoDB.
Se valorará experiencia previa trabajando con Kafka para la transmisión de datos en tiempo real. Además, el manejo de herramientas de control de versiones como CodeCommit o GitLab es fundamental para asegurar la correcta gestión del código y la colaboración en equipo.
El candidato debe contar con habilidades para trabajar en equipos bajo metodologías ágiles, mostrando comunicación efectiva, capacidad de adaptación, proactividad y compromiso con la calidad del trabajo entregado.

Habilidades y experiencias deseables

Sería ideal que el candidato tenga experiencia adicional en arquitecturas orientadas a microservicios y conocimientos en machine learning aplicado a big data. Asimismo, habilidades en optimización de costos en la nube y la automatización avanzada para la gestión de infraestructuras aportarán un valor agregado al equipo.
Conocer herramientas complementarias como Docker, Kubernetes y otras tecnologías de streaming de datos enriquecerá el perfil.

Beneficios y cultura laboral

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en las oficinas de Santiago Centro, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

POSTULAR VÍA WEB Ver trabajo
Gross salary $2400 - 2700 Tiempo completo
Semi Senior Data Engineer
  • 23people
Java Python SQL ETL
Equifax Chile es la filial local de Equifax Inc., una compañía global de datos, analítica y tecnología con sede en Atlanta, EE. UU., y presencia en 24 países. Desde 1979, Equifax Chile ha sido un referente en soluciones de información comercial, ofreciendo servicios como evaluación de riesgo crediticio, informes de crédito, monitoreo de identidad y análisis de datos para más de 14,000 empresas en sectores como el financiero, comercial, retail y servicios. ​Nuestra visión es empoderar a personas y organizaciones para tomar decisiones informadas, transformando el uso de la información con transparencia y seguridad. Uno de nuestros principales desafíos es liderar la transformación digital a través de nuestro Centro de Desarrollo en Santiago (SDC), que concentra el 60% de los desarrollos digitales de Equifax a nivel mundial.
Fomentamos una cultura de innovación, colaboración y excelencia técnica, donde el talento local impulsa soluciones tecnológicas de alto impacto.

This posting is original from the Get on Board platform.

Funciones del cargo

¿Qué harás en tu día a día?
  • Se realizará automatización para transformación y limpieza de datos proveniente de varias fuentes (excel, xml, csv).
  • Los archivos deben ser cargados y revisados en GCP, trabajará con pipeline de datos que alimentan Bigdata a través de script.

Requerimientos del cargo

Skills
  • Python/Java
  • Usuario de bases de datos:
  • Experiencia en procesos de Extracción, Transformación y Carga de datos (ETL).
  • Conocimientos en SQL, procedimientos almacenados y triggers.
  • Experiencia en procesos de manejo de datos:
  • Procesamiento en lotes
  • Procesamientos distribuidos.
Contrato indefinido desde el inicio con 23people
Modalidad: Home Office. Debes buscar el computador en primera instancia
Experiencia: Desde 2 años en adelante
Horario: Lunes a Viernes de 9:00 a 18:00 hrs

Deseables

  • Diseño, creación y manejo de ETL:
    • On Prem: Pentaho, Control-M, Nifi
    • Cloud: Airflow, Cloud Composer, Glue, Lambda
  • Conocimientos en las tecnologías:
    • Spark
    • DataProc / DataFlow
  • Conocimientos básicos de estadísticas.
  • Conocimientos básicos de machine learning y deep learning.
  • Conocimiento sobre el manejo de datos:
    • Conocimiento sobre los conceptos de ambientes de datos.
    • Conocimiento sobre los conceptos de calidad de datos.
    • Conocimiento de modelado de datos.
    • Conocimiento de modelado de procesos y de flujos de datos.

Beneficios

Algunos de nuestros beneficios
  • Seguro complementario: Seguro de salud, vida y dental
  • Curso de inglés: En nuestro programa de formación en idioma inglés, ofrecemos dos modalidades para adaptarnos a tus necesidades y objetivos.
  • Reembolso de certificaciones internacionales: Apoyamos el crecimiento profesional, por lo que te reembolsamos el costo de un examen de certificación internacional que quieras realizar.
  • Bono de vacaciones: Por cada semana que te tomes de vacaciones te otorgamos una compensación.
  • Aguinaldos en fiestas patrias y Navidad: Queremos que en fechas tan especiales la pases bien junto a tu familia, por lo que te entregamos un bono en septiembre y diciembre
  • Día libre de cumpleaños: Puedes optar por tomar tu día libre, el día previo a tu cumpleaños, el mismo día de tu cumpleaños o el día posterior.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance Equifax pays or copays life insurance for employees.
Health coverage Equifax pays or copays health insurance for employees.
Dental insurance Equifax pays or copays dental insurance for employees.
Computer provided Equifax provides a computer for your work.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2200 Tiempo completo
Data Engineer
  • coderslab.io
  • Santiago (Hybrid)
Java Python SQL NoSQL

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Data Engineer Ssr para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Applications: getonbrd.com.

Job functions

Estamos en búsqueda de un/a Data Engineer con experiencia y proactividad para sumarse a nuestro equipo en modalidad híbrida desde Santiago de Chile. Buscamos una persona con conocimientos sólidos en procesos de datos, cloud computing (especialmente GCP), y procesamiento distribuido.

Responsabilidades Principales

  • Diseñar y construir pipelines de datos robustos para procesos de ingesta, transformación y carga (ETL/ELT).
  • Aplicar buenas prácticas en el manejo de datos: seguridad, gobernanza y cumplimiento.
  • Trabajar con sistemas de procesamiento distribuido para manejar grandes volúmenes de datos.
  • Colaborar con equipos interdisciplinarios para impulsar decisiones basadas en datos.
  • Implementar soluciones escalables y eficientes utilizando herramientas de Google Cloud Platform (GCP).

Qualifications and requirements

  • Experiencia en creación de pipelines de datos y procesos de ETL.
  • Conocimientos sólidos en buenas prácticas de manejo de datos (seguridad, gobernanza, escalabilidad).
  • Experiencia en procesamiento distribuido.
  • Dominio de Python (Java es deseable).
  • Conocimientos en bases de datos SQL y NoSQL, especialmente MongoDB y BigQuery.

Experiencia con herramientas de GCP

  • Pub/Sub
  • Dataflow
  • Dataproc
  • Dataprep
  • Cloud Functions
  • BigQuery
  • Composer
  • Cloud Storage

Desirable skills

Experiencia en arquitectura de datos o entornos DevOps aplicados a datos.

Familiaridad con prácticas de CI/CD en flujos de datos.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer
  • coderslab.io
  • Santiago (Hybrid)
Java Python Agile SQL

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un DATA ENGINEER para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

© Get on Board. All rights reserved.

Funciones del cargo

  • Diseñar, desarrollar y mantener procesos de ingesta, transformación y carga (ETL/ELT) de datos para asegurar la disponibilidad y calidad de la información.
  • Crear y administrar pipelines de datos eficientes y escalables que soporten el flujo continuo de datos desde múltiples fuentes hacia los sistemas de almacenamiento y análisis.
  • Implementar y promover buenas prácticas en el manejo de datos, incluyendo seguridad, gobernanza, control de acceso y cumplimiento de normativas.
  • Desarrollar soluciones de procesamiento distribuido para manejar grandes volúmenes de datos en entornos cloud.
  • Gestionar y optimizar los servicios de Google Cloud Platform (GCP) relacionados con la ingeniería de datos, como Pub/Sub, Dataflow, Dataproc, Dataprep, Cloud Functions, BigQuery, Composer y Cloud Storage.
  • Colaborar con equipos multidisciplinarios para entender requerimientos de datos y traducirlos en soluciones técnicas robustas.
  • Realizar monitoreo, mantenimiento y mejora continua de los pipelines y sistemas de datos para garantizar alta disponibilidad y rendimiento.
  • Documentar procesos, arquitecturas y estándares técnicos relacionados con la ingeniería de datos.

Requerimientos del cargo

  • Experiencia comprobable en diseño y desarrollo de procesos ETL/ELT y pipelines de datos.
  • Sólidos conocimientos en Google Cloud Platform (GCP), especialmente en los servicios:
    • Pub/Sub
    • Dataflow
    • Dataproc
    • Dataprep
    • Cloud Functions
    • BigQuery
    • Composer
    • Cloud Storage
  • Dominio en programación con Python y Java para desarrollo de scripts, automatización y procesamiento de datos.
  • Conocimientos en bases de datos SQL y NoSQL, con experiencia en MongoDB y BigQuery.
  • Experiencia en procesamiento distribuido y manejo de grandes volúmenes de datos.
  • Conocimiento en buenas prácticas de seguridad y gobernanza de datos.
  • Capacidad para trabajar en equipos ágiles y multidisciplinarios.
  • Habilidades de comunicación efectiva para presentar soluciones técnicas y colaborar con otras áreas

Condiciones

Modalidad de contratación: Plazo fijo
Duración del proyecto: 18 MESES con posibilidad de extensión

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer
  • Tienda Pago
  • Ciudad de México (Hybrid)
Python SQL Big Data Back-end

✨ ¡En Tienda Pago, estamos revolucionando el mundo de las finanzas en Latinoamérica! ✨

Somos una fintech multicultural 🌎 con operación en México y Perú y colaboradores en Colombia, Argentina, República Dominicana ¡y más países! 🚀 Nuestra misión es única: impulsar a las tienditas y bodegas de barrio a crecer💪. ¿Cómo lo hacemos? A través de una plataforma digital innovadora que les da acceso a créditos para que puedan surtirse mejor y vender más 🛍️. Ofrecemos préstamos personales, crédito de inventario y recargas de celular, ¡todo con la última tecnología! 📲

En Tienda Pago, creemos en la inclusión financiera a través de la innovación💡. Llevamos + de 10 años haciendo la diferencia en la base de la pirámide económica, brindando oportunidades a quienes más lo necesitan💖.

¡Seguimos creciendo! Estamos búsqueda de un Data Engineer en CDMX para incorporar en nuestro equipo de Tech🤝

Apply directly from Get on Board.

¿Cuál es el objetivo principal de la posición? 🧑‍💻

Buscar un enfoque estratégico, liderar proyectos de medios a complejos, establecer las mejores prácticas, ejecución de tareas complejas. El candidato ideal es un profesional que trabaje indispensablemente con autonomía, lidere proyectos medios a complejos, establezca las mejores prácticas y actúe como mentor para los miembros más junior del equipo. Busque un enfoque estratégico, responsable de la modelación de datos y la toma de decisiones que afectarán la escalabilidad y eficiencia a largo plazo.

¿Cuáles serán tus principales responsabilidades? 🤔

  • Diseño y construcción de arquitecturas de modelos escalables y robustas.
  • Experiencia para implementación de diferentes técnicas de modelado como datawarehouse, data lakes y data mesh, utilizando metodologías ágiles.
  • Habilidad para diseñar, desarrollo y mantenimiento de los procesos de ingesta e integración de datos, modelos de análisis y tableros de control en esto deberá incluir optimizar pipelines complejos reduciendo costos y mejorando eficiencia.
  • Desarrollar set de datos que sean incluidos en procesos de minería y modelado de datos para datos estructurados y no estructurados.
  • Habilidad para entender los objetivos del negocio y traducirlos en una estrategia de datos a corto, mediano y largo plazo.
  • Realizar flujo completo para un proyecto de manera autónoma: análisis, diseño y bajar la idea para que él/ella o alguien del equipo lo pueda desarrollar, seguimiento hasta después de la entrega.
  • Autonomía para el manejo e interacción con las áreas de negocio.
  • Tener autoridad para tomar decisiones técnicas y que pueda presentar los resultados de forma clara orientados a los diferentes Stakeholders.
  • Detectar, diseñar e implementar nuevos atributos, estructuras, métricas o indicadores de acuerdo con las políticas de calidad, seguridad y gobernanza de Datos de Tienda Pago.
  • Capacidad para guiar a otros ingenieros, revisar el código y fomentar crecimiento profesional

¿Qué requerimos de ti para hacer un buen match? 💘

  • Mínimo 4 años de experiencia en ingeniería de datos.
  • Manejo de SQL Avanzado.
  • Lógica de programación, idealmente en Python, pero podemos considerar profesionales en otros lenguajes.
  • Implementación de colas de mensajes y servicios de mensajería y streaming.
  • Integración de datos (Data Lake, Data Warehouse, SQL).
  • Modelado de datos.
  • Abstracción y conceptualización de ideas.
  • Relación de patrones y piezas faltantes.
  • Gobernanza de datos y seguridad.
  • Experiencia en automatización de infraestructura.
  • Disponibilidad para trabajar full time - híbrido. 90% remoto; se pide ir a la oficina cerca de 2 veces al mes. Estamos ubicados en Calle Buffon, No. 46, Piso 9, Colonia Anzures, Miguel Hidalgo.CDMX, CP. 11590.

Deseables (NO son obligatorios, solo son un plus)

  • Plataforma Azure, Integration Services, DBT, DAX, Power BI (de intermedio a avanzado) .

Algunos de Nuestros Beneficios en México 🤩

  1. Aguinaldo superior a la ley.
  2. Prima Vacacional 100%
  3. Vacaciones otorgadas de acuerdo a ley, partiendo de 12 días hábiles durante el primer año e incrementando progresivamente por cada año cumplido.
  4. Días libres, asignación de 08 días libres Tienda Pago durante el primer año y luego se reajusta proporcionalmente a las vacaciones de acuerdo a la política dias libres Tienda Pago.
  5. Día libre por tu cumpleaños a elección (mismo día que cumples años o cualquier día del mes que estás de cumpleaños).
  6. Días festivos no oficiales.
  7. Seguro de Gastos Médicos Mayores.
  8. Dentegra (Beneficio Adicional del Seguro de Gastos Médicos Mayores).
  9. Seguro de Vida.
  10. Si te gusta constantemente seguir aprendiendo y perfeccionando tus conocimientos, tenemos una plataforma padrísima llamada Ubits😏.

¡Conversemos y entérate de los otros beneficios!🥳

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Tienda Pago pays or copays health insurance for employees.
Computer provided Tienda Pago provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Tienda Pago gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
Gross salary $5000 - 7000 Tiempo completo
Senior Cdp Manager / Operator
  • Zaelot
Python Analytics SQL Data governance

Zaelot is a fast-growing technology company specialized in building scalable solutions for enterprise clients worldwide. With a team of over 90 professionals spread across 9 countries, Zaelot cultivates a culture based on trust, reliability, and collaboration to deliver innovative and effective technology products. The project focus for this role is managing Customer Data Platforms (CDPs), which are critical for enabling clients to unify, govern, and leverage their customer data efficiently. Our CDP team works closely with product, engineering, and analytics stakeholders to ensure data quality and operational excellence, driving better business outcomes through optimized customer data flows and identity resolution.

Opportunity published on Get on Board.

Key Responsibilities

  • Lead the end-to-end configuration, deployment, and ongoing management of Customer Data Platforms such as Segment, Hightouch, Rudderstack, or similar tools across diverse client environments.
  • Own the creation and maintenance of tracking plans, enforce data schemas strictly, and manage customer identity resolution and audience trait development to deliver accurate and actionable customer insights.
  • Design, build, and optimize reverse ETL (Extract, Transform, Load) pipelines and destination syncs to ensure seamless data movement between CDPs and downstream systems.
  • Implement and maintain best practices around naming conventions, user roles administration, permissions, and rigorous data quality assurance (QA) processes to uphold platform integrity.
  • Provide operational enablement through detailed documentation, training, and support aimed at both internal teams and client users to maximize platform adoption and efficiency.
  • Continuously monitor platform health metrics, proactively identifying and resolving operational issues in collaboration with engineering and support teams.

Role Requirements

We are seeking an experienced Senior CDP Manager with a strong technical background and hands-on expertise in managing customer data platforms. The ideal candidate will have between 3 and 5 years of practical experience working with CDP tools such as Segment, Hightouch, Rudderstack, or equivalents, exhibiting deep knowledge of data flows, identity resolution, and audience management techniques.

The role demands a strong understanding of event-based data architecture and familiarity with product analytics platforms like Amplitude or Mixpanel to ensure effective integration and utilization of data insights. Attention to detail is critical, especially regarding documentation accuracy, configuration hygiene, and enforcing data governance standards.

This position requires excellent communication skills to effectively collaborate with both technical and non-technical stakeholders, facilitating clear understanding and alignment on CDP-related initiatives and operational support.

Preferred Qualifications

It is advantageous to have experience in marketing technology stacks beyond CDPs, such as advanced analytics, campaign management platforms, or CRM tools. Familiarity with scripting or programming languages (e.g., SQL, Python) to build custom data pipelines or automate workflows is desirable. Prior exposure to enterprise data governance policies or compliance regulations will add value to the role.

Strong problem-solving abilities, proactive mindset, and a drive for continuous learning in the rapidly evolving CDP and data ecosystem are highly appreciated.

What We Offer

  • 20 days of paid vacation after one year to support a healthy work-life balance.
  • Incentive programs including referral bonuses and finder's fees for successful candidate recommendations.
  • Robust continuous learning opportunities with training and certification programs.
  • Work-from-home support to ensure a comfortable and productive environment.
  • English language classes and fitness programs promoting professional and personal growth.
  • Profit sharing and coaching sessions fostering collective success and development.

At Zaelot, we foster a supportive and innovative culture where your skills and ambitions are valued. Join our diverse team dedicated to excellence and continuous improvement, and contribute to impactful enterprise solutions.

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Analista de Operaciones Medios de Pago
  • coderslab.io
  • Santiago (Hybrid)
Python Data Analysis SQL Power BI

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de ANALISTA DE OPERACIONES - MEDIOS DE PAGO para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Official source: getonbrd.com.

Funciones del cargo

  1. Desarrollo de Paneles:
    • Crear y mantener paneles interactivos en Power BI y Looker Studio para la visualización de datos.
    • Asegurar que los paneles reflejen métricas clave y sean accesibles para los usuarios finales.
  2. Explotación de Datos:
    • Realizar la extracción y transformación de datos desde diversas fuentes.
    • Implementar procesos de limpieza y validación de datos.
  3. Análisis de Datos:
    • Analizar grandes volúmenes de datos para identificar tendencias, patrones y oportunidades de mejora.
    • Generar informes analíticos que apoyen la toma de decisiones estratégicas.
  4. Extracción y Análisis Multiplataforma:
    • Integrar datos de diferentes plataformas y sistemas, asegurando una visión holística del rendimiento.
    • Colaborar con equipos de IT para optimizar la infraestructura de datos.
  5. Colaboración Interdepartamental:
    • Trabajar de manera colaborativa con otros departamentos para entender sus necesidades de datos y proporcionar soluciones efectivas.
    • Participar en reuniones de equipo para discutir resultados y proyecciones.
  6. Documentación:
    • Mantener documentación clara y concisa de procesos, análisis y hallazgos.
    • Presentar resultados de manera efectiva a diferentes niveles de la organización.

Requerimientos del cargo

Habilidades/Conocimientos Obligatorios

  • Herramientas y Tecnologías:
    • Power BI
    • GCP (Google Cloud Platform)
    • Looker Studio
    • SQL
    • Python
  • Educación:
    • Título universitario en áreas relacionadas (Ingeniería, Estadística, Ciencias de la Computación, etc.).
  • Experiencia:
    • Experiencia previa en análisis de datos o roles similares (preferentemente en el sector de medios de pago).
  • Habilidades Técnicas:
    • Dominio de SQL para la manipulación y consulta de bases de datos.
    • Conocimiento práctico de Python para análisis de datos y automatización de procesos.
    • Experiencia en el uso de herramientas de visualización (Power BI, Looker Studio).
  • Habilidades Blandas:
    • Excelentes habilidades de comunicación y presentación.
    • Capacidad para trabajar en equipo y colaborar con diferentes áreas.
    • Pensamiento analítico y atención al detalle.

POSTULAR VÍA WEB Ver trabajo
Gross salary $6500 - 7500 Tiempo completo
Data Engineer / Data Architect
  • Zaelot
Python SQL Web server Big Data
Zaelot is a dynamic, team-building company specializing in delivering scalable, enterprise-grade technology solutions across a global client base. With a diverse team of over 90 professionals spread across nine countries, Zaelot fosters a culture rooted in trust, reliability, and collaboration. Our teams integrate multiple disciplines—including analysis, design, and software engineering—to consistently deliver innovative and high-quality products. The Data Engineering and Architecture team plays a crucial role in this by designing and maintaining data infrastructure that supports advanced analytics, customer data platforms, and real-time business intelligence, helping Zaelot and its clients make data-driven decisions at scale.

Apply directly on the original site at Get on Board.

Role and Responsibilities

  • Design, build, and maintain robust data pipelines to ingest large volumes of behavioral and transactional data into centralized data warehouses.
  • Manage seamless data synchronization processes between our data lake, data warehouse, and Customer Data Platforms (CDPs) such as Segment and Hightouch to ensure data consistency and availability.
  • Lead data quality assurance (QA) initiatives by establishing automated monitoring and reconciliation practices that ensure data accuracy and integrity across all platforms.
  • Collaborate with cross-functional teams including data scientists, analysts, and software engineers to optimize data flow and support analytics and reporting needs.
  • Architect scalable and reliable data infrastructure that supports evolving business requirements and real-time analytics.
  • Provide technical leadership and guidance in best practices for data retention, security, and governance within the data management lifecycle.

Required Skills and Experience

We are seeking a senior Data Engineer / Architect with strong expertise in building and managing complex data pipelines and architectures. The ideal candidate will have extensive experience working with modern data warehousing solutions and Customer Data Platforms integration.
  • Proficient in designing and implementing ETL/ELT pipelines using technologies such as Apache Airflow, dbt, or equivalent orchestration tools.
  • Hands-on experience with cloud data platforms like Snowflake, BigQuery, Redshift, or similar.
  • Strong SQL skills and familiarity with scripting languages such as Python for data processing and automation.
  • Experience integrating data lakes with cloud data warehouses and managing real-time or batch data synchronization with CDPs (e.g., Segment, Hightouch).
  • Proven ability to lead data quality assurance processes, including automated monitoring, validation, and reconciliation methodologies.
  • Solid understanding of data governance principles, data privacy, and compliance considerations.
  • Excellent problem-solving skills, attention to detail, and ability to work effectively in collaborative, cross-functional teams.
  • Strong communication skills to explain complex data concepts to technical and non-technical stakeholders.

Desirable Skills and Qualifications

  • Experience with cloud infrastructure management using AWS, GCP, or Azure.
  • Knowledge of containerization and orchestration technologies such as Docker and Kubernetes.
  • Background in machine learning data pipelines or real-time streaming technologies like Kafka, Spark Streaming.
  • Certifications in cloud data engineering, big data technologies, or related fields.
  • Experience working in agile development environments and knowledge of CI/CD pipelines for data engineering.

Benefits and Perks

  • 20 days of paid vacation after one year to ensure a healthy work-life balance.
  • Referral programs with incentives for introducing talented professionals.
  • Finder's fees recognizing successful candidate recommendations.
  • Comprehensive training and certification programs to support your continuous professional development.
  • Work-from-home aid to help create a comfortable and productive remote environment.
  • English classes to enhance communication skills and career progression.
  • Fitness programs promoting healthy lifestyle choices.
  • Profit sharing to reward contributions to collective company success.
  • Coaching sessions designed to support personal and professional growth.
Zaelot is committed to fostering a supportive, innovative, and collaborative culture where every professional can thrive and contribute to cutting-edge technological solutions. Join us to grow your career with a forward-thinking global company! 🚀

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Docente Base de Datos Sede Viña del Mar
  • Duoc UC
  • Viña del Mar (In-office)
SQL Design Thinking PL/SQL Education
Duoc UC, institución de educación superior técnico profesional autónoma y católica con más de 50 años de historia y máxima acreditación CNA, busca fortalecer su escuela de Informática y Telecomunicaciones en la sede Viña del Mar. Este proyecto se enfoca en brindar una enseñanza de calidad en el área de tecnologías de la información, especialmente en bases de datos, para formar profesionales competentes que respondan a las exigencias actuales del mercado laboral.

This posting is original from the Get on Board platform.

Funciones Principales

Duoc UC Sede Viña del Mar, Escuela de Informática y Telecomunicaciones requiere contratar docentes para la asignatura de Base de Datos Aplicada I, Taller de Base de Datos con disponibilidad en jornada diurna, que será responsable de liderar el proceso de enseñanza y aprendizaje de acuerdo con el modelo educativo, alineado al marco valórico institucional, movilizando su formación y experiencia profesional, valores y conocimiento disciplinar, para ser un real aporte al aprendizaje de los estudiantes.

Perfil y Requisitos

Es requisito contar con:

  • Formación: Ingeniero(a) en Informática, Ingeniero(a) Ejecución Informática o afín.
  • Experiencia: 3 años de experiencia en el desarrollo de proyectos de software implementados en base de datos relacionales. Dominio de SQL y PL/SQL en forma avanzada
  • Disponibilidad: Jornada Diurna / Lunes de 9:31hrs a 13:50hrs, Martes de 10:11hrs a 15:20hrs, Miércoles de 9:31hrs a 10:50hrs, Viernes de 9:31hrs a 13:50hrs.
  • Otros requisitos: Deseable que cuente con certificación Oracle Database SQL Certified Associate en la versión de Base de Datos. Certificación en Design Thinking (deseable).

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer (Databricks)
  • Improving South America
Python Git Data Analysis SQL

Somos Improving South America!

Somos una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA principalmente.

Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.

Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development y También trabajamos en desarrollo backend.

Valoramos a las personas dinámicas en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Apply to this job at getonbrd.com.

Funciones del cargo

Actualmente estamos en la búsqueda de una persona proactiva y analítica para ocupar el puesto de Data Engineer Senior con experiencia sólida en SQL, Python y Databricks, orientado al diseño, construcción y mantenimiento de pipelines de datos escalables que respalden la toma de decisiones del negocio.

La persona seleccionada colaborará estrechamente con equipos de ingeniería, analítica y áreas de negocio para garantizar la disponibilidad, calidad e integridad de los datos:

  • Diseñar, desarrollar y mantener pipelines de datos ETL/ELT robustos y reutilizables utilizando Databricks sobre Azure.
  • Procesar y transformar grandes volúmenes de datos en entornos distribuidos.
  • Implementar soluciones de datos escalables dentro del ecosistema Azure (ej. Azure Data Factory, Azure Data Lake, Azure SQL, Synapse).
  • Aplicar buenas prácticas de modelado de datos y arquitectura analítica.
  • Colaborar con equipos técnicos y de negocio para identificar requerimientos y traducirlos en soluciones técnicas.
  • Mantener código limpio y versionado con Git.

Requerimientos principales del cargo

  • Nivel de inglés intermedio/ avanzado para la comunicación diaria con equipos globales.
  • Experiencia 5+ años (comprobada) en ingeniería o análisis de datos con SQL y Python.
  • Dominio experto en SQL para manipulación, transformación y optimización de rendimiento.
  • Experiencia práctica desarrollando pipelines de datos en Databricks.
  • Conocimientos avanzados en Python, aplicados a procesamiento de datos.
  • Uso fluido de Pandas y NumPy.
  • Experiencia diseñando y manteniendo pipelines ETL/ELT en entornos cloud.
  • Familiaridad con modelado de datos (esquema estrella, copo de nieve) y arquitectura de datos.
  • Experiencia trabajando con el ecosistema de Azure para datos: Azure Data Factory, Azure Data Lake, Azure SQL, Synapse, etc.
  • Conocimiento de bases de datos relacionales y no relacionales.
  • Uso habitual de herramientas de control de versiones, como Git.

Requerimientos deseables

  • Conocimiento o experiencia con Apache Spark, idealmente dentro de Databricks.
  • Familiaridad con plataformas y buenas prácticas de data warehousing.

Beneficios que ofrecemos

  • Contrato a largo plazo.
  • 100% Remoto.
  • Vacaciones y PTOs
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo
  • mucho mas..

Internal talks Improving South America offers space for internal talks or presentations during working hours.
Computer provided Improving South America provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Arquitecto/a de Soluciones (Data)
  • 2BRAINS
Python Data Analysis SQL Web server

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

Official job site: Get on Board.

El/la Arquitecto/a de Soluciones de Data de 2Brains:

El Arquitecto de Soluciones se encarga de diseñar y desarrollar sistemas de datos sólidos, lo que incluye la elaboración de diagramas de arquitectura que permitan almacenar, procesar y analizar grandes volúmenes de información de manera eficiente. Además, se debe evaluar e identificar soluciones tecnológicas en función del proveedor seleccionado, detallando los requerimientos de red, servicios asociados y herramientas necesarias para la implementación.

Como parte del proceso, también es fundamental construir pruebas de concepto (POC) que permitan transformar los datos en formatos utilizables, alineados con la solución técnica definida.

¿Qué conocimientos buscamos en/la Arquitecto/a Soluciones de Data?

  • Título en Ingeniería en Informática o carrera afín, idealmente con certificación profesional como Ingeniero/a de Datos
  • Entre 4 a 6 años de experiencia desempeñando funciones similares en el área de datos
  • Dominio de SQL para consultas estructuradas sobre bases de datos relacionales
  • Conocimiento práctico de bases de datos NoSQL como MongoDB, Cassandra o HBase para manejar datos semiestructurados o no estructurados
  • Manejo de lenguajes de programación como Python o Scala, con uso de Apache Spark para procesamiento distribuido
  • Experiencia con herramientas de Big Data como Hadoop o Apache Spark en entornos productivos
  • Familiaridad con plataformas de cloud computing como AWS, Azure o Google Cloud Platform para almacenamiento, procesamiento y análisis de datos
  • Capacidad para diseñar, implementar y mantener procesos ETL (extracción, transformación y carga de datos) desde múltiples fuentes
  • Conocimientos básicos de machine learning, aplicando modelos predictivos o descriptivos sobre datos
  • Experiencia en el diseño y automatización de pipelines de datos complejos utilizando herramientas como Apache Airflow o Luigi
  • Administración de bases de datos relacionales, NoSQL y servicios gestionados en la nube
  • Diseño y desarrollo de arquitecturas de almacenamiento como data warehouses, data lakes o soluciones LakeHouse
  • Procesamiento eficiente de grandes volúmenes de datos en entornos distribuidos
  • Uso de prácticas y herramientas DevOps orientadas a flujos de datos y operaciones analíticas en la nube

¿Qué competencias buscamos en el/la Arquitecto/a Soluciones de Data?

  • Orientación al cliente interno y externo
  • Compromiso y proactividad
  • Comunicación efectiva
  • Pensamiento analitico
  • Colaboración y trabajo en equipo

Te ofrecemos

  • Oportunidad de trabajar en un ambiente dinámico y en crecimiento, donde se valora la innovación y la creatividad.
  • Desarrollo profesional continuo con acceso a formación y certificaciones.
  • Participación en proyectos desafiantes con clientes de alto perfil.
  • Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos.
  • Un proyecto enfocado en los usuarios, visión de UX e integrada al desarrollo.
  • Acceso a grandes clientes y proyectos desafiantes.
  • Aprendizaje y crecimiento permanente, organizamos encuentros, capacitaciones y actividades culturales.
  • Programas de bienestar.
  • Trabajo Remoto.
  • Espacios para charlas internas.
  • Días de descanso.
  • Día de cumpleaños libre.
  • Horario de trabajo de México.

Wellness program 2BRAINS offers or subsidies mental and/or physical health activities.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks 2BRAINS offers space for internal talks or presentations during working hours.
Shopping discounts 2BRAINS provides some discounts or deals in certain stores.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1800 - 2800 Tiempo completo
Data Ops
  • coderslab.io
  • Santiago (Hybrid)
Python SQL DevOps Big Data

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Data Ops para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

This company only accepts applications on Get on Board.

Funciones del cargo

• Definir, construir y mantener de forma automatizada nuestras bases de datos relacionales y NO relacionales en los distintos ambientes cloud (Público y Privado).
• Colaborar en la construcción y el soporte de nuestra plataforma cloud y sus servicios.
• Colaborar con los equipos de producto identificando restricciones y requerimientos, definiendo arquitecturas de solución y aprovisionando las capacidades de la plataforma que permitan cumplir los atributos de calidad de los productos.
• Participar activamente en espacios de colaboración, mentoreando personas y equipos, e identificando oportunidades de mejora.

Requerimientos del cargo

Conocimientos lenguaje Python
Tener conocimientos de la nube GCP intermedio/avanzado y su gama de productos para serverless y contenedores (Cloud Run, Cloud Scheduler, etc)
Poseer experiencia en Bigquery (SQL)
Gitlab CI
Terraform intermedio/avanzado (generar nuevos módulos, debug de state, etc)
Manejo en GKE nivel administración
Nivel básico/intermedio en Unix (consola)
Deseable:
Estar instruido en IAM de GCP (herencia de IAM, impersonalización, principio de mínimos permisos, etc)
Conocimientos de networking tanto “on-premise” y en la nube GCP
Haber trabajado con K8S “on-premise” y tener nivel intermedio de conocimiento a nivel administración y mantención de nodos
Conocimientos en ArgoCD y Airflow/Composer
Compromiso con las responsabilidades
Manejo de herramientas de IA (Copilot, Gemini, Cursor, etc)
Conocimientos en arquitectura hexagonal y testing con Python
Estar familiarizado con el ciclo de vida DevOps

Conditions

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1200 - 1700 Tiempo completo
Analista de Datos BI
  • S3 Chile
  • Santiago (Hybrid)
Python Analytics MySQL PostgreSQL
S3 Chile es una empresa líder en la entrega de servicios de outsourcing especializada en procesos de negocio. Nuestro enfoque está en brindar soluciones integrales que permiten a nuestros clientes optimizar sus operaciones a través de la gestión eficiente de datos y análisis avanzado. El equipo de análisis de datos juega un rol fundamental, colaborando con diversas áreas como marketing, ventas y negocios para impulsar estrategias basadas en inteligencia analítica. Nuestra misión es ofrecer un entorno de aprendizaje continuo y profesionalización en consonancia con las últimas tendencias tecnológicas, fomentando el crecimiento tanto del equipo como de la organización. Ser parte de S3 Chile significa contribuir directamente al éxito de grandes clientes mediante innovación y manejo experto de datos.

Find this vacancy on Get on Board.

Responsabilidades principales

  • Análisis de datos: Recopilar, limpiar y analizar grandes volúmenes de datos provenientes de diversas fuentes para identificar tendencias, patrones y oportunidades de mejora.
  • Desarrollo de modelos predictivos y estadísticos: Diseñar y construir modelos estadísticos y algoritmos para predecir resultados, evaluar riesgos y optimizar procesos empresariales.
  • Visualización de datos: Crear visualizaciones claras e impactantes mediante herramientas como Tableau y Power BI para comunicar hallazgos de manera efectiva a las partes interesadas.
  • Elaboración de informes y presentaciones: Preparar reportes detallados y presentaciones ejecutivas que resuman insights clave y recomendaciones prácticas para equipos ejecutivos y operativos.
  • Colaboración interdisciplinaria: Trabajar estrechamente con equipos de negocio, marketing, ventas y tecnología para definir requerimientos, validar hipótesis y co-crear soluciones basadas en datos.

Habilidades y competencias requeridas

  • Conocimientos en estadística y matemáticas: Dominio de conceptos avanzados como regresión, correlación, análisis de varianza (ANOVA) y otras técnicas estadísticas aplicadas.
  • Programación: Experiencia sólida en lenguajes como Python, R y SQL para manipulación de datos, construcción de modelos y automatización de procesos.
  • Manejo de herramientas analíticas: Capacidad para utilizar herramientas como Excel avanzado, Tableau, Power BI y otras plataformas de visualización y análisis.
  • Bases de datos: Conocimiento práctico en gestión y consultas sobre bases de datos relacionales como MySQL y PostgreSQL.
  • Plataformas de análisis digital: Familiaridad con Google Analytics, Mixpanel y otras herramientas para análisis de comportamiento en entornos digitales.
  • Pensamiento crítico y resolución de problemas: Aptitud para examinar situaciones complejas, identificar causas raíz y generar soluciones innovadoras y eficientes.
  • Comunicación efectiva: Habilidad para explicar conceptos técnicos complejos en un lenguaje claro, adaptado a diferentes audiencias, facilitando la toma de decisiones basadas en datos.
Requisitos académicos y experiencia:
  • Título universitario en Ingeniería Comercial, Ingeniería Civil, Estadística, Matemáticas, Ciencias de la Computación o áreas afines.
  • Experiencia mínima de 2 a 3 años en análisis de datos o roles relacionados, preferiblemente en entornos empresariales.
  • Certificaciones profesionales como Certified Data Analyst (CDA) o Certified Analytics Professional (CAP) serán consideradas un plus significativo.

Habilidades y conocimientos deseables

  • Experiencia en manejo de grandes volúmenes de datos (Big Data) y conocimiento de herramientas o frameworks asociados.
  • Conocimiento en técnicas de machine learning y su aplicación práctica en modelos predictivos.
  • Familiaridad con metodologías ágiles de trabajo y gestión de proyectos.
  • Experiencia previa trabajando en equipos multidisciplinarios y en ambientes dinámicos.
  • Habilidades avanzadas en storytelling con datos para mejorar la comunicación visual y estratégica.

Lo que ofrecemos

💼 Renta competitiva acorde al mercado.
📈 Oportunidades reales de desarrollo profesional dentro de la empresa.
🎁 Beneficios corporativos que incluyen programas de bienestar y capacitaciones continuas.
👥 Un equipo comprometido que promueve un entorno de aprendizaje constante alineado con los nuevos avances tecnológicos.
Entorno colaborativo, flexible y remoto, alineado con las necesidades actuales del mercado laboral en Chile.

Health coverage S3 Chile pays or copays health insurance for employees.
Computer provided S3 Chile provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero de Datos
  • Assetplan
  • Santiago (Hybrid)
Python Agile Excel SQL
Assetplan es una compañía líder en renta residencial en Chile, con presencia también en Perú. Actualmente, gestionamos más de 30.000 propiedades para clientes retail e institucionales y operamos más de 80 edificios multifamily, lo que refleja un sólido posicionamiento en el sector inmobiliario y de administración de propiedades en la región. El equipo de datos tiene un rol clave para optimizar y dirigir los procesos internos mediante soluciones tecnológicas de análisis y visualización de datos, apoyando la toma de decisiones estratégicas en la empresa.

This offer is exclusive to getonbrd.com.

Responsabilidades principales

  • Diseñar, desarrollar y optimizar procesos ETL (Extract, Transform, Load) utilizando herramientas clave como Python (librerías Pandas y Numpy) y SQL.
  • Desarrollar y mantener dashboards y paneles en Power BI, integrando visualizaciones estratégicas para acompañar los procesos ETL y proporcionar insights relevantes.
  • Trabajar de forma colaborativa con diferentes áreas de la organización para interpretar y transformar sus necesidades en soluciones de datos que faciliten la toma de decisiones estratégicas.
  • Promover la calidad, escalabilidad y gobernanza de los datos durante el diseño, desarrollo y mantenimiento de los procesos y pipelines de datos, asegurando soluciones escalables y accesibles.
  • Mantener una comunicación efectiva con los equipos de negocio y tecnología para asegurar que las soluciones implementadas se alineen con los objetivos corporativos y generen impacto real en la organización.

Requisitos profesionales

Buscamos un profesional con 1 a 3 años de experiencia demostrable en el área de datos, en roles de ingeniería o análisis que impliquen manipulación y transformación de datos.
  • Manejo de SQL a nivel medio.
  • Manejo de Python Intermedio/Avanzado (excluyente), con experiencia en librerías Pandas y Numpy.
  • Manejo de Power BI a nivel medio para desarrollo y mantenimiento de dashboards.
  • Manejo avanzado de Excel para análisis y procesamiento de información.
  • Experiencia mínima de 1 a 3 años.
Es deseable poseer experiencia en ambientes ágiles y metodologías de desarrollo colaborativo que faciliten la integración entre equipos técnicos y de negocio.
Valoramos conocimientos en otras herramientas de visualización o procesamiento de datos, así como experiencia en gestión de la calidad y gobernanza de datos que permitan fortalecer el ecosistema de información de la empresa.

Habilidades y conocimientos deseables

Se valoran conocimientos en metodologías ágiles para la gestión y desarrollo colaborativo de proyectos, capacidades de comunicación efectiva para la interacción con equipos multidisciplinarios y experiencia en herramientas adicionales de visualización y procesamiento de datos. Asimismo, la experiencia en buenas prácticas de gobernanza y calidad de datos será un plus importante para aportar a la robustez del ecosistema de información de Assetplan.

Beneficios

En Assetplan valoramos y reconocemos el esfuerzo y dedicación de nuestros colaboradores, ofreciendo un ambiente laboral positivo basado en el respeto mutuo y la colaboración.
Entre nuestros beneficios contamos con:
  • Días extras de vacaciones por años de antigüedad.
  • Modalidad de trabajo híbrido y flexibilidad para trámites personales.
  • Monto mensual en app de snacks en la oficina.
  • Medio día libre en tu cumpleaños.
  • Copago en seguro complementario de salud.
  • Reajuste anual de renta basado en IPC.
  • Bono anual por desempeño.
  • Eventos empresa y happy hours financiados por la compañía.
  • Acceso a plataforma de cursos de formación.
  • Convenios con gimnasios, descuentos y más.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Assetplan pays or copays health insurance for employees.
Computer provided Assetplan provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Assetplan gives you paid vacations over the legal minimum.
Beverages and snacks Assetplan offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero/a de Datos (Data Engineer)
  • Arara
Python PostgreSQL Git SQL

Arara es una empresa tecnológica especializada en WiFi marketing, ofreciendo soluciones innovadoras que optimizan la conectividad y la experiencia del usuario.

En Arara, estamos buscando un/a Ingeniero/a de Datos (Data Engineer) apasionado/a y experimentado/a para unirse a nuestro equipo de tecnología.

Buscamos a un/a profesional proactivo/a, con una sólida capacidad para resolver problemas complejos y que no solo ejecute tareas, sino que también contribuya activamente en la toma de decisiones sobre la arquitectura de datos y en la mejora continua de nuestros procesos y productos.

Apply to this job at getonbrd.com.

¿Qué es lo que harás?:

  • Diseñar, construir y mantener pipelines de datos robustos y escalables para procesos de extracción, transformación y carga (ETL/ELT).
  • Desarrollar y optimizar la ingesta de datos desde diversas fuentes, incluyendo APIs, bases de datos y servicios de terceros.
  • Modelar, implementar y gestionar soluciones de almacenamiento de datos, como Data Warehouses y Data Lakes.
  • Trabajar con APIs de modelos de lenguaje grandes (LLMs), construir prompts adecuados y postprocesar resultados de múltiples de estos modelos.
  • Escribir código de alta calidad en Python, limpio, eficiente, bien documentado y cubierto por pruebas para el procesamiento y transformación de grandes volúmenes de datos.
  • Garantizar la calidad, consistencia e integridad de los datos durante todo su ciclo de vida.
  • Colaborar con científicos de datos, analistas y el equipo de backend para entender sus necesidades y proveer datos accesibles y fiables.
  • Optimizar el rendimiento de pipelines y consultas en las plataformas de datos.
  • Participar activamente en revisiones de código ofreciendo y recibiendo feedback constructivo para mejorar la calidad del equipo.
  • Diagnosticar, depurar y resolver problemas o bugs en flujos de datos en desarrollo y producción.
  • Contribuir en discusiones técnicas y decisiones sobre arquitectura de datos en nuevos proyectos.
  • Implementar y mantener herramientas de orquestación de flujos de trabajo, como Apache Airflow.
  • Crear y mantener la documentación técnica de los flujos, modelos y sistemas desarrollados.

Estamos buscando una persona que cumpla con lo siguiente:

Experiencia Profesional: Mínimo de 4 a 6 años de experiencia demostrable en roles de ingeniería de datos, inteligencia de negocios (BI) o desarrollo de software con fuerte enfoque en datos.

Formación académica: Título profesional en Ingeniería de Sistemas, Ciencias de la Computación, Ingeniería de Software o carreras afines.

Conocimientos técnicos requeridos:

  • Lenguajes: Dominio avanzado de Python y sus librerías para el ecosistema de datos (p.ej. Pandas, PySpark).
  • Modelos LLM: Experiencia interactuando con modelos de lenguaje grandes (ej. Gemini, OpenAI), prompt engineering y Retrieval-Augmented Generation (RAG).
  • Bases de datos: Sólida experiencia con bases de datos SQL (como PostgreSQL) y NoSQL (como MongoDB). Valoramos conocimiento en Data Warehouses en la nube (Azure, BigQuery, Redshift, Snowflake).
  • Fundamentos de datos: Conocimiento profundo de ETL/ELT, modelado de datos y arquitecturas de datos (Data Warehouse, Data Lake).
  • Herramientas clave: Experiencia con sistemas de control de versiones Git y contenedores Docker. Se valorará experiencia con orquestadores como Apache Airflow.
  • Nube: Experiencia trabajando con servicios de datos en plataformas en la nube (GCP, AWS, Azure).

Habilidades blandas y otras competencias: Buscamos un profesional proactivo, con capacidad para resolver problemas complejos, aportar en la toma de decisiones para arquitectura de datos, y colaborar eficazmente en equipo.

Se valorará además:

  • Conocimientos en metodologías de desarrollo ágil y mejores prácticas DevOps.
  • Experiencia adicional en ingeniería de datos aplicada a inteligencia artificial y machine learning.
  • Habilidades de comunicación avanzada para colaborar con equipos multidisciplinarios.

Lo que ofrecemos en Arara:

  • 100% remoto – Trabaja desde cualquier lugar con huso horario de América.
  • Cultura organizacional horizontal e innovadora.
  • Equipo colaborativo – Somos un equipo pequeño, horizontal y cercano, donde tu aporte realmente cuenta.
  • Trabajar en una industria en crecimiento: IA aplicada.
  • Capacitaciones en Habilidades profesionales y personales de manera constante.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Analyst área de Cumplimiento
  • Banco Santander Chile
  • Santiago (Hybrid)
Python Data Analysis SQL Back-end
Banco Santander Chile es una organización internacional que enfrenta diariamente retos para ayudar a personas y empresas a progresar. Actualmente, el área de Cumplimiento busca un Data Analyst para apoyar la Unidad de Prevención de Blanqueo de Capitales y Financiamiento del Terrorismo (UPBC), un equipo clave para asegurar que la institución cumpla con regulaciones y prevenga riesgos asociados a delitos financieros. El área está enfocada en la prevención de lavado de activos y financiamiento del terrorismo, contribuyendo a la confianza y cumplimiento regulatorio del banco.

Apply at getonbrd.com without intermediaries.

Funciones

  • Análisis e interpretación de datos acorde a lo solicitado.
  • Realizar análisis y minería de datos mediante herramientas locales, para identificar tendencias, desviaciones y puntos críticos de atención.
  • Analizar cambios en requerimientos regulatorios o políticas internas, brindando apoyo para la implementación de marcos, políticas y programas relacionados con cumplimiento y riesgo.
  • Comprender las políticas locales y marcos legales vinculados al crimen financiero.
  • Desarrollar informes clave y sobre temas críticos dirigidos a la alta dirección y foros en nombre de Financial Crime Compliance (FCC).
  • Monitorear el progreso de la unidad, bancas y filiales respecto a la efectividad de los controles según políticas y procedimientos.
  • Gestionar y realizar seguimiento de clientes con aumento de riesgo.
  • Mantener actualizada una biblioteca de Indicadores Clave de Riesgo (KRI) e Indicadores Clave de Control (KCI) locales, alineados con los estándares globales de FCC.

Requisitos

  • Dominio de lenguaje SQL para la extracción y manipulación de datos.
  • Conocimientos en Python para la automatización y análisis avanzado de datos.
  • Alta capacidad analítica para interpretar grandes volúmenes de información y detectar patrones.
  • Habilidad para trabajar en equipo y comunicar hallazgos de forma clara a distintos niveles organizacionales.
  • Orientación a la prevención de delitos financieros y al cumplimiento regulatorios.

Competencias deseables

  • Experiencia previa en el sector financiero.
  • Conocimiento de herramientas de minería de datos y análisis estadístico.
  • Capacidad de adaptación rápida a cambios regulatorios.
  • Habilidades de presentación y generación de reportes ejecutivos.
  • Manejo de otros lenguajes de programación o herramientas de visualización de datos.

Beneficios

  • Formar parte de la principal empresa financiera de Chile y uno de los mejores lugares para trabajar en el país.
  • Aprendizaje mediante la experiencia práctica, con múltiples oportunidades de desarrollo, formación continua y movilidad interna.
  • Beneficios orientados a mejorar la calidad de vida y el desarrollo profesional de los y las colaboradores.
  • Contrato indefinido que aporta estabilidad laboral y seguridad.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Banco Santander Chile pays or copays health insurance for employees.
Computer provided Banco Santander Chile provides a computer for your work.
Vacation over legal Banco Santander Chile gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Management
  • Banco Santander Chile
  • Santiago (Hybrid)
Python Data Analysis SQL Business Intelligence

Banco Santander Chile es una institución financiera líder en el país, reconocida por su enfoque en ayudar a personas y empresas a progresar mediante soluciones innovadoras y personalizadas. El área de banca comercial se dedica a diseñar y ejecutar estrategias comerciales que optimizan la rentabilidad de la cartera de clientes, utilizando tecnología avanzada para la gestión de datos y el desarrollo de herramientas propias que potencian la toma de decisiones y la experiencia del cliente.

Este equipo trabaja en la constante búsqueda y aplicación de nuevas tecnologías para mejorar las acciones comerciales y asegurar que las iniciativas estén disponibles y sean efectivas en los diferentes canales digitales y presenciales del banco.

© getonbrd.com.

Responsabilidades principales

Como data management, tus responsabilidades incluirán:

  • Participar en la generación de fuentes de información con los distintos atributos y variables calculadas.
  • Automatizar el despliegue de las acciones comerciales con los distintos actores de canales del banco.
  • Recomendar nuevas tecnologías para mejorar el despliegue y la búsqueda de nuevas acciones de las campañas dentro del equipo de inteligencia comercial.
  • Coordinar y desplegar las ofertas y/o campañas a los distintos canales del banco Santander.
  • Automatizar el despliegue de los Journeys (con Salesforce Marketing Cloud y Adobe Experience Platform - AJO) en base a los distinto eventos de nuestros clientes.

Perfil y experiencia requerida

Buscamos profesionales con experiencia en programación orientada a la gestión comercial en el sector financiero o afines. Se valoran conocimientos sólidos en análisis de datos, manejo de bases de datos y desarrollo de software aplicado a procesos comerciales.

Entre las habilidades técnicas y competencias destacan:

  • Experiencia en lenguajes de programación y explotación de datos, de al menos, 1 año.
  • SQL avanzado
  • Python avanzado en análisis de datos
  • Manejo de Tableau
  • Manejo de Power BI
  • Proactividad en la búsqueda constante de innovación tecnológica aplicable a la función.

Se valoran además habilidades blandas como la adaptación al cambio, resiliencia, y pensamiento crítico orientado a la mejora continua.

Conocimientos y experiencia complementarios

Será un plus contar con experiencia previa en bancos o instituciones financieras y manejo de herramientas como SalesForce Marketing Cloud y AJO de Adobe Experience Platform . Conocimientos en metodologías ágiles para proyectos de desarrollo tecnológico también serán bien valorados.

Habilidades adicionales en visualización de datos, para impulsar la innovación en las acciones comerciales serán una ventaja competitiva.

Beneficios y oportunidades de crecimiento

  • Formar parte de la principal empresa financiera de Chile y uno de los mejores lugares para trabajar en el país.
  • Aprendizaje mediante la experiencia práctica, con múltiples oportunidades de desarrollo, formación continua y movilidad interna.
  • Beneficios orientados a mejorar la calidad de vida y el desarrollo profesional del colaborador.
  • Contrato indefinido que aporta estabilidad laboral y seguridad.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Banco Santander Chile pays or copays health insurance for employees.
Computer provided Banco Santander Chile provides a computer for your work.
Vacation over legal Banco Santander Chile gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2400 - 2600 Tiempo completo
Data Engineer GCP
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL BigQuery ETL
En BC Tecnología, somos una consultora TI enfocada en brindar servicios integrales de outsourcing, desarrollo de proyectos y consultoría para clientes de sectores financieros, seguros, retail y gobierno. Nos especializamos en formar equipos ágiles y multidisciplinarios que aportan soluciones tecnológicas de vanguardia. Actualmente, estamos reclutando para un proyecto de 6 meses que involucra el desarrollo de pipelines de datos y arquitecturas en Google Cloud Platform, destinados a optimizar el manejo y análisis de grandes volúmenes de información.

Exclusive offer from getonbrd.com.

Responsabilidades principales

  • Diseñar, desarrollar y mantener pipelines de datos ETL/ELT en Google Cloud Platform para asegurar el flujo eficiente y confiable de datos.
  • Implementar soluciones utilizando productos como BigQuery, Cloud Functions, Airflow y Cloud Storage que soporten procesos analíticos y de negocio.
  • Optimizar consultas SQL y desarrollar scripts en Python para manipulación y transformación de datos.
  • Gestionar versiones y colaborar dentro del equipo utilizando herramientas de control de código como GitLab, GitHub o Bitbucket.
  • Aplicar buenas prácticas en desarrollo, pruebas y documentación técnica.
  • Colaborar en un entorno ágil, trabajando de forma híbrida entre la oficina en Santiago Centro y remoto.

Requisitos y experiencia

Buscamos un profesional con al menos tres años de experiencia demostrable en desarrollo de proyectos de gestión y procesamiento de datos en Google Cloud Platform. Es indispensable tener conocimientos sólidos en SQL y Python para la manipulación y transformación de datos en entornos analíticos. Además, se requiere experiencia práctica con productos clave de GCP, incluyendo BigQuery para almacenamiento y consultas masivas, Cloud Functions para ejecución de funciones serverless, Airflow para orquestación de flujos de trabajo y Cloud Storage para almacenamiento escalable.
El candidato debe estar familiarizado con herramientas de control de versiones como GitLab, GitHub o Bitbucket, que facilitan el trabajo colaborativo y la gestión de código. La capacidad para adaptarse a un modelo híbrido de trabajo, combinando presencialidad en Santiago Centro con trabajo remoto, es fundamental.
Se valoran cualidades como la proactividad, el enfoque orientado al detalle, habilidades comunicativas para trabajo en equipo y la capacidad para afrontar desafíos técnicos en proyectos dinámicos y exigentes.

Conocimientos adicionales deseables

Se considerará un plus la experiencia trabajando con DBT (Data Build Tool), que facilita el desarrollo y mantenimiento de modelos de datos dentro de pipelines modernos. Contar con certificaciones en plataformas cloud, especialmente en Google Cloud Platform, y experiencia previa en proyectos relacionados con áreas financieras o retail, será valorado positivamente.
El manejo de metodologías ágiles y experiencia en la documentación y automatización de procesos ETL fortalecerán el perfil, ya que colaboramos con equipos multidisciplinarios en entornos colaborativos e innovadores.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio entre vida laboral y personal.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer (Mid–Senior Level)
  • Niuro
Python SQL Docker Data Transformation
Niuro connects projects with elite tech teams, collaborating with leading U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality.
Niuro empowers projects by providing autonomous, high-performance tech teams specialized in partnering with top-tier U.S. companies. This role contributes to impactful and technically rigorous industrial data projects that drive innovation and professional growth within the global community Niuro fosters.

© Get on Board. All rights reserved.

About the Role

As a Data Engineer at Niuro, you will build scalable data pipelines and ensure data quality across complex workflows. You will collaborate closely with product teams to understand data requirements, deliver efficient data solutions, and maintain robust data infrastructure. Your expertise will be crucial in optimizing cloud-native data processing environments and enabling data-driven decision-making.
Responsibilities include designing, developing, and deploying data workflows using modern technologies such as AWS services, Airflow, and dbt; scripting and testing in Python; and contributing to infrastructure automation efforts. You will also actively participate in code reviews, troubleshooting, and performance tuning of data pipelines.

Requirements

  • Minimum 3 years of experience in Data Engineering roles.
  • Proven expertise with AWS services including Lambda, S3, and Glue for scalable cloud-native data solutions.
  • Hands-on experience with Airflow for workflow orchestration.
  • Proficient in dbt for data modeling and transformation tasks.
  • Strong programming skills in Python, specifically for scripting and testing data workflows.
  • Bonus skills: experience with Snowflake cloud data platform, Docker containerization, CI/CD pipelines, and SQL databases.
  • Strong communication skills and fluent English proficiency to collaborate effectively with product teams and stakeholders. Fluent Spanish is also required.

Desirable Skills

Experience with Snowflake is highly valued, as well as familiarity with Docker for containerized environments. Knowledge of CI/CD processes to automate and streamline deployment workflows will be beneficial. Additional experience working with relational and NoSQL SQL databases is a plus, enhancing your ability to manage and optimize data storage solutions.

Benefits

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing flexibility in work location globally. We invest in career development through ongoing training programs and leadership opportunities, ensuring continuous growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our long-term commitment to our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence and benefiting from a strong administrative support infrastructure that enables you to focus on impactful work without distraction.

Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1900 - 2500 Tiempo completo
Ingeniero de Datos Senior
  • coderslab.io
  • Santiago (Hybrid)
Python Git SQL BigQuery
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de Ingeniero de Datos para unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

Applications at getonbrd.com.

Funciones del cargo

  • Desarrollar y mantener ingestas de datos hacia Google Cloud Platform.
  • Implementar pipelines ETL eficientes y escalables para procesamiento de datos.
  • Colaborar con equipos técnicos y de negocio para asegurar la calidad y disponibilidad de la información.
  • Gestionar y optimizar el almacenamiento y procesamiento de datos utilizando BigQuery, Cloud Functions, Airflow y Cloud Storage.
  • Utilizar DBT para transformación y modelado de datos (ideal).
  • Controlar versiones y colaborar en el desarrollo mediante herramientas como GitLab, Bitbucket o GitHub.
  • Documentar procesos y asegurar buenas prácticas en el manejo de datos.
  • Apoyar en la identificación y resolución de problemas técnicos relacionados con ingesta y procesamiento de datos.

Requerimientos del cargo

  • Conocimientos técnicos obligatorios:
    • Desarrollo de proyectos ETL en Google Cloud Platform (GCP).
    • Uso avanzado de productos GCP: BigQuery, Cloud Functions, Airflow, Cloud Storage.
    • Experiencia ideal con DBT (Data Build Tool).
    • Dominio de lenguajes SQL y Python.
    • Manejo de gestores de versionamiento: GitLab, Bitbucket o GitHub.

POSTULAR VÍA WEB Ver trabajo
Gross salary $1700 - 2500 Tiempo completo
Ingeniero de Datos Semi Senior
  • coderslab.io
  • Santiago (Hybrid)
Python Git SQL BigQuery
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de Ingeniero de Datos para unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

Apply through Get on Board.

Funciones del cargo

  • Desarrollar y mantener pipelines ETL para ingesta, transformación y carga de datos en GCP.
  • Modelar datos para asegurar la calidad, integridad y optimización en BigQuery.
  • Implementar soluciones usando Cloud Functions, Airflow y Cloud Storage para automatización y orquestación de procesos.
  • Colaborar con equipos multidisciplinarios para cumplir con los objetivos del proyecto Lago de Datos 2.0.
  • Utilizar DBT para la transformación y modelado de datos (cuando aplique).
  • Gestionar versiones y colaborar en el control de código mediante GitLab, Bitbucket o GitHub.
  • Documentar procesos técnicos y mantener buenas prácticas en el manejo de datos.

Requerimientos del cargo

  • Experiencia en desarrollo de proyectos de datos (ETLs) en Google Cloud Platform (GCP).
  • Conocimiento y manejo de productos GCP: BigQuery, Cloud Functions, Airflow, Cloud Storage.
  • Experiencia ideal con DBT (Data Build Tool).
  • Dominio de lenguajes SQL y Python.
  • Experiencia con gestores de versionamiento como GitLab, Bitbucket o GitHub.
  • Experiencia en modelado de datos en GCP.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer
  • Compara
Python PostgreSQL Back-end Kafka
Compara es una plataforma digital que permite cotizar y comparar los principales seguros y productos financieros de Latinoamérica. En nuestra empresa, buscamos un Data Engineer que ayude a construir, optimizar y evolucionar nuestra infraestructura de datos. Con un énfasis en la modernización y mejora continua, esta posición es clave para asegurar que nuestros procesos de datos sean eficientes y escalables.

Apply directly on the original site at Get on Board.

🎯 ¿Qué harás?

  • Mantener y optimizar nuestro data warehouse en PostgreSQL y los pipelines de ingesta de datos en producción.
  • Liderar la transición hacia una arquitectura moderna basada en Databricks, dbt y un data lake en S3.
  • Desarrollar y escalar pipelines de procesamiento y transformación de datos.
  • Monitorear, depurar y documentar procesos de datos para garantizar su calidad y confiabilidad.

🔎 ¿A quién buscamos?

  • Persona con más de 3 años de experiencia en ingeniería de datos, construyendo y manteniendo pipelines en producción.
  • Dominio de Python para procesamiento de datos, incluyendo el uso de librerías como pandas, SQLAlchemy y psycopg2.
  • Experiencia trabajando con orquestadores de workflows, especialmente Airflow.
  • Conocimiento sólido de bases de datos relacionales, especialmente PostgreSQL, incluyendo modelamiento y optimización de rendimiento.
  • Experiencia práctica con almacenamiento en la nube (S3 o equivalente) y formatos como Parquet.
  • Autonomía y capacidad de tomar decisiones técnicas.

🌟 Será un plus si cuentas con

  • Experiencia con dbt y modelado de datos.
  • Conocimiento en Databricks, Delta Lake, Apache Iceberg o arquitecturas de lakehouse.
  • Experiencia con diseño e implementación de pipelines CDC (Change Data Capture) usando Debezium, Kafka o similares.
  • Conocimientos de buenas prácticas de DevOps para data (versionado de pipelines, testing, CI/CD).
  • Inglés técnico para leer documentación y colaborar en proyectos internacionales.

🚀Únete a nuestro equipo

En Compara, ofrecemos horarios flexibles y un entorno que favorece el crecimiento profesional. Valoramos la cultura de aprendizaje continuo y el desarrollo de cada miembro del equipo, por lo que si disfrutas optimizando infraestructuras de datos, impulsando mejoras estratégicas y explorando nuevas herramientas, ¡nos encantaría conocerte! 🚀

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Compara provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Compara gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 2000 Tiempo completo
Analista de Datos
  • coderslab.io
  • Santiago (Hybrid)
Python Data Analysis SQL Virtualization

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Analista de Datos para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Apply through Get on Board.

Funciones del cargo

-Desarrollo de componentes en Python
-Utilización de BigQuery:Realizar análisis de datos, ingesta y procesamiento continuo mediante tareas programadas en GCP utilizando BigQuery.
-Transformación de Datos:Aplicar técnicas de transformación de datos utilizando DBT (Data Build Tool) para asegurar que los datos sean precisos y estén listos para su análisis.
-Pruebas de Precisión de Datos:Testear la precisión y validez de los datos, asegurando que se cumplan los estándares de calidad antes de su utilización.
-Seguimiento de Cambios:Realizar un seguimiento de los cambios en los datos y actualizar la documentación correspondiente para mantener un registro claro y comprensible.
-Construcción de Modelos de Datos: Diseñar y construir modelos de datos adecuados que soporten las necesidades del negocio y faciliten el análisis.
-Escritura de Código de Transformación: Escribir y validar código para la transformación de datos, garantizando que sea eficiente y escalable.
Implementación y Documentación: Implementar mejoras en los procesos de datos y documentar todos los procedimientos que se lleven a cabo, facilitando la comprensión y el uso por parte de otros equipos.

Requerimientos del cargo

-Programación
-Python
-SQL: Familiaridad con SQL y posiblemente con otros lenguajes relacionados con el procesamiento de datos.-GCP
-BigQuery : Experiencia en el uso de BigQuery para el manejo y análisis de grandes volúmenes de datos
-Kubernetes
-Docker

Condiciones

Modalidad de contratación: Plazo fijo
Duración del proyecto: 6 meses

POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 2000 Tiempo completo
Analista Desarrollador de Datos
  • coderslab.io
  • Lima (Hybrid)
Agile PostgreSQL SQL Oracle

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un Analista Desarrollador de Datos para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Apply without intermediaries through Get on Board.

Job functions

Buscamos Analistas Desarrolladores de Datos Semi Senior para sumarse a un proyecto estratégico dentro del área de Operaciones y Sistemas. Serán responsables del diseño, desarrollo y automatización de procesos de integración de datos, participando en una célula ágil orientada a la eficiencia operativa.

🛠️ Responsabilidades

  • Desarrollar procesos ETL utilizando Informatica PowerCenter y/o IDMC.
  • Diseñar, implementar y optimizar consultas y procedimientos en bases de datos Oracle, PostgreSQL y SQL Server.
  • Automatizar procesos recurrentes vinculados a la integración y tratamiento de datos.
  • Documentar desarrollos y flujos implementados.
  • Colaborar con el equipo técnico y funcional para entender los requerimientos y proponer soluciones eficientes.
  • Asegurar la calidad, seguridad y disponibilidad de los datos procesados.
  • Participar de reuniones de seguimiento del proyecto bajo metodología ágil.

Qualifications and requirements

  • Mínimo 3 años de experiencia en desarrollo con Informatica PowerCenter y/o IDMC.
  • Mínimo 3 años de experiencia en desarrollo sobre Oracle, PostgreSQL y SQL.
  • Mínimo 1 año de experiencia en automatización de procesos.
  • Disponibilidad inmediata.

Desirable skills

Deseables

  • Conocimientos en herramientas de scheduling como Control M.
  • Experiencia en procesos bancarios, especialmente conciliación y contabilización de transacciones.

Conditions

Modalidad de contratación: Plazo fijo
Duración del proyecto: 4 - 9 meses
Hibrido en Lima Peru

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Especialista en Modelos Analíticos Avanzados
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL Big Data Azure
En BC Tecnología, somos una consultora de servicios IT con más de 6 años de experiencia diseñando y desarrollando soluciones tecnológicas acorde a las necesidades de nuestros clientes. Nuestra oferta abarca desde la consultoría y diseño de soluciones, pasando por la formación de equipos y outsourcing de personal, hasta el desarrollo y soporte de proyectos en diversas industrias como servicios financieros, seguros, retail y gobierno. Nos especializamos en crear equipos ágiles, adaptados para trabajar en áreas de infraestructura tecnológica y desarrollo de software, brindando productos y servicios que apoyan la evolución digital de nuestros clientes.

This job is exclusive to getonbrd.com.

Responsabilidades principales

  • Participar activamente en todas las etapas del ciclo de vida del análisis de datos, incluyendo la identificación, estructuración y preparación de datos relevantes para el proyecto.
  • Diseñar, desarrollar e implementar modelos analíticos avanzados, empleando técnicas de estadística clásica y aprendizaje automático para extraer insights clave.
  • Construir visualizaciones de datos efectivas para monitorear periódicamente los indicadores clave de desempeño (KPIs) y facilitar la comprensión de los resultados.
  • Comunicar claramente los hallazgos y resultados analíticos a las áreas de negocio para apoyar la toma de decisiones estratégicas.
  • Llevar a cabo el mantenimiento evolutivo y la optimización continua de los modelos analíticos desplegados, asegurando su calidad, escalabilidad y rendimiento en producción.
  • Colaborar estrechamente con los equipos de ingeniería para garantizar el correcto despliegue y funcionamiento de los modelos en ambientes productivos.
  • Desarrollar e implementar APIs para facilitar el acceso y consumo de los modelos analíticos por otras aplicaciones y servicios internos.
  • Aplicar un enfoque crítico y orientado al negocio para resolver problemas complejos y aportar soluciones efectivas basadas en datos.

Perfil requerido

Buscamos un profesional con título en Ingeniería, Economía, Estadística o carreras afines, con sólida capacidad analítica tanto cuantitativa como cualitativa. Es fundamental poseer experiencia comprobada en el diseño, desarrollo y despliegue de modelos analíticos avanzados, trabajando en conjunto con equipos técnicos en ambientes productivos.
El candidato debe contar con conocimientos avanzados en estadística aplicada, aprendizaje automático, y metodologías analíticas modernas. Además, se requiere un dominio fuerte de SQL para manipulación y consulta de bases de datos, así como programación en Python y PySpark para procesamiento de datos a gran escala.
Es muy valorada la experiencia trabajando con plataformas Azure y Databricks para la gestión y explotación de big data. También es importante la experiencia en el desarrollo y consumo de APIs para integración de modelos y aplicaciones.
Buscamos un profesional comprometido, rigoroso, con actitud crítica y capacidad para presentar resultados de forma clara, orientado a resolver problemas desde una perspectiva de negocio e impacto.

Requisitos deseables

Serán considerados plus aquellos candidatos con experiencia adicional en técnicas de deep learning, manejo de otras herramientas de visualización de datos avanzadas, conocimientos en arquitecturas de microservicios y habilidades en automatización de pipelines analíticos.
Además, se valorará la experiencia en trabajo en equipos multidisciplinarios bajo metodologías ágiles, buen manejo de comunicación efectiva, y disposición para aprendizaje continuo en nuevas tecnologías emergentes.

Beneficios y cultura empresarial

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Relocation offered If you are moving in from another country, BC Tecnología helps you with your relocation.
Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $4500 - 6000 Tiempo completo
Platform Engineer
  • Kore RPO
TSQL Power BI Data lake Databricks

We understand how complicated it can be to run a recruiting organization. Here at KORE RPO, we help reduce recruiting costs and increase candidate engagement without increasing the number of recruiters in your organization.

We have senior recruitment resources readily available to assist with all your recruiting needs. We can increase the volume of candidates without compromising on the quality.

Unlike many other RPO companies, we have a depth of understanding of staffing and recruiting organizations. We can help you build a process and operation that integrates with your existing team to increase revenue and profitability.

We are looking:

  • An excellent communicator across all organizational levels with the ability to derive insights from data.
  • A professional with sound judgment and decision-making skills.
  • A self-starter with a strong sense of urgency.
  • A creative, energetic problem solver with flexibility in approach.
  • A relationship-builder with leadership capabilities.

Official job site: Get on Board.

Job functions

  • Deliver and improve prioritized enterprise-certified data assets to support analytics, reporting, and visualization.
  • Design, build, test, and maintain end-to-end data solutions within a global analytics environment using established design patterns and modeling techniques.
  • Promote tools and data usage for increased organizational data access and decision-making capabilities.
  • Explore and integrate internal/external data sources for analysis and development using tools like datalake, databricks, and synapse.
  • Collaborate with product teams to support large-scale business initiatives, perform data modeling, validate/report data, and deliver insights to stakeholders.
  • Respond to ad-hoc analytical needs with validated, actionable findings.

Qualifications and requirements

  • Bachelor’s degree in Computer Science, Information Technology, or equivalent experience.
  • 4+ years of hands-on experience with Data/BI delivery for data warehouses and related applications.
  • 3+ years of experience in Azure SQL and services.
  • Experience with Microsoft Power BI for data visualization.
  • Technical and/or business experience designing BI solutions.
  • Familiarity with installation, configuration, and stabilization of BI/Enterprise Reporting implementations.
  • Knowledge of relational and dimensional modeling and data warehousing methodologies.
  • Expertise in writing T-SQL and DAX.
  • Experience in creating application support documentation for production changes.

POSTULAR VÍA WEB Ver trabajo
Gross salary $4500 - 6000 Tiempo completo
Sr. Business Intelligence Engineer
  • Kore RPO
TSQL Power BI Data lake Databricks

We understand how complicated it can be to run a recruiting organization. Here at KORE RPO, we help reduce recruiting costs and increase candidate engagement without increasing the number of recruiters in your organization.

We have senior recruitment resources readily available to assist with all your recruiting needs. We can increase the volume of candidates without compromising on the quality.

Unlike many other RPO companies, we have a depth of understanding of staffing and recruiting organizations. We can help you build a process and operation that integrates with your existing team to increase revenue and profitability.

We are looking:

  • An excellent communicator across all organizational levels with the ability to derive insights from data.
  • A professional with sound judgment and decision-making skills.
  • A self-starter with a strong sense of urgency.
  • A creative, energetic problem solver with flexibility in approach.
  • A relationship-builder with leadership capabilities.

Job opportunity published on getonbrd.com.

Job functions

  • Deliver and improve prioritized enterprise-certified data assets to support analytics, reporting, and visualization.
  • Design, build, test, and maintain end-to-end data solutions within a global analytics environment using established design patterns and modeling techniques.
  • Promote tools and data usage for increased organizational data access and decision-making capabilities.
  • Explore and integrate internal/external data sources for analysis and development using tools like datalake, databricks, and synapse.
  • Collaborate with product teams to support large-scale business initiatives, perform data modeling, validate/report data, and deliver insights to stakeholders.
  • Respond to ad-hoc analytical needs with validated, actionable findings.

Qualifications and requirements

  • Bachelor’s degree in Computer Science, Information Technology, or equivalent experience.
  • 4+ years of hands-on experience with Data/BI delivery for data warehouses and related applications.
  • 3+ years of experience in Azure SQL and services.
  • Experience with Microsoft Power BI for data visualization.
  • Technical and/or business experience designing BI solutions.
  • Familiarity with installation, configuration, and stabilization of BI/Enterprise Reporting implementations.
  • Knowledge of relational and dimensional modeling and data warehousing methodologies.
  • Expertise in writing T-SQL and DAX.
  • Experience in creating application support documentation for production changes.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Especialista de Big Data
  • SONDA
  • Santiago (Hybrid)
Java Python PostgreSQL SQL

En SONDA, somos una empresa líder en transformación digital en la región. Desde nuestros inicios, creemos en el rol que desempeñamos para contribuir al desarrollo de las sociedades donde operamos mediante soluciones tecnológicas avanzadas. Actualmente, dentro de unidad de negocio de Digital Application Services, para proyecto SII - Servicio de impuestos indirectos, buscamos a Especialista de Big Data.

Send CV through getonbrd.com.

Funciones del cargo

· Ser responsable de crear el "Big Data", tubería de datos, desde la recolección hasta la entrega para su análisis o para alimentar un producto o servicio basado en análisis predictivos en producción.

· Asegurar que la arquitectura de datos sea factible para que los científicos de datos trabajen con ella.

· Construir y mantener un Data Lakes y ofrece API para acceder al Especialista de Data Science que usa los datos para su análisis y ejecución de modelos de Machine Learning.

· Ser responsable de dar todo el apoyo para que el trabajo del Especialista de Data Science suceda, y sea “más efectivo”.

Requerimientos del cargo

· Estudios superiores en áreas relacionados.

· Desde 2 años de experiencia en cargos similares.

· Construcción de procesos e integración de datos en Big Data

· Conocimiento de conceptos de computación distribuida

· Experiencia y conocimiento en el uso de SQL.

· Uso de bases de datos relacionales, particularmente en Oracle y postgreSQL.

· Bases de Datos NoSQL
· Manejo de sistemas Unix/linux, shell script

· Programación orientada a objetos usando JAVA o Python

· Programación Funcional en Scala/Spark

· Manejo de herramientas de CI/CD.

· Conocimiento de almacenamiento de Datos.
· Diseño de Esquemas de datos

· Conocimiento de Hive, Impala, Kudu

· Conocimiento de Kafka ​

· Deseable conocimiento en el uso de servicios en entorno Cloudera.

Opcionales

Y mucho mejor si destacas por tener alguna certificación o curso en alguno de estos tópicos: ​

· Integración de datos

· Big data

· Desarrollo API

· Microservicios, springboot, springbatch

· Desarrollo en nube

· Desarrollo seguro

· Diseño de aplicaciones

· Metodologías ágiles

Conditions

Wellness program SONDA offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance SONDA pays or copays life insurance for employees.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage SONDA pays or copays health insurance for employees.
Retirement plan SONDA pays or matches payment for plans such as 401(k) and others.
Dental insurance SONDA pays or copays dental insurance for employees.
Commuting stipend SONDA offers a stipend to cover some commuting costs.
Computer provided SONDA provides a computer for your work.
Education stipend SONDA covers some educational expenses related to the position.
Fitness subsidies SONDA offers stipends for sports or fitness programs.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2300 - 2500 Tiempo completo
Data Reporting Engineer
  • Contac Ingenieros
  • Santiago (Hybrid)
Python SQL Azure ETL

En Contac buscamos aportar y potenciar los equipos especializados de nuestros clientes, agregando valor a sus procesos a través de la experiencia de nuestros profesionales.
El equipo de trabajo está orientado a desarrollar, implementar y mantener sistemas avanzados de reportes y visualización de datos, con la finalidad de mejorar la gestión empresarial.

Apply directly at getonbrd.com.

Principales Desafíos

En esta posición, serás el protagonista en la transformación de datos en conocimiento relevante para la toma de decisiones estratégicas dentro de la minería.

  • Diseñar, desarrollar y optimizar reportes y herramientas de visualización que faciliten el acceso y análisis de la información, asegurando que sea clara y estratégica para los diferentes niveles de la organización.
  • Construir, mantener y mejorar las plataformas de datos que alimentan las soluciones de reportabilidad, garantizando la integridad y actualización continua de la información.
  • Integrar y gestionar procesos ETL (Extract, Transform, Load) para asegurar que la información sea confiable, oportuna y eficiente, soportando la toma de decisiones diarias.

Conocimientos Claves y Requisitos

Buscamos profesionales con un perfil técnico avanzado que combine conocimientos en ingeniería con habilidades sólidas en análisis y visualización de datos dentro del sector minero.

  • Python avanzado, con experiencia práctica utilizando librerías especializadas como Pandas, NumPy, Matplotlib, Plotly y Dash para manipulación, análisis y creación de visualizaciones dinámicas.
  • SQL avanzado y competencia en manejo y optimización de bases de datos complejas.
  • Power BI avanzado, capaz de construir dashboards impactantes que faciliten la interpretación y comunicación de datos a niveles estratégicos.
  • Experiencia en gestión de ETL y modelamiento de datos, con familiaridad en el ecosistema Azure para administrar y optimizar plataformas de datos en la nube.
  • Título profesional en Ingeniería Civil o Industrial, preferentemente con especialidad en Metalurgia, Química o Minería, aportando una visión práctica de los procesos productivos y operativos mineros.
  • Conocimiento sólido de los procesos mineros y manejo de indicadores clave del negocio para convertir datos en información relevante y accionable.
  • Mínimo 2 años de experiencia específica en reportabilidad y análisis de datos, preferentemente en el sector minero o industrias relacionadas.
  • Inglés Intermedio (B2)
  • Capacidad para trabajar en equipo, pensamiento analítico, atención al detalle, y orientación a resultados con compromiso en entregar soluciones de calidad que agregan valor.

Competencias y Habilidades Deseables

Es valorado contar con habilidades complementarias que potencien el impacto del rol, tales como:

  • Experiencia previa en industrias de minería o sectores industriales similares, aportando contexto y comprensión profunda de los requerimientos del negocio.
  • Conocimientos en otras herramientas de visualización o BI adicionales a Power BI, como Tableau o QlikView.
  • Familiaridad con metodologías ágiles para gestión de proyectos y desarrollo de soluciones analíticas.
  • Capacidad para comunicar hallazgos técnicos a audiencias no técnicas, facilitando la adopción de soluciones basadas en datos.
  • Interés por la innovación tecnológica y aprendizaje continuo en el ámbito de ciencia de datos y análisis avanzado.

Que ofrecemos

  • Una carrera en tecnología y analítica avanzada, con oportunidades de crecimiento y especialización.
  • Un grato ambiente laboral, donde la colaboración, el aprendizaje y el desarrollo profesional son prioridad.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Especialista Senior en ETL Powercenter
  • BC Tecnología
  • Santiago (Hybrid)
SQL ETL Power Center Agile Methodologies
BC Tecnología es una consultora de TI que ofrece servicios especializados en diferentes áreas tecnológicas. Con seis años de experiencia, brindamos soluciones personalizadas en consultoría, formación de equipos ágiles, outsourcing y desarrollo de proyectos para clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestro enfoque está orientado a metodologías ágiles, cambio organizacional y desarrollo de productos, siempre con un claro enfoque en la satisfacción y necesidades del cliente.
El área de integración de datos es una pieza clave dentro de nuestra estructura, apoyando a clientes en la gestión eficiente y segura de su información mediante el diseño y desarrollo de procesos ETL que permiten la migración y transformación efectiva de datos en entornos complejos.

Find this vacancy on Get on Board.

Responsabilidades principales

Como especialista senior en ETL utilizando PowerCenter, serás responsable de analizar y diseñar soluciones técnicas que permitan la integración eficiente y precisa de datos para nuestros clientes. Trabajarás en la creación y desarrollo de flujos de trabajo ETL asegurando que los procesos de extracción, transformación y carga cumplan con los estándares de calidad y tiempos definidos.
Además, apoyarás la mejora continua de los procesos existentes y brindarás soporte técnico y documentación detallada para facilitar la operatividad y manejo de los usuarios funcionales. Mantendrás una comunicación estrecha con otros equipos técnicos para coordinar e integrar soluciones en entornos multicapa y complejos, siempre con un enfoque colaborativo y orientado a resultados.
  • Análisis funcional y técnico de requerimientos para integración de datos.
  • Diseño y desarrollo de flujos ETL con PowerCenter.
  • Implementación y mejora continua de procesos de ETL.
  • Elaboración de documentación técnica y soporte a usuarios funcionales.
  • Coordinación con equipos técnicos multidisciplinarios.

Perfil y requisitos técnicos

Buscamos un profesional con al menos 3 años de experiencia comprobada en desarrollo de procesos ETL utilizando PowerCenter, capaz de diseñar soluciones técnicas sólidas y eficientes para la integración de datos. Es fundamental contar con un conocimiento profundo en SQL y experiencia en diseño de soluciones de integración en entornos reales y desafiantes.
El candidato ideal demostrará habilidades en análisis funcional y técnico, autonomía para solucionar problemas técnicos bajo presión, y capacidad para trabajar en equipo, con un fuerte enfoque a la calidad y resultados. Además, se valorará experiencia previa o conocimientos en Control-M para la orquestación de procesos y preferiblemente en el sector financiero o bancario, dado que nuestros clientes principales provienen de este rubro.
Se requieren también competencias interpersonales que faciliten la comunicación con usuarios funcionales y técnicos, adaptabilidad a metodologías ágiles y capacidad de documentación clara y efectiva.

Conocimientos y experiencias valoradas

Será altamente valorado el conocimiento en herramientas de automatización de tareas como Control-M, que aportan a la eficiencia del proceso ETL y su correcta ejecución programada. También se considerará una ventaja tener experiencia o familiaridad previa con el sector financiero y bancario, lo que facilitará la comprensión de los requisitos específicos de la industria y normativas asociadas.
Habilidades adicionales en gestión de proyectos, manejo de metodologías ágiles y experiencia colaborando en equipos multidisciplinarios también serán consideradas importantes para el desempeño óptimo del puesto.

Beneficios y ambiente laboral

Aunque el anuncio no menciona específicamente beneficios o condiciones particulares, en BC Tecnología ofrecemos un ambiente colaborativo donde valoramos el compromiso, el aprendizaje continuo y el trabajo en equipo. Promovemos el desarrollo profesional mediante asignación en proyectos desafiantes con clientes de alto nivel en el sector financiero y otros sectores variados.
Como consultora orientada a soluciones ágiles y a la satisfacción del cliente, fomentamos la integración y coordinación entre equipos, lo que se traduce en oportunidades de crecimiento y aprendizaje constante.

POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 2400 Tiempo completo
Data Engineer
  • Muruna
  • Lima (Hybrid)
Azure ETL RabbitMQ Data lake
Muruna es una empresa chilena con amplia experiencia en el sector financiero, especializada en proveer servicios tecnológicos y staffing altamente especializados. Nos distinguimos por brindar soluciones innovadoras y contar con un equipo profesional orientado a la excelencia. Actualmente, el equipo de datos se enfoca en construir y mantener infraestructuras de datos modernas y escalables para clientes del sector financiero, utilizando las últimas tecnologías en cloud computing y análisis de datos. Nuestra propuesta está enfocada en entregar soluciones robustas que impulsan la toma de decisiones basada en datos, aprovechando plataformas de nube y arquitecturas de datos avanzadas como Medallion.

Apply at getonbrd.com without intermediaries.

Responsabilidades principales:

  • Diseño de arquitecturas de datos: Definir, diseñar y documentar flujos de datos, modelos lógicos y estándares de calidad en plataformas cloud como AWS y Azure, asegurando que la infraestructura soporte escalabilidad y seguridad.
  • Implementación de pipelines ETL/ELT: Construir, monitorear y optimizar canalizaciones de ingestión, transformación y carga de datos para garantizar la integridad y disponibilidad de la información en los sistemas destino.
  • Modelado y almacenamiento: Diseñar esquemas eficientes tanto en bases de datos relacionales como NoSQL; gestionar y administrar data lakes y data warehouses para una correcta organización y accesibilidad de los datos.
  • Monitoreo y optimización: Establecer métricas clave de rendimiento, configurar alertas proactivas y ejecutar procesos de tuning para asegurar la eficiencia, disponibilidad y calidad continua de las soluciones implementadas.

Descripción del perfil y habilidades requeridas:

Buscamos un Data Engineer con una experiencia sólida de 3 a 5 años en el diseño, construcción y mantenimiento de soluciones de datos escalables en ambientes cloud. El candidato ideal posee conocimientos profundos en plataformas AWS y Azure, con práctica comprobada en el uso de Databricks y Spark SQL para procesamiento de datos. Debe estar familiarizado con arquitecturas de datos modernas, especialmente el patrón Medallion (capas bronze, silver y gold) que permite una gestión eficiente y escalable de diferentes niveles de datos.
Se valoran altos estándares en gobernanza, seguridad y calidad de datos, aplicando buenas prácticas para proteger la integridad y privacidad de la información. El candidato debe contar con habilidades analíticas, pensamiento crítico y capacidad para resolver problemas complejos de forma autónoma y en equipo. Además, es fundamental la capacidad de documentar procesos y comunicarse eficazmente con equipos multidisciplinarios para alinear objetivos tecnológicos con las necesidades del negocio.

Conocimientos y tecnologías deseables:

Se consideran un plus pero no excluyentes las siguientes habilidades adicionales: experiencia con tecnologías de streaming y mensajería como Apache Kafka y RabbitMQ, así como manejo de procesamiento en tiempo real usando Apache Flink o Spark Streaming. También es deseable experiencia en el desarrollo de APIs REST para integraciones y la orquestación de workflows complejos.
Las certificaciones oficiales en AWS, Azure o Databricks son altamente valoradas como indicativo del compromiso con la excelencia y actualización tecnológica, aunque no son un requisito obligatorio para la postulación.

Beneficios:

Ofrecemos una modalidad híbrida 4x1, que requiere la presencia en oficina dos días por semana, siendo el miércoles uno de ellos. Nuestras oficinas están ubicadas en Las Condes, Santiago de Chile, equipadas con infraestructura moderna que favorece un entorno de trabajo dinámico y colaborativo.
Promovemos un equilibrio saludable entre la vida laboral y personal al permitir flexibilidad para trabajar de forma remota los días restantes. Valoramos el desarrollo profesional continuo e incentivamos la obtención de certificaciones y formación en tecnologías vanguardistas, especialmente en el ecosistema Google, gracias a nuestras alianzas estratégicas.
El ambiente laboral es innovador y participativo, fomentando el trabajo en equipo, la iniciativa individual y la motivación permanente mediante beneficios competitivos que garantizan que nuestro talento se sienta valorado e integrado como parte fundamental del proyecto empresarial.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Muruna provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3000 - 4000 Tiempo completo
Business Intelligence Developer
  • TECLA
Agile MySQL PostgreSQL Oracle

TECLA is a fully remote software development company with a diverse and highly skilled team of 100+ experts across Latin America. We specialize in AI, cloud, automation, and DevOps, building innovative solutions for high-growth startups and established mid-market technology companies in the U.S.

Our work culture is agile, collaborative, and fast-paced—we take our work seriously while keeping the environment fun and engaging. As a remote-first company, we emphasize strong teamwork and close collaboration, working seamlessly with our U.S. partners as one integrated unit. Whether optimizing cloud environments, developing AI-driven applications, or enhancing DevOps automation, TECLA is at the forefront of technical innovation, solving complex challenges with cutting-edge technology.

This job offer is available on Get on Board.

Job Details:

We are seeking a Business Intelligence Developer to contribute to the design, development, and implementation of data visualization solutions. This role provides an exciting opportunity to work with and learn about downstream data visualization tools to enable insights and decisions across the organization. This role will aid in the visualization of data across R&D, Finance, and Manufacturing workflows.

Responsibilities:

  • Collaborate within a highly cross-functional biotechnology data solutions team to deliver decision-enabling dashboards for R&D, Finance and Manufacturing.
  • Engage with stakeholders to understand best-case data visualization solutions, using dashboarding tools such as PowerBI, Tableau, Spotfire, etc.
  • Extract and source data from custom systems from third parties, such as TOTVS, and from data warehouses.
  • Follow Agile methodology to deliver reports and dashboards.
  • Prepare documentation and conduct functionality tests.
  • Clearly articulate and communicate results, solutions, and vision to stakeholders and managers.

Required Qualifications:

  • Bachelor’s degree in Computer Science, Information Technology, Biotechnology, or equivalent.
  • 2+ years working experience in a scientific solutions, commercial or public research organization handling a wide variety of datasets.
  • 5+ years of experience developing dashboards from complex data models using PowerBI, or mixed experience with an alternate data visualization tool such as Tableau.
  • Familiarity with at least two database design and querying languages such as SQL Server, MySQL, PostgreSQL, or Oracle.
  • Experience with ERP systems such as TOTVS ERP, D365 F&O, Salesforce etc.
  • Agility and a solution-oriented mindset.
  • Demonstrated commitment to maintaining a high level of ownership and seeing assignments through to completion.
  • Excellent communication skills with a diverse set of stakeholders.
  • Fluent in English.

Preferred Qualifications:

  • Master’s degree in Computer Science, Information Technology, Life Science, Biotechnology, or equivalent.
  • Hands-on data aggregation, cleaning, normalization and visualization experience within the Microsoft ecosystem.
  • Knowledge of financial, manufacturing and lab processes and operations.
  • Highly proficient in Excel, with experience developing functions and VBA macros.
  • Ability to interact with both data and non-data personnel to apply an off-the-shelf data management system based on a collected set of user requirements.
  • Experience in writing software documentation and conducting testing.

Benefits:

  • A fully remote position with a structured schedule that supports work-life balance.
  • The opportunity to work with a fast-growing company driving digital transformation across enterprise IT infrastructure and operations.
  • Two weeks of paid vacation per year.
  • 10 paid days for local holidays.

*Please note our company is only looking for full-time dedicated team members who are eager to fully integrate within our team.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer
  • NeuralWorks
  • Santiago (Hybrid)
Python Data Analysis SQL Big Data

NeuralWorks es una compañía de alto crecimiento fundada hace 3 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

Applications: getonbrd.com.

Descripción del trabajo

El equipo de Data y Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.
Dentro del equipo multidisciplinario con Data Scientist, Translators, DevOps, Data Architect, tu rol será clave en construir y proveer los sistemas e infraestructura que permiten el desarrollo de estos servicios, formando los cimientos sobre los cuales se construyen los modelos que permiten generar impacto, con servicios que deben escalar, con altísima disponibilidad y tolerantes a fallas, en otras palabras, que funcionen. Además, mantendrás tu mirada en los indicadores de capacidad y performance de los sistemas.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Como Data Engineer, tu trabajo consistirá en:

  • Participar activamente durante el ciclo de vida del software, desde inception, diseño, deploy, operación y mejora.
  • Apoyar a los equipos de desarrollo en actividades de diseño y consultoría, desarrollando software, frameworks y capacity planning.
  • Desarrollar y mantener arquitecturas de datos, pipelines, templates y estándares.
  • Conectarse a través de API a otros sistemas (Python)
  • Manejar y monitorear el desempeño de infraestructura y aplicaciones.
  • Asegurar la escalabilidad y resiliencia.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia práctica de al menos 3 años en entornos de trabajo como Data Engineer, Software Engineer entre otros.
  • Experiencia con Python.
    Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida optimización de consultas.
  • Pasión en problemáticas de procesamiento de datos.
  • Experiencia con servidores cloud (GCP, AWS o Azure), especialmente el conjunto de servicios de procesamiento de datos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.
  • Habilidades de comunicación y trabajo colaborativo.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” D. Gaucher , J. Friesen and A. C. Kay, Journal of Personality and Social Psychology, 2011.

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Vestimenta informal
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1700 - 2100 Tiempo completo
Data Scientist
  • Kunzapp
  • Santiago &nbsp Ciudad de México (Hybrid)
Python Git Data Analysis SQL

En Kunzapp buscamos un Data Scientist con fuerte ambición y deseo de aprender para desarrollar e implementar modelos de machine learning, análisis de datos, y colaborar con visualizaciones de los KPIs que miden nuestros productos. Esta persona será parte de un equipo de desarrollo pequeño pero poderoso, en un entorno de startup donde la velocidad y la ejecución son clave. Buscamos a alguien que ame el análisis de datos, la experimentación, y construir cultura mientras escalamos.

Apply to this job through Get on Board.

🚀 Responsabilidades

  • Desarrollar e implementar modelos de machine learning y análisis estadístico.
  • Diseñar y mantener pipelines de datos eficientes y escalables.
  • Participar activamente en el proceso de Scrum: grooming, sprint planning, dailies.
  • Colaborar con producto para traducir iniciativas de negocio en soluciones basadas en datos.
  • Promover un ambiente de trabajo transparente, donde se pueda aprender, compartir y crecer.
  • Implementar y mantener sistemas de monitoreo de modelos y métricas clave.
  • Desarrollar experimentos A/B y análisis estadísticos para validar hipótesis.
  • Comunicar hallazgos y recomendaciones basadas en datos al equipo y stakeholders.

🛠 Stack tecnológico actual:

Backend: Go (Gin+Gorm), Python

Análisis de datos: Python, Jupyter Notebooks

Data Engineering: SQL, DynamoDB, SQS, EventBridge

Otros: Git, Docker, AWS Sagemaker, AWS Bedrock, Datadog, Elasticsearch

¿ Qué necesitamos de ti ? 🕵🏻

  • Experiencia en data science y machine learning en entornos productivos.
  • Sólidos conocimientos en estadística y matemáticas.
  • Dominio de Python y sus principales librerías de data science.
  • Mentalidad de "ship fast, fix fast", con enfoque en resultados medibles.
  • Experiencia en implementación y monitoreo de modelos en producción.
  • Ambición, ganas de crecer, y mucho deseo de aprender y mejorar habilidades técnicas.
  • Capacidad para comunicar efectivamente hallazgos técnicos a audiencias no técnicas.
  • Inglés intermedio-avanzado (nuestra documentación se escribe en inglés).

✅ Beneficios

  • Aguinaldo 15 días en Diciembre
  • Bono anual de hasta 1 mes de sueldo basado en performance.
  • Crecimiento constante y acelerado, basado en el crecimiento de Kunzapp.
  • Stock options: Posibilidad a obtener stock optionsOtros beneficios

Wellness program Kunzapp offers or subsidies mental and/or physical health activities.
Equity offered This position includes equity compensation (in the form of stock options or another mechanism).
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Company retreats Team-building activities outside the premises.
Computer provided Kunzapp provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Vacation over legal Kunzapp gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 2000 Tiempo completo
Analista / Desarrollador ETL Powercenter
  • coderslab.io
  • Santiago (Hybrid)
SQL ETL Power Center Resolución de problemas

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de Analista / Desarrollador ETL PowerCenter para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Originally published on getonbrd.com.

Job functions

  • Realizar el análisis, diseño y desarrollo de procesos ETL utilizando PowerCenter.
  • Participar en el relevamiento de requerimientos técnicos y funcionales.
  • Colaborar con equipos multidisciplinarios para garantizar la correcta implementación de soluciones.
  • Ejecutar pruebas y validaciones para asegurar la calidad de los desarrollos.
  • Documentar procesos, flujos y procedimientos técnicos asociados a las soluciones implementadas.

Qualifications and requirements

🎯 Requisitos

  • Mínimo 3 años de experiencia comprobable en desarrollo con PowerCenter.
  • Sólidas habilidades en análisis funcional y técnico.
  • Dominio de SQL para consultas y optimización de procesos.
  • Conocimientos deseables en Control-M para automatización y scheduling de tareas.
  • Capacidad para desenvolverse en entornos de alta demanda y cambios constantes.

🧠 Habilidades blandas valoradas

  • Alta capacidad de análisis y resolución de problemas.
  • Trabajo en equipo y colaboración efectiva con otras áreas.
  • Buena comunicación interpersonal.
  • Manejo de la presión y actitud resiliente frente a desafíos.

Conditions

Hibrido en Santiago de Chile.
Renta en pesos Chilenos

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer with Snowflake Expertise
  • Moventi
Python Agile SQL Business Intelligence
At Moventi, we focus on helping organizations lead with innovation through technology. Our team consists of a multidisciplinary group of talents working together to adopt new technologies, methodologies, and collaborative work styles that enhance professional growth and project impact. The office is centrally located, equipped with parking, recreational areas for break times, and agile meeting spaces to foster teamwork across different professional profiles. Our organizational culture emphasizes transparency, strong coordination, commitment, willingness to take risks, and daily innovation with original ideas that generate positive impact.

Apply directly through getonbrd.com.

Job Responsibilities and Core Functions

We are looking for a Data Engineer skilled in Snowflake, Airflow, Python, SQL, and Tableau who will play a key role in designing, developing, and maintaining efficient data pipelines and workflows. The primary goal is to enable reliable data processing and visualization to support business intelligence efforts.
  • Design, implement, and optimize data pipelines using Airflow and Python for automated and scalable data processing.
  • Develop and maintain Snowflake data warehouses ensuring data integrity, performance, and security.
  • Create SQL queries and scripts for data preparation, transformation, and loading processes.
  • Build and maintain interactive, insightful dashboards and reports in Tableau to provide actionable insights to stakeholders.
  • Collaborate cross-functionally with data analysts, business users, and other engineering teams to understand data needs and translate them into technical solutions.
  • Troubleshoot, monitor, and optimize existing data workflows and dashboards to improve performance and reliability.

Required Skills and Experience

The ideal candidate will have proven hands-on experience working in data engineering roles, particularly with Snowflake as the data warehousing solution. Strong proficiency in Python and Airflow is essential for orchestrating data workflows. Advanced SQL skills are critical for querying and managing complex datasets. Experience in building Tableau dashboards to enable data visualization and reporting is necessary to communicate insights effectively.
Beyond technical expertise, candidates should be proactive, detail-oriented, and have strong problem-solving capabilities. Excellent communication skills and the ability to work collaboratively in a team environment are vital to succeed in this role. We value professionals who embrace transparency and are committed to innovation and continuous learning.

Desirable Skills and Traits

Experience with cloud environments and other data orchestration tools will be advantageous. Familiarity with additional BI tools or programming languages can enhance your profile. Prior experience in agile methodologies and working in multidisciplinary teams will help you excel and adapt quickly within Moventi’s culture.

Benefits and Work Environment

We are dedicated to the professional development of our team members by offering challenging projects and continuous learning opportunities. From your first day, you will have formal employment as a contractor and can enjoy a birthday free day to celebrate your special moment.
  • Opportunities for ongoing professional growth and learning
  • Formal employment contract starting day one as a contractor
  • Birthday free day to celebrate you
  • Engagement in challenging and impactful projects

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero Analítica y Gestión Financiera
  • Agrosuper
  • Rancagua (Hybrid)
Python Analytics Data Analysis SQL

En Agrosuper, tenemos la misión de llevar alimentos de la más alta calidad a las familias de Chile y el mundo. Nos mueve el deseo de alimentar el talento y las ganas de crecer constantemente. Buscamos mejorar y fomentar un entorno donde todos disfruten lo bueno de la vida, por lo que valoramos a las personas, que son el alma de nuestra organización .

Te invitamos a participar del proceso de selección para el cargo Ingeniero Analítica y Gestión Financiera. Buscamos incorporar profesionales de formación Ingeniero Civil, para trabajar en la Gerencia de Planificación y Gestión de Administración y Finanzas, y desempeñarse en la ciudad de Rancagua.

El objetivo del cargo es integrar habilidades en data science y desarrollo de proyectos tecnológicos, proporcionando soporte estratégico y analítico a los equipos de la Gerencia de Planificación y Gestión; Además de colaborar estrechamente con las áreas de excelencia operacional, transformación digital y tecnología & datos.

This job is exclusive to getonbrd.com.

Funciones del cargo

1 .Desarrollo de Modelos Predictivos y Prescriptivos: Crear modelos que integren variables financieras y operativas en coordinación con los equipos de planificación y control de gestión para mejorar las proyecciones.
2. Asesoría Técnica en Análisis y Sensibilización de Escenarios: Proveer asesoría técnica para el análisis de escenarios, detección de patrones y optimización de proyecciones financieras.
3. Aseguramiento de la Calidad e Integridad de los Datos: Garantizar la calidad e integridad de los datos, involucrando a los equipos pertinentes para obtener resultados precisos y confiables.
4. Diseño e Implementación de Paneles y Reportes Interactivos: Diseñar e implementar paneles y reportes interactivos para monitorear y controlar KPIs financieros, operativos y estratégicos.
5 Consolidación y Transformación de Datos: Consolidar y transformar datos de diversas fuentes en análisis integrales, trabajando con los equipos involucrados para decisiones basadas en información confiable.
6 Liderazgo en Proyectos de Transformación Digital y Automatización: Liderar iniciativas de transformación digital y proyectos de automatización en procesos recurrentes como cierre mensual y proyecciones.
7. Evaluación de Viabilidad Financiera y Técnica de Proyectos: Evaluar la viabilidad financiera de proyectos de inversión y la viabilidad técnica de proyectos de transformación, proporcionando herramientas de análisis a los equipos.
8.Soporte Analítico y Promoción de Cultura Data-Driven: Colaborar con equipos de planificación financiera y gestión estratégica, asesorar en la formulación de proyectos y evaluaciones del negocio, y promover una cultura basada en datos.

Requerimientos del cargo

1.Ingeniero Civil
2.Experiencia en el uso de herramientas de visualización de datos (ej.: Power BI, Tableau).
3. Dominio de herramientas de análisis de datos (ej. Python, R o SQL).
4. Disponibilidad para trabajar en Rancagua 4x1.
5. Deseable experiencia en gestión financiera.

Condiciones

Te mostramos algunos de nuestros beneficios:
Planes de crecimiento y desarrollo.
Capacitaciones y becas de estudios.
Convenios con distintas instituciones.
Bonos asociados al desempeño.

Computer provided Agrosuper provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Technical Business Analyst
  • Nisum Latam
Agile SQL Business Intelligence Scrum

Nisum is a leading global digital commerce firm headquartered in California, with services spanning digital strategy and transformation, insights and analytics, blockchain, business agility, and custom software development. Founded in 2000 with the customer-centric motto “ Building Success Together® ,” Nisum has grown to over 1,800 professionals across the United States, Chile, Colombia, India, Pakistan and Canada.


Nisum is an Equal Opportunity Employer and we are proud of our ongoing efforts to foster diversity and inclusion in the workplace.

Apply to this job from Get on Board.

What You’ll Do

  • Understand and define complex business needs and translate them into technical requirements.
  • Act as a liaison between business stakeholders and technical teams to ensure clear understanding and delivery of solutions.
  • Drive continuous process improvements across projects and teams.
  • Define, document, and manage functional requirements, user stories, use cases, business cases, and BRDs. Engage stakeholders through effective communication, elicitation of requirements, and impactful presentations.

Qualifications and requirements

  • You must reside in Chile or Colombia
  • Advanced english skills
  • 4+ years of relevant experience
  • Strong experience with Tableau, Power BI, and SQL.
  • Understanding of how a Scrum team operates, including the creation and management of user stories and Business Requirements Documents (BRDs).
  • Ability to define and understand business needs clearly and translate them into functional requirements.

Critical Skills

  • Analytical Thinking: Business process modeling, root cause analysis
  • Communication: Stakeholder engagement, requirements elicitation, presentation skills
  • Documentation: Business cases, user stories, use cases, BRDs
  • Problem Solving : Gap analysis, SWOT analysis, decision modeling
  • Domain Knowledge: Strong understanding of industry standards, business operations, and best practices
  • Tools: MS Excel, Visio, JIRA, Confluence, BPM tools, Tableau/Power BI (for data insights)

What can we offer you?

  • Belong to an international and multicultural company that supports diversity.
  • Be part of international projects with a presence in North America, Pakistan, India and Latam.
  • Work environment with extensive experience in remote and distributed work, using agile methodologies.
  • Culture of constant learning and development in current technologies.
  • Pleasant and collaborative environment, with a focus on teamwork.
  • Access to learning platforms, Google Cloud certifications, Databricks, Tech Talks, etc.
  • Being part of various initiatives and continuous participation in internal and external activities of innovation, hackathon, technology, agility, talks, webinars, well-being and culture with the possibility not only to participate but also to be an exhibitor.

POSTULAR VÍA WEB Ver trabajo
Gross salary $2200 - 2500 Tiempo completo
Analista Senior BI
  • BC Tecnología
  • Santiago (Hybrid)
Analytics Excel SQL Business Intelligence
BC Tecnología es una consultora de Servicios IT con más de seis años de experiencia ofreciendo soluciones tecnológicas adaptadas a las necesidades específicas de sus clientes, que incluyen sectores como servicios financieros, seguros, retail y gobierno. Nos especializamos en la formación de equipos ágiles para áreas de Infraestructura, Desarrollo de Software y Unidades de Negocio. Además, administramos portafolios de proyectos, realizamos outsourcing y llevamos a cabo selección de profesionales especializados, siempre con un enfoque claro en el cliente, metodologías ágiles y el desarrollo continuo de productos de alta calidad.

Official job site: Get on Board.

Responsabilidades principales

  • Diseñar, desarrollar y mantener dashboards e informes utilizando Power BI para respaldar decisiones estratégicas de negocio.
  • Realizar análisis de datos orientados a identificar oportunidades de mejora y resolver problemáticas comerciales, apoyando diferentes áreas de la organización.
  • Colaborar estrechamente con varias unidades de negocio para recopilar requerimientos y proponer soluciones analíticas basadas en datos.
  • Fomentar la adopción y uso eficiente de herramientas analíticas, promoviendo la alfabetización digital dentro de la empresa.
  • Implementar buenas prácticas en el modelamiento de datos, diseño visual de informes y validación de fuentes confiables para garantizar la precisión de la información.
  • Participar activamente en iniciativas de automatización y mejora continua de reportes para optimizar procesos y reducir tiempos.

Requisitos

Buscamos un Analista Senior BI con dominio avanzado en Power BI, especialmente en DAX, modelamiento de datos y visualización efectiva de información. Es fundamental tener conocimientos sólidos en SQL para extracción y manipulación eficiente de datos, así como habilidades avanzadas en Excel para el análisis complementario. Se valorará experiencia adicional con herramientas de visualización como Tableau, que aporte diversidad en la presentación de datos, y conocimientos en plataformas en la nube tales como Google BigQuery o AWS Redshift, que ayuden a gestionar grandes volúmenes de información.
Además, el candidato debe contar con fuertes habilidades de comunicación para interactuar efectivamente con clientes internos y equipos multifuncionales, tener orientación al cliente para entender sus necesidades y una mentalidad analítica que permita transformar datos en insights estratégicos. La capacidad para trabajar en entornos colaborativos, con metodologías ágiles y una proactividad constante será clave para el éxito en este rol.

Conocimientos deseables

Serán altamente valorados conocimientos y experiencia previa en Tableau, que permita complementar y diversificar las soluciones de visualización de datos. Asimismo, el manejo de plataformas de datos en la nube como Google BigQuery o AWS Redshift es deseable para facilitar el procesamiento y análisis de grandes volúmenes de datos desde infraestructuras modernas y escalables. Estas habilidades aportarán mayor flexibilidad y profundidad a las soluciones de inteligencia de negocios en la organización.

Beneficios

Ofrecemos un contrato inicial para un proyecto de dos meses, con posibilidad de extensión dependiendo del desempeño y las necesidades del proyecto. La modalidad de trabajo es híbrida, combinando la flexibilidad del trabajo remoto con la colaboración presencial. Promovemos un ambiente de aprendizaje continuo apoyado en metodologías ágiles y un equipo diverso enfocado en la calidad y los resultados. Este proyecto es ideal para quienes disfrutan enfrentar retos tecnológicos en ambientes dinámicos y críticos, donde el impacto de su trabajo es tangible.

POSTULAR VÍA WEB Ver trabajo
Gross salary $1800 - 2500 Tiempo completo
Data Engineer Semisenior / Senior
  • Lisit
  • Santiago (Hybrid)
Python Data Analysis SQL Big Data

Lisit es una empresa dedicada a la creación, desarrollo e implementación de servicios de software enfocados en proporcionar herramientas de automatización y optimización que impulsan la eficiencia operativa de sus clientes. Trabajamos con un enfoque constante en la innovación y la pasión por superar desafíos tecnológicos. Nuestra propuesta diferencial radica en un acompañamiento consultivo integral, utilizando diversas herramientas y prácticas tecnológicas que permiten a los clientes alcanzar con éxito sus objetivos de transformación digital.

Find this vacancy on Get on Board.

Responsabilidades y Objetivos del Puesto

Como Data Engineer en Lisit, serás responsable de diseñar, construir y mantener pipelines de datos robustos que faciliten la integración entre múltiples sistemas, asegurando un modelado de datos eficiente y alineado con los requerimientos del negocio. Te encargarás de implementar soluciones escalables utilizando herramientas de Infraestructura como Código (IaC) y gestionar el versionamiento del código para garantizar calidad y trazabilidad.

Participarás activamente en la implementación y optimización de soluciones cloud sobre plataformas como Google Cloud Platform (GCP) y Azure, utilizando productos específicos como Airflow, Cloud Run, Cloud Composer, BigQuery y Azure Functions. La elaboración y mantenimiento de procesos ETL/ELT serán clave para asegurar el flujo y la calidad de los datos.

Trabajarás colaborativamente con equipos multidisciplinarios, manteniendo una comunicación fluida y contribuyendo a la innovación continua en los proyectos, siempre con foco en la entrega de valor y el cumplimiento de los objetivos tecnológicos y de negocio.

Requisitos y Habilidades Exigidas

  • Mínimo 3 años de experiencia profesional en manejo y procesamiento de datos, enfocándose en la generación de pipelines, integración de sistemas y modelado de datos.
  • Dominio intermedio a avanzado en lenguajes de programación como Python y Spark, con capacidad para desarrollar y optimizar scripts y procesos complejos.
  • Sólidos conocimientos intermedios a avanzados en Infraestructura como Código (IaC), especialmente usando Terraform.
  • Amplia experiencia con sistemas de versionamiento de código, preferentemente GitHub y GitLab, garantizando buenas prácticas de control y colaboración.
  • Conocimiento avanzado en SQL y bases de datos relacionales y no relacionales, capaces de diseñar consultas complejas y optimizar el rendimiento.
  • Familiaridad intermedia a avanzada con plataformas cloud como Google Cloud Platform y Microsoft Azure, así como con herramientas específicas como Airflow, Cloud Run, Cloud Composer, BigQuery y Azure Functions.
  • Experiencia avanzada con herramientas ETL/ELT, destacándose el uso de Azure Data Factory, siendo este un requisito excluyente.
  • DESEABLE: Certificaciones relevantes en Data Engineering valoradas positivamente, incluyendo Microsoft Azure DP-700, AZ-203, DP-600, Google Cloud Digital Leader y Google Cloud Associate Cloud Engineer.
  • DESEABLE: Conocimientos deseables en Microsoft Power BI y Microsoft Fabric para complementar la visualización y análisis de datos.

Además, buscamos profesionales con capacidad analítica, buenas habilidades comunicativas, actitud proactiva y capacidad para trabajar en equipo, orientados a la mejora continua y la entrega eficiente y efectiva de soluciones.

Conocimientos y Certificaciones Deseables

Valoraremos positivamente candidatos que posean certificaciones oficiales en ingeniería de datos como Azure DP-700, AZ-203, DP-600, Google Cloud Digital Leader, o Google Cloud Associate Cloud Engineer que demuestren compromiso con la actualización continua. También será un plus contar con conocimientos en Microsoft Power BI y Microsoft Fabric, herramientas que aportan valor agregado para el manejo y visualización avanzada de datos, y que complementan el enfoque técnico del puesto.

Beneficios y Ambiente Laboral

Ofrecemos la oportunidad de integrarte a proyectos tecnológicos desafiantes y de largo plazo, trabajando dentro de un equipo técnico altamente colaborativo que promueve un ambiente profesional y amigable. Nuestro entorno está pensado para facilitar la comunicación constante y el compromiso del equipo, con un estilo de trabajo 100% remoto que favorece la conciliación entre la vida personal y profesional.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Computer provided Lisit provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer GCP
  • Factor IT
Python Data Analysis SQL NoSQL

En FactorIT, somos líderes en el sector de tecnología y ofrecemos soluciones innovadoras en Data y Analytics, Transformación Digital e Inteligencia Artificial. Con presencia en 8 países de Latinoamérica, nos apasiona abordar los desafíos tecnológicos de grandes empresas. Únete a nuestro equipo de ingenieros de datos que están a la vanguardia de la transformación tecnológica. Trabajamos en proyectos de gran impacto, creando soluciones personalizadas que integran tecnologías emergentes y analítica avanzada.

Exclusive offer from getonbrd.com.

Responsabilidades del Ingeniero de Datos

Como Data Engineer en FactorIT, tu objetivo será diseñar, construir y mantener infraestructuras y sistemas de datos que permitan a nuestros clientes tomar decisiones informadas. Tus responsabilidades incluirán:

  • Desarrollar y mantener pipelines de datos eficientes y escalables.
  • Colaborar con equipos multidisciplinarios para analizar necesidades de datos y proporcionar soluciones efectivas.
  • Implementar y optimizar herramientas de integración de datos.
  • Monitorear la calidad y eficiencia de los sistemas de procesamiento de datos.
  • Participar en la gestión y almacenamiento de datos, asegurando la integridad y confidencialidad.

Tu papel será fundamental para impulsar la transformación digital y potenciar la analítica en nuestras soluciones.

Requisitos del Puesto

Buscamos un Data Engineer con pasión por la tecnología y habilidades tanto técnicas como interpersonales. Las características que valoramos son:

  • Título en Ingeniería Informática, Ciencias de la Computación o campos relacionados.
  • Conocimientos en lenguajes de programación como Python o SQL.
  • Experiencia con herramientas de ETL y plataformas de análisis de datos.
  • Aptitudes analíticas y capacidad para resolver problemas.
  • Habilidades de comunicación efectiva para trabajar en equipo y entender las necesidades del cliente.

Valorizamos un enfoque proactivo y la capacidad de aprender de manera continua.

Habilidades Deseables

Si bien no es obligatorio, será un plus contar con:

  • Experiencia en herramientas de Big Data como Hadoop o Spark.
  • Conocimientos en la implementación y gestión de bases de datos no relacionales (NoSQL).
  • Familiaridad con prácticas de DevOps relacionadas con el manejo de datos.
  • Certificaciones en tecnologías de datos o análisis.

Estas habilidades complementarias serán valoradas en el proceso de selección.

Beneficios de Trabajar en FactorIT

Ofrecemos un entorno de trabajo dinámico y colaborativo, donde podrás trabajar con tecnologías de punta y acceder a un plan de crecimiento profesional. Además, brindamos capacitaciones en IA y automatización. Nuestros beneficios incluyen:

  • Trabajo 100% remoto 🌍 para mantener un equilibrio entre tu vida personal y laboral.
  • Flexibilidad laboral para adaptarte a tus necesidades.
  • Un salario competitivo acorde a tu experiencia.

Únete a nosotros y sé parte de un equipo que está transformando el futuro de la tecnología en la región.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Factor IT provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Architect Semi Senior Advanced
  • Improving South America
Python SQL Azure ETL

Leniolabs_ es ahora Improving South America!

Somos una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA principalmente.

Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.

Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development y También trabajamos en desarrollo backend.

Valoramos a las personas dinámicas en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Apply directly through getonbrd.com.

Job functions

En mproving South America buscamos un Data Architect Senior para sumarse a este equipo multicultural. Diseñarás modelos y pipelines ETL/ELT en Azure, optimizarás SQL de alto rendimiento y liderarás mejores prácticas de calidad y gobierno de datos, colaborando de forma 100 % remota con equipos técnicos y de negocio. Si te apasiona transformar datos complejos en decisiones estratégicas, este desafío es para vos.

Qualifications and requirements

  • Alrededor de8 años en desarrollo/arquitectura de datos,
  • Nivel de inglés intermedio–avanzado
  • .SQL avanzado (tuning, stored procs, optimización de queries)
  • Modelado de datos & Data Warehouse (diseño lógico/físico, diagramado)
  • ETL/ELT & Orquestación: SSIS / Azure Data Factory, pipelines CI/CD (Azure DevOps, Git)
  • Python + Pandas / PySpark para profiling y data wrangling
  • Cloud Azure (Storage, Synapse, contenedores)
  • Power BI (visualización, mejores prácticas de reporting)
  • Conocimientos de data quality, data retention & compliance
  • Experiencia diseñando data flows y migraciones entre sistemas legacy/API

Conditions

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1800 - 3000 Tiempo completo
Ingeniero/a de Datos para Asistente Conversacional IA
  • Lisit
Python PostgreSQL SQL MongoDB
Lisit es una empresa dedicada a la creación, desarrollo e implementación de servicios de software que brindan herramientas de automatización y optimización para sus clientes, manteniendo un fuerte enfoque en la innovación y la pasión por resolver desafíos tecnológicos complejos. Buscamos incorporar talento para trabajar en un proyecto puntero que consiste en el desarrollo de un asistente conversacional inteligente basado en inteligencia artificial.
El proyecto se centra en la construcción de un sistema capaz de procesar lenguaje natural (NLP) utilizando datos de diversas fuentes, para lo cual se requiere una infraestructura de datos sólida, escalable y fiable que permita alimentar los modelos inteligentes de lenguaje y mejorar continuamente la interacción conversacional, aportando valor a nuestros clientes mediante soluciones eficientes y tecnológicamente avanzadas.

Find this vacancy on Get on Board.

Descripción del rol y responsabilidades

Como Ingeniero/a de Datos en este proyecto, serás responsable de diseñar, construir y mantener pipelines ETL/ELT que permitan la ingesta y procesamiento eficiente de datos diversos y no estructurados, como chats, correos electrónicos y logs, transformándolos en formatos precisos y útiles para el entrenamiento y operación de modelos de procesamiento de lenguaje natural (NLP).
Asimismo, integrarás fuentes de datos externas a través de APIs RESTful, gestionarás bases de datos relacionales como PostgreSQL y NoSQL como MongoDB, y optimizarás el almacenamiento de grandes volúmenes de datos en soluciones cloud como S3, BigQuery o Redshift. También garantizarás la calidad, trazabilidad y gobernanza de los datos para mantener la confiabilidad del sistema.
El rol incluye implementar medidas de anonimización y protección para los datos sensibles, asegurando el cumplimiento de normativas vigentes en materia de privacidad y manejo ético de la información, y colaborarás con el equipo multidisciplinario para cumplir con los objetivos tecnológicos y de negocio del proyecto.

Requisitos y habilidades esenciales

Buscamos un profesional con experiencia sólida en Python, utilizando librerías especializadas como Pandas, PySpark o Dask para el procesamiento y transformación de datos a gran escala. Es necesario tener un dominio avanzado en SQL y experiencia práctica con bases de datos relacionales y NoSQL, especialmente PostgreSQL y MongoDB.
Se requiere conocimiento comprobable en herramientas de orquestación de flujos de trabajo de datos, como Apache Airflow, y manejo de almacenamiento en la nube en plataformas como Azure, AWS S3 o Google Cloud Storage (GCS).
Es fundamental contar con experiencia en el procesamiento de datos no estructurados aplicados a modelos de NLP y manejo adecuado de APIs RESTful para la integración de diferentes fuentes y servicios.
Además de las habilidades técnicas, valoramos competencias orientadas a la gestión minuciosa de la calidad y gobernanza de datos, capacidad analítica y pensamiento crítico para mantener estándares rigurosos que garanticen la efectividad del asistente conversacional inteligente.

Conocimientos y experiencia deseables

Se valorará experiencia previa en proyectos relacionados con asistentes virtuales o tecnologías de procesamiento de lenguaje natural (NLP), así como familiaridad con prácticas DataOps para la gestión eficiente de pipelines y control de versiones de datos.
El conocimiento de normativas internacionales de privacidad y protección de datos, como GDPR e HIPAA, junto con técnicas avanzadas de anonimización, será un plus muy importante para desempeñarse con éxito en el cargo.

Beneficios y ambiente laboral

Ofrecemos la oportunidad de participar en proyectos tecnológicos desafiantes y de largo plazo dentro de un equipo técnico colaborativo, en un ambiente laboral amigable y profesional.

El trabajo es 100% remoto, lo cual fomenta la conciliación entre la vida personal y profesional sin perder la comunicación fluida y el compromiso con el equipo.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
POSTULAR VÍA WEB Ver trabajo