No encontramos ningún resultado.

Prueba con otro grupo de palabras.

Si crees que esto es un error, por favor contáctanos.

$$$ Tiempo completo
Ingeniero Telecomunicaciones IT/Ot
  • Agrosuper
  • Rancagua (Hybrid)
Cybersecurity Continual improvement process Communication Fortinet

En Agrosuper, una empresa líder con más de 13.000 colaboradores, estamos comprometidos con llevar alimentos de la más alta calidad a las familias de Chile y el mundo. Nuestra SUBGERENCIA CONTINUIDAD OPERACIONAL ON PREMISE, ubicada en la oficina central en Rancagua, se encarga de mantener la infraestructura tecnológica vital para la operación continua y eficiente de la compañía. Buscamos fortalecer nuestro equipo con un profesional que lidere la gestión y mejora de las tecnologías IT y OT aplicadas a las telecomunicaciones, apoyando la estabilidad y evolución de nuestros sistemas de comunicación empresarial.

Apply exclusively at getonbrd.com.

Principales funciones

  • Analizar y resolver incidentes y problemas, buscando soluciones efectivas.
  • Atender y resolver los requerimientos planteados por clientes internos y proyectos.
  • Coordinar y escalar soporte con proveedores externos cuando sea necesario.
  • Asesorar en la definición de arquitecturas y tecnologías existentes dentro de Agrosuper.
  • Implementar la infraestructura tecnológica requerida para los proyectos IT y OT.
  • Promover la mejora continua de aplicaciones, servicios y la continuidad operacional.
  • Entregar un servicio en constante evolución, aportando una visión integral para la resolución de problemas y requerimientos.
  • Asegurar que las soluciones implementadas respeten los marcos tecnológicos definidos por la compañía.
  • Desarrollar procedimientos técnicos para que el equipo de Nivel 1 pueda ejecutar y mejorar la resolución en primera línea.
  • Recomendar, planificar e implementar mejoras o nuevas prácticas relacionadas con telecomunicaciones.
  • Investigar, analizar y proponer nuevas soluciones tecnológicas aplicables a la infraestructura de Agrosuper.

Requisitos

  • Título profesional en Ingeniería Informática, Ingeniería con mención en Informática, Redes o carrera afín.
  • Mínimo 5 años de experiencia como administrador de equipos de comunicaciones, incluyendo Core, Routers, Switches y Access Points.
  • Experiencia con firewalls Fortinet e implementación de SD-WAN.
  • Competencia en administración de infraestructuras OT y manejo de sus protocolos asociados.
  • Conocimientos sólidos en seguridad para equipos de comunicación.
  • Fuerte conocimiento en hardware y arquitectura de redes.
  • Manejo de herramientas de ofimática para documentación y gestión.
  • Experiencia y conocimientos en centrales telefónicas IP.

Buscamos un profesional orientado a la mejora continua, con capacidad analítica, proactivo, responsable y con buen manejo de comunicación para asesorar y trabajar transversalmente con diferentes equipos y proveedores.

Conocimientos y habilidades deseables

  • Experiencia previa en ambientes industriales de IT/OT integrados.
  • Conocimientos en tecnologías relacionadas con automatización y control industrial.
  • Capacidad para liderar proyectos de mejora tecnológica y optimización de infraestructura.
  • Certificaciones relevantes en redes, seguridad o infraestructura TI/OT serán valoradas.
  • Habilidades para trabajo en equipo, resolución de conflictos y comunicación efectiva con áreas técnicas y de negocio.

Beneficios

En Agrosuper ofrecemos un entorno laboral centrado en el crecimiento profesional y el desarrollo continuo. Contamos con planes estructurados de capacitación y becas de estudios para potenciar tus habilidades y apoyar tu carrera a largo plazo.

Además, disponemos de convenios con diversas instituciones que facilitan tu bienestar y formación continua. Nuestro sistema de bonos asociados al desempeño reconoce y premia el compromiso y resultados tanto individuales como de equipo.

Valoramos la inclusión y la diversidad, fomentando la incorporación de personas con discapacidad como parte fundamental de nuestro equipo humano.

Formarás parte de una empresa sólida, con un propósito claro: "Alimentar lo bueno de la vida todos los días", trabajando en un ambiente que promueve el crecimiento, la colaboración y la calidad de vida.

Beverages and snacks Agrosuper offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2400 - 2600 Tiempo completo
Desarrollador Automatizador Senior (Performance Tester)
  • BC Tecnología
  • Santiago (Hybrid)
JavaScript Java Python Data Analysis
En BC Tecnología somos una consultora de servicios IT con amplia experiencia en diversas áreas tecnológicas. Durante más de 6 años hemos diseñado soluciones a medida para clientes de sectores como servicios financieros, seguros, retail y gobierno, gestionando desde portafolios hasta desarrollos complejos y outsourcing profesional.
Este proyecto específico corresponde a la participación en un equipo especializado en pruebas de rendimiento y automatización dentro de clientes de alto nivel, llevado a cabo bajo metodologías ágiles. Nuestra fuerte orientación al cliente, el cambio organizacional y el desarrollo de productos innovadores marcan la diferencia en cada iniciativa que emprendemos.

Apply to this job through Get on Board.

Responsabilidades clave

  • Diseñar, desarrollar y ejecutar pruebas de carga y rendimiento utilizando herramientas como JMeter para evaluar sistemas críticos.
  • Automatizar los procesos de testeo mediante scripts en Python, Java o JavaScript, asegurando la eficiencia y repetibilidad de las pruebas.
  • Analizar los resultados obtenidos en las pruebas de performance, identificando cuellos de botella y proponiendo mejoras concretas.
  • Integrar las pruebas de rendimiento dentro de flujos de trabajo CI/CD, colaborando estrechamente con el equipo de QA para garantizar la calidad continua.
  • Participar activamente en reuniones de seguimiento, aportar visiones técnicas y documentar los resultados y procesos de manera clara y precisa.

Requisitos técnicos y perfil

Buscamos un profesional con sólida experiencia como Performance Tester, con un manejo avanzado de herramientas como JMeter para la ejecución de pruebas de carga y consumo de APIs. Es indispensable el conocimiento práctico en automatización utilizando lenguajes como Python, Java o JavaScript.
Se valoran conocimientos adicionales en herramientas complementarias como Postman para pruebas de APIs, Locust para simulaciones de carga, Grafana y Datadog para monitoreo de métricas y análisis, así como competencias en bases de datos SQL y gestión documental con Confluence y Jira.
Desde el punto de vista personal, buscamos un perfil autónomo, analítico y orientado a resultados, capaz de trabajar de manera independiente dentro de un entorno colaborativo. La afinidad o background en matemática y estadística será un plus que permitirá un mejor entendimiento y análisis de datos de performance.

Habilidades y conocimientos deseables

  • Experiencia previa en integración de pruebas de performance en pipelines CI/CD con herramientas modernas de DevOps.
  • Conocimientos en monitoreo y visualización avanzada de métricas con Grafana y Datadog para insights profundos de performance.
  • Familiaridad con metodologías ágiles y trabajo en equipos multidisciplinarios orientados a la mejora continua.
  • Capacidad para documentar procesos técnicos complejos y comunicar hallazgos a equipos técnicos y no técnicos.

Beneficios y cultura organizacional

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero(a) de Aseguramiento de Calidad (QA)
  • Biometria Aplicada
  • Santiago (In-office)
JavaScript Java Python SQL

En Biometría Aplicada contamos con más de 14 años de experiencia desarrollando soluciones integrales en control biométrico y tecnologías de gestión. Nos especializamos en sistemas avanzados para la gestión de asistencia del personal, control de accesos y administración de casinos corporativos, adaptando cada solución a las necesidades específicas de nuestros clientes. Ofrecemos plataformas robustas, seguras y escalables que mejoran la eficiencia operativa, optimizan el control interno y refuerzan la seguridad en organizaciones públicas y privadas. Innovación, confiabilidad y experiencia son los pilares que nos definen.

Job opportunity published on getonbrd.com.

Responsabilidades Principales

  • Diseñar, implementar y ejecutar pruebas funcionales manuales y automatizadas.
  • Analizar requerimientos funcionales y técnicos para construir casos de prueba efectivos.
  • Desarrollar y mantener scripts de automatización para pruebas de regresión y pruebas continuas.
  • Colaborar con desarrolladores y product owners para asegurar la cobertura de pruebas.
  • Documentar defectos encontrados, hacer seguimiento y verificar su resolución.
  • Participar en revisiones de historias de usuario, criterios de aceptación y documentación técnica.
  • Ejecutar pruebas en diferentes entornos y dispositivos según los criterios del proyecto.
  • Contribuir a la mejora continua del proceso de QA y automatización de pruebas.

Requisitos Técnicos y Competencias

Buscamos un profesional con sólidos conocimientos en metodologías de testing como funcional, regresión, smoke e integración, y experiencia en herramientas de automatización como Selenium, Cypress o Playwright. Es necesario manejar lenguajes de scripting para automatización entre los que se incluyen JavaScript, Python o Java, además de herramientas de gestión de pruebas tales como TestRail, Zephyr o Xray.

También debe tener experiencia en integración continua (CI/CD), ejecutando pruebas automatizadas dentro de pipelines, así como el manejo de pruebas en APIs con Postman u otras herramientas similares. Conocimientos básicos en bases de datos, especialmente SQL para la validación de datos, son necesarios. Es deseable experiencia con herramientas BDD como Cucumber o SpecFlow.

En cuanto a competencias blandas, valoramos la atención al detalle, pensamiento analítico, trabajo en equipo, comunicación efectiva, orientación a la calidad y la mejora continua, proactividad, autonomía y adaptabilidad frente a cambios y nuevas tecnologías. La formación deseada es título en Ingeniería en Informática, Computación, Control de Calidad de Software o carrera afín; sin embargo, la experiencia puede suplir esta necesidad.

Habilidades Deseables

Se considera un plus la experiencia previa con herramientas BDD como Cucumber y SpecFlow, así como familiaridad con la integración de pruebas automatizadas en pipelines CI/CD. Además, se valoran habilidades adicionales en comunicación para la colaboración efectiva con equipos multidisciplinarios y una mentalidad orientada a la innovación y mejora continua en procesos de aseguramiento de calidad.

Beneficios

En Biometría Aplicada ofrecemos un entorno laboral colaborativo y enriquecedor, enfocado en la promoción del desarrollo profesional continuo y la innovación tecnológica. Formarás parte de un equipo experimentado donde la excelencia y el aprendizaje constante son valores centrales que promovemos activamente.

El trabajo es 100% presencial, facilitando una interacción directa y dinámica con el equipo técnico y los líderes de proyecto, lo cual mejora la comunicación y la cooperación diaria.

Fomentamos el crecimiento profesional y personal dentro de un ambiente motivador y comprometido con la calidad, donde podrás aportar significativamente al éxito de nuestros clientes y a la evolución de nuestras soluciones biométricas.

Health coverage Biometria Aplicada pays or copays health insurance for employees.
Computer provided Biometria Aplicada provides a computer for your work.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $4500 - 6000 Tiempo completo
Data DevOps Engineer
  • Kore RPO
Python SQL Scala Business Intelligence

We understand how complicated it can be to run a recruiting organization. Here at KORE RPO, we help reduce recruiting costs and increase candidate engagement without increasing the number of recruiters in your organization.

We have senior recruitment resources readily available to assist with all your recruiting needs. We can increase the volume of candidates without compromising on the quality.

Unlike many other RPO companies, we have a depth of understanding of staffing and recruiting organizations. We can help you build a process and operation that integrates with your existing team to increase revenue and profitability.

Apply only from getonbrd.com.

Job functions

  • Design, build, test, and maintain existing data integrations, ETL processes, and BI solutions within the Azure platform.
  • Participate in Azure environment refresh and cutover activities for system integration testing and go-live for major and minor releases.
  • Support existing reporting and visualization solutions using enterprise BI tools.
  • Participate in an on-call rotation to support EIM production processes and systems.
  • Build and maintain Continuous Integration and Continuous Delivery pipelines.
  • Implement automated solutions using scripting/programming languages in the Azure environment.
  • Perform other duties as assigned.

Qualifications and requirements

  • Bachelor’s Degree in Computer Science or Information Systems.
  • 1+ years of hands-on experience developing and testing Data Warehouse and Business Intelligence solutions.
  • Experience coding in one of the following languages: Python, Scala, SQL, PowerShell.
  • An understanding of relational database concepts.
  • Cloud Technology experience is a plus.

Conditions

We are looking:

  • Able to multitask and work effectively in a dynamic environment.
  • Highly organized and detail-oriented.
  • Willing to jump in where needed, learn new technologies, and work effectively across the full stack.
  • Able to work both independently and collaboratively.
  • Passionate about continuous learning, leading, and sharing knowledge. Provide subject matter expertise and guidance to less experienced staff members regarding performance management and design best practices.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
DevOps
  • TIMINING
Python Go Docker Kubernetes
En Timining nos apasiona resolver problemas complejos y generar impacto real en la minería. Desarrollamos soluciones tecnológicas que integran ciencia de datos, geología, planificación minera y diseño estratégico para transformar cómo se toman decisiones en la gran minería: más informadas, eficientes y sustentables.
Nuestra cultura y valores, combina conocimiento técnico, colaboración, aprendizaje continuo y compromiso con la innovación.
Creemos en una minería mejor, y estamos construyéndola con tecnología.

Send CV through getonbrd.com.

Funciones del cargo

Buscamos un DevOps Engineer que promueva una cultura DevOps de colaboración, automatización y mejora continua, y que cuente con experiencia en automatización de infraestructura, monitoreo, integración y despliegue continuo, y administración de plataformas.
El candidato ideal actuará como un puente entre los equipos de desarrollo y operaciones, facilitando la comunicación y la eficiencia en el flujo de trabajo. Por lo que debe comprender los flujos de desarrollo y despliegue, además de las herramientas de monitoreo, con el fin de garantizar la confiabilidad y escalabilidad de los sistemas en un entorno minero.
1. Monitoreo y observabilidad: Implementar y mantener sistemas de monitoreo y alertas utilizando el stack tecnológico de Prometheus, Grafana y herramientas relacionadas.
2. CI/CD: Diseñar, optimizar y mantener pipelines de integración y despliegue continuo mediante GitHub Actions, para componentes en diversos lenguajes y tecnologías.
3. Colaboración y soporte: Trabajar junto a desarrolladores y operación para facilitar despliegues, troubleshooting, y garantizar el uptime de los servicios, participando activamente con los equipos y sesiones de resolución de problemas para facilitar despliegues y garantizar el uptime de los servicios.
4. Garantizar la calidad del software: Certificar que el software cumple con los requisitos del usuario final y asegurar su correcto funcionamiento en distintas plataformas.
5. Mejora continua y actualización: Optimizar estrategias de prueba, promover prácticas DevOps a los diversos equipos de la organización y mantenerse al día con tendencias del sector.

Requerimientos del cargo

1. | Programación en Go o Python para scripting y automatización
2. | Conocimientos de redes y protocolos
3. | CI/CD con GitHub Actions
4 | Gestión de contenedores (Docker) y orquestador de servicio (Kubernetes o Nomad)
5 | Observabilidad con Prometheus y Grafana

Opcionales

Consul para configuración y descubrimiento de servicios
Seguridad en pipelines y despliegues
Experiencia en entornos de alta disponibilidad
Traefik como proxy inverso
Capacidad analítica en traza de errores

Conditions

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage TIMINING pays or copays health insurance for employees.
Computer provided TIMINING provides a computer for your work.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 3000 Tiempo completo
DevOps Engineer Modyo
  • I2B Technologies
Linux DevOps Continuous Integration Virtualization
I2B Technologies es una empresa comprometida con impulsar la transformación digital en sus clientes, ayudándolos a mejorar la calidad de vida de los usuarios finales a través de desarrollos de alto impacto. La empresa cuenta con una amplia experiencia y metodología sólida basada en cuatro pilares fundamentales: Consultoría, Desarrollo de Software, Evolución y Data Science. Estos pilares sustentan proyectos que resuelven desafíos industriales y mejoran la experiencia entre empresas y sus usuarios.
Formar parte del equipo de I2B implica integrarse a un ámbito que no solo se ocupa de la creación y ejecución de ideas, sino también de un acompañamiento constante para asegurar el éxito y la evolución continua de los proyectos.

This offer is exclusive to getonbrd.com.

Funciones

  • Diseñar, implementar y mantener pipelines de integración y entrega continua (CI/CD) que aseguren la eficiencia y calidad en los procesos de desarrollo y despliegue.
  • Automatizar y gestionar la infraestructura usando herramientas como Terraform, Ansible u otras similares para optimizar y estandarizar los entornos.
  • Administrar entornos en la nube, priorizando plataformas como AWS, Azure o Google Cloud Platform, garantizando la disponibilidad, escalabilidad y seguridad de los mismos.
  • Supervisar el rendimiento de los sistemas, establecer monitoreos robustos y gestionar la resolución de incidentes para minimizar interrupciones y asegurar la continuidad operativa.
  • Colaborar estrechamente con los equipos de desarrollo para optimizar los despliegues, mejorar los entornos de testing y facilitar la integración entre aplicaciones y servicios.

Requisitos

Buscamos profesionales con más de 3 años de experiencia demostrable en roles de DevOps o ingeniería de infraestructura, capaces de manejar sistemas complejos y variadas tecnologías de automatización y nube.
Es imprescindible contar con experiencia en tecnologías de contenedores, particularmente Docker y Kubernetes, además de una sólida administración de servidores Linux para garantizar la estabilidad y seguridad de los servicios.
Se requiere un conocimiento profundo y práctico en herramientas y procesos de CI/CD, como Jenkins, GitLab CI o GitHub Actions, para asegurar la implementación continua en ambientes flexibles y escalables.
La experiencia con servicios en la nube es fundamental, destacando AWS, Azure o Google Cloud Platform, con habilidad para administrar y monitorear infraestructuras distribuidas e integradas.
Se valorarán certificaciones oficiales en Cloud Computing y metodologías DevOps, ya que demuestran un compromiso con la actualización constante y las mejores prácticas del área.
Además, el candidato debe poseer habilidades interpersonales para el trabajo en equipo, capacidad analítica para resolver problemas complejos y una mentalidad proactiva orientada a la mejora continua.

Deseable

Certificaciones en tecnologías cloud y DevOps, como AWS Certified Solutions Architect, Azure DevOps Engineer Expert o Certified Kubernetes Administrator, son altamente valoradas.
Experiencia adicional en herramientas complementarias de automatización y configuración como Puppet o Chef sería un plus importante.
Conocimientos en metodologías ágiles y herramientas de colaboración (JIRA, Confluence) ayudarán a integrarse fluidamente con los equipos multidisciplinarios.

Beneficios

En I2B Technologies promovemos un ambiente laboral cercano, eficiente y colaborativo, libre de burocracia y código de vestimenta, creando un espacio cómodo y flexible para todos nuestros profesionales. Ofrecemos beneficios exclusivos incluso para colaboradores freelance, incluyendo vacaciones pagadas, medios días administrativos durante el año, medio día libre en el cumpleaños propio y de hijos, bonos y días libres por matrimonio o nacimiento. Además, brindamos financiamiento para actividades físicas con FitnessDoer, acceso a una biblioteca digital y apoyo económico para la adquisición de laptops, cursos y certificaciones para el desarrollo profesional. Te invitamos a ser parte de una empresa apasionada por la transformación digital y en constante crecimiento.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Fitness subsidies I2B Technologies offers stipends for sports or fitness programs.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1000 - 1300 Tiempo completo
Analista Funcional QA
  • Gatblac
QA Functional Analyst Software Agile Methodologies

Gatblac es una empresa de tecnología con 9 años en el mercado, dedicada al desarrollo de soluciones a medida para importantes clientes de la industria nacional.
Contamos con un equipo de más de 90 profesionales, con amplia experiencia en el mercado bursátil, bancario y maquinarias.

Trabajamos con metodologías apoyadas en principios ágiles, que nos permiten generar desarrollos incrementales, por etapas/sprints, con el compromiso de brindar sistemas de calidad, escalables y extensibles.

Apply through Get on Board.

Descripción del cargo

Buscamos Analista Funcional QA con perfil TI, para desempeñar, para desempeñar diversas tareas relacionadas con el proceso de certificación y aseguramiento de calidad de proyectos de tecnología, desde la perspectiva del negocio.

El/la profesional participará en proyectos de tecnología para importantes clientes de Gatblac en industrias tales como financiera, bursátil, maquinarias y minería.

Funciones principales:

  • Entender los requisitos del negocio.
  • Interactuar con el área de desarrollo para reportar y resolver incidentes.
  • Diseñar y Redactar Casos de Prueba / Escenarios de Prueba / Procedimientos paso a paso para someter a prueba los distintos Escenarios.
  • Identificación y/o generación de datos de prueba.
  • Generación de Informes de Prueba (Avance, ciclo, cierre).

El/la profesional que se integre al equipo será supervisado y mentoreado por su líder técnico asignado y apoyado por el trabajo colaborativo de los desarrolladores e ingenieros de Gatblac.

Requerimientos del cargo

Se requiere un/a profesional de certificación funcional QA con al menos 1 año de experiencia en proyectos de tecnología y los siguientes conocimientos:

Requisitos:

  • Capacidad de análisis y facilidad para la comprensión de requerimientos y procesos de negocio.
  • Capacidad para trabajar en forma autónoma, con baja supervisión.
  • Experiencia en herramientas de Gestión de Calidad.
  • Entender el diseño (Casos de Uso / Especificaciones de Páginas).

Es importante contar con buenos compañeros de trabajo por lo que necesitamos que poseas:

  • Alta capacidad de enfrentar desafíos complejos.
  • Buscamos a alguien con iniciativa, que tenga capacidad de proponer ideas, recibir sugerencias de expertos y ser independiente.
  • Ser un profesional integral que se involucre en las distintas etapas de un proyecto de software y tenga conocimiento de su alcance funcional.
  • Disponibilidad inmediata.

Beneficios

  1. Bonificación de Almuerzo con Carga Mensual Tarjeta Pluxee (Ex-Sodexo).
  2. Afiliación Caja de Compensación Los Héroes.
  3. Afiliación Asociación Chilena de Seguridad ACHS.
  4. Bonificación por trabajo híbrido.
  5. Bonificación fechas especiales: fiestas patrias y fiestas de fin de año.
  6. Acceso continuo a Certificaciones y Cursos.
  7. Tarde libre día de cumpleaños.
  8. Acceso a Seguro Complementario de Salud y Dental con cobertura extendida para hijos/as.
  9. Bonificación por nacimiento de hijos/as y matrimonio de colaboradores.
  10. Bonificación por fallecimiento de padres, cónyuges e hijos/as.
  11. Retroalimentación continua.
  12. Convenios con bancos.

Internal talks Gatblac offers space for internal talks or presentations during working hours.
Life insurance Gatblac pays or copays life insurance for employees.
Paid sick days Sick leave is compensated (limits might apply).
Health coverage Gatblac pays or copays health insurance for employees.
Computer repairs Gatblac covers some computer repair expenses.
Dental insurance Gatblac pays or copays dental insurance for employees.
Computer provided Gatblac provides a computer for your work.
Conference stipend Gatblac covers tickets and/or some expenses for conferences related to the position.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3000 - 4000 Tiempo completo
Ingeniero/a DevOps
  • Devups
Agile DevOps Continuous Integration Virtualization
Devups es una empresa dedicada al staffing tecnologico, focalizados con una vision de proveer a nuestros clientes con talento de calidad pero priorizando el bienestar de nuestros recursos. Para nosotros el cliente es importante, pero el desarrollador aun mas por eso actuamos como representantes de talentos y trabajamos para mejorar la calidad de vida de estos.
DevUps nace de la famosa frase de Barney Stinson, Suit Up.

This company only accepts applications on Get on Board.

Job functions

  • Diseñar e implementar pipelines de CI/CD junto al PM asignado.
  • Colaborar con equipos de desarrollo en la automatización de pruebas y despliegues.
  • Reportes diarios: lo que hiciste hoy, qué harás mañana y tus bloqueadores.
  • Asistir al menos a 2 llamadas semanales con el equipo de planificación Devups.

Qualifications and requirements

El perfil que buscamos deberá comprender la arquitectura de infraestructuras y aplicar patrones comprobados de IaC y orquestación. Deberá tener experiencia optimizando performance y seguridad en pipelines de CI/CD, así como la capacidad para comunicar claramente retos técnicos complejos. Experiencia trabajando en entornos ágiles y altamente iterativos es deseable.
Nivel de inglés: B2+.
Se debe cumplir con al menos (1) de los siguientes:
Herramientas CI/CD:
  • Jenkins
  • GitLab CI/CD
  • GitHub Actions
Contenedores y Orquestación:
  • Docker
  • Kubernetes
Infraestructura como Código (elige uno):
  • Terraform
  • CloudFormation

Desirable skills

  • Experiencia en AWS Services (EKS, ECS, Lambda) o Azure DevOps.
  • Monitoreo y logging con Prometheus, Grafana o ELK.
  • Conocimientos de Networking y seguridad en la nube.

Conditions

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
Vacation over legal Devups gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
DevOps Engineer
  • Moventi
Redis DevOps Virtualization Amazon Web Services
At Moventi, we are dedicated to helping organizations lead digital transformation by leveraging technology with an innovative mindset. We work within a multidisciplinary team of talented professionals, fostering continuous learning of new technologies and collaborative work methodologies. Our projects involve building scalable and robust cloud infrastructures, developing and deploying cutting-edge solutions, and driving innovations that create a positive market impact. Our office is centrally located and inspires teamwork with agile workspaces and recreational areas to enhance creativity and productivity.

Find this job and more on Get on Board.

Key Responsibilities

We are looking for a DevOps Engineer to strengthen our infrastructure and operational capabilities. In this role, you will be responsible for auditing and optimizing cloud infrastructure—primarily on AWS—ensuring performance, cost-efficiency, and scalability. You will manage Amazon DynamoDB configurations in production environments and be directly involved in implementing secure self-hosted solutions, including migrations and deployments like Langfuse.
Your daily work will also include configuring and maintaining Redis instances for high-availability production environments and collaborating closely with backend development teams to design and sustain efficient work queues using Celery or similar technologies.
Another important aspect is designing, implementing, and maintaining comprehensive monitoring, logging, and alerting systems using tools such as Prometheus, Grafana, and AWS CloudWatch to ensure reliability and rapid issue detection. You will lead and automate CI/CD pipelines and containerization workflows using Docker, GitHub Actions, GitLab CI, among others.
Additionally, you will apply strong expertise in networking, security best practices, system availability, and disaster recovery planning to ensure the robustness of our systems.

Required Skills and Experience

  • Experience auditing cloud infrastructure, preferably on AWS, focusing on performance and costs.
  • Strong knowledge of Amazon DynamoDB, including production configuration and scalability.
  • Experience implementing self-hosted solutions, such as the secure migration and deployment of Langfuse.
  • Proficiency in implementing and configuring Redis for production environments.
  • Experience collaborating with backend teams to design and support work queues (Celery or similar).
  • Experience designing, implementing, and maintaining monitoring, logging, and alerting systems (Prometheus, Grafana, CloudWatch).
  • Proficiency in CI/CD and containerization tools (Docker, GitHub Actions, GitLab CI, etc.).
  • Strong understanding of networking, security, availability, and disaster recovery.

Desirable Skills and Attributes

It is highly valuable if candidates bring additional knowledge of alternative cloud providers or hybrid cloud strategies. Familiarity with advanced security frameworks and compliance standards will enhance our infrastructure security posture. Experience with infrastructure-as-code tools such as Terraform or CloudFormation is a plus, enabling infrastructure automation and repeatability.
Strong problem-solving skills, the ability to thrive in a collaborative team environment, excellent communication abilities, and a proactive mindset towards continuous learning and innovation will allow you to excel in this role and contribute to our company’s growth.

What We Offer

  • Continuous opportunities for professional growth and learning new technologies alongside a multidisciplinary team.
  • Regular team activities and events designed to boost creativity, well-being, and team spirit.
  • Holidays paid
Join us at Moventi and be part of the positive change we aim to create in the technology market!

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Senior Quality Assurance Engineer
  • Apply Digital Latam
JavaScript Agile QA Scrum
Apply Digital is hybrid/remote-friendly. The preferred candidate should be based in LATAM working in hours that align with EST.
We are Apply Digital — a high-growth digital experience agency working with brands like Moderna, Kraft Heinz, and Atlassian. With a focus on transforming possibilities for people, we solve complex problems with well-executed digital solutions that make people's lives easier and help our clients compete.
Our robust QA team is looking for a Senior Quality Assurance Automation (QA) engineer to develop and execute exploratory and automated tests that ensure product quality. You'll be directly working with our technical architect and developers to ensure that we create awesome bug-free software that delights our clients.

Send CV through Get on Board.

Responsibilities:

  • Test Strategy and Planning: Leading the creation of test strategies and plans for complex projects, considering the project scope, objectives, and risks. Collaborating with cross-functional teams to define test approach, test coverage, and test deliverables.
  • Test Execution and Coverage: Conducting comprehensive and thorough test execution (automated and manual) for complex software systems. Identifying high-priority test scenarios and ensuring effective test coverage across functional, non-functional, and edge-case scenarios.
  • Test Automation Architecture and Development: Leading the design and implementation of scalable and maintainable test automation frameworks. Collaborating with development teams to promote automation practices, maximize test coverage, and improve overall efficiency. Incorporating test automation into CI/CD pipelines.

Requirements:

  • You have a bachelor’s degree in Computer Science, Computer Engineering, Information Technology, or equivalent
  • You have 6+ years of experience in Automation roles.
  • You have a deep understanding of software QA methodologies, best practices, tools, and processes
  • You have 3+ years of experience with Javascript, Typescript or a similar scripting language
  • You have 3+ years of experience creating and maintaining test automation scripts (preferably with Cypress, Playwright, and Appium using Javascript)
  • You strongly understand CI/CD platforms and incorporate QA best practices.
  • You have a deep understanding of Agile/Scrum development principles.
  • You have experience providing mentorship to other team members on QA best practices and methodologies.
  • You possess strong analytical and problem-solving skills.
  • You’re self-driven and take ownership of tasks from beginning to completion
  • You possess excellent written and verbal communication skills.
  • You can multi-task and work on multiple projects simultaneously within a dynamic, fast-paced environment.
  • You are detail-oriented, incredibly meticulous, and you enjoy the fine attention to detail required to spot, prevent, and troubleshoot any issues before our clients find them

Conditions

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Apply Digital Latam provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Apply Digital Latam gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2500 Tiempo completo
Ingeniero de Operaciones
  • Robotia
  • Santiago (Hybrid)
Python Git Linux Virtualization

Estamos en búsqueda de un Ingeniero de Operaciones dinámico y proactivo para unirse a nuestro equipo. La persona seleccionada será responsable de brindar apoyo a nuestra gerencia de servicios, asegurando la eficiencia, seguridad y estabilidad de los sistemas desplegados en los entornos productivos. Reportará directamente al jefe de operaciones.

Apply to this job without intermediaries on Get on Board.

Funciones del cargo

1. Monitoreo de sistemas en producción

o Supervisión del estado de los sistemas de visión artificial.

o Gestionar herramientas de monitoreo y diagnóstico.

o Asegurar la estabilidad e integridad de los sistemas.

o Administración de cámaras de vigilancia industriales.

2. Gestión de incidencias y soporte de segundo nivel

o Atender incidentes técnicos, investigar causas raíz y aplicar soluciones.

o Escalar problemas complejos a desarrollo o ciencia de datos si es necesario.

3. Evaluación del rendimiento de modelos deep learning

o Revisar salidas de los modelos (detecciones, clasificaciones) y compararlas contra parámetros de calidad esperados.

o Reportar desviaciones o deterioro de desempeño (por ejemplo, falsos positivos/negativos).

o Descarga y recuperación de registros, métricas y material multimedia para la retroalimentación de los modelos de aprendizaje.

4. Automatización y mejora continua

o Gestión del monitoreo y alerta de sistemas mediante la integración de herramientas automatizadas.

o Contribuir en las definiciones técnicas que maximicen la estabilidad, escalabilidad, rendimiento y seguridad de los sistemas.

5. Documentación y procedimientos operativos

o Mantener documentación clara sobre incidentes, cambios en configuración, y actualizaciones en modelos o sistemas.

6. Interacción con clientes o áreas operativas

o Comunicar hallazgos técnicos de forma clara y efectiva.

o Participar en reuniones operativas y sugerir mejoras.

Requerimientos del cargo

1. Técnicas

o Dominio de sistemas Unix (consola, gestión de procesos, eventos de sistema, administración de servicios, networking). (Obligatorio)

o Manejo de herramientas de monitoreo (Prometheus, Grafana, Nagios u otras). (Obligatorio)

o Conocimientos básicos de deep learning: cómo interpretar outputs de modelos, métricas como precision, recall, etc. (Deseable)

o Sólido manejo de scripting Bash y Python.

o Manejo Git y CI/CD (ideal para revisar versiones de modelos o pipelines).

o Manejo de Docker y administración de contenedores.

o Experiencia con Jira y Confluence. (Deseable)

2. Blandas

o Disponibilidad para visitas a terreno y pasaporte vigente (o en trámite).

o Buena comunicación, tanto oral como escrita.

o Pensamiento analítico y enfoque en resolución de problemas.

o Autoaprendizaje y adaptación a nuevas tecnologías.

o Capacidad para discriminar información relevante (ej. identificar cuándo un modelo está fallando por datos de entrada, por desalineamiento, o por bugs).

Beneficios y Condiciones

o Pertenecer a una compañía joven, con gran potencial de crecimiento regional, líder en el desarrollo de tecnología de visión artificial en el ámbito de la minería y la industria.

o Café de grano gratis en oficina.

o Capacitaciones y certificaciones.

o Snack y galletas gratis en oficina.

o Permiso de 5 días administrativos al año.

o Día de cumpleaños libre.

o Contrato a tres meses, renovación a indefinido según evaluación.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Quality Automation Engineer
  • Nisum Latam
Java SQL Data Science Back-end

Nisum is a leading global digital commerce firm headquartered in California, with services spanning digital strategy and transformation, insights and analytics, blockchain, business agility, and custom software development. Founded in 2000 with the customer-centric motto “ Building Success Together® ,” Nisum has grown to over 1,800 professionals across the United States, Chile,Colombia, India, Pakistan and Canada.

We are looking for a QA Engineer experienced in manual and automated testing of backend systems. This role is crucial in ensuring the high quality of our solutions, working closely with distributed and cross-functional teams across the globe.

If you’re passionate about software quality, skilled in tools like Postman and SQL, and hands-on with automation frameworks like Cucumber or RestAssured — this opportunity is for you!

Nisum is an Equal Opportunity Employer and we are proud of our ongoing efforts to foster diversity and inclusion in the workplace.

Apply directly on Get on Board.

What you will do

  • Work with product managers, developers and other Quality Engineers to develop test plans for user and technical stories
  • Test backend applications manually
  • Develop automated tests of backend applications
  • Coordinate with other teams for releases
  • Document bugs with a great level of detail
  • Troubleshoot issues and help on root cause analysis
  • Guarantee the quality of every deliverable
  • Communicate and collaborate with client teams on various topics such as requirements, releases, regression testing etc.

Qualifications and requirements

  • You must reside in Latam
  • 4+ years of relevant experience
  • Manual testing of backend systems, using Postman or similar tools
  • Proficiency in SQL
  • Good hands-on experience with automation frameworks like Cucumber, TestNG and/or RestAssured
  • Experience with Java
  • Excellent problem solving and troubleshooting
  • Excellent communication and collaboration
  • Documentation of test plans
  • Experience with different testing stages such as component testing, integration testing, E2E, regression etc.
  • Collaboration with distributed teams (USA, offshore)
  • Proficiency in English communication (verbal, written)

What can we offer you?

  • Belong to an international and multicultural company that supports diversity.
  • Be part of international projects with a presence in North America, Pakistan, India and Latam.
  • Work environment with extensive experience in remote and distributed work, using agile methodologies.
  • Culture of constant learning and development in current technologies.
  • Pleasant and collaborative environment, with a focus on teamwork.
  • Access to learning platforms, Google Cloud certifications, Databricks, Tech Talks, etc.
  • Being part of various initiatives and continuous participation in internal and external activities of innovation, hackathon, technology, agility, talks, webinars, well-being and culture with the possibility not only to participate but also to be an exhibitor.

POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2700 Tiempo completo
DevOps
  • coderslab.io
  • Santiago (Hybrid)
Python Excel SQL Business Intelligence

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de DEVOPS para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Send CV through getonbrd.com.

Funciones del cargo

Analizar procesos actuales (AS-IS):

  • Levantar, mapear y comprender procesos operativos y contables existentes. Identificar puntos críticos, riesgos y oportunidades de mejora.

Coordinar con stakeholders:

  • Organizar y gestionar reuniones con responsables de procesos clave (operaciones, contabilidad, tecnología, etc.), recopilando información relevante de múltiples frentes.

Diseñar procesos futuros (TO-BE):

  • Proponer mejoras o rediseños que aseguren trazabilidad, eficiencia y control.
  • Documentar procesos:
  • Elaborar diagramas, manuales y guías operativas claras y reutilizables.

Desarrollar e implementar soluciones:

  • Construir automatizaciones, conciliaciones, dashboards, y scripts. Validar con usuarios clave y adaptar según feedback.

Requerimientos del cargo

Conocimientos técnicos:

  • SQL avanzado (ideal experiencia con BigQuery en Google Cloud)
  • Python para automatización, validaciones y ETL
  • Excel avanzado (visualizaciones, paneles)
  • Experiencia con herramientas de BI (Looker o Power BI)

Conocimientos funcionales:

  • Procesos bancarios: abonos, cargos, conciliaciones
  • Productos financieros: créditos, cuentas corrientes, CMR, etc.
  • Contabilidad: lectura de asientos contables y análisis de cuentas (haber/debe)

Habilidades clave:

  • Pensamiento analítico y capacidad para detectar desajustes entre sistemas
  • Autonomía para investigar y proponer soluciones
  • Experiencia documentando procesos complejos
  • Manejo de herramientas de comunicación y gestión como Microsoft Teams

Conditions

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
QA Automation Engineer Python/Robot Framework
  • coderslab.io
Android iOS Python Agile
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos buscando un Ingeniero Senior en Automatización para unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

Apply without intermediaries through Get on Board.

Funciones del cargo

1. Desarrollo de Automatización de Pruebas:
o Diseñar e implementar scripts automatizados para pruebas de aplicaciones web, móviles y
APIs utilizando herramientas como Robot Framework y Appium (Android/iOS).
o Garantizar la cobertura de pruebas para servicios REST y GraphQL.
o Usar Python para desarrollar soluciones personalizadas y mejorar los frameworks de prueba
existentes.
2. Pruebas de Bases de Datos:
o Realizar pruebas y validaciones en bases de datos relacionales (e.g., MySQL, PostgreSQL) y
no relacionales (e.g., DynamoDB).
3. Gestión y Colaboración:
o Documentar procesos, resultados y estrategias de prueba en herramientas como Confluence.
o Trabajar en estrecha colaboración con desarrolladores y partes interesadas del negocio para
garantizar que los requisitos de calidad se cumplan.
o Gestionar tareas, estimaciones de esfuerzo y prioridades en Jira.
4. Gestión de Infraestructura:
o Configurar pipelines de integración y despliegue continuo (CI/CD) utilizando GitHub Actions.
o Colaborar en entornos basados en la nube, como AWS, para la ejecución y el mantenimiento
de pruebas automatizadas.
5. Capacitación y Transferencia de Conocimiento:
o Capacitar a los miembros del equipo en herramientas, procesos y mejores prácticas de
automatización.
o Promover una cultura de mejora continua mediante la transferencia de conocimiento y la
mentoría.

Requerimientos del cargo

• Experiencia mínima de 5 años en QAA.
• Experiencia sólida en automatización de pruebas utilizando Robot Framework y Appium
(Android/iOS).
• Conocimiento avanzado en Python para desarrollo de scripts y frameworks.
• Experiencia en diseño y ejecución de pruebas de APIs (REST y GraphQL).
• Familiaridad con bases de datos relacionales y no relacionales (MySQL, PostgreSQL, DynamoDB).
• Conocimiento de herramientas de CI/CD como GitHub Actions.
• Experiencia trabajando con AWS.
• Manejo de herramientas de gestión como Jira y Confluence.
• Habilidades en documentación y colaboración con equipos técnicos y de negocio.
• Experiencia en entornos ágiles (Scrum)
• Capacidad para liderar iniciativas de automatización y fomentar un entorno de aprendizaje
continuo.
• Excelentes habilidades de comunicación y proactividad
• Autonomía y capacidad para gestionar múltiples tareas simultáneamente.

Conditions

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1000 - 1200 Tiempo completo
Administrador Microsoft 365
  • BC Tecnología
  • Santiago (Hybrid)
ITIL Automation PowerShell Agile Methodologies
BC Tecnología es una consultora de TI altamente especializada con amplia experiencia en diversas áreas tecnológicas. Nos dedicamos a la administración de portafolios, desarrollo de proyectos, outsourcing y selección de profesionales, apoyando a clientes en sectores como servicios financieros, seguros, retail y gobierno. Desde hace seis años, diseñamos soluciones tecnológicas personalizadas y estratégicas, orientadas a mejorar procesos y resultados a través de metodologías ágiles, desarrollo de productos y cambio organizacional. Nuestro equipo se conforma con expertos en infraestructura tecnológica, desarrollo de software y unidades de negocio, ofreciendo servicios integrales y de calidad.

Apply exclusively at getonbrd.com.

Responsabilidades del Administrador Microsoft 365

La posición de Administrador Microsoft 365 tendrá como principal objetivo la gestión y administración eficiente del entorno Microsoft 365 dentro de un proyecto clave de 6 meses. Entre las responsabilidades destacadas estarán:
  • Administrar y mantener la plataforma Microsoft 365, asegurando su óptimo desempeño y disponibilidad.
  • Gestionar identidades y accesos mediante Azure Active Directory para garantizar seguridad y control de usuarios.
  • Desarrollar y ejecutar scripts de administración y automatización con PowerShell para optimizar tareas recurrentes y procesos operativos.
  • Implementar políticas de seguridad robustas y de cumplimiento relacionadas con Microsoft 365, alineadas a los estándares corporativos y regulatorios.
  • Colaborar con equipos multidisciplinarios para coordinar actividades y mantener la infraestructura tecnológica alineada con las necesidades del proyecto.
Esta posición ofrece un entorno híbrido ubicado en Santiago Centro, facilitando la interacción directa con el equipo y clientes cuando sea necesario, combinando la flexibilidad del trabajo remoto.

Requisitos y habilidades para el Administrador Microsoft 365

Buscamos un profesional con al menos dos años de experiencia comprobable en administración de Microsoft 365, demostrando dominio en la gestión efectiva de esta plataforma en entornos empresariales. Es indispensable contar con conocimientos sólidos en la gestión de identidades y accesos utilizando Azure Active Directory para asegurar un control adecuado y seguro sobre los usuarios y permisos.
El candidato debe tener un manejo avanzado de PowerShell, capaz de crear y mantener scripts para administración y automatización, facilitando la eficiencia operativa del equipo de TI. Además, debe tener experiencia en la implementación de políticas de seguridad para asegurar el cumplimiento con normativas internas y externas relacionadas con Microsoft 365.
La certificación Microsoft relacionada con Microsoft 365 (como MS-100, MS-101 u otras equivalentes) es muy valorada, aunque no estrictamente obligatoria, ya que refleja un compromiso con la excelencia técnica y actualización constante.
El perfil ideal combina habilidades técnicas con una mentalidad proactiva, orientación al cliente y trabajo colaborativo, además de adaptabilidad para integrarse rápidamente en equipos ágiles y dinámicos.

Habilidades y certificaciones deseables

Nos gustaría incorporar a un candidato que posea certificaciones Microsoft específicas en Microsoft 365 como MS-100 y MS-101, lo que refleja una capacitación avanzada y validada profesionalmente en la plataforma. Además, tener experiencia previa en proyectos relacionados con seguridad informática y cumplimiento normativo será un plus valioso.
El conocimiento adicional en otras herramientas de automatización, y experiencia con metodologías ágiles o de gestión de proyectos IT, contribuirán a un mejor desempeño y adaptación al equipo.

Modalidad de trabajo y entorno laboral

Ofrecemos una modalidad de trabajo híbrida que combina la flexibilidad del trabajo remoto con la posibilidad de asistencia presencial en oficinas ubicadas en Santiago Centro, facilitando así el equilibrio entre la vida laboral y personal. Este esquema promueve la colaboración directa y la comunicación fluida entre los miembros del equipo y con nuestros clientes.
Nos comprometemos a brindar un ambiente dinámico, con oportunidades de aprendizaje y crecimiento profesional en un proyecto de alto impacto dentro del sector tecnológico. Nuestro equipo es diverso y orientado a resultados con un enfoque en metodologías ágiles para asegurar la eficiencia y calidad en la entrega de soluciones.

POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 2000 Tiempo completo
Especialista en Sistemas Linux y Automatización
  • BC Tecnología
  • Santiago (Hybrid)
Git Linux UML Virtualization
En BC Tecnología somos una consultora de Servicios IT que, desde hace 6 años, diseñamos soluciones a medida para clientes de sectores como servicios financieros, seguros, retail y gobierno. Contamos con un portafolio integral que incluye consultoría, desarrollo de proyectos, outsourcing y servicios de soporte y administración IT. Nuestro enfoque está en metodologías ágiles, cambio organizacional y desarrollo de productos, formando equipos de trabajo especializados para potenciar cada proyecto. El especialista Linux se integrará a un equipo técnico dedicado a proyectos desafiantes de alto impacto, participando en iniciativas que impulsan la innovación tecnológica en un entorno profesional sólido.

This posting is original from the Get on Board platform.

Funciones y responsabilidad del puesto

El profesional seleccionado tendrá la responsabilidad principal de administrar y optimizar entornos RedHat Linux, garantizando la eficiencia y estabilidad de los sistemas operativos. Deberá desarrollar scripts en Shell/Bash para automatizar tareas operativas y de mantenimiento, mejorando los procesos internos del proyecto. También será encargado de gestionar repositorios de código y versiones utilizando herramientas de control como Git, ya sea en GitHub o GitLab. Además, debe crear y mantener documentación técnica detallada y diagramas UML para soportar el desarrollo y mantenimiento del sistema, facilitando el conocimiento transversal y la continuidad del proyecto.
Este rol requiere una participación activa en el equipo, colaborando en la resolución de incidencias y la implementación de mejoras técnicas, siempre orientado a cumplir con los objetivos del proyecto con calidad y eficiencia.

Requisitos y habilidades necesarias

Buscamos a un profesional con sólida experiencia comprobable en administración y operación de sistemas Linux, especialmente en distribuciones RedHat, capaz de manejar entornos productivos complejos con autonomía y criterio técnico.
Debe poseer amplias habilidades en scripting Shell/Bash para automatizar múltiples procesos de administración de sistemas, logrando reducir errores y aumentar la productividad del equipo. Es indispensable el conocimiento práctico en herramientas de control de versiones Git, ya sea en plataformas como GitHub o GitLab, para gestionar colaborativamente el código fuente.
Es fundamental contar con competencias para elaborar documentación técnica clara y precisa, así como diagramas UML que ayuden a visualizar arquitecturas y flujos de procesos, facilitando el trabajo en equipo y la transferencia de conocimiento.
Se valorará especialmente la experiencia o conocimientos adicionales en soluciones en la nube como AWS S3 y la gestión de protocolos de transferencia de archivos (FTP). También es deseable haber trabajado con integración de sistemas mediante protocolos SAMBA/CIFS, especialmente en entornos de almacenamiento virtualizado (VMS).
Además, el candidato ideal debe tener capacidad para el trabajo colaborativo bajo metodologías ágiles, orientación al detalle, pensamiento analítico y proactividad ante la identificación de oportunidades de mejora.

Habilidades y conocimientos deseables

Se valorará positivamente la experiencia en administración y manejo de servicios en la nube, especialmente en AWS, como el uso de AWS S3 para almacenamiento y gestión de datos. Es deseable conocimiento en protocolos FTP que faciliten la transferencia segura y eficiente de archivos.
También resulta importante la experiencia en integración de sistemas utilizando SAMBA/CIFS para compartir recursos en entornos de almacenamiento virtualizado, orientados a mejorar la interoperabilidad dentro de las arquitecturas de TI.
Conocimientos adicionales en seguridad informática, monitoreo y optimización del rendimiento de sistemas Linux serán considerados un plus para fortalecer el perfil técnico del candidato.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Senior Site Reliability Engineer (SRE)
  • Moventi
Python MySQL Go Kubernetes
Moventi is a forward-thinking technology company dedicated to helping organizations embrace innovation through cutting-edge technologies. We provide an environment where multidisciplinary talents collaborate to drive digital transformation and shape the future with technology. Our teams engage with state-of-the-art cloud infrastructure projects and large-scale SaaS platforms designed to scale and maximize reliability and efficiency.
Our current project focuses on designing, building, and operating highly available, scalable infrastructure on cloud platforms such as AWS EKS and Azure AKS. This includes advanced data ingestion pipelines handling hundreds of terabytes to petabytes of data, leveraging technologies like Clickhouse and Kafka. We prioritize observability, security, and automation using modern tools and practices to ensure robust SaaS operations.

Job opportunity published on getonbrd.com.

Primary Responsibilities and Role Overview

As a Senior Site Reliability Engineer (SRE), you will be instrumental in architecting, deploying, and managing complex cloud-native infrastructure in large-scale SaaS environments. Your role includes designing and maintaining Kubernetes clusters (AWS EKS, Azure AKS) using Infrastructure as Code tools such as Terraform, ensuring seamless scalability and reliability.
You will be responsible for implementing observability solutions across monitoring, logging, tracing, and metrics collection using Prometheus, Grafana, Datadog, and ELK ecosystem to maintain robust system health and performance. Managing data ingestion pipelines with high-volume technologies like Clickhouse and Kafka will be part of your core tasks.
Collaboration with cross-functional teams to drive GitOps CI/CD processes, writing automation scripts in Python, Go (Golang), and Bash to streamline deployments and operations, and enforcing security best practices involving encryption, key management, and policy enforcement are key duties. In addition, you will design and maintain disaster recovery strategies for critical components such as MySQL, Kafka, and Zookeeper, ensuring business continuity and data integrity.
This role requires active participation in a large, dynamic team environment where your expertise will elevate operational standards and foster innovation around high availability SaaS platforms.

Required Experience and Skills

We are looking for a professional with a minimum of 7 years designing, building, and maintaining SaaS environments with a strong focus on large-scale cloud infrastructure. Candidates must have at least 5 years of hands-on experience working with AWS EKS and Azure AKS managed Kubernetes clusters, leveraging Terraform for infrastructure automation.
Key technical expertise includes managing data ingestion in large environments through Clickhouse and Kafka, handling data volumes scaling up to petabytes. A solid background in observability tools such as Prometheus, Grafana, Datadog, and ELK for monitoring, logging, and tracing is mandatory.
Expertise in GitOps practices and CI/CD pipelines is essential. We expect proven scripting skills in Python, Go (Golang), Bash, and AWS CLI to automate operational workflows. Candidates must demonstrate at least 3 years of experience managing security operations including enforcing infrastructure security policies, managing encryption at rest and in transit, and key management.
In-depth knowledge of disaster recovery planning and execution for distributed systems including MySQL, Kafka, and Zookeeper is required. The ideal candidate should be a proactive and collaborative team player, able to communicate complex technical concepts effectively while taking initiative in a fast-paced innovative environment. Strong problem-solving skills, risk management, and a passion for continuous improvement are imperative to succeed in this role.

Additional Preferred Skills and Experience

Experience with service mesh technologies such as Istio and Kubernetes operators is highly valued to optimize application connectivity and lifecycle management. Familiarity with large scale data architectures and tuning Kafka clusters would be advantageous. Prior exposure to cloud security frameworks and compliance standards, as well as experience leading or mentoring SRE teams within enterprise environments, will be considered a strong plus.
An innovative mindset with eagerness to explore emerging tools and automation techniques is welcome, along with excellent interpersonal skills suitable for a multidisciplinary collaborative culture.

Our Offer and Work Environment

At Moventi, we provide a stimulating and innovative work atmosphere located in the heart of San Isidro, Lima, featuring convenient parking and recreational zones to promote wellbeing during breaks. Our hybrid work model gives you the flexibility to balance time between our fully equipped office and remote work tailored to team and personal preferences.
We prioritize professional growth by exposing you to challenging, diverse projects that foster continuous learning and skills enhancement. Our organizational culture is based on transparency, collaboration, commitment, risk-taking, and innovation. We offer formal employment contracts with full legal benefits from day one, ensuring job security and comprehensive protections.

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Azure Cloud Engineer
  • Moventi
DevOps Azure Automation CI/CD

Moventi is a technology-driven company dedicated to helping organizations lead the way using innovation and emerging technologies. We foster a multidisciplinary and collaborative environment where continuous learning and growth are core values.
At Moventi, we embrace transparency, teamwork, and a commitment to innovation, creating impactful solutions through original ideas. Our teams work in agile setups that encourage cross-disciplinary collaboration, contributing to the success of projects that deliver measurable business value and technological advancements.

Apply without intermediaries from Get on Board.

Key Responsibilities

As an Azure Cloud Engineer at Moventi, you will be responsible for designing, deploying, and managing cloud infrastructure on the Microsoft Azure platform. Your role will involve operating and supporting cloud environments to ensure optimal performance, scalability, and security in collaboration with global teams. You will be tasked with troubleshooting complex technical issues, providing advanced support to clients and internal users, and automating deployment and configuration tasks through Azure DevOps and other CI/CD tools.
You will also contribute to the continuous improvement of our cloud infrastructure by implementing best practices, monitoring and optimizing resources, and collaborating closely with developers and system administrators. Additionally, you will assist in the development and support of applications running on LAMP stacks and participate in cross-cultural and international customer engagements.

Required Skills and Experience

The ideal candidate should hold a Bachelor's degree in Computer Science, Management Information Systems, or a related technical field. You will have between 3 to 4 years of technical engineering and administration experience, with at least 2 years focused on working as a LAMP stack developer and/or systems administrator.

We require strong experience in cloud hosting environments, specifically in Microsoft Azure administration and support. The candidate must demonstrate technical aptitude in troubleshooting, maintaining, and supporting cloud infrastructure. Experience with delivering technical customer support in a cloud or hosting environment is essential.
Working effectively with diverse cultures and international teams is important, requiring excellent communication skills and the ability to collaborate globally. You should be adept at managing multiple priorities, responding to dynamic cloud infrastructure needs, and automating operational tasks to boost efficiency.

Desirable Qualifications

Preferred candidates will hold Azure certifications validating their expertise in cloud technologies and best practices. Advanced experience with DevOps methodologies and tools, especially Azure DevOps, is highly valued to contribute to infrastructure as code (IaC) and continuous integration and delivery (CI/CD) pipelines.
Additional knowledge of scripting languages, automation frameworks, container orchestration, and monitoring tools will be beneficial. Prior exposure to multicultural and global business environments will set candidates apart, enhancing team functioning and customer delivery.

What We Offer

At Moventi, we offer a collaborative and innovative atmosphere situated in the heart of San Isidro, Lima, featuring convenient parking and recreational areas that foster employee wellbeing during breaks. Our hybrid work model provides flexibility, allowing employees to split their time between our well-equipped office and remote work tailored to individual and team needs.
We support professional growth through exposure to challenging and diverse projects that promote continuous learning and skill development. Employees join a supportive culture grounded in transparency, commitment, risk-taking, and innovation. We offer formal payroll with full legal benefits from day one, ensuring job stability and comprehensive protections.

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Arquitecto Cloud AWS
  • Moventi
  • Lima (In-office)
.Net Agile DynamoDB CI/CD

Somos una empresa peruana de tecnología con proyectos en Perú, USA y Europa. Tenemos más de 10 años en el mercado ofreciendo soluciones tecnológicas de alto impacto y proyectos sumamente retadores con grandes clientes.

Buscamos el mejor talento, que se rete constantemente y apasionados por la tecnología.
¿Estás listo para asumir este reto? 👨🏻‍💻

Apply without intermediaries through Get on Board.

Funciones del cargo

  • Experiencia sólida en arquitecturas cloud
  • Creación de arquitecturas distribuidas utilizando servicios como EC2, S3, RDS, DynamoDB y Lambda.
  • Experiencia en proyectos de banca
  • Certificaciones relevantes como AWS Certified Solutions Architect o AWS Certified DevOps Engineer
  • Experiencia con CI/CD utilizando AWS CodePipeline, CodeBuild y CodeDeploy.

Requerimientos del cargo

  • Bachiller o Titulado de carreras como Ing. de Sistemas, Informática o afines.
  • Más de 5 años diseñando e implementando soluciones en la nube.
  • Disponibilidad para trabajar de manera híbrida en San Isidro-Lima

Opcionales

Se valorará la experiencia previa trabajando en entornos ágiles, conocimientos adicionales en tecnologías cloud relacionadas con .Net, así como habilidades para la gestión de equipos multidisciplinarios y la capacidad para participar activamente en el diseño de soluciones de alta disponibilidad y escalabilidad.

Asimismo, tener experiencia en la integración de sistemas financieros, familiaridad con arquitecturas seguras y con la normatividad vigente del sector financiero contribuirá a un desempeño óptimo en el rol.

Condiciones

En Moventi, ofrecemos un ambiente de trabajo colaborativo, con oficinas céntricas en San Isidro, Lima, que cuentan con estacionamiento y áreas recreativas para pausas activas. Valoramos la transparencia, el compromiso y la innovación, promoviendo un espacio para el crecimiento profesional y personal. Nuestro esquema es híbrido, facilitando la combinación entre trabajo presencial y remoto, adaptándonos a las necesidades del equipo.

Oportunidades de crecimiento y aprendizaje constante

  • Planilla desde día 1
  • Trabajo híbrido
  • Proyectos retadores

Partially remote You can work from your home some days a week.
Health coverage Moventi pays or copays health insurance for employees.
Computer provided Moventi provides a computer for your work.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Manual Tester for Web Applications
  • Moventi
Agile Continuous Integration Postman CI/CD
We are part of Moventi, a technology company dedicated to helping organizations lead their industries through innovative technology solutions. Our multidisciplinary team thrives on continuous learning, collaboration, and creative problem-solving. We work from a central office that provides a collaborative environment, including parking, recreational areas, and agile workstations that foster teamwork across different professional profiles. This project is a short-term initiative estimated to last about 70-90 days, focused on manual testing for web applications, supporting quality assurance through detailed use case development and API testing with Postman, all while ensuring clear communication in English.

Apply directly at getonbrd.com.

Role and Responsibilities

In this role, you will focus on manual testing of web applications to ensure the highest quality of deliverables. You will be expected to design, execute, and document test cases manually, covering a variety of functional scenarios. Additionally, you will leverage Postman to test API endpoints effectively. Writing comprehensive use cases and detailed test documentation will be essential tasks to validate the application's behavior against requirements.
Effective communication is key, as you will coordinate with development teams and stakeholders in English. The tester must identify defects thoroughly, report issues clearly, and contribute to the overall improvement of the software delivery process within the defined 70-90 day project timeline.

Required Skills and Experience

We require a candidate with expertise in manual testing specifically for web applications, demonstrating proficiency in designing and executing thorough test cases to ensure software quality. Experience using Postman for API testing is essential to verify backend functionality and integration points. Strong skills in writing clear and detailed use cases are critical to translate functional requirements into actionable tests.

The project is estimated to last approximately 70-90 days. We are looking for someone with expertise in the following areas:

• Manual Testing (Web Applications)
• Postman
• Use Case Writing
• Excellent English communication skills.

Excellent English communication skills are mandatory, as the role involves collaborating with international teams and documenting test results in English. The ideal candidate has a professional attitude, attention to detail, technical curiosity, and the ability to work independently within tight deadlines. Prior experience in agile work environments and effective coordination within multidisciplinary teams will be highly valued.

Additional Desired Qualifications

While not mandatory, experience with automation testing frameworks would be an asset to complement manual testing efforts. Familiarity with agile methodologies, continuous integration/delivery pipelines, and defect tracking tools would enhance your ability to contribute effectively. Knowledge of additional API testing tools beyond Postman or experience working in multinational technology projects would be beneficial.

What We Offer

At Moventi, our team enjoys a collaborative and stimulating work environment located in a central city area with parking facilities and recreational spaces for relaxation and creativity. We offer agile workstations that promote teamwork and innovation. Our culture values transparency, consistent coordination, and collective commitment to each project.
We foster a challenging atmosphere where innovation, creativity, and original ideas are encouraged and rewarded. This is an opportunity to grow professionally by working on impactful technology projects within a dedicated and supportive team.

Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1800 - 2000 Tiempo completo
Business Analyst con Foco en QA
  • BC Tecnología
  • Santiago (Hybrid)
Scrum Artificial Intelligence Kanban Agile Methodologies
BC Tecnología es una destacada consultora de TI con más de 6 años de experiencia, especializada en ofrecer soluciones integrales y servicios IT a clientes en sectores como servicios financieros, seguros, retail y gobierno. La empresa se enfoca en diseñar soluciones a la medida, formando equipos ágiles y talentosos que trabajan en proyectos de infraestructura tecnológica, desarrollo de software y unidades de negocio. Los proyectos están ligados a la innovación, especialmente en tecnologías cloud e inteligencia artificial, apoyados en metodologías ágiles que facilitan la adaptación y evolución continua de sus productos y servicios digitales.

Job opportunity published on getonbrd.com.

Tu rol:

  • Ejecutar pruebas funcionales en aplicaciones web y móviles para asegurar la calidad y cumplimiento de los requerimientos.
  • Documentar de forma detallada los hallazgos, flujos de procesos y requerimientos para facilitar la comunicación entre equipos.
  • Analizar procesos actuales y detectar oportunidades de mejora tecnológica dentro de las soluciones digitales.
  • Colaborar estrechamente con los equipos de producto, diseño y desarrollo para implementar mejoras basadas en los resultados de QA.
Como Business Analyst con foco en QA, serás el nexo que garantiza que las experiencias digitales entregadas sean óptimas y cumplan con los más altos estándares de calidad, promoviendo la mejora continua y fomentando un entorno de colaboración proactiva y multidisciplinaria.

¿Qué valoramos?

  • Mentalidad analítica: Capacidad para entender procesos complejos, identificar problemas y evaluar resultados con detalle.
  • Enfoque en la calidad: Pasión por asegurar que cada producto digital cumpla con altos estándares y ofrezca una experiencia fluida a los usuarios finales.
  • Adaptabilidad: Flexibilidad para trabajar en un entorno dinámico y cambiante, ajustándose a nuevas metodologías y desafíos.
  • Trabajo en equipo y comunicación: Habilidad para colaborar con diferentes áreas, manteniendo una comunicación clara y efectiva.
  • Mirada estratégica: Visión para detectar oportunidades de mejora tecnológica que contribuyan a la evolución del producto y la satisfacción del cliente.
  • Motivación por el crecimiento: Deseo genuino de desarrollar su carrera profesional en ambientes digitales innovadores y retadores.

Habilidades y conocimientos deseables

Serán valorados conocimientos previos en herramientas de testing funcional, familiaridad con metodologías ágiles como Scrum o Kanban y experiencia en documentación técnica o análisis de procesos digitales. Asimismo, el manejo de idiomas o herramientas de automatización de pruebas constituirán un plus que potenciará el desempeño en el rol y el crecimiento profesional dentro de BC Tecnología.

Lo que ofrecemos

Ofrecemos un tipo de contrato basado en proyectos, con posibilidad de continuidad según desempeño, en un entorno laboral presencial ubicado en Santiago, Chile.
Formarás parte de un equipo profesional comprometido con la innovación tecnológica, trabajando en soluciones vanguardistas en tecnologías cloud e inteligencia artificial.
Nuestra consultora utiliza metodologías ágiles y atiende clientes de alto nivel en diferentes sectores, generando un ambiente ideal para el desarrollo profesional y crecimiento continuo.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 3000 Tiempo completo
Experto en Infraestructura AWS &Amp; CI/CD
  • OlaClick
Git Linux Docker CI/CD
OlaClick es una innovadora plataforma digital enfocada en la gestión y digitalización de restaurantes en América Latina, con presencia en más de 20 países y más de 20,000 clientes activos. OlaClick ofrece menús digitales interactivos, herramientas integradas de pago y campañas automatizadas para que los restaurantes puedan comenzar a vender en línea rápidamente, sin necesidad de conocimientos técnicos ni comisiones ocultas. El proyecto se centra en automatizar la gestión de pedidos y aumentar significativamente el volumen de ventas, transformando la experiencia operativa y comercial de los establecimientos gastronómicos.

This job is original from Get on Board.

¿Qué harás en OlaClick?

Como Experto en Infraestructura AWS e Integración Continua, tu principal objetivo será diseñar, mantener y optimizar la infraestructura cloud sobre AWS, asegurando alta disponibilidad, seguridad y rendimiento óptimo de los sistemas backend de OlaClick. Gestionarás pipelines de CI/CD que permitan acelerar la entrega continua con calidad, así como la automatización de tareas operativas para los entornos de staging y producción. Colaborarás estrechamente con otros ingenieros y equipos de producto en un entorno de trabajo ágil, aplicando metodologías modernas para garantizar despliegues eficientes y la estabilidad de la plataforma.
  • Diseñar y mantener la infraestructura cloud en AWS.
  • Implementar pipelines de integración y despliegue continuo (CI/CD) para optimizar la velocidad y calidad de entrega.
  • Monitorear, analizar y optimizar el rendimiento, la disponibilidad y la seguridad de los sistemas backend.
  • Automatizar la gestión operativa de entornos staging y producción.
  • Colaborar con los equipos de ingeniería y producto para asegurar alineación y éxito en entregables.

¿Qué esperamos de ti?

Buscamos un profesional con mínimo 3 años de experiencia sólida y comprobable en AWS, habiendo trabajado con servicios como EC2, RDS, S3, Lambda y API Gateway. Es fundamental contar con dominio en herramientas de integración y despliegue continuo, especialmente GitLab CI, que permitan construir pipelines robustos y eficientes. Se requiere conocimiento profundo en sistemas Linux, incluyendo scripting para automatización, manejo de contenedores con Docker y control de versiones usando Git.
Además, es deseable experiencia en Infrastructure as Code (IaC), preferentemente con Terraform, para facilitar la reproducibilidad y escalabilidad de la infraestructura. La habilidad para diagnosticar y resolver problemas complejos es fundamental, junto con una comunicación efectiva para colaborar dentro de equipos multifuncionales y dinámicos. La experiencia en ambientes altamente transaccionales y la orientación al detalle completan el perfil técnico ideal.
Se valorarán especialmente las certificaciones oficiales de AWS, conocimientos en herramientas de monitoreo como Grafana y experiencia previa en startups o entornos con altos volúmenes de tráfico.

✔️Puntos a favor

Contar con certificaciones oficiales AWS que certifiquen tu conocimiento avanzado en sus servicios y buenas prácticas en la nube será un gran diferencial. También valoramos la experiencia implementando soluciones de monitoreo y observabilidad con Grafana para mantener un control riguroso sobre la salud y desempeño de los sistemas. Haber trabajado en entornos altamente transaccionales y dinámicos demuestra tu capacidad para manejar infraestructuras críticas con cargas variables y elevados niveles de concurrencia.

🚀¿Qué te ofrecemos?

En OlaClick ofrecemos una relación laboral estable con una modalidad de trabajo 100% remota, que te permite desempeñarte desde cualquier país de América Latina o Brasil. Nuestra cultura se caracteriza por un ambiente laboral positivo, retador y colaborativo, compuesto por un equipo talentoso y con buena disposición para compartir conocimiento y crecer juntos.
Adicionalmente, facilitamos clases de idiomas gratuitas (inglés o portugués) dos veces por semana a través de Políglota.org para tu desarrollo personal y profesional. Dispondrás de un día libre por tu cumpleaños y un día off extra cada trimestre trabajado, fomentando el equilibrio entre vida laboral y personal. También promovemos capacitaciones continuas tanto en el área técnica como en habilidades blandas, brindándote oportunidades reales de crecimiento dentro de una startup global en expansión.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
DevOps Engineer con Conocimientos en Back-end y AWS
  • coderslab.io
Java Python Agile Node.js
En CodersLab es una empresa dedicada al desarrollo de soluciones para empresas y actualmente estamos enfocados en el crecimiento global de nuestros equipos con el objetivo de posicionar nuestros productos en más países de Latinoamérica. Por esta razón, estamos buscando un DevOps Engineer con conocimientos en Backend y AWS

Te sumarás a un equipo desafiante y ambicioso con ganas de innovar en el mercado, haciendo que tus propuestas sean altamente valiosas para el negocio.
¡Aplica ahora para este increíble reto!

Apply to this job from Get on Board.

Funciones del cargo

  • Diseñar, implementar y mantener pipelines CI/CD para aplicaciones backend.
  • Automatizar despliegues y configuraciones en entornos AWS (EC2, Lambda, ECS, EKS, S3, RDS, etc.).
  • Gestionar infraestructura como código usando herramientas como Terraform, CloudFormation o similares.
  • Monitorizar y optimizar el rendimiento de sistemas y aplicaciones.
  • Colaborar con desarrolladores backend para integrar y mejorar procesos de desarrollo y despliegue.
  • Implementar prácticas de seguridad en la infraestructura y aplicaciones.
  • Gestionar la escalabilidad, alta disponibilidad y recuperación ante desastres.
  • Documentar procesos y arquitecturas implementadas.

Requerimientos del cargo

  • Experiencia mínima de 2 años como DevOps Engineer o en roles similares.
  • Conocimientos sólidos en AWS y sus servicios principales.
  • Experiencia en desarrollo backend con lenguajes como Python, Node.js, Java o Go.
  • Dominio de herramientas CI/CD (Jenkins, GitLab CI, GitHub Actions, etc.).
  • Conocimientos en infraestructura como código (Terraform, CloudFormation).
  • Experiencia con contenedores y orquestadores (Docker, Kubernetes).
  • Familiaridad con monitoreo y logging (Prometheus, Grafana, ELK, CloudWatch).
  • Buenas prácticas de seguridad en la nube.
  • Capacidad para trabajar en equipo y comunicar efectivamente.
Deseables:
  • Certificaciones AWS (AWS Certified DevOps Engineer, AWS Solutions Architect).
  • Experiencia con microservicios y arquitecturas serverless.
  • Conocimiento en bases de datos SQL y NoSQL.
  • Experiencia en metodologías ágiles.

POSTULAR VÍA WEB Ver trabajo
Gross salary $1000 - 1500 Tiempo completo
Analista de Calidad
  • Intelia
Jira Trello Analytical Skills Agile Methodologies

En Intelia, somos una empresa de servicios tecnológicos con una fuerte presencia en el mercado digital. Nos enorgullecemos de gestionar 11 sitios web y 4 aplicaciones, buscando siempre la innovación y la mejora continua en nuestros procesos. Actualmente buscamos un Analista de Calidad que se una a nuestro equipo para garantizar el optimo funcionamiento de nuestros servicios.

Applications are only received at getonbrd.com.

Responsabilidades del rol

  • Revisar entregas de equipos internos y externos, asegurando su calidad y completitud.
  • Validar que se cumplan los criterios de aceptación definidos para cada entrega.
  • Mantener contacto fluido con distintas áreas (producción, diseño, desarrollo, ventas, etc.).
  • Levantar alertas en caso de incumplimientos o desvíos de procesos.
  • Documentar hallazgos, generar reportes de control y proponer mejoras.
  • Apoyar la implementación de procesos de mejora continua y estándares de calidad.

Requisitos del candidato ideal

Buscamos un profesional con experiencia en aseguramiento de calidad y control en procesos tecnológicos. El candidato ideal debe tener habilidades analíticas, gran atención al detalle y capacidad de trabajo en equipo. Buscamos personas proactivas, con facilidad para comunicarse y con experiencia en la documentación de procesos y hallazgos en proyectos tecnológicos. Un conocimiento básico de las metodologías ágiles y la experiencia previa en proyectos relacionados con IA serán considerados como un plus.

Habilidades deseables

Si tienes experiencia previa trabajando con herramientas de gestión de proyectos y calidad, como JIRA o Trello, estarás en ventaja. También valoraremos habilidades en programación básica o conocimiento técnico de herramientas de desarrollo y diseño web. La capacidad de adaptación a nuevos entornos y la disposición para aprender rápidamente son cualidades clave que buscamos en nuestro equipo.

Lo que ofrecemos

Ofrecemos un ambiente de trabajo dinámico y colaborativo en Intelia. Disfrutarás de horarios flexibles, oportunidades de crecimiento profesional y módulos de formación continua en nuestra empresa. Nuestro enfoque en la innovación y la mejora continua se traduce en un entorno desafiante, pero gratificante. Valoramos a nuestros empleados y promovemos un balance positivo entre la vida personal y laboral.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Cloud Architect
  • Moventi
Lean REST API Virtualization Amazon Web Services
Moventi is at the forefront of leveraging technology to transform the regulatory strategies within the pharmaceutical industry. Our dedicated Regulatory Strategy team focuses on using innovative technical solutions to enhance operational efficiencies and create synergistic effects throughout our processes. As a Data Cloud Architect, you will collaborate with diverse teams and professionals, driving significant business value through the development of comprehensive technical architectures.

Apply to this job from Get on Board.

Roles and Responsibilities:

As a Data Cloud Architect, your primary responsibility is to partner with J&J Technology Services and various stakeholders in designing scalable and supportable technical systems to bolster Regulatory Strategy and Intelligence. You will:
  • Develop architecture artifacts in concert with product owners, engineers, and other stakeholders, ensuring alignment with business objectives.
  • Create a range of architecture documentation including business context diagrams, data models, and integration architectures.
  • Ensure architecture compliance with Regulatory, Enterprise, and R&D technology strategies.
  • Utilize standard tools such as Lean IX and Confluence to capture design decisions and architectural information.
  • Foster scalable technologies through reusable integration patterns and intelligent automation.

Education and Experience Required:

The ideal candidate will possess a strong educational background with a BA/BS degree in a technical, engineering, or scientific field. Furthermore, you must have:
  • At least 5 years of experience as a Solution Architect within the Pharmaceutical development landscape.
  • Proficiency in designing and operationalizing integrations using methods such as REST APIs and data pipelines.
  • Extensive experience working with structured RDBMS and content management platforms.
  • A well-rounded understanding of cloud-native solution engineering on platforms such as AWS, GCP, or Azure.
  • Expertise in architecting regulated systems, ensuring compliance with GxP, HIPAA, GDPR, etc.
  • Proficiency in deep learning frameworks like TensorFlow or PyTorch, alongside a solid grasp of NLP techniques.
  • Strong communication skills that enable the translation of complex topics into clear architectural diagrams and presentations.

Desirable Skills and Experience:

While not mandatory, the following certifications and experiences are highly desirable:
  • AWS Well-Architected Framework certification.
  • AWS Certified Machine Learning Specialty certification.
  • Experience leading technical discussions and steering technical consensus among stakeholders.
  • Ability to design robust, scalable, and flexible solutions that cater to multi-national users and Health Authority communities.

Conditions

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Alumno en Práctica DevOps
  • BICE VIDA
  • Santiago (In-office)
DevOps Continuous Integration Continuous Deployment Automation
En BICE VIDA somos líderes en el rubro de las aseguradoras y queremos satisfacer las necesidades de seguridad, prosperidad y protección de nuestros clientes. Estamos apostando por la transformación digital, buscando nuevas formas de realizar el negocio, para mantenernos vigente y responder a los constantes cambios que el entorno nos exige.
¡Únete a un equipo apasionado y altamente motivado por brindar soluciones innovadoras a sus clientes!
“Esta oferta se enmarca en la ley 21.015 que incentiva la inclusión laboral de personas en situación de discapacidad. Aquellos interesados, contarán con el apoyo de la Compañía para realizar un proceso inclusivo y en igualdad de condiciones. BICE Vida se compromete a resguardar la información que postulantes en situación de discapacidad proporcionen de manera voluntaria”.

Apply from getonbrd.com.

¿Qué buscamos?

En BICE VIDA nos encontramos en búsqueda de unPracticante para unirse al equipo de DevOps de la Subgerencia de Arquitectura y DevSecOps! En el equipo tenemos como misión garantizar el proceso de despliegue e integración continuas de toda la compañía, para automatizar los procesos técnicos de la compañía se aborden adecuadamente considerando aspectos tales como arquitectura empresarial, modelos de referencia y arquitecturas de software/soluciones.
En este rol deberás:
  • Apoyar al equipo en la co-creación, seguimiento y materialización de lineamientos y prácticas de DevOps enfocados en el desarrollo de software.
  • Realizar seguimiento y redacción de lineamientos, pruebas de plataformas de DevOps y acompañamiento a equipos de desarrollo de software.

¿Qué necesitamos?

  • Formación académica: Ser estudiante de carreras como Ingeniería en Computación, Ingeniería en Informática, Analista Programador, o carrera afín, en búsqueda de su práctica profesional.
  • Saber programar (cualquier lenguaje).
  • Contar con seguro médico, otorgado por casa de estudios.

Sumarás puntos si cuentas con:

  • Contar con conocimiento mínimo/básico de DevOps orientado al desarrollo de software (opcional).

¿Cómo es trabajar en BICE Vida?

  • Trabajamos en horario de oficina de lunes a jueves hasta las 18:00 hrs y los viernes hasta las 16.00 hrs ⌚.
  • Estamos ubicados en Av. Providencia, a pasos del metro Pedro de Valdivia.
  • Tendrás la posibilidad de contar con almuerzo gratuito 🍲 en las dependencias de la compañía cuando asistas presencial. Además, contamos con menú vegetariano y viernes de barra no fit 😜.
  • La práctica considera un bono mensual 💸.

Meals provided BICE VIDA provides free lunch and/or other kinds of meals.
Bicycle parking You can park your bicycle for free inside the premises.
Computer provided BICE VIDA provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1800 - 2400 Tiempo completo
QA Automatizador Semisenior
  • Moventi
  • Lima (Hybrid)
Git QA Scrum Selenium
En Moventi, nos apasiona cómo la tecnología transforma el mundo y queremos que seas parte de este impulso innovador. Nuestro equipo multidisciplinario trabaja en proyectos que abarcan desde el ámbito web hasta la integración de APIs, permitiéndote aplicar tu experiencia en la automatización de pruebas y contribuir a crear soluciones eficaces y de alta calidad en entornos dinámicos. Te ofrecemos un espacio de trabajo colaborativo donde se valoran las ideas originales e ingeniosas, impulsando un impacto positivo en el sector.

This offer is exclusive to getonbrd.com.

Responsabilidades del Puesto

Como QA Automatizador Semisenior, serás responsable de diseñar, implementar y ejecutar pruebas automatizadas en distintas plataformas web y APIs. Tus tareas incluirán:
  • Desarrollo de scripts de prueba automatizados utilizando herramientas y marcos pertinentes.
  • Colaboración con equipos de desarrollo para identificar problemas y asegurar soluciones adecuadas.
  • Documentación de los casos de prueba y resultados obtenidos para facilitar su seguimiento.
  • Participación activa en sesiones de revisión y planificación de sprints.
  • Contribución a la mejora continua de los procesos de calidad y pruebas dentro del equipo.

¿Qué Estamos Buscando?

Buscamos un profesional que cuente con las siguientes habilidades y experiencias:
  • 3 años de experiencia en pruebas automatizadas en entornos web y APIs.
  • Título de bachiller o ser titulado técnico o universitario en carreras de ingeniería de sistemas, software o afines.
  • Certificación ISTQB que respalde tu experiencia en el área de aseguramiento de la calidad.
  • Al menos 1 año de experiencia previa como desarrollador de software, lo que te permitirá entender mejor los procesos de desarrollo.
  • Habilidades de trabajo en equipo, proactividad y un enfoque orientado a resultados.
Valoramos a los candidatos que muestren compromiso con el aprendizaje continuo y la innovación.

Habilidades Deseables

Sería un plus contar con:
  • Conocimientos en metodologías ágiles (Scrum, Kanban).
  • Experiencia en herramientas como Selenium, Cypress, o Cucumber.
  • Familiaridad con sistemas de control de versiones como Git.
  • Habilidades de comunicación efectiva tanto en español como en inglés.

¿Qué Ofrecemos?

Al unirte a Moventi, disfrutará una serie de beneficios:

  • Planilla desde el primer día de labores.
  • Acceso a EPS.
  • Acceso a capacitación continua y desarrollo profesional.
  • Ambiente de trabajo colaborativo y dinámico.
  • Oportunidades para trabajar en proyectos innovadores con un impacto significativo.
  • Un entorno organizacional basado en la transparencia y el compromiso.
Te invitamos a ser parte de un equipo que redefine lo que significa trabajar con tecnología, contribuyendo al crecimiento tanto personal como profesional.

Computer provided Moventi provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
DevOps Engineer
  • Softserve
Python Linux DevOps Virtualization
WE ARE
SoftServe is an IT & global digital solutions company with headquarters in Austin, Texas, founded in 1993 in Ukraine. Our associates work on 2,000+ projects with clients in the USA, Europe, and APAC region. We are about people who create bold things, who make a difference, who have fun, and who love their work. In January 2022, we started our operations in Latin America. We committed to grow our local community to 3,500 associates by 2025 and invest in the market.

This job offer is on Get on Board.

Funciones del cargo

AND YOU WANT TO
  • Collaborate with the LATAM DevOps Practice to contribute to cloud platforms for globally innovative companies
  • Engage in diverse private and public cloud-oriented projects of various scales
  • Participate in enterprise-scale migrations, cloud-native application development, and trending technology initiatives
  • Build, maintain, and optimize CI/CD pipelines for automated deployment and updates
  • Configure and manage scalable, secure, and high-performing cloud environments
  • Use tools like Terraform for infrastructure as code (IaC) to enhance deployment consistency and minimize manual interventions

Requerimientos del cargo

IF YOU ARE
  • Experienced with SRE/DevOps best practices
  • Proficient in AWS core IaaS and PaaS services, including IAM, VPC, Internet Gateway, NAT Gateway, ELB, RDS, EC2, S3, Security Groups, ACLs, and Routing Tables
  • Skilled in Docker, Kubernetes, and EKS
  • Adept in HELM charts and troubleshooting workloads in K8s clusters
  • Knowledgeable in Infrastructure as Code using Terraform or CloudFormation
  • Skilled in scripting languages such as Shell or Bash
  • Proficient in Linux, including administration, command-line expertise, and service debugging
  • Experienced in configuring log collectors and using observability platforms for containerized workloads

Opcionales

  • Good at maintaining existing CI/CD pipelines with tools like Jenkins, GitHub, GitLab, or CircleCI (as a plus)
  • Familiar with Python and tools like Prometheus and Grafana (would be a plus)
  • Knowledgeable in AFT Control Tower and Landing Zone (optional)

Condiciones

SoftServe is an Equal Opportunity Employer. All qualified applicants will receive consideration for employment regardless of race, color, religion, age, sex, nationality, disability, sexual orientation, gender identity and expression, veteran status, and other protected characteristics under applicable law. Let’s put your talents and experience in motion with SoftServe.

Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Softserve pays or copays health insurance for employees.
Computer provided Softserve provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Softserve gives you paid vacations over the legal minimum.
Beverages and snacks Softserve offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 2200 Tiempo completo
Analista QA Sr
  • coderslab.io
  • Santiago (Hybrid)
Android iOS Agile Continuous Integration

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente nos encontramos apuntando al crecimiento de nuestros equipos de manera global con el objetivo de posicionarnos con nuestros productos en más países de Latinoamérica, es por ello que estamos en búsqueda de un Analista QA SR para sumarse a nuestro equipo.

Te sumarás a un equipo desafiante y ambicioso con ganas de renovar el mercado, por lo que tus propuestas serán de mucho valor para el negocio.

¡Postula para este tremendo desafío!

Job opportunity published on getonbrd.com.

Funciones del cargo

  • Participar en la definición de requisitos
  • Participar en las definiciones de flujo de trabajo y procesos de control de calidad.
  • Crear planos y casos de prueba completos y significativos
  • Informar problemas relacionados a los requerimientos funcionales y no funcionales (rendimiento, disponibilidad, etc)
  • Informe y seguimiento de errores/defectos
  • Análisis de registros
  • Detección de oportunidades de mejora en el proceso de desarrollo.
  • Trabajamos con metodologías ágiles, participamos de las ceremonias ágiles
  • Experiencia en testing frontend y backend
  • Experiencia en testing mobile en dispositivos físicos y remotos (Browserstack)

Requerimientos del cargo

  • Conocimiento y experiencia en metodologías ágiles (Scrum, Kanban).
  • Capacidad para colaborar efectivamente con equipos de desarrollo y otros stakeholders.
  • Experiencia en la elaboración y ejecución de planos de prueba.
  • Conocimientos sólidos en el ciclo de vida del desarrollo de software (SDLC).
  • Habilidad para documentar claramente los casos de prueba, resultados y defectos.
  • Familiaridad con la gestión y seguimiento de defectos.
  • Conocimiento de herramientas de gestión de pruebas (JIRA, TestRail).
  • Experiencia con integración continua y herramientas de CI/CD (Jenkins, GitLab CI)
  • Experiencia con pruebas de API (Postman, SoapUI).
  • Experiencia con pruebas Móvil (Android, iOS)
  • Las certificaciones en QA (por ejemplo, ISTQB) son un plus.
  • Habilidad para identificar problemas y proponer soluciones efectivas.
  • Atención al detalle y capacidad para trabajar en un entorno dinámico y cambiante.

Conditions

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
DevOps Lead
  • Moventi
Python Linux DevOps Virtualization

We are seeking an experienced DevOps Lead to join our team, who will be responsible for designing, implementing, and maintaining our cloud-based infrastructure on Amazon Web Services (AWS).
En este rol, tendrás la oportunidad de liderar proyectos relacionados con la innovación tecnológica, garantizando que cumplamos con los estándares más altos.

Job opportunity published on getonbrd.com.

Funciones del cargo

As a DevOps Lead, you will be responsible for leading our DevOps team, ensuring the smooth operation of our cloud infrastructure, and driving the adoption of DevOps best practices across the organization.

  • Cloud Infrastructure: Design, implement, and maintain our cloud infrastructure on AWS, ensuring scalability, security, and high availability.
  • CI/CD Pipelines: Develop and maintain CI/CD pipelines using GitHub Actions, ensuring automated testing, building, and deployment of our applications.
  • Automation: Automate repetitive tasks, and implement infrastructure-as-code (IaC) using tools like Chef, CloudFormation, CDK.
  • Containerization: Implement and manage containerization using Docker, ensuring efficient and scalable deployment of our applications.
  • Security: Ensure the security and compliance of our cloud infrastructure, implementing best practices, and adhering to industry standards (e.g., HIPAA, PCI-DSS).
  • Collaboration: Work closely with cross-functional teams, including development, QA, and product, to ensure smooth operation of our applications and infrastructure.
  • Monitoring and Logging: Implement monitoring and logging tools (DataDog, CloudWatch), ensuring real-time visibility into our infrastructure and applications.
  • Troubleshooting: Identify and resolve issues, debugging complex problems, and optimizing system performance.

Requerimientos del cargo

  • Technical Skills:
  • AWS, including EC2, ECS, RDS, IAM
  • Expertise in IaC tools (preferably - AWS CDK)
  • Expertise in CI/CD pipelines using GitHub Actions
  • Proficiency in automation tools like Chef, Ansible, or Puppet
  • Experience with containerization using Docker, including Docker Compose and Docker Swarm
  • Strong understanding of security best practices, including network security, access control, and compliance
  • Strong knowledge of Python and Shell scripting
  • Familiarity with monitoring and logging tools (DataDog, AWS CloudWatch)
  • Soft Skills:
  • Excellent leadership and communication skills
  • Strong problem-solving skills, with the ability to break down complex issues into manageable parts
  • Ability to adapt to changing requirements and priorities
  • Passion for DevOps, automation, and security, with a focus on delivering high-quality solutions
  • Education
  • Bachelor's degree in Computer Science, Information Technology, or a related field
  • Experience
  • At least 5 years of experience in DevOps, with a focus on cloud infrastructure, CI/CD pipelines, and automation
  • Experience leading DevOps teams, with a proven track record of delivering high-quality solutions

Opcionales

Certifications:

  • AWS Certified DevOps Engineer - Professional
  • GitHub Actions Certified Developer
  • Chef Certified Developer
  • Docker Certified Associate

Conditions

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Supervisor Aseguramiento Calidad
  • Agrosuper
  • Rancagua (Hybrid)
Data Analysis Excel SAP Power BI

En Agrosuper, nuestra misión es "Alimentar lo bueno de la vida todos los días". Como parte de nuestro equipo, te unirás a una empresa que se preocupa por la calidad e inocuidad de los productos en cada etapa del proceso. En tu rol como Supervisor Aseguramiento Calidad, liderarás un equipo vital para el cumplimiento de procedimientos y estándares que aseguran el bienestar de nuestras familias, ya sea en Chile o parte del mundo.

Apply directly on Get on Board.

Principales Funciones:

  1. Liderar al equipo de calidad del área asignada, asegurando que se cumplan los estándares de calidad en todos los procedimientos.
  2. Garantizar la calidad e inocuidad de materias primas, insumos y productos terminados en cada etapa del proceso.
  3. Planificar y supervisar el control microbiológico, liderando planes de acción ante desviaciones detectadas.
  4. Coordinar y supervisar el cumplimiento de procedimientos del Sistema de Gestión Integrado (SIG) y normativas correspondientes.

Requisitos

Buscamos candidatos con título profesional en Ingeniería, que cuenten con un nivel intermedio/avanzado en Microsoft Office incluyendo PowerPoint, Word y Excel, así como manejo de bases de datos, Power BI y SAP a nivel de usuario. Es indispensable tener experiencia en manejo de equipos, ya que somos un equipo que se distribuye tareas y se apoya para asegurar la calidad del producto final.

En Agrosuper valoramos a las personas, promoviendo un ambiente de trabajo basado en la inclusión y el desarrollo profesional.

Desirable Skills

Además de los requisitos mencionados, sería deseable que los candidatos tengan habilidades en análisis de datos y conocimientos previos en sistemas de calidad. Cualquier certificación en gestión de calidad sería un plus significativo.

Te mostramos algunos de nuestros beneficios:

  • Planes de crecimiento y desarrollo profesional.
  • Capacitaciones y becas de estudios para mejorar tus habilidades.
  • Convenios con distintas instituciones que brindan diversos beneficios.
  • Bonos asociados al desempeño, incentivando la excelencia en el trabajo.
  • Modalidad de trabajo híbrido que permite un balance entre trabajo en oficina y remoto.
  • Estacionamiento gratuito y buses de acercamiento para facilitar tu commute.

Life insurance Agrosuper pays or copays life insurance for employees.
Meals provided Agrosuper provides free lunch and/or other kinds of meals.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Agrosuper pays or copays health insurance for employees.
Free car parking You can park your car for free at the premises.
Computer provided Agrosuper provides a computer for your work.
Fitness subsidies Agrosuper offers stipends for sports or fitness programs.
Performance bonus Extra compensation is offered upon meeting performance goals.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2200 Tiempo completo
Ingeniero DevOps y Monitoreo
  • BC Tecnología
JavaScript .Net DevOps Continuous Integration
En BC Tecnología, somos una consultora de TI especializada en ofrecer soluciones innovadoras a nuestros clientes en los sectores de servicios financieros, seguros, retail y gobierno. Con un enfoque en el cliente y la implementación de metodologías ágiles, diseñamos y desarrollamos proyectos tecnológicos que abarcan desde la consultoría hasta el apoyo en infraestructura tecnológica. En este proyecto específico, buscamos un Ingeniero DevOps y Monitoreo, quien será parte de un equipo dinámico enfocado en optimizar la administración y el monitoreo de nuestras soluciones en entornos de nube como Azure y GCP.

Apply exclusively at getonbrd.com.

Funciones del puesto

Como Ingeniero DevOps y Monitoreo, tendrás responsabilidades clave que incluyen:
  • Implantar y gestionar entornos de integración y despliegue continuo utilizando GitLab.
  • Desarrollar y mantener infraestructuras como código utilizando Terraform.
  • Colaborar en la implementación de aplicaciones en plataformas en la nube como Azure y GCP.
  • Implementar soluciones de contenedores utilizando Docker y Kubernetes para asegurar despliegues eficientes.
  • Participar en la monitorización de sistemas y aplicaciones para garantizar su disponibilidad y rendimiento óptimos.
Esperamos que puedas colaborar con nuestro equipo para ofrecer soluciones robustas y escalables a nuestros clientes.

Descripción del perfil buscado

Buscamos un profesional con al menos 4 años de experiencia en el área de DevOps, que cuente con habilidades técnicas comprobadas en:
  • GitLab para la gestión de repositorios y flujos de trabajo CI/CD.
  • Plataformas de nube como Azure y Google Cloud Platform (GCP).
  • Tecnologías de infraestructura como código, específicamente Terraform.
  • Desarrollo con .Net y JavaScript.
  • Contenerización de aplicaciones mediante Docker y gestión de orquestadores como Kubernetes.
Valoramos la capacidad para trabajar de manera remota, así como habilidades de trabajo en equipo, comunicación efectiva y una mentalidad de mejora continua.

Habilidades deseables

Sería ideal que el candidato tuviera experiencia adicional en:
  • Automatización de procesos de infraestructura y despliegue.
  • Herramientas de monitoreo y gestión de rendimiento.
  • Implementación de metodologías ágiles en proyectos de TI.
  • Participación en equipos multidisciplinarios para la solución de incidencias y mejoras.
La capacidad para adaptarse a nuevas tecnologías y un enfoque proactivo son altamente valoradas.

Beneficios de trabajar con nosotros

Ofrecemos un contrato por proyecto de 6 meses con posibilidad de extensión, acompañado de un sueldo a convenir. Nuestros empleados disfrutan de:
  • Seguro complementario.
  • Amipass de $4,500 por día laborado.
  • Convenciones, actividades y bonos.
Nuestra ubicación en Alto Las Condes proporciona un entorno de trabajo moderno y funcional. ¡Nos encantaría contar contigo en nuestro equipo! 🌟

POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2200 Tiempo completo
Analista QA Automatizador
  • BC Tecnología
  • Santiago (Hybrid)
Python PostgreSQL Git QA
En BC Tecnología, somos una consultora de TI con un fuerte enfoque en la creación de soluciones personalizadas que se alinean perfectamente con las necesidades de nuestros clientes. Trabajamos con un diverso portafolio en sectores como servicios financieros, seguros, retail y gobierno. En nuestro proyecto actual, requerimos un Analista QA Automatizador por un periodo de 12 meses, donde el candidato será parte de un equipo ágil, encargado de asegurar la calidad de nuestros desarrollos mediante metodologías de testing avanzadas.

© getonbrd.com. All rights reserved.

Responsabilidades del Analista QA Automatizador

  • Implementar y ejecutar pruebas automatizadas utilizando Selenium WebDriver en Python u otros lenguajes de programación orientados a objetos.
  • Realizar testing de APIs, asegurando la funcionalidad solicitada y la integridad de los microservicios.
  • Manejar repositorios y versiones de software mediante Git y plataformas como GitHub, GitLab o Bitbucket.
  • Interactuar con bases de datos; realizar consultas y pruebas en PostgreSQL como parte del proceso de verificación.
  • Gestionar actividades del equipo y seguimiento de tareas a través de Jira, asegurando el cumplimiento de cronogramas establecidos.
  • Configurar pipelines de CI/CD para facilitar la integración continua y entrega de software fluida.

Requisitos y habilidades del candidato

Buscamos un profesional que posea al menos 3 años de experiencia comprobable en roles similares, con un sólido entendimiento de las prácticas de aseguramiento de calidad. El candidato debe ser capaz de trabajar de manera colaborativa en un ambiente ágil, adoptar metodologías de desarrollo modernas y comunicarse efectivamente con diferentes áreas del equipo. Se valora la proactividad y un enfoque orientado a resultados.

Habilidades deseables

Sería un plus contar con certificaciones relacionadas a testing o metodologías ágiles, así como experiencia en la gestión de pruebas dentro de equipos multidisciplinarios. La experiencia con herramientas adicionales de automatización o conocimientos en lenguajes de programación adicionales también serán considerados positivamente.

Beneficios que ofrecemos

En BC Tecnología, valoramos a nuestro personal y fomentamos un ambiente laboral positivo y colaborativo. Ofrecemos un contrato a plazo fijo que tiene la posibilidad de convertirse en indefinido. Nuestro esquema de trabajo es híbrido, permitiendo así flexibilidad en la modalidad. Además, contamos con beneficios tales como seguro complementario de salud, aguinaldo por fiestas patrias y navidad, y tarjeta de alimentación. 🌟

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero Infraestructura
  • Agrosuper
  • Rancagua (In-office)
Virtualization ITIL BIOS Windows Server
En Agrosuper nos apasiona alimentar lo bueno de la vida todos los días, haciendo las cosas siempre mejor, con espíritu de crecimiento y desarrollo, y disfrutando la vida.
Por este motivo, buscamos a personas con ganas de crecer y desarrollarse para que se unan a nuestro equipo y así potenciar todos sus talentos.

Applications: getonbrd.com.

Funciones del cargo

Como Ingeniero Infraestructura, buscamos profesionales capaces de resolver incidentes y problemas de alta complejidad en el menor tiempo posible, aplicando conocimiento técnico avanzado y especializado en su ámbito asignado, para los distintos sistemas informáticos de AGROSUPER S.A; con el fin de recuperar el funcionamiento de los sistemas TI, asegurando la continuidad operacional o de negocio, según sea el caso. Además, cumplir las normativas vigentes y proponer mejoras.
Si eres un profesional proactivo, metódico, con orientación al logro y capacidad de análisis para proponer soluciones, este cargo podría ser para ti.
Tus principales funciones, estarán orientadas a:
  • Investigar y resolver incidentes y problemas, que, debido a su complejidad, requieren gran experiencia y conocimiento especialista.
  • Administrar, planificar, dirigir, ejecutar, gestionar y evaluar las actividades a realizar en los sistemas TI, (como detener, cancelar, eliminar, modificar, subir y bajar procesos) interactuando con las diversas áreas de la Gerencia de Informática.
  • Mantener informado al Jefe de operaciones Infraestructura TI del avance de sus tareas y participación en proyectos.
  • Reunirse con Jefes de proyectos y clientes, para apoyarlos en la solución de sus incidentes o problemas y requerimientos.
  • Reunirse con proveedores técnicos especializados en su ámbito asignado (Infraestructura TI), para la solución de incidentes o problemas,
  • Reunirse con proveedores estratégicos y tácticos comerciales para la renovación de servicios.
  • Tomar decisiones para obtener consultoría especializada para incidentes y problemas.
  • Diagnosticar, diseñar y modificar procedimientos y documentos necesarios según la demanda del negocio Agrosuper S.A.
  • Ejecutar y proponer tareas que están en el plan de mantenimiento anual.
  • Ejecutar los procesos de habilitación del segundo data center.
  • Ejecutar Pasos a producción.
  • Controlar el proceso de administración de protección de datos/respaldos.

Requerimientos del cargo

Para desempeñar este cargo, esperamos contar con profesionales de las carreras Ingeniería Civil Informática, Ingeniería en ejecución, o afín, con deseable experiencia en continudad operacional.
Será necesario que cumplas con algunos requisitos técnicos, como manejo y conocimiento en Modelo ITIL 4, Virtualización VMware, Windows Server, IBM, Power, Storage y SAN. Además, deseable certificación en cursos de Infraestructura TI.

Condiciones

  • Planes de crecimiento y desarrollo.
  • Capacitaciones y becas de estudios.
  • Bonos asociados al desempeño.
  • Convenios con diferentes instituciones.
  • Convenios con Isapres y Seguros de salud.
  • Beneficios para tu familia.
  • Beneficio de almuerzo con distintas opciones.
  • Modalidad de trabajo híbrido.
  • Estacionamiento gratuito.
  • Buses de acercamiento.

Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Meals provided Agrosuper provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Commuting buses Agrosuper provides free commuting buses from and to the offices.
Free car parking You can park your car for free at the premises.
Computer provided Agrosuper provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Shopping discounts Agrosuper provides some discounts or deals in certain stores.
Beverages and snacks Agrosuper offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1200 - 1400 Tiempo completo
Ingeniero Cloud
  • BC Tecnología
  • Lima (In-office)
Amazon Web Services Docker Microservices Jenkins
En BC Tecnología, somos una consultora de TI en constante evolución, ofreciendo servicios que incluyen la gestión de portafolios, desarrollo de proyectos y outsourcing de talento en diferentes áreas tecnológicas. Durante los últimos 6 años, hemos trabajado con clientes en servicios financieros, seguros, retail y gobierno, creando soluciones personalizadas que responden a las necesidades específicas de cada cliente. Nuestras áreas de negocio abarcan consultoría, formación de equipos de trabajo, y servicios de soporte y administración IT, siempre con un enfoque claro en el cliente y el uso de metodologías ágiles.

Applications at getonbrd.com.

✅ Requerimiento:

Estamos buscando un Especialista Cloud que cuente con al menos 2 a 3 años de experiencia en el área. Las responsabilidades incluirán:
  • -Experiencia práctica con Docker (creación, optimización de imágenes).
  • -Conocimientos avanzados de AWS (despliegue, configuración y seguridad).
  • -Experiencia en arquitectura de software (microservicios, escalabilidad, etc.).
  • -Manejo de herramientas de CI/CD (Jenkins, GitLab CI, GitHub Actions, etc.).
  • -Habilidades de liderazgo técnico y comunicación efectiva.

✅ Condiciones:

El candidato ideal deberá tener habilidades técnicas sólidas y ser un buen comunicador. Ofrecemos un contrato por proyecto estimado a 6 meses, con trabajo presencial en nuestras oficinas en San Isidro, Perú. La disponibilidad requerida es de lunes a viernes de 9:00 am a 6:00 pm. El salario se definirá de común acuerdo, basado en la experiencia y conocimientos del candidato.

Deseable:

Sería ideal contar con conocimientos adicionales en Kubernetes, Terraform u otras plataformas de cloud computing, lo que será valorado durante el proceso de selección.

POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2300 Tiempo completo
Arquitecto Cloud Presencial
  • BC Tecnología
  • Lima (In-office)
Agile Continuous Integration Virtualization Amazon Web Services
En BC Tecnología, somos una consultora de TI con un enfoque claro en el cliente. Nos especializamos en administrar portafolios y desarrollar proyectos innovadores para sectores de servicios financieros, seguros, retail y gobierno. Buscamos crear equipos de trabajo ágiles para abordar desafíos complejos utilizando metodologías como Scrum y Kanban. Actualmente, estamos enfocados en la creación de soluciones de cloud computing utilizando tecnologías de vanguardia.

Official source: getonbrd.com.

Responsabilidades del Rol

Como Arquitecto Cloud, tu papel será fundamental en la creación e implementación de infraestructuras en la nube eficientes y seguras. Tus responsabilidades incluirán:
  • Diseñar arquitecturas de software utilizando microservicios y asegurar la escalabilidad.
  • Optimizar y crear imágenes Docker para diversos entornos.
  • Asegurar la configuración, seguridad y despliegue eficiente en AWS.
  • Integrar y gestionar herramientas de CI/CD como Jenkins, GitLab CI y GitHub Actions.
  • Colaborar con equipos multidisciplinarios para la implementación de soluciones en la nube.
  • Manejar herramientas como Kubernetes y Terraform para facilitar la orquestación y automatización.

Perfil Buscado

Buscamos a un profesional con al menos 2 a 3 años de experiencia en arquitecturas en la nube. El candidato ideal deberá contar con un sólido conocimiento en:
  • Docker - Creación y optimización de imágenes.
  • AWS - Despliegue, configuración y seguridad avanzada.
  • Arquitectura de software - Microservicios y escalabilidad.
  • CI/CD - Familiaridad con herramientas como Jenkins, GitLab CI, y GitHub Actions.
  • Kubernetes y Terraform son altamente valorados.
Además, es esencial poseer habilidades de trabajo en equipo, buena comunicación y la capacidad para resolver problemas de manera creativa.

Conocimientos Deseables

Si bien no son requisitos obligatorios, se valorarán habilidades adicionales en la gestión de proyectos, así como certificaciones en tecnologías de la nube que demuestren tu compromiso con la formación continua. La experiencia previa trabajando en entornos ágiles será una ventaja y permitirá integrarse de manera efectiva en nuestro equipo colaborativo.

Beneficios de Trabajar con Nosotros

Ofrecemos un entorno laboral dinámico y colaborativo, donde el crecimiento profesional es una prioridad. Nuestro modelo de trabajo híbrido te permite disfrutar de un equilibrio óptimo entre el trabajo remoto y presencial. Además, tendrás acceso a oportunidades de capacitación continua y un ambiente que fomenta la innovación.

Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 2000 Tiempo completo
QA Automatizador Latam
  • BC Tecnología
Node.js QA React Ionic
En BC Tecnología, somos una consultora de TI con un fuerte enfoque en la calidad del software. Nos dedicamos a proporcionar soluciones que se alineen con las necesidades de nuestros clientes en el sector educativo y otros sectores clave como servicios financieros, seguros y retail. Con un equipo de expertos, desarrollamos proyectos innovadores utilizando metodologías ágiles y un servicio al cliente excepcional. Actualmente, estamos buscando un QA Automatizador que contribuya a mantener y elevar nuestros estándares en el desarrollo de software.

Apply directly through getonbrd.com.

¿Qué buscamos?

Estamos en la búsqueda de un QA Automatizador con un fuerte enfoque en la calidad del software. Las responsabilidades incluyes:
  • Automatizar pruebas de software utilizando Selenium o Cypress.
  • Diseñar y desarrollar scripts y escenarios de prueba para aplicaciones basadas en TypeScript, React, Node.js e Ionic.
  • Realizar pruebas E2E, de integración y unitarias.
  • Analizar la calidad del código actual y proponer mejoras en los procesos de testing.
  • Implementar herramientas de gestión de pruebas y CI/CD para optimizar el flujo de trabajo.

Requisitos:

Para ser un candidato ideal, necesitas:
  • Un mínimo de 2 años de experiencia en automatización de pruebas.
  • Dominio demostrado de herramientas de automatización como Selenium o Cypress.
  • Conocimientos sólidos en pruebas E2E, de integración y unitarias.
  • Habilidad para trabajar de manera independiente y proactiva en un entorno remoto.
  • Capacidad de análisis crítico para proponer mejoras en procesos y sistemas.

Habilidades Deseables:

Se valorarán adicionalmente:
  • Experiencia en trabajar con metodologías ágiles.
  • Conocimientos de programación en TypeScript.
  • Familiaridad con herramientas adicionales de gestión de pruebas.

¿Qué ofrecemos?

En BC Tecnología, promovemos un entorno dinámico con amplias oportunidades de crecimiento profesional. Ofrecemos:
  • Horarios flexibles.
  • Oportunidades de trabajar en proyectos de gran relevancia en el sector educativo.
  • Un equipo colaborativo donde tu talento hará la diferencia. 🌟

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2500 Tiempo completo
DBA Oracle
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL Oracle Linux
En *BC Tecnología*, somos una consultora TI con un enfoque claro en el cliente. Nuestros equipos de trabajo ágiles están diseñados para colaborar en proyectos innovadores, especialmente en el sector educativo. Tenemos más de 6 años de experiencia creando soluciones IT que se ajustan a las necesidades de nuestros clientes. Este proyecto específico es emocionante y se basa en la administración y optimización de bases de datos Oracle, siendo una oportunidad ideal para quienes buscan hacer un impacto significativo en su campo.

This posting is original from the Get on Board platform.

Tus responsabilidades:

  • 🔧 Gestionar bases de datos Oracle en producción y desarrollo, asegurando su alta disponibilidad y rendimiento.
  • ⚙️ Configurar y gestionar entornos de alta disponibilidad usando Oracle RAC y Data Guard.
  • ☁️ Migrar bases de datos a Oracle Cloud y otros entornos Cloud.
  • 🛠 Automatizar tareas de DBA y realizar monitoreo continuo para optimizar el rendimiento.
  • 🛡 Diseñar planes de recuperación ante desastres y políticas de backup/restore.
  • 🔄 Colaborar con equipos de desarrollo y operaciones para integrar las bases de datos con las aplicaciones.

¿Qué buscamos?

  • 🎯 Experiencia sólida en Oracle 19c o superior.
  • ⚡ Conocimiento profundo de Oracle RAC, Data Guard, ASM y Oracle Multitenant.
  • ☁️ Experiencia con Oracle Cloud Infrastructure (OCI) y otros servicios Cloud como AWS o Azure (deseable).
  • 🛠 Habilidades en scripting para automatización de tareas DBA (Bash, Python).
  • 📊 Experiencia en monitoreo, tuning y optimización de bases de datos.
  • 🗂 Conocimiento avanzado en PLSQL, tuning de SQL, y gestión de backups (RMAN, Data Pump).
  • 🔐 Experiencia en seguridad y encriptación de bases de datos.

¿Qué ofrecemos?

  • 🚀 Proyecto de 5 meses con posibilidad de extensión.
  • 🌍 Trabajo híbrido en un ambiente dinámico.
  • 🎓 Oportunidades de crecimiento y aprendizaje con nuevas tecnologías.

Beneficios adicionales:

  • Modalidad híbrida (presencial 2 veces por semana) en Lima, Perú.
  • Horario flexible de lunes a viernes de 9:00 a 18:00.
  • Oportunidad de trabajar en proyectos innovadores que impactan el sector educativo.
  • Ambiente dinámico y con muchas oportunidades de crecimiento.
¡Únete a un equipo donde tu talento hará la diferencia! 🌟

Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2800 - 3000 Tiempo completo
DevOps Semi Senior
  • BC Tecnología
  • Santiago (Hybrid)
Ruby Python Git Linux
En BC Tecnología, somos una consultora de TI con más de 6 años de experiencia ofreciendo soluciones adaptadas a las necesidades de nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestra especialidad incluye la formación de equipos ágiles para distintas áreas de tecnología, incluyendo Infraestructura TI y Desarrollo de Software. Nos enfocamos en la creación de productos innovadores y en el apoyo organizacional mediante metodologías ágiles.

Job opportunity published on getonbrd.com.

Funciones del Rol

Como Devops Semi Senior, tus responsabilidades incluyen:
  • Implementar y gestionar infraestructuras en la nube utilizando herramientas de primeros niveles como AWS, GCP o Azure.
  • Desarrollar y mantener pipelines de CI/CD utilizando lenguajes de programación como Python, Ruby y Bash.
  • Colaborar en el uso de Infraestructura como Código mediante herramientas como Terraform y Ansible.
  • Monitorear y optimizar clústeres de producción en entornos de Linux, utilizando herramientas como Docker y Kubernetes.
  • Participar activamente en sesiones de migración de infraestructura, asesorando en el proceso de transición de on-premise a Cloud.
  • Soporte técnico continuo para el equipo en prácticas DevOps, asegurando la implementación de mejores prácticas y principios de calidad en el desarrollo.
  • Utilizar y optimizar herramientas de monitoreo y trazabilidad como Prometheus, ELK y Grafana para garantizar el rendimiento efectivo de las aplicaciones.

Descripción del Perfil

Buscamos un profesional con al menos 3 años de experiencia en roles de Ingeniero DevOps o en Infraestructura Cloud, que demuestre un profundo conocimiento en prácticas DevOps. Buscamos habilidades tanto técnicas como interpersonales, incluyendo:
  • Salto de experiencia demostrado en sistemas Linux, control de versiones con Git y implementación de contenedores con Docker y Kubernetes.
  • Conocimientos sólidos en servicios en la nube (AWS, GCP, Azure) y sus respectivas herramientas de monitoreo.
  • Capacidad para trabajar en un entorno híbrido, manteniendo una comunicación efectiva tanto en ambientes remotos como presenciales.
  • Iniciativa propia y aptitud para resolver problemas, así como la capacidad de colaborar colaborativamente dentro de equipos multidisciplinarios.

Habilidades Deseables

Además de los requisitos mencionados, serán valoradas las siguientes habilidades:
  • Experiencia previa con herramientas de Infraestructura como Código como Terraform y Ansible.
  • Certificaciones en plataformas de nube como AWS o Azure.
  • Conocimientos en metodologías ágiles de gestión y desarrollo de software.
  • Capacidades en sistemas de logging y trazabilidad, aumentando la visibilidad del rendimiento de las aplicaciones.

Beneficios de Trabajar en BC Tecnología

En BC Tecnología, cuidamos el bienestar de nuestro equipo. Ofrecemos:
  • Seguro Complementario de Salud y Seguro de Vida para todos los empleados.
  • Bonos de rendimiento y aguinaldos durante festividades importantes.
  • Flexibilidad de horarios con múltiples turnos y una jornada laboral adaptable.
  • Acceso a certificaciones y cursos en AWS, Azure y otras tecnologías relevantes.
  • Convenios con instituciones de salud y acceso a un gimnasio cercano.
  • Oportunidades para participar en actividades externas y enriquecedoras.
¡Únete a un equipo donde tu talento hará la diferencia! 🌟

Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2200 - 2700 Tiempo completo
QA Automation
  • coderslab.io
Android iOS Python Agile

En CodersLab, actualmente estamos enfocados en el crecimiento global de nuestros equipos con el objetivo de posicionar nuestros productos en más países de Latinoamérica. Por esta razón, estamos buscando un QA AUTOMATION motivado y orientado a objetivos.

Te unirás a un equipo desafiante y ambicioso con ganas de innovar en el mercado, haciendo que tus propuestas sean altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Apply through Get on Board.

Funciones del cargo

Responsabilidades Principales:

1. Desarrollo de Automatización de Pruebas:

o Diseñar e implementar scripts automatizados para pruebas de aplicaciones web, móviles y

APIs utilizando herramientas como Robot Framework y Appium (Android/iOS).

o Garantizar la cobertura de pruebas para servicios REST y GraphQL.

o Usar Python para desarrollar soluciones personalizadas y mejorar los frameworks de prueba existentes.

2. Pruebas de Bases de Datos:

o Realizar pruebas y validaciones en bases de datos relacionales (e.g., MySQL, PostgreSQL) y no relacionales (e.g., DynamoDB).

3. Gestión y Colaboración:

o Documentar procesos, resultados y estrategias de prueba en herramientas como Confluence.

o Trabajar en estrecha colaboración con desarrolladores y partes interesadas del negocio para garantizar que los requisitos de calidad se cumplan.

o Gestionar tareas, estimaciones de esfuerzo y prioridades en Jira.

4. Gestión de Infraestructura:

o Configurar pipelines de integración y despliegue continuo (CI/CD) utilizando GitHub Actions.

o Colaborar en entornos basados en la nube, como AWS, para la ejecución y el mantenimiento de pruebas automatizadas.

5. Capacitación y Transferencia de Conocimiento:

o Capacitar a los miembros del equipo en herramientas, procesos y mejores prácticas de automatización.

o Promover una cultura de mejora continua mediante la transferencia de conocimiento y la mentoría.

Requerimientos del cargo

• Experiencia mínima de 5 años en QAA.

• Experiencia sólida en automatización de pruebas utilizando Robot Framework y Appium (Android/iOS).

• Conocimiento avanzado en Python para desarrollo de scripts y frameworks.

• Experiencia en diseño y ejecución de pruebas de APIs (REST y GraphQL).

• Familiaridad con bases de datos relacionales y no relacionales (MySQL, PostgreSQL, DynamoDB).

• Conocimiento de herramientas de CI/CD como GitHub Actions.

• Experiencia trabajando con AWS.

• Manejo de herramientas de gestión como Jira y Confluence.

• Habilidades en documentación y colaboración con equipos técnicos y de negocio.

• Experiencia en entornos ágiles (Scrum)

• Capacidad para liderar iniciativas de automatización y fomentar un entorno de aprendizaje continuo.

• Excelentes habilidades de comunicación y proactividad

• Autonomía y capacidad para gestionar múltiples tareas simultáneamente.

Conditions

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
Net salary $1000 - 1400 Tiempo completo
Analista QA
  • Defontana
  • Santiago (Hybrid)
Agile QA ERP AWS

¿Te gusta trabajar con las últimas tecnologías? ¿Te consideras innovador y quieres participar proyectos de modernización de plataformas? Si tu respuesta es SÍ, este desafío es para ti. En Defontana buscamos nuevos talentos para formar parte de nuestros proyectos y construir en conjunto las mejores soluciones empresariales del mercado.

DEFONTANA ofrece soluciones empresariales 100% WEB, siendo la empresa líder del mercado latinoamericano en la implementación de software ERP.

Buscamos ofrecer grato ambiente laboral, compañerismo, conocimiento y desafíos, todos los ingredientes necesarios para hacer de tu día a día en Defontana algo interesante, algo diferente y que crezcas profesionalmente.

En el área de desarrollo de DEFONTANA estamos embarcados en una serie de proyectos que buscan expandir las funcionalidades disponibles para nuestros clientes, intentando generar un ecosistema que les entregue todo lo que necesitan para administrar con éxito sus empresas.

Apply directly on Get on Board.

Funciones del cargo

Ser parte de la gestión de calidad de los productos asignados para realización de QA: diseño y ejecución integral de pruebas sobre el ERP Defontana según las necesidades de sus productos. Todas ellas creadas con el objetivo de detección temprana de errores durante el proceso de desarrollo.

Se busca en específico un analista QA que trabaje directamente con el equipo encargado de la Transformación Digital de la compañia, el cual esta compuesto por 2 celulas, siendo el responsable el Gerente del área misma (Gerencia de Transformación Digital), quien sera ademas jefatura directa de quien postule al cargo.
Alguna de las tareas que se deben desempeñar son las sgtes :

  • Realizar planes de pruebas
  • Ejecutar testing de productos
  • Simular ejecuciones de productos y su rendimiento
  • Evaluar exhaustivamente los resultados
  • Revisar especificaciones de servicios y productos
  • Asegurar un funcionamiento óptimo del software
  • Potenciar las estrategias de prueba

Requerimientos del cargo

Para este cargo se debe tener conocimiento o el perfil apropiado en algunos temas, tales como:

  • Tener y aplicar conocimiento sobre las distintas tipos de pruebas
  • Documentación de procesos.
  • Proponer soluciones a diferentes errores que se encuentren, de manera de no tan solo realizar pruebas, sino que aportar en las soluciones de las mismas.

Opcionales

Deseables:

  • Conocimiento en desarrollo de software: ciclos de vida, desarrollo ágil, etc.
  • Conocimientos básicos en AWS.

Condiciones

- Bono trimestral, según resultados de la empresa y antigüedad.
- Se entrega computador de trabajo.
- Trabajo remoto dos días a la semana.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Analista de Producto, Analítica de Usuarios e Insights
  • BNamericas
  • Santiago (Hybrid)
Python Analytics Agile Data Analysis

BNamericas es la plataforma de inteligencia de negocios líder en América Latina, con 29 años de trayectoria aportando información actualizada y de alto valor de sectores estratégicos de Infraestructura, Minería, Energía Eléctrica, Petróleo y Gas, TIC y Servicios Financieros. Nuestra plataforma ofrece noticias, actualización de proyectos, personas y compañías, facilitando que nuestros clientes tomen decisiones informadas y acertadas.
¿Eres una persona analítica, curiosa y detallista? ¿Te apasiona entender cómo los usuarios interactúan con productos digitales para transformar datos en decisiones estratégicas? Esta oportunidad laboral puede ser para ti.
Hoy buscamos a un/a analista de producto orientada/o a datos, que jugará un rol clave en el análisis del comportamiento de usuarios, el monitoreo del desempeño de la plataforma y la generación de insights estratégicos
que impulsen la evolución de nuestro producto digital.

Exclusive offer from getonbrd.com.

Responsabilidades Clave

Análisis de comportamiento y uso

  • Monitorear y analizar patrones de uso, puntos de fricción y engagement.
  • Crear dashboards e informes utilizando Amplitude.
  • Compartir insights accionables con los equipos de producto, marketing y liderazgo.
  • Definir y mantener KPIs clave de uso, retención y satisfacción.

Implementación y monitoreo

  • Colaborar con el equipo de desarrollo para asegurar una correcta implementación del tracking.
  • Auditar planes de tracking y asegurar la calidad de los datos.

Soporte al desarrollo de producto

  • Apoyar la validación de hipótesis con datos reales.
  • Participar en discovery entregando insights que guíen la priorización de funcionalidades.

Medición de impacto

  • Evaluar el éxito de lanzamientos mediante KPIs y objetivos de producto.
  • Crear frameworks de medición de product-market fit y satisfacción de usuarios.

Contribución estratégica

  • Identificar oportunidades de mejoras, nuevas funcionalidades y productos.
  • Comunicar hallazgos de forma clara a equipos multidisciplinarios.

Requerimientos del cargo

  • +2 años de experiencia en roles similares (analítica de producto, inteligencia de negocios, data-driven roles).
  • Sólido manejo de herramientas de análisis, idealmente Amplitude.
  • Conocimiento de metodologías ágiles y procesos de desarrollo de producto.
  • Capacidad analítica, pensamiento crítico y excelentes habilidades de comunicación.
  • Conocimiento sobre tracking, eventos y estructuras de datos.
  • Dominio de inglés (oral y escrito).
  • Se valorará experiencia con Python, Pandas, Jupyter y SQL.

Condiciones

En BNamericas fomentamos un ambiente laboral inclusivo, diverso, creativo y altamente colaborativo.

Ofrecemos múltiples beneficios, tales como bono por referidos para la incorporación de nuevos talentos recomendados, salidas anticipadas en fechas especiales como fiestas patrias y Navidad, oportunidades de formación continua y desarrollo profesional, .

Te invitamos a ser parte de una empresa con propósito que promueve el desarrollo sostenible en la región.

Modalidad de trabajo con flexibilidad laboral: híbrido para residentes en Santiago y 100% remoto para el resto de Latinoamérica.

Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Scientist
  • NeuralWorks
  • Santiago (Hybrid)
C Python SQL Docker

NeuralWorks es una compañía de alto crecimiento fundada hace 3 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

Find this vacancy on Get on Board.

Descripción del trabajo

El equipo de Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.

Como Data Scientist, trabajarás en conjunto con Machine Learning Engineers,Translators, Data Engineers entre otros perfiles, construyendo productos basados en datos que permitan llevar las prácticas de negocio al siguiente nivel.

El equipo de Analítica no opera como un equipo de Research separado, sino que está profundamente integrado con nuestros clientes y sus unidades de negocio, esto permite un feedback loop rápido para iterar, corregir y perfeccionar para finalmente conseguir el impacto de negocio.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, una pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Tu trabajo variará de proyecto a proyecto, pero siguiendo una estructura similar:

  • Identificar problemas de analítica que tengan un mayor impacto para la organización.
  • Familiarizarte con el problema junto a expertos, recabar información, opiniones y facts
  • Investigar las mejores prácticas de la industria.
  • Definir hipótesis de trabajo y approach técnico para resolver el problema, incluyendo el set de datos a utilizar, variables, periodo de tiempo, etc.
  • Recopilar datasets estructurados y no estructurados desde múltiples fuentes.
  • Realizar limpieza de datos y validar correctitud.
  • Aplicar modelos y algoritmos para minería de datos.
  • Analizar resultados e identificar patrones y tendencias.
  • Diseñar junto a Machine Learning Engineers soluciones que permitan capturar oportunidades.
  • Comunicar los resultados y discutirlos junto a expertos o tomadores de decisiones.
  • Algunos proyectos pueden incluir desafíos complejos en visión por computador.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia previa en roles de Data Scientist, Data Engineer o similar.
  • Experiencia con Python.
  • Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida la optimización de consultas.
  • Entendimiento de flujo de vida completo modelos de Machine Learning y productos de datos.
  • Habilidades analíticas, de diseño y resolución de problemas.
  • Habilidades de colaboración y comunicación.
  • Buen manejo comunicacional y skills colaborativos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” D. Gaucher , J. Friesen and A. C. Kay, Journal of Personality and Social Psychology, 2011.

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Experiencia con servidores cloud (GCP, AWS o Azure), especialmente el conjunto de servicios de procesamiento de datos.
  • Experiencia usando pipelines de CI/CD y Docker.
  • Experiencia en visión por computador (Computer Vision), incluyendo uso de librerías como OpenCV, PyTorch/TensorFlow, YOLO, Detectron2 u otras.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Vestimenta informal
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer
  • NeuralWorks
  • Santiago (Hybrid)
C Python SQL Virtualization

NeuralWorks es una compañía de alto crecimiento fundada hace 3 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

Apply directly through getonbrd.com.

Descripción del trabajo

El equipo de Data y Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.
Dentro del equipo multidisciplinario con Data Scientist, Translators, DevOps, Data Architect, tu rol será clave en construir y proveer los sistemas e infraestructura que permiten el desarrollo de estos servicios, formando los cimientos sobre los cuales se construyen los modelos que permiten generar impacto, con servicios que deben escalar, con altísima disponibilidad y tolerantes a fallas, en otras palabras, que funcionen. Además, mantendrás tu mirada en los indicadores de capacidad y performance de los sistemas.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Como Data Engineer, tu trabajo consistirá en:

  • Participar activamente durante el ciclo de vida del software, desde inception, diseño, deploy, operación y mejora.
  • Apoyar a los equipos de desarrollo en actividades de diseño y consultoría, desarrollando software, frameworks y capacity planning.
  • Desarrollar y mantener arquitecturas de datos, pipelines, templates y estándares.
  • Conectarse a través de API a otros sistemas (Python)
  • Manejar y monitorear el desempeño de infraestructura y aplicaciones.
  • Asegurar la escalabilidad y resiliencia.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia práctica de al menos 3 años en entornos de trabajo como Data Engineer, Software Engineer entre otros.
  • Experiencia con Python.
    Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida optimización de consultas.
  • Pasión en problemáticas de procesamiento de datos.
  • Experiencia con servidores cloud (GCP, AWS o Azure), especialmente el conjunto de servicios de procesamiento de datos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.
  • Habilidades de comunicación y trabajo colaborativo.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” D. Gaucher , J. Friesen and A. C. Kay, Journal of Personality and Social Psychology, 2011.

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro Complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Vestimenta informal
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Práctica Mantenedor de Datos Control de Gestión (Finanzas)
  • BNP Paribas Cardif
  • Santiago (Hybrid)
Python Excel SQL Power BI

¿Quieres ser parte de los líderes en la revolución de los seguros?

BNP Paribas Cardif está presente en más de 30 países en América, Europa y Asia, contamos con 25 años de trayectoria en Chile y nuestra misión es hacer los seguros más accesibles, justos y valiosos.

✅ Por nuestro ambiente laboral único, somos una organización centrada en el bienestar de las personas y nuestro espíritu Cardif.
✅ Porque el deporte y sus valores son parte de nuestra cultura: la colaboración, la empatía y el respeto guían nuestro trabajo.
✅ Por la cercanía con nuestros líderes, somos una organización que cree en el talento y damos las oportunidades para desarrollarte y aprender juntos.
✅ Por nuestro modelo de trabajo mixto, teletrabajando tres días a la semana.
✅ Estamos comprometidos con el medio ambiente.
✅ Estamos comprometidos con la diversidad, equidad e inclusión.

Official source: getonbrd.com.

Funciones

Este rol implica la mantención de la base de gastos de gestión financier. Cuyas actividades principales son preparar, actualizar y publicar las bases de datos y planes de cuentas, que son las fuentes de información principal para los reportes de gestión financieros, junto con la documentación del proceso asociado a la mantención de bases de datos.

Requerimiento del cargo

Requisitos mínimos:

  • Ser estudiante de carreras técnicas o ingenierías asociadas al área de gestión financiera, Control de Gestión y/o Administración.
  • Habilidades en:
    • Dominio de Excel intermedio
    • Conocimientos en SQL/Python (no excluyente).
    • Familiaridad con herramientas de visualización como Power BI, Qlik (no excluyente).
  • Disponibilidad para realizar la práctica por 6 meses en Santiago.
  • Se requiere una persona con ganas de aprender, capacidad de trabajo en equipo, comunicación eficaz, productividad, tolerancia a la frustración y compromiso.

Beneficios

¿Y cuáles son nuestros beneficios?

  • Trabajamos eficientemente: 40 horas semanales en horarios flexibles y los viernes salimos a las 14:00.
  • Queremos que seas tú mismo: Contamos con política de vestimenta flexible.
  • Modalidad de trabajo híbrido: dos días presencial y teletrabajo.
  • Bono de práctica.

¿Te sumas a la revolución de la industria del seguro?

Esperamos tu postulación ¡seguro y con todo!

“Todas las contrataciones están sujetas a la ley 21015. En BNP Paribas Cardif creemos en lugares de trabajos inclusivos y diversos, donde todas las personas son bienvenidas. En caso de necesitar adaptaciones para ser parte de nuestro proceso de selección, favor comunicarlo en la sección de preguntas”.

Partially remote You can work from your home some days a week.
Computer provided BNP Paribas Cardif provides a computer for your work.
Informal dress code No dress code is enforced.
Beverages and snacks BNP Paribas Cardif offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 1800 Tiempo completo
Business Intelligence Analyst
  • Vemo México
  • Ciudad de México (Hybrid)
Python Data Analysis Excel SQL

¡Únete a VEMO y sé parte del futuro de la movilidad limpia!

Quiénes somos?

En VEMO, somos una empresa de electromovilidad impulsada por su gente y tecnología, que integra todo el ecosistema de movilidad limpia para México y América Latina. Nuestra misión es acelerar la adopción de soluciones de movilidad limpia, mejorando la calidad de vida urbana, preservando el medio ambiente y generando empleo sostenible de alto impacto.

¡Estamos comprometidos con una movilidad responsable, limpia e inteligente!

Applications: getonbrd.com.

Funciones del cargo

Propósito del Puesto
Recopilar, analizar e interpretar datos para ayudar a la empresa a tomar decisiones estratégicas informadas.

Principales Responsabilidades
- Análisis de datos avanzados de métricas clave de negocio.
- Elaboración de reportes escritos y presentación que faciliten la toma de decisiones de líderes de la empresa.
- Diseño de KPIs y elaboración de dashboards que faciliten el monitoreo del negocio.
- Optimización de modelos de datos que cataloguen clientes de negocio.
- Acompañamiento a negocio en iniciativas de alto impacto.

Requerimientos del cargo

Formación Académica
· Graduados universitarios de las carreras de Ingenierías, Económicas, Administración o Finanzas con experiencia en análisis de datos.

Experiencia Requerida
- Experiencia laboral en 3 años en entornos corporativos trabajando en equipo
- 3 años en Análisis de datos y presentación de resultados

Conocimientos Técnicos Clave
- Análisis de datos y visualizaciones con MS Excel - Avanzado
- Análisis de datos y visualizaciones con Python – Avanzado
- Análisis estadístico - Avanzado
- Elaboración de queries y vistas con SQL – Intermedio
-Storytelling con datos y preparaciones de presentaciones con MS Power Point – Avanzado
- Power BI o similar – Intermedio

Conditions

Health coverage Vemo México pays or copays health insurance for employees.
Computer provided Vemo México provides a computer for your work.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2500 - 4000 Tiempo completo
Senior Data Scientist
  • MAS Analytics
  • Santiago (Hybrid)
Virtualization Amazon Web Services Azure Artificial Intelligence

MAS Analytics es una consultora de datos e inteligencia artificial que nos dedicamos a desarrollar proyectos de Data Science (DS), Inteligencia Artificial, Cloud Architecture y Business Intelligence (BI). Hoy en día estamos con un crecimiento importante en proyectos de AI y necesitamos ingeniero/as con experiencia y apasionados que estén buscando aprender y desafiarse trabajando en equipo.

Si estás buscando profundizar y trabajar aplicando tus conocimientos día a día, dentro de un equipo de mucho talento, y alto rendimiento, este puesto es lo que estás buscando.

Find this vacancy on Get on Board.

Funciones del cargo

Estamos buscando un profesional apasionado por las soluciones basadas en Inteligencia Artificial y Machine Learning, con experiencia en el desarrollo y aplicación de modelos avanzados para clientes de diversas industrias. El candidato ideal será capaz de trabajar bajo la metodología de consultoría, comprendiendo las necesidades del cliente y proponiendo soluciones innovadoras que agreguen valor a sus negocios.

  • Diseñar, desarrollar e implementar soluciones de AI, Machine Learning y Deep Learning para clientes de diversas industrias
  • Colaborar estrechamente con clientes para entender sus retos y necesidades, proponiendo soluciones personalizadas
  • Mantenerse actualizado sobre las últimas tendencias y herramientas en AI y ML
  • Trabajar con herramientas y plataformas en la nube para el desarrollo y despliegue de soluciones
  • Medir el impacto generado por las soluciones implementadas

Requerimientos del cargo

  • Título universitario en Ciencias de la Computación, Ingeniería, Estadística o carreras afines
  • 2-4 años de experiencia en desarrollo de soluciones basadas en AI, Machine Learning o Deep Learning
  • Experiencia trabajando con herramientas y plataformas en la nube (ej. AWS, Google Cloud, Azure)
  • Profundo conocimiento en frameworks y librerías como TensorFlow, PyTorch, Keras, Scikit-learn, entre otros
  • Capacidad analítica y habilidad para trabajar en equipos multidisciplinarios
  • Familiaridad con la metodología de consultoría y enfoque orientado al cliente

Deseables

Certificaciones Cloud orientadas a AI o Machine Learning serán valoradas positivamente.

Condiciones

  1. Horario flexible
  2. Seguro complementario 🧑‍⚕️
  3. Ropa relajada 😍😍
  4. Financiamiento de cursos y certificaciones 👨‍🎓👩‍🎓
  5. Ambiente laboral joven
  6. Viernes medio día
  7. Vacaciones extra 🌞🏝
  8. Celebraciones de cumpleaños 🎁🎊
  9. Actividades de empresa 🍻⚽
  10. Y muchos más que podrás conocer…

Accessible An infrastructure adequate for people with special mobility needs.
Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance MAS Analytics pays or copays life insurance for employees.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage MAS Analytics pays or copays health insurance for employees.
Dental insurance MAS Analytics pays or copays dental insurance for employees.
Computer provided MAS Analytics provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Vacation over legal MAS Analytics gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 2000 Tiempo completo
Ingeniero de Datos
  • Compara
Python PostgreSQL Back-end Kafka

Compara es una plataforma digital que permite cotizar y comparar los principales seguros y productos financieros de Latinoamérica. La empresa trabaja con productos como Seguro Automotriz, SOAP, Asistencias en Viaje, Crédito Hipotecario y Tarjeta de Crédito, ofreciendo a los usuarios una solución integral para tomar decisiones financieras informadas dentro del mercado latinoamericano.

Apply from getonbrd.com.

🎯 ¿Qué harás?

  • Mantener y optimizar nuestro data warehouse basado en PostgreSQL y gestionar los pipelines de ingesta de datos que se encuentran en producción.
  • Liderar la transición hacia una arquitectura más moderna, basada en tecnologías como Databricks, dbt y un data lake en S3.
  • Desarrollar y escalar pipelines para el procesamiento y transformación eficiente de datos.
  • Monitorear, depurar y documentar procesos de datos para garantizar su calidad y confiabilidad.

🔎 ¿A quién buscamos?

  • Persona con más de 2 años de experiencia en ingeniería de datos, construyendo y manteniendo pipelines en producción.
  • Dominio de Python para procesamiento de datos, incluyendo el uso de librerías como pandas, SQLAlchemy y psycopg2.
  • Experiencia trabajando con orquestadores de workflows, especialmente Airflow.
  • Conocimiento sólido de bases de datos relacionales, especialmente PostgreSQL, incluyendo modelamiento y optimización de rendimiento.
  • Experiencia práctica con almacenamiento en la nube (S3 o equivalente) y formatos como Parquet.
  • Autonomía y capacidad de tomar decisiones técnicas.

🌟 Será un plus si cuentas con

  • Experiencia con dbt y modelado de datos.
  • Conocimiento en Databricks, Delta Lake, Apache Iceberg o arquitecturas de lakehouse.
  • Experiencia con diseño e implementación de pipelines CDC (Change Data Capture) usando Debezium, Kafka o similares.
  • Conocimientos de buenas prácticas de DevOps para data (versionado de pipelines, testing, CI/CD).
  • Inglés técnico para leer documentación y colaborar en proyectos internacionales.

🚀 Únete a nuestro equipo

En Compara, ofrecemos horarios flexibles y un entorno que favorece el crecimiento profesional. Valoramos la cultura de aprendizaje continuo y el desarrollo de cada miembro del equipo, por lo que si disfrutas optimizando infraestructuras de datos, impulsando mejoras estratégicas y explorando nuevas herramientas, ¡nos encantaría conocerte! 🚀

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Compara provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Compara gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 2000 Tiempo completo
Data Analyst (Product)
  • TECLA
Analytics Data Analysis Growth Data Visualization
Tecla is a fully remote software development company with a diverse and highly skilled team of 100+ experts across Latin America. We specialize in AI, cloud, automation, and DevOps, building innovative solutions for high-growth startups and established mid-market technology companies in the U.S.
Our work culture is agile, collaborative, and fast-paced—we take our work seriously while keeping the environment fun and engaging. As a remote-first company, we emphasize strong teamwork and close collaboration, working seamlessly with our U.S. partners as one integrated unit. Whether optimizing cloud environments, developing AI-driven applications, or enhancing DevOps automation, Tecla is at the forefront of technical innovation, solving complex challenges with cutting-edge technology.

Find this vacancy on Get on Board.

Job Details:

We are seeking a Data Analyst (Product) to help our company grow smarter.
This role sits at the intersection of product analytics, monetization strategy, and partner success. As their Data Analyst (Product) you will own and drive how they define, measure, and improve the performance of their features (loyalty, checkout, missions), while also helping game studios understand what’s working — and what to do next — to maximize their results with the platform.

What You’ll Do:

For the product
  • Define success metrics and KPIs for new product features (e.g., VIP store, checkout incentives, mission rewards)
  • Take high-level guidance for a feature based on metrics, and manage the entire data and analytics portion independently.
  • Set up data visualization tools and perform measurements to evaluate the effectiveness of product features.
  • Build and maintain dashboards to track engagement, conversion, AOV, retention, and LTV.
  • Analyze feature performance across games and user segments to surface insights and optimizations.
  • Partner with PMs and Engineers to ensure instrumentation is complete and actionable.
  • Contribute to roadmap prioritization by identifying areas with the highest growth potential.

For our partners

  • Create studio‑specific insights reports and dashboards (e.g., funnel health, top offers, rank progression).
  • Surface actionable recommendations for improving adoption, conversion, or loyalty engagement.
  • Support Partner Success and BD teams with data‑driven narratives in business reviews.
  • Help define and evolve the KPI frameworks used with customers.

What You Bring:

  • 3+ years of experience with SQL and data reporting
  • 2+ years of experience in data analytics, growth marketing, or monetization strategy roles.
  • Fluency in tools like Looker, Amplitude, or Heap for data visualization and dashboard/reports for partner or customer use.
  • Business acumen and strong product sense — knows what good looks like and how to measure it; specific to web and e-commerce.
  • Excellent communicator who can translate data into clear stories and recommendations.
  • Comfortable collaborating cross‑functionally in a fast‑paced, high‑ownership environment.
  • Prior experience at a gaming studio, platform, ecommerce, or tools company.

Bonus:

  • Familiarity with A/B testing or offer optimization.
  • Understanding of VIP programs, behavioral segmentation, or mission systems in games.
  • Experience with game monetization and/or live ops systems (IAPs, segments, retention mechanics).

Work Schedule: Overlap with U.S. Standard working hours (PST - EST)

Benefits:

  • The opportunity to work on a cutting-edge platform in the exciting gaming industry.
  • A fully remote position with a structured schedule that supports work-life balance.
  • Two weeks of paid vacation per year.
  • 10 paid days for local holidays.
*Please note we are only looking for full-time dedicated team members who are eager to fully integrate within our team.

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2400 Tiempo completo
Data Engineer
  • Wild Foods
  • Santiago (In-office)
JavaScript Python MySQL PostgreSQL
En Wild Foods perseguimos la excelencia a todo nivel. Buscamos al mejor talento para incorporarse a nuestro equipo de Transformación Digital. Un equipo joven, dinámico y lleno de desafíos. Si te interesa ser parte de una empresa innovadora y aprender en un entorno de alto rendimiento, anímate a postular!

Apply at getonbrd.com without intermediaries.

Funciones del cargo

¿Qué harás?
  • Diseñar y desarrollar soluciones ELT: Crear y mantener los procesos y flujos de datos necesarios para extraer datos de distintas fuentes, transformarlos según los requisitos de negocio y cargarlos en un almacén de datos centralizado.
  • Integración de múltiples plataformas: Establecer conexiones y configuraciones entre las diferentes plataformas, como Shopify, SAP, Facebook Ads, Google Ads y GCP, para garantizar la extracción y carga de datos de manera segura y eficiente.
  • Mantenimiento y optimización: Realizar tareas de monitoreo, mantenimiento y optimización de los flujos de datos existentes, identificando y solucionando posibles problemas o cuellos de botella que afecten el rendimiento del sistema.
  • Asegurar la calidad de los datos: Implementar y mantener controles de calidad para garantizar la integridad, precisión y consistencia de los datos que se están integrando desde las diferentes fuentes.
  • Data Governance: Implementar prácticas y controles de gobernanza de datos para garantizar la calidad, privacidad, seguridad y conformidad de los datos integrados. Establecer políticas y procedimientos para la gestión y uso adecuado de los datos, así como realizar seguimiento de cumplimiento normativo y resolución de problemas relacionados con la gobernanza de datos.

Requerimientos del cargo

¿Quién eres?
  • Una persona con sólidas habilidades analíticas y de resolución de problemas, capaz de identificar y solucionar problemas técnicos relacionados con la integración de datos, así como optimizar y mejorar los flujos de datos existentes.
  • Con excelentes habilidades de comunicación. Tendrás que comunicarte efectivamente con equipos multidisciplinarios, traduciendo los requisitos técnicos en términos comprensibles para el negocio.
  • Altamente proactivo y autónomo. En Wild Foods confiamos en el motor propio de cada miembro de nuestra organización.
Experiencia que traes:
  • Título universitario en Ingeniería Industrial, Informática o Comercial o carreras afín.
  • 1 a 3 años de experiencia.
  • Dominio de herramientas ELT: experiencia en el diseño y desarrollo de soluciones ELT utilizando herramientas y lenguajes como Google Dataflow, Airflow, Airbyte, DBT, Python, SQL, Javascript, entre otros.
  • Conocimientos en bases de datos: familiaridad con sistemas de gestión de bases de datos relacionales y no relacionales, como Google BigQuery, MySQL, PostgreSQL, MongoDB, etc.
  • Conocimientos de cloud computing: experiencia trabajando en entornos de computación en la nube, especialmente en Google Cloud Platform (GCP), y conocimientos de servicios como Google Cloud Storage, Google Pub/Sub, entre otros.
  • Inglés avanzado.

Condiciones

- Vacaciones ilimitadas
- Hasta un 60% de descuento en marcas Wild Brands
- Stock Options
- Día libre de cumpleaños
- Entre muchos otros!

Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Wild Foods pays or copays health insurance for employees.
Computer provided Wild Foods provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Wild Foods gives you paid vacations over the legal minimum.
Beverages and snacks Wild Foods offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer Especialista en GCP
  • Muruna
  • Lima (Hybrid)
Java Python Scala Business Intelligence

Muruna es una empresa chilena especializada en el sector financiero, enfocada en entregar soluciones tecnológicas y servicios de staffing altamente especializados. Nuestro portafolio incluye proyectos estratégicos que abordan la gestión y transformación de grandes volúmenes de datos, fundamentales para la toma de decisiones en organizaciones líderes del rubro financiero.

Este rol está orientado a la ingeniería de datos, con foco en la construcción, desarrollo y optimización de pipelines dentro del ecosistema Google Cloud Platform, asegurando la disponibilidad, calidad y continuidad de la información para los equipos de negocio y análisis.

En Muruna fomentamos un entorno de innovación, colaboración y mejora continua, donde el talento no solo aporta valor técnico, sino que también impulsa el éxito operativo y estratégico de nuestros clientes.

Apply to this job at getonbrd.com.

Responsabilidades principales

  • Diseñar, desarrollar y mantener pipelines robustos de ETL/ELT en Google Cloud Platform para transformar datos crudos en formatos analíticos optimizados.
  • Gestionar y optimizar bases de datos relacionales, Big Data, Data Lake y Data Warehouse, garantizando un almacenamiento eficiente y de alta disponibilidad.
  • Extraer y procesar datos de diversas fuentes internas y externas, asegurando la integridad, calidad y utilidad de la información para su análisis posterior.
  • Implementar procesos automatizados de limpieza, homologación y clasificación de datos para facilitar su análisis y visualización.
  • Automatizar el flujo de datos para mantener actualizaciones constantes y confiables en los sistemas de información.
  • Colaborar estrechamente con usuarios de negocio para entender sus requerimientos específicos y traducirlos en soluciones técnicas efectivas, aplicando principios de Business Intelligence y estrategias de datos para dashboards y reportes.
  • Procesar grandes volúmenes de datos utilizando herramientas de Big Data en la nube, principalmente en GCP y, de manera complementaria, en AWS.

Requisitos y conocimientos clave

Buscamos profesionales con formación universitaria en Ingeniería de Sistemas, Ingeniería de Software o carreras relacionadas, que cuenten con al menos 3 años de experiencia en la construcción e implementación de pipelines de datos en entornos Google Cloud Platform. Es fundamental que manejen servicios como Cloud Storage, DataFlow, BigQuery, BigTable, Pub/Sub, DataProc y Composer.

La certificación Data Engineer en GCP será una ventaja considerable, especialmente en candidatos con al menos un año de experiencia práctica en GCP. Se requiere experiencia sólida en Business Intelligence, entendiendo cómo aplicar estrategias de negocio para gestionar y analizar datos orientados a dashboards.

El dominio intermedio-avanzado de bases de datos SQL es imprescindible, así como experiencia de al menos 3 años en explotación y manipulación de bases de datos. Se valorará conocimiento básico en programación con Java y Python o Scala para el tratamiento y exposición de datos vía APIs.

Experiencia en ambientes cloud, principalmente GCP, con al menos un año de trabajo en estos entornos. Conocimientos en metodologías ágiles serán un plus importante para adaptarse al ritmo dinámico del equipo.

Además, buscamos candidatos que cuenten con habilidades destacadas en comunicación, análisis crítico, pensamiento estratégico, orientación a resultados y trabajo colaborativo en equipos multidisciplinarios. El nivel de inglés requerido es intermedio para interactuar en contextos técnicos y documentales.

Habilidades y conocimientos deseables

Se valorará especialmente contar con certificaciones oficiales de Google Cloud Platform en Data Engineering, experiencia previa con AWS y conocimientos avanzados en herramientas de Big Data como Apache Spark o Hadoop. Asimismo, la familiaridad con metodologías ágiles como Scrum o Kanban facilitará la integración y adaptación a los ciclos de desarrollo y despliegue.

Competencias blandas adicionales como iniciativa, proactividad para resolver problemas complejos y capacidad para trabajar en equipos interdisciplinarios distribuidos también serán muy bien valoradas.

Beneficios y ambiente laboral

  • 🎂 Medio día libre en tu cumpleaños + una Gift Card de $25 para que celebres a tu manera.
  • 📚 Certificaciones oficiales de Google (¡somos Partners!), para que sigas creciendo profesionalmente.
  • 🧠 Coaching profesional personalizado, para acompañarte en tu desarrollo y bienestar.
  • 📦 Día libre por mudanza, porque sabemos que cambiarse de casa requiere tiempo (y energía).
  • 👶 Bono por nacimiento, porque los grandes momentos merecen celebrarse.
  • 🇨🇱 Bonode Fiestas Patrias, para que disfrutes con todo el sabor local.
  • 😄 Bono por Referido.

Computer provided Muruna provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer – Microsoft Fabric (Lakehouse & Pipelines)
  • Improving South America
Git SQL Continuous Deployment Azure

Hola! somos Improving South America

Somos una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA principalmente.

Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.

Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development y También trabajamos en desarrollo backend.

Valoramos a las personas dinámicas en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

This job is published by getonbrd.com.

Funciones del cargo

Estamos buscando un/a Data Engineer con experiencia para unirse a nuestro equipo de implementación de Microsoft Fabric. Este rol se enfoca en construir pipelines de datos sólidos y escalables, y en gestionar datos dentro de una arquitectura Lakehouse, aprovechando OneLake, tablas Delta y Fabric Dataflows. Serás responsable de la ingesta, transformación y curaduría de datos para apoyar casos de uso de analítica, aprendizaje automático e inteligencia de negocios cumpliendo las siguientes funciones:

Diseñar, desarrollar y mantener pipelines de datos utilizando Microsoft Fabric Data Factory, Spark Notebooks y Dataflows Gen2.

Implementar arquitectura Lakehouse utilizando tablas Delta Lake en OneLake.

Optimizar flujos de datos para rendimiento, escalabilidad y eficiencia en costos.

Construir patrones de ingesta automatizados y reutilizables para datos estructurados y no estructurados.

Gestionar la calidad de los datos, el linaje y la gobernanza mediante la integración con Microsoft Purview.

Colaborar con modeladores de datos, analistas y partes interesadas del negocio para asegurar que los pipelines respalden las necesidades semánticas y de reportes posteriores.

Requerimientos del cargo

  • 3+ años de experiencia en ingeniería de datos o desarrollo ETL.
  • Sólida experiencia en Azure Data Services (por ejemplo, Synapse, Data Factory) y componentes de Microsoft Fabric.
  • Dominio de PySpark, SQL y desarrollo basado en notebooks.
  • Experiencia con Delta Lake, Parquet y arquitectura medallion.
  • Familiaridad con prácticas de CI/CD, integración con Git y automatización de despliegues en Fabric.
  • Conocimiento práctico de herramientas de gobernanza y catalogación de datos (por ejemplo, Microsoft Purview).
  • Inglés intermedio avanzado o avanzado (Indispensable)
  • Disponibilidad de trabajar en un Proyecto inicial por 6 meses

Condiciones

  • Contrato a largo plazo.
  • 100% Remoto.
  • Vacaciones y PTOs
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo
  • mucho mas..

Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3000 - 3500 Tiempo completo
Data Engineer SSR
  • Improving South America
SQL Azure Power BI Cloud Computing

Hola! somos Improving South America.

Nacimos como una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA principalmente.

Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.

Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development y También trabajamos en desarrollo backend.

Valoramos a las personas dinámicas en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Official source: getonbrd.com.

Funciones del cargo

Actualmente estamos en la búsqueda de un Data Analyst con experiencia que se quiera unir a Improving South America.
Buscamos personas con muchas ganas de aprender, de sumar y que tenga buen manejo del trabajo en equipo.
Su trabajo consiste en hacer que las tareas se realicen utilizando todos los recursos disponibles (tangibles e intangibles) con un fuerte nivel de análisis para manejar troubleshooting en caso de errores de datos, entre otros en un proyecto de finanzas con alcance internacional para clientes de USA.
Se trabajará en el departamento de desarrollo de tecnología de la empresa.
El proyecto es con clientes en USA, pero trabajarás con nuestros equipos de Improving.
Será responsable de avanzar en los diferentes requerimientos del cliente, junto con su equipo.

Requerimientos del cargo

  • Contar con un nivel de inglés intermedio/avanzado (B2/C1). Excluyente.
  • +5 años de experiencia trabajando con SQL Server.
  • Experiencia práctica con Microsoft Fabric, Power BI y Data Flows.
  • Dominio de Azure Logic Apps y automatización en la nube.
  • Sólido conocimiento en modelado de datos, optimización del rendimiento e indexación.
  • Experiencia integrando datos desde múltiples fuentes, incluyendo APIs y almacenamiento en la nube.

Nice to have

  • Experiencia con Azure Data Factory, Synapse Analytics y Dataverse.
  • Familiaridad con Python o PowerShell para automatización.
  • Conocimiento de prácticas DevOps y CI/CD para canalizaciones de datos.
  • Certificaciones de Microsoft (por ejemplo, Azure Data Engineer Associate, Certificación en Power BI).
  • Experiencia en almacenamiento de datos (Data Warehousing) y ciencia de datos.

Beneficios

  • 100% Remoto.
  • Vacaciones y PTOs.
  • Clases de inglés.
  • Equipamiento Apple.
  • Plataforma de cursos en linea.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Computer provided Improving South America provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Improving South America gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2500 - 2700 Tiempo completo
Data Engineer Semi Senior
  • TCIT
  • Santiago (In-office)
Git SQL Cloud Computing Google Cloud Platform
En TCIT, somos líderes en el desarrollo de software en modalidad Cloud, con la misión de transformar digitalmente organizaciones a través de soluciones sostenibles e innovadoras. Nuestro equipo está compuesto por profesionales apasionados y enfocados en generar un impacto positivo. Hemos trabajado en proyectos variados, desde sistemas de gestión agrícola hasta soluciones específicas para la industria judicial. Actualmente colaboramos con importantes partners tecnológicos en ambiciosos proyectos en países como Canadá.

This job is exclusive to getonbrd.com.

Dentro de las principales funciones se destacan:

  • Serás responsable de entregar soluciones eficientes, robustas y escalables en GCP. Tu rol implicará:
  • Diseñar, construir y mantener sistemas de procesamiento de datos escalables y de alto rendimiento en GCP.
  • Desarrollar y mantener pipelines de datos para la extracción, transformación y carga (ETL) de datos desde diversas fuentes en GCP.
  • Implementar soluciones para el almacenamiento y procesamiento eficiente de grandes volúmenes de datos utilizando las herramientas y servicios de GCP.
  • Colaborar con equipos multidisciplinarios para entender los requisitos y diseñar soluciones adecuadas en el contexto de GCP.
  • Optimizar el rendimiento de los sistemas de procesamiento de datos y garantizar la integridad de los datos en GCP.

Habilidades requeridas:

  • Fuerte comprensión de conceptos de bases de datos y modelado de datos.
  • Competencia en SQL, experiencia en el diseño y optimización de consultas.
  • Experiencia implementando y manteniendo soluciones y arquitecturas Cloud.
  • Experiencia en construcción y mantenimiento de Arquitecturas y Pipelines de datos.
  • Habilidades de resolución de problemas.
  • Pensamiento analítico y crítico.
  • Conocimiento de seguridad de datos y cumplimiento normativo en GCP (deseable).
  • Experiencia con herramientas de control de versiones como Git.
  • Conocimiento y experiencia del ciclo de implementación de metodologías ágiles.

Experiencia requerida:

  • Profesional titulado en informática, ingeniería, estadística o matemáticas.
  • Inglés nivel B2 intermedio/avanzado (Excluyente).
  • 3 o más años de experiencia práctica en Data Engineering en GCP.
  • Certificaciones en Google Cloud Platform (GCP) para Data Engineer.
  • Experiencia sobre Apache Spark, Hadoop en el contexto de GCP.
  • Experiencia en consumo de datos mediante servicios de GCP como Pub/Sub, BigQuery, Dataflow, Dataproc, Cloud run.
  • Conocimiento de Ejecuciones de servicios GCP mediante Google Cloud SDK.
  • Experiencia en Modelado de Datos con DBT.
  • Experiencia en el uso de lenguajes de programación como Python, Java o Scala para el desarrollo de pipelines de datos en GCP.
  • Experiencia construyendo código con shell scripting para la ejecución automatizada de flujos de datos
  • Experiencia con herramientas de orquestación, administración de flujos y monitoreo como Airflow ó Control-M
  • Experiencia trabajando con herramientas de seguimiento de metodologías ágiles (Scrum, Kanban, Lean, etc.) (deseable)

Condiciones

En TCIT, garantizamos un ambiente laboral enriquecedor con:
  • Oficinas accesibles, a solo pasos del metro, para facilitar tu día a día. 🚇
  • Flexibilidad horaria que se adapta a tu estilo de vida, permitiéndote encontrar el equilibrio perfecto. 🕒
  • Aumento en los días de vacaciones para que puedas recargar energías. 🌴
  • Acceso a beneficios exclusivos y oportunidades con Caja de Compensación Los Andes y ACHS. 🎁
  • Oportunidades para certificaciones gratuitas, siendo Google Partners. 🎓
  • Equipamiento y soporte técnico adecuados, asegurando que tengas todo lo necesario para desempeñar tu trabajo. 🔧
  • Un ambiente de trabajo con áreas de descanso y una estación de cafetería para tus momentos de relax. ☕
  • Reuniones y celebraciones informales para fomentar un buen clima laboral. 🎉
¡Esperamos que te unas a la revolución digital de TCIT y a nuestra apasionada comunidad!

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer
  • Promarketing
Python SQL Business Intelligence Power BI

Promarketing Chile es una empresa de desarrollo de software especializada en soluciones web escalables e innovadoras, utilizando tecnologías de vanguardia para impulsar la transformación digital, optimizar procesos y destacarse en el mercado.

Contamos con profesionales altamente capacitados y fomentamos un espacio de trabajo colaborativo y orientado al crecimiento tecnológico de nuestros colaboradores y del negocio.

¡Queremos que te unas a nuestro equipo como Data Engineer!

🚀 Sobre el desafío:

En Promarketing Chile queremos elevar la retención de usuarios y aumentar el valor promedio de los depósitos, y para eso buscamos un perfil que combine ingeniería de datos, pensamiento estratégico y visión centrada en el usuario.

Find this job on getonbrd.com.

Funciones del cargo

  • Diseñar y optimizar el Customer Journey basado en datos reales de comportamiento, desde el registro hasta la retención o abandono.
  • Implementar y mantener flujos de datos eficientes desde múltiples fuentes (CRM, pagos, sesiones).
  • Automatizar el análisis del comportamiento de usuarios y segmentación por valor y riesgo de abandono.
  • Crear dashboards interactivos (Power BI o similares) para visualizar KPIs críticos de conversión, depósitos y retención.
  • Proponer e implementar integraciones de APIs externas que mejoren el análisis de usuarios.
  • Colaborar con los equipos de marketing y TI para tomar decisiones basadas en datos.

Requerimientos del cargo

  • Experiencia de 2+ años en ingeniería de datos, análisis o BI.
  • Dominio de SQL (queries complejas, segmentación, cohortes).
  • Dominio de Python
  • Conocimiento práctico en Power BI, Looker o similares.
  • Conocimiento en GTM y GA4
  • Experiencia diseñando o implementando Customer Journeys con base en datos.
  • Capacidad de traducir datos en acciones estratégicas y recomendaciones claras.

Opcionales

  • Deseable: experiencia con herramientas como dbt, Fivetran, BigQuery, Segment, Airflow.
  • Experiencia previa o interés en el sector de casinos online, gaming, fintech o ecommerce.

Condiciones

  • Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos.
  • Un entorno de trabajo flexible y dinámico.
  • Día libre para tu cumpleaños.
  • Trabajo 100% Remoto
  • 40 Hora de trabajo semanales

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Senior Data Engineer
  • Moventi
Python Analytics SQL Web server
Moventi is a forward-thinking technology company dedicated to empowering organizations to lead in their industries through innovation and advanced technology solutions. Our work culture encourages transparency, teamwork, and continuous learning. We operate from a centrally located office offering modern collaborative spaces, including agile meeting tables and recreational areas, fostering a vibrant and supportive environment. The Senior Data Engineer will join a multidisciplinary team working on transformative projects in healthcare technology and software services, enabling data-driven decision making that positively impacts healthcare outcomes and technological advancements within our clients' businesses.

This job offer is on Get on Board.

Role and Responsibilities

As a Senior Data Engineer at Moventi, you will be a key player in architecting, developing, and maintaining scalable data pipelines and infrastructure. Your responsibilities will include:
  • Designing and implementing robust ETL/ELT pipelines using SQL, Python, and Airflow to process large volumes of complex data efficiently.
  • Managing and optimizing data storage and processing frameworks, particularly leveraging Snowflake's cloud data platform for high performance and scalability.
  • Collaborating closely with data scientists, analysts, and stakeholders to translate business needs into effective data solutions.
  • Developing and maintaining data visualization tools and dashboards using Tableau to provide actionable insights to business users.
  • Ensuring data quality, security, and governance best practices are implemented and monitored.
  • Mentoring junior data engineers and sharing knowledge to enhance team capabilities.
Your role is vital to transforming raw data into meaningful analytics deliverables that drive strategic business decisions and innovation within healthcare technology and software service domains.

Requirements and Qualifications

We are looking for a Senior Data Engineer with the following expertise and skills:
  • 5+ years of professional experience in data engineering or analytics engineering roles
  • Proven expertise with Snowflake (data modeling, performance optimization, security)
  • Strong proficiency in Python for data processing and automation
  • Hands-on experience with Apache Airflow for the orchestration of workflows
  • Proficiency in SQL with experience in optimizing queries and data transformations
  • Experience developing data visualizations using Tableau
  • Familiarity with healthcare technology, software services, or tech-enabled analytics platforms
  • Excellent communication skills and experience working with multidisciplinary stakeholders
  • Comfortable working autonomously and capable of delivering high-quality work independently
  • Previous exposure to remote-first work environments; adaptable and collaborative

Desirable Skills and Experience

Preferred additional skills include:
  • Experience with other cloud platforms such as AWS, Azure, or GCP.
  • Knowledge of containerization tools like Docker and orchestration platforms such as Kubernetes.
  • Familiarity with machine learning pipelines and collaboration with data science teams.
  • Understanding of healthcare data standards (e.g., HL7, FHIR) and data privacy regulations like HIPAA or GDPR.
  • Participation in open-source data engineering projects or community involvement.

Why Join Moventi?

  • Continuous opportunities for professional growth and ongoing learning within a multidisciplinary environment.
  • Flexible remote work options, enabling you to balance work and personal life effectively.
  • Participation in highly challenging projects that encourage innovation and skill development.
  • A positive and collaborative company culture based on transparency, commitment, and innovative thinking.
  • Central office location with modern facilities including parking and recreational areas, ideal for hybrid work if preferred.

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero de Data Pipelines Cloud
  • BC Tecnología
  • Santiago (Hybrid)
Java Python Data Analysis Excel
En BC Tecnología, una consultora especializada en servicios IT con más de 6 años de experiencia, diseñamos y ejecutamos soluciones tecnológicas a medida para clientes en sectores como financieros, seguros, retail y gobierno. Nuestro enfoque está en metodologías ágiles, cambio organizacional y desarrollo de productos innovadores. Como parte del equipo de datos, trabajarás en proyectos de modernización y optimización de ductos de datos en entornos cloud, colaborando con áreas de infraestructura y desarrollo para potenciar la gestión de datos en importantes clientes del área retail y otros sectores clave.

Apply without intermediaries through Get on Board.

Responsabilidades principales

Entre las funciones principales del rol se incluyen:
  • Diseñar, construir y mantener pipelines de datos eficientes y escalables en entornos cloud, preferentemente en AWS.
  • Colaborar en la ingesta, transformación y carga de datos provenientes de diversas fuentes internas y externas.
  • Trabajar junto a un líder técnico en iniciativas de modernización y mejora continua de los sistemas de datos.
  • Implementar soluciones técnicas alineadas con los lineamientos de arquitectura y estrategia de datos corporativa.
  • Interpretar y traducir requerimientos de negocio relacionados con datos en conjunto con analistas y desarrolladores para ofrecer soluciones que aporten valor.
  • Apoyar en la documentación técnica y seguimiento de buenas prácticas en desarrollo de pipelines.

Requisitos y experiencia requerida

Buscamos un profesional con experiencia práctica en proyectos relacionados con datos y pipelines en ambientes cloud, con capacidad para integrarse rápidamente a equipos multidisciplinarios. Es fundamental contar con:
  • Experiencia íntima con herramientas de visualización de datos, destacando Power BI y Metabase, que permitan el análisis y presentación clara de información.
  • Manejo intermedio de Excel para análisis de datos y manipulación básica.
  • Fuerte manejo en computación en la nube, idealmente con AWS, y servicios como Glue, Airflow y Redshift para orquestación, transformación y almacenamiento de datos.
  • Dominio de bases de datos SQL y/o NoSQL, para consulta, modelamiento y optimización del acceso a datos.
  • Conocimientos en lenguajes de programación como Python o Java, utilizados para desarrollo y automatización en la ingeniería de datos.
  • Experiencia previa en el rubro retail, entendiendo sus particularidades y necesidades en el manejo de datos.
  • Disponibilidad para trabajar en modalidad híbrida desde Chile, con flexibilidad para combinar trabajo remoto y presencial.
Valoramos habilidades blandas como colaboración, comunicación efectiva, orientación al detalle y capacidad de adaptación a entornos dinámicos y multidisciplinarios.

Habilidades y conocimientos deseables

Además, será altamente valorado que el candidato cuente con:
  • Experiencia en otras plataformas cloud además de AWS, como Azure o Google Cloud.
  • Conocimientos en frameworks y herramientas de orquestación de flujos de datos adicionales a Airflow.
  • Capacidad para diseñar arquitecturas de datos escalables y resilientes.
  • Conocimientos en seguridad y gobernanza de datos para garantizar integridad y cumplimiento normativo.
  • Experiencia previa en metodologías ágiles y trabajo colaborativo con equipos multifuncionales.

Beneficios y cultura de trabajo

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

POSTULAR VÍA WEB Ver trabajo
Gross salary $1400 - 1700 Tiempo completo
Administrador de Bases de Datos
  • Zerviz Technologies
  • Santiago (In-office)
MySQL PostgreSQL NoSQL MongoDB

En ZerviZ, somos una empresa líder en innovación tecnológica y transformación digital desde 2017, con presencia en más de 16 países de América Latina. Nos especializamos en diseñar, implementar y optimizar proyectos digitales que mejoran la experiencia del cliente y optimizan procesos operativos, atención, servicio y gestión. Participarás en un equipo que impulsa más de 150 proyectos exitosos utilizando tecnologías de punta y metodologías ágiles, siempre buscando ir más allá de lo convencional para entregar soluciones flexibles y personalizadas a clientes en diversas industrias.

Applications at getonbrd.com.

Funciones

  • Administrar y optimizar bases de datos relacionales (SQL Server, MySQL, PostgreSQL) y no relacionales (MongoDB).
  • Desarrollar y ejecutar scripts en SQL para automatizar tareas y mejorar el rendimiento.
  • Implementar y mantener políticas de seguridad de bases de datos (encriptación, control de acceso, auditoría).
  • Gestionar planes de backup, recuperación de datos y garantizar alta disponibilidad.
  • Monitorear el rendimiento de las bases de datos y diagnosticar posibles problemas.
  • Gestionar bases de datos en entornos virtualizados y plataformas en la nube (AWS, Azure, Google Cloud).

Requisitos

  • Experiencia en Sistemas de Gestión de Bases de Datos (SGBD): Se requiere experiencia en el manejo y administración de SGBD como Microsoft SQL Server, MySQL, PostgreSQL, MongoDB, entre otros, tanto en bases de datos relacionales como no relacionales.
  • Instalación, configuración y administración: Se debe contar con la capacidad para instalar, configurar y administrar diferentes tipos de SGBD, adaptándolos a las necesidades específicas de la organización.
  • Conocimientos en arquitectura de bases de datos: Se debe tener un conocimiento sólido en la arquitectura de bases de datos, comprendiendo su diseño, escalabilidad y optimización, asegurando un desempeño eficiente y seguro de las bases de datos.

Experiencias Deseables

  • Seguridad de la información: Conocimiento en herramientas y técnicas de seguridad, encriptación de datos y gestión de riesgos.
  • Certificaciones en Cloud: Certificaciones en plataformas de computación en la nube como AWS, Azure o Google Cloud.
  • Business Intelligence (BI): Conocimientos en herramientas de BI para el análisis y visualización de datos.
  • Automatización y scripting: Familiaridad con herramientas de automatización y scripting (PowerShell, Python, etc.) para optimizar procesos y tareas administrativas.

Conditions

Life insurance Zerviz Technologies pays or copays life insurance for employees.
Health coverage Zerviz Technologies pays or copays health insurance for employees.
Dental insurance Zerviz Technologies pays or copays dental insurance for employees.
Computer provided Zerviz Technologies provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Senior Ingeniero de Datos
  • Devsu
  • Quito (Hybrid)
Java Python SQL NoSQL

Con más de 10 años de experiencia creando innovación para empresas, desde startups hasta las mayores compañías de US y Latinoamérica en diferentes industrias como banca y seguros.

En Devsu te encontrarás trabajando con los mejores profesionales de los que podrás aprender constantemente y participar en proyectos emocionantes y desafiantes para clientes globales.

Buscamos un Ingeniero de Datos con amplia experiencia en el ciclo completo de desarrollo de soluciones de información, incluyendo análisis, diseño, desarrollo, certificación, despliegue y mantenimiento, en entornos OnPremise y tecnologías Big Data. Se valorará la capacidad de liderar y colaborar con equipos multidisciplinarios para acelerar el cumplimiento de objetivos.

Es una posición híbrida en la ciudad de Quito-Ecuador, en donde serás asignado/a a uno de nuestros clientes más importantes en el sector financiero/bancario de Latinoamérica.

Apply without intermediaries from Get on Board.

Funciones del cargo

  • Diseñar y desarrollar soluciones de datos alineadas con la visión de Arquitectura de Datos.
  • Crear y optimizar ETLs, ELTs y APIs para manejo eficiente de datos.
  • Implementar estrategias de testing para validar calidad funcional y no funcional.
  • Proponer mejoras continuas en procesos y productos de datos.
  • Resolver incidencias técnicas y documentar soluciones conforme a estándares.
  • Mentorizar y apoyar el onboarding de nuevos integrantes del equipo.

Herramientas y Tecnologías

  • Apache Spark, Kafka, Flink, Hadoop, HDFS.
  • Servicios Cloud: AWS, Azure, GCP.
  • Lenguajes: Python, Scala.

Requerimientos del cargo

  • Al menos 3 años de experiencia como ingeniero de datos.
  • Experiencia en optimizacion de SQL y Spark.
  • Experiencia con streaming de datos.
  • Bases de datos relacionales y NoSQL, diseño de Datawarehouse, Datamarts, Datalakes y Lakehouse.
  • Procesamiento distribuido con Hadoop, Spark y arquitecturas batch/streaming.
  • Desarrollo en Python, Scala o Java, aplicando principios de Clean Code.
  • Construcción de pipelines con herramientas ETL (Azure Data Factory, AWS Glue, SSIS).
  • Estrategias de DataOps/MLOps y despliegue CI/CD.

Deseable: Certificaciones en AWS, Azure, o Big Data, y experiencia en arquitecturas modernas como Data Mesh o Data Fabric.

Beneficios

En Devsu, queremos crear un ambiente donde puedas prosperar tanto personal como profesionalmente. Al unirte a nuestro equipo, disfrutarás de:

  • Un contrato estable a largo plazo con oportunidades de crecimiento profesional
  • Seguro médico privado
  • Programas continuos de capacitación, mentoría y aprendizaje para mantenerte a la vanguardia de la industria
  • Acceso gratuito a recursos de capacitación en IA y herramientas de IA de última generación para elevar tu trabajo diario
  • Una política flexible de tiempo libre remunerado (PTO) además de días festivos pagados
  • Proyectos de software desafiantes de clase mundial para clientes en Estados Unidos y Latinoamérica
  • Colaboración con algunos de los ingenieros de software más talentosos de Latinoamérica y Estados Unidos, en un entorno de trabajo diverso

Únete a Devsu y descubre un lugar de trabajo que valora tu crecimiento, apoya tu bienestar y te empodera para generar un impacto global.

Wellness program Devsu offers or subsidies mental and/or physical health activities.
Internal talks Devsu offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Digital library Access to digital books or subscriptions.
Health coverage Devsu pays or copays health insurance for employees.
Computer provided Devsu provides a computer for your work.
Education stipend Devsu covers some educational expenses related to the position.
Personal coaching Devsu offers counseling or personal coaching to employees.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Arquitecto de Datos
  • Devsu
  • Quito (In-office)
Python SQL Business Intelligence Virtualization

Con más de 10 años de experiencia creando innovación para empresas, desde startups hasta las mayores compañías de US y Latinoamérica en diferentes industrias como banca y seguros.

En Devsu te encontrarás trabajando con los mejores profesionales de los que podrás aprender constantemente y participar en proyectos emocionantes y desafiantes para clientes globales.

Buscamos un profesional con sólida experiencia técnica y capacidad estratégica para liderar la evolución y arquitectura de productos digitales en el sector financiero.

Buscamos un Arquitecto de Datos con sólida experiencia en la plataforma Stratio y ecosistemas de datos sobre (AWS).

Es una posición remota si vives en Latam y presencial si vives en la ciudad de Quito, Ecuador, en donde serás asignado/a a uno de nuestros clientes más importantes en el sector financiero/bancario de Latinoamérica.

Apply directly from Get on Board.

Funciones del cargo

  • Diseñar e implementar soluciones de procesamiento de datos en NRT y por lotes utilizando Spark.
  • Diseñar y evolucionar arquitecturas de datos utilizando Stratio Data Fabric.
  • Construir y optimizar pipelines de datos en AWS: ingestión, transformación, almacenamiento y exposición.
  • Implementar políticas de seguridad, calidad y gobierno de datos.
  • Colaborar con equipos de desarrollo, analítica y DevOps para garantizar la integración continua y despliegues eficientes.
  • Documentar arquitecturas, modelos de datos y decisiones técnicas clave.
  • Liderar la toma de decisiones sobre herramientas, patrones y estándares tecnológicos.

Requerimientos del cargo

  • 5+ años de experiencia en arquitectura de datos.
  • Experiencia real con Stratio Platform: configuración, virtualización, gobierno de datos, etc.
  • Experiencia sólida en AWS: S3, Glue, Redshift, Lambda, Athena, Kinesis, EMR, IAM.
  • Conocimiento en arquitecturas orientadas a eventos, datos en tiempo real, Data Lakes y Lake Houses.
  • Experiencia con Terraform o CloudFormation para infraestructura como código.
  • Conocimiento de lenguajes como Python, SQL y frameworks tipo Spark / PySpark.

Deseables:

  • Certificaciones AWS (ej. Data Analytics, Solutions Architect).
  • Experiencia previa en banca, seguros o telcos.
  • Experiencia en herramientas de visualización (Power BI, Looker, Tableau).

Beneficios

En Devsu, queremos crear un ambiente donde puedas prosperar tanto personal como profesionalmente. Al unirte a nuestro equipo, disfrutarás de:

  • Un contrato estable a largo plazo con oportunidades de crecimiento profesional
  • Seguro médico privado
  • Programas continuos de capacitación, mentoría y aprendizaje para mantenerte a la vanguardia de la industria
  • Acceso gratuito a recursos de capacitación en IA y herramientas de IA de última generación para elevar tu trabajo diario
  • Una política flexible de tiempo libre remunerado (PTO) además de días festivos pagados
  • Proyectos de software desafiantes de clase mundial para clientes en Estados Unidos y Latinoamérica
  • Colaboración con algunos de los ingenieros de software más talentosos de Latinoamérica y Estados Unidos, en un entorno de trabajo diverso

Únete a Devsu y descubre un lugar de trabajo que valora tu crecimiento, apoya tu bienestar y te empodera para generar un impacto global.

Wellness program Devsu offers or subsidies mental and/or physical health activities.
Internal talks Devsu offers space for internal talks or presentations during working hours.
Paid sick days Sick leave is compensated (limits might apply).
Digital library Access to digital books or subscriptions.
Health coverage Devsu pays or copays health insurance for employees.
Computer provided Devsu provides a computer for your work.
Education stipend Devsu covers some educational expenses related to the position.
Personal coaching Devsu offers counseling or personal coaching to employees.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero de Datos
  • BC Tecnología
Java C Python SQL
En BC Tecnología somos una consultora especializada en servicios de IT, con fuerte expertise en diferentes áreas tecnológicas. Nuestra organización se dedica a administrar portafolios, desarrollar proyectos e implementar soluciones a medida, además de realizar outsourcing y selección de profesionales para clientes destacados en sectores como servicios financieros, seguros, retail y gobierno. La posición de Ingeniero de Datos se enmarca dentro de proyectos innovadores enfocados en la transformación digital y optimización de procesos mediante el aprovechamiento de datos. Trabajamos con metodologías ágiles para diseñar soluciones que se adaptan a las necesidades específicas de cada cliente, creando equipos multidisciplinarios con un fuerte enfoque en colaboración, calidad y entrega continua.

Apply to this posting directly on Get on Board.

Responsabilidades del Ingeniero de Datos

El Ingeniero de Datos será responsable de diseñar, implementar y mantener procesos ETL (Extract, Transform, Load) para la ingesta y procesamiento de grandes volúmenes de datos provenientes de diversas fuentes. Deberá garantizar la integridad y calidad de los datos, facilitando su disponibilidad para análisis y reportes.
Sus tareas principales incluirán:
  • Construir y administrar almacenes y lagos de datos escalables y seguros.
  • Automatizar flujos de datos mediante herramientas y tecnologías específicas del ecosistema Microsoft Azure, como Data Lake, Data Factory y Databricks.
  • Colaborar con equipos de analistas, científicos de datos y desarrolladores para entender necesidades y entregar soluciones ajustadas.
  • Implementar monitoreo y optimización de pipelines de datos para garantizar eficiencia y rendimiento.
  • Documentar procesos y arquitecturas de datos para mantener buenas prácticas y facilitar la transferencia de conocimiento.

Requisitos y habilidades técnicas

Buscamos profesionales con hasta 3 años de experiencia en ingeniería de datos, con un perfil orientado al desarrollo y operación de plataformas de datos. Es fundamental tener conocimiento avanzado en SQL y experiencia práctica con lenguajes de programación orientados a datos como C# y Java, mientras que Python y PySpark son habilidades deseables que aportan valor agregado a la posición.
Se requiere experiencia comprobable en el diseño y ejecución de procesos ETL, así como en la administración y manejo de almacenes de datos (data warehouses). La familiaridad con herramientas de visualización como Power BI es necesaria; conocimientos en Tableau son un plus.
Se valoran conocimientos y experiencia en servicios de nube, especialmente Azure Data Lake, Azure Data Factory y Databricks, lo que permitirá implementar soluciones modernas y escalables.
Además, se considerará positivamente la comprensión de aspectos del negocio relacionados con ingresos, precios y tarifarios, especialmente en sectores como retail, telecomunicaciones o aerolíneas, donde el análisis de estos datos es crítico.
La formación requerida es técnica o profesional en carreras afines a TI, preferentemente con certificaciones o cursos especializados en plataformas Microsoft Azure y tecnologías de ingeniería de datos.
Competencias blandas imprescindibles incluyen capacidad para trabajar en equipo, buena comunicación, adaptabilidad, proactividad y orientación a resultados.

Conocimientos deseables

  • Experiencia con lenguajes de scripting para automatización de procesos.
  • Conocimiento de arquitecturas Big Data y herramientas asociadas.
  • Familiaridad con librerías de Python para ingeniería de datos o ciencia de datos.
  • Habilidades en visualización avanzada con Tableau o herramientas similares.
  • Certificaciones adicionales en Microsoft Azure o plataformas similares de nube.

Beneficios y cultura organizacional

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional mediante la integración y el intercambio de conocimientos entre equipos.
Ofrecemos una modalidad híbrida de trabajo desde nuestras oficinas en Las Condes, favoreciendo la flexibilidad para combinar el trabajo remoto con la colaboración presencial, lo que permite un mejor equilibrio entre vida personal y laboral.
Formarás parte de proyectos innovadores con clientes de alto nivel y en sectores diversos, en un entorno inclusivo que respeta la diversidad y fomenta el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Especialista de Big Data
  • SONDA
  • Santiago (Hybrid)
Java Python PostgreSQL SQL

En SONDA, somos una empresa líder en transformación digital en la región. Desde nuestros inicios, creemos en el rol que desempeñamos para contribuir al desarrollo de las sociedades donde operamos mediante soluciones tecnológicas avanzadas. Actualmente, dentro de unidad de negocio de Digital Application Services, para proyecto SII - Servicio de impuestos indirectos, buscamos a Especialista de Big Data.

Applications are only received at getonbrd.com.

Funciones del cargo

· Ser responsable de crear el "Big Data", tubería de datos, desde la recolección hasta la entrega para su análisis o para alimentar un producto o servicio basado en análisis predictivos en producción.

· Asegurar que la arquitectura de datos sea factible para que los científicos de datos trabajen con ella.

· Construir y mantener un Data Lakes y ofrece API para acceder al Especialista de Data Science que usa los datos para su análisis y ejecución de modelos de Machine Learning.

· Ser responsable de dar todo el apoyo para que el trabajo del Especialista de Data Science suceda, y sea “más efectivo”.

Requerimientos del cargo

· Estudios superiores en áreas relacionados.

· Desde 2 años de experiencia en cargos similares.

· Construcción de procesos e integración de datos en Big Data

· Conocimiento de conceptos de computación distribuida

· Experiencia y conocimiento en el uso de SQL.

· Uso de bases de datos relacionales, particularmente en Oracle y postgreSQL.

· Bases de Datos NoSQL
· Manejo de sistemas Unix/linux, shell script

· Programación orientada a objetos usando JAVA o Python

· Programación Funcional en Scala/Spark

· Manejo de herramientas de CI/CD.

· Conocimiento de almacenamiento de Datos.
· Diseño de Esquemas de datos

· Conocimiento de Hive, Impala, Kudu

· Conocimiento de Kafka ​

· Deseable conocimiento en el uso de servicios en entorno Cloudera.

Opcionales

Y mucho mejor si destacas por tener alguna certificación o curso en alguno de estos tópicos: ​

· Integración de datos

· Big data

· Desarrollo API

· Microservicios, springboot, springbatch

· Desarrollo en nube

· Desarrollo seguro

· Diseño de aplicaciones

· Metodologías ágiles

Conditions

Wellness program SONDA offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance SONDA pays or copays life insurance for employees.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage SONDA pays or copays health insurance for employees.
Retirement plan SONDA pays or matches payment for plans such as 401(k) and others.
Dental insurance SONDA pays or copays dental insurance for employees.
Commuting stipend SONDA offers a stipend to cover some commuting costs.
Computer provided SONDA provides a computer for your work.
Education stipend SONDA covers some educational expenses related to the position.
Fitness subsidies SONDA offers stipends for sports or fitness programs.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3400 - 4400 Tiempo completo
Senior Data Engineer
  • Checkr
  • Santiago (Hybrid)
Java Ruby Python SQL
Checkr crea una infraestructura de personas para el futuro del trabajo. Hemos diseñado una forma más rápida y justa de seleccionar a los solicitantes de empleo. Fundada en 2014, Checkr pone la tecnología moderna impulsada por el aprendizaje automático en manos de los equipos de contratación, ayudando a contratar a grandes nuevas personas con una experiencia que es rápida, suave y segura. Checkr tiene más de 100.000 clientes, entre ellos DoorDash, Coinbase, Lyft, Instacart y Airtable.
Buscamos un Ingeniero de Datos Senior con experiencia para que se incorpore a nuestro equipo de operaciones de datos. Este equipo desempeña un papel crucial en nuestra misión, ya que desarrolla y mantiene los sistemas que realizan verificaciones de antecedentes precisas y eficientes.
Como ingeniero de datos sénior del equipo de operaciones de datos, trabajarás en proyectos de gran impacto que contribuyen directamente a la funcionalidad principal de los servicios de verificación de antecedentes de Checkr.

Apply to this job at getonbrd.com.

Responsabilidades del cargo

  • Crear y mantener canales de datos y conjuntos de datos fundamentales para satisfacer las necesidades del producto y del negocio.
  • Diseñar y construir arquitecturas de bases de datos con datos masivos y complejos, equilibrando la carga computacional y el coste.
  • Desarrollar auditorías para la calidad de los datos a gran escala, implementando alertas según sea necesario.
  • Crear paneles de control y informes escalables para apoyar los objetivos empresariales y permitir la toma de decisiones basada en datos.
  • Solucionar y resolver problemas complejos en entornos de producción.
  • Trabajar en estrecha colaboración con los gestores de productos y otras partes interesadas para definir e implementar nuevas funciones.

Calificaciones y Requisitos del cargo

  • Más de 5 años de experiencia en desarrollo de software full-stack.
  • Gran dominio de al menos uno de los siguientes lenguajes: Ruby (preferible), Python o Golang.
  • Experiencia en el procesamiento de datos a gran escala, tanto por lotes como en streaming.
  • Sólidos conocimientos de sistemas de bases de datos, tanto SQL como NoSQL.
  • Experiencia con tecnologías de big data como Kafka, Spark, Iceberg, Datalake, AWS Glue, Athena y S3.
  • Experiencia con ETL/ELT, procesamiento de datos en streaming y por lotes a gran escala.
  • Conocimiento de las mejores prácticas de seguridad y cuestiones relacionadas con la privacidad de los datos.
  • Experiencia con arquitectura de microservicios y API RESTful.
  • Fuertes habilidades para resolver problemas y atención al detalle.
  • Habilidades avanzadas de comunicación en inglés y capacidad para trabajar en un entorno colaborativo.

Competencias Deseables

  • Experiencia/conocimiento de plataformas de procesamiento de datos como Databricks o Snowflake.

Conditions

  • Un entorno de colaboración y rápido movimiento
  • Formar parte de una empresa internacional con sede en Estados Unidos
  • Asignación de reembolso por aprendizaje y desarrollo
  • Remuneración competitiva y oportunidades de promoción profesional y personal
  • Cobertura médica, dental y oftalmológica del 100% para empleados y dependientes
  • Vacaciones adicionales de 5 días y flexibilidad para tomarse tiempo libre
  • Reembolso de equipos para trabajar desde casa
En Checkr, creemos que un entorno de trabajo híbrido fortalece la colaboración, impulsa la innovación y fomenta la conexión. Nuestras sedes principales son Denver, CO, San Francisco, CA, y Santiago, Chile.
Igualdad de oportunidades laborales en Checkr

Checkr se compromete a contratar a personas cualificadas y con talento de diversos orígenes para todos sus puestos tecnológicos, no tecnológicos y de liderazgo. Checkr cree que la reunión y celebración de orígenes, cualidades y culturas únicas enriquece el lugar de trabajo.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Checkr pays or copays health insurance for employees.
Computer provided Checkr provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Checkr gives you paid vacations over the legal minimum.
Beverages and snacks Checkr offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3000 - 3500 Tiempo completo
Data Scientist – LLM Expert
  • Niuro
Python Virtualization Amazon Web Services Azure
Niuro collaborates with leading U.S. companies by connecting them with elite, autonomous, high-performance tech teams worldwide. Through innovative solutions, Niuro simplifies global talent acquisition ensuring maximum efficiency and quality. Our teams focus on challenging projects involving advanced industrial data, where continuous professional growth and leadership development are core values. By handling the administrative side—hiring, payments, training—Niuro empowers specialists to deliver exceptional results while advancing their careers in a collaborative and stimulating environment.

Job source: getonbrd.com.

About the Role

At Niuro, we are seeking a Data Scientist with expertise in Large Language Models (LLMs) to become an integral part of our engineering team. Your role will involve building intelligent agents that seamlessly integrate data, tools, and various models to produce measurable and impactful outcomes.
You will own the entire development loop: from framing complex problems and defining success criteria to developing, deploying, and maintaining efficient, trustworthy, and maintainable AI-powered solutions over time. Your work will be essential in advancing our data science capabilities and delivering reliable, production-grade features that leverage AI and LLM technologies.

Requirements

  • Solid, hands-on experience in classical Data Science techniques, including modeling, feature engineering, statistics, and experimentation.
  • Strong proficiency in Python programming is mandatory.
  • Proven production experience shipping AI/ML or LLM-powered features to live environments.
  • Experience working with at least one major cloud platform such as AWS, Azure, or Google Cloud Platform (GCP).
  • Professional proficiency in English to effectively communicate in a global team.
  • Systems thinking with the ability to understand data flows, failure modes, and optimize trade-offs related to cost, latency, and throughput.
  • Commitment to writing clean, testable, and maintainable code that meets industry best practices.
  • A strong respect for privacy, security, and operational reliability in AI systems.

Nice to Have

  • Experience building or maintaining Retrieval-Augmented Generation (RAG) systems, enhancing LLM responses with external knowledge bases.
  • Familiarity with tool/function calling mechanisms and Multi-Component Processing (MCP)-based integrations to extend AI capabilities.

Why Join Niuro?

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and foster professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model, allowing you to work flexibly from anywhere in the world. We invest in your career development through continuous training programs and leadership opportunities, ensuring that you grow and succeed alongside us.
Following successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our commitment to building lasting relationships with team members.
Join Niuro to be part of a global community committed to technological excellence, supported by a strong administrative infrastructure that lets you focus fully on delivering impactful work.

Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1900 - 2300 Tiempo completo
Especialista Gobernanza de Datos
  • Factor IT
Continual improvement process Data governance Compliance Communication
FactorIT es una empresa líder en tecnología con presencia en 8 países de Latinoamérica, especializada en Data & Analytics, Transformación Digital e Inteligencia Artificial. Nuestra misión es ser el principal socio estratégico para la transformación digital de grandes empresas, apoyándolas con soluciones innovadoras de inteligencia artificial, automatización y analítica avanzada.
En esta posición, formarás parte del equipo de Gobernanza y Privacidad de Datos que tiene un rol fundamental en la gestión, protección y optimización de los datos dentro de la organización y para nuestros clientes. Trabajarás en un entorno dinámico, con proyectos regionales de gran impacto, en donde la privacidad, la calidad y el gobierno de los datos son claves para impulsar la confianza, la eficiencia y el cumplimiento normativo.

Find this job and more on Get on Board.

Responsabilidades principales

Como Especialista en Privacidad y Gobernanza de Datos, tus responsabilidades incluirán:
  • Gestionar el plan maestro de protección de datos asegurando la ejecución completa y oportuna de todas las tareas relacionadas.
  • Implementar el proceso de privacidad por diseño y por defecto, identificando riesgos asociados a los datos y diseñando planes de mitigación efectivos.
  • Asegurar que los riesgos detectados sean correctamente gestionados y mitigados por los equipos responsables, garantizando el cumplimiento de las normativas y políticas internas.
  • Definir, monitorear y reportar métricas clave de privacidad para evaluar la efectividad de las estrategias implementadas.
  • Apoyar activamente el plan de gobernanza de datos definido por la oficina de Gobernanza, participando en el levantamiento y definición de dominios de datos relevantes para la organización.
  • Colaborar en la confección y mantenimiento actualizado de catálogos de datos, asegurando la integridad y accesibilidad de la información.
  • Definir reglas claras de calidad de datos y de negocio para mantener estándares altos en la gestión de la información.
  • Proponer e implementar mejoras continuas en procesos y metodologías de gobierno de datos, optimizando los flujos de trabajo y promoviendo mejores prácticas de la industria.
  • Establecer y monitorear indicadores clave de desempeño (KPIs) para medir la calidad, madurez y el impacto del programa de gobierno de datos en los objetivos estratégicos de la empresa.
  • Identificar, durante el proceso de privacidad por diseño y por defecto, los requerimientos de datos necesarios para asegurar una implementación oportuna y alineada con las políticas de privacidad.

Requisitos y habilidades necesarias

Para desempeñarte con éxito en este rol, es imprescindible contar con sólidos conocimientos en gobierno y gestión de datos, con un nivel avanzado en la materia. Es fundamental tener experiencia en el levantamiento y documentación de procesos, para poder estructurar y formalizar la gestión de datos y privacidad dentro de la organización.
Además, valoramos a profesionales que posean habilidades blandas como un marcado trabajo en equipo, buena comunicación, pensamiento analítico, proactividad y disposición para colaborar con distintas áreas. La capacidad para gestionar múltiples tareas en paralelo y adaptarse a un entorno dinámico también es altamente valorada.
Se requiere tener conocimientos sólidos en normativas de privacidad y protección de datos, buenas prácticas de la industria en data governance y experiencia práctica en la gestión de catálogos y definición de dominios de datos. La orientación al detalle y una mentalidad orientada a la calidad y mejora continua son decisivas para el éxito en este puesto.

Competencias y experiencia deseables

Serán altamente valorados conocimientos adicionales en herramientas especializadas para la gestión de datos y privacidad, experiencia previa en proyectos de transformación digital relacionados con data governance, y formación complementaria en seguridad de la información o cumplimiento normativo.
También es positivo contar con habilidades de liderazgo situacional para coordinar equipos y la capacidad de influir en la adopción de procesos y metodologías, impulsando la cultura de datos en la organización.
Conocimientos en normativas internacionales como GDPR, CCPA u otras regulaciones locales de protección de datos serán un plus importante.

Beneficios y ambiente laboral

Ofrecemos modalidad de trabajo 100% remota o híbrida desde Santiago, Chile, brindando flexibilidad horaria para un balance saludable entre la vida profesional y personal, adaptándonos a las necesidades individuales.
FactorIT proporciona un ambiente colaborativo, dinámico y con tecnologías de última generación que facilitan el crecimiento profesional constante y la innovación tecnológica.
Nuestro paquete salarial es competitivo y acorde con la experiencia y perfil, complementado con una cultura inclusiva que valora la diversidad, creatividad y el trabajo en equipo.
Al unirte a FactorIT, participarás en proyectos desafiantes con impacto real en la transformación tecnológica de la región y en el sector financiero, dentro de una organización que promueve la innovación y el desarrollo profesional continuo.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Analista de Datos SEO
  • WiTi
Python Analytics SEO SEM
Nos dedicamos al desarrollo de software y soluciones tecnológicas. Nuestra especialidad es la integración de sistemas, software a medida y desarrollos innovadores en el mundo de los dispositivos móviles. Nuestra mayor motivación es resolver problemas complejos a través de soluciones innovadoras.
Trabajamos a través de un método que se basa en entender el negocio y la necesidad del cliente; queremos ser un "partner", de tal modo poder apoyar en la toma de decisiones a la hora de implantar soluciones tecnológicas.

Applications are only received at getonbrd.com.

Funciones del cargo

Serás la voz de los datos dentro del equipo SEO Regional: diseñarás y mantendrás dashboards en Looker Studio para exponer el rendimiento orgánico, analizarás a fondo métricas de tráfico, rankings y conversión en GA4 y Search Console, y escudriñarás logs del servidor y herramientas SEO como SEMrush o Ahrefs para detectar oportunidades técnicas. Convertirás hallazgos complejos en historias claras y accionables para audiencias técnicas y de negocio, colaborando estrechamente con Analítica Digital y Business Intelligence para integrar nuevas fuentes de datos y garantizar una visión 360° del cliente. Tu trabajo guiará decisiones estratégicas, acelerará el crecimiento orgánico regional y demostrará, con evidencia, el impacto comercial de cada iniciativa.

Requerimientos del cargo

3 – 5 años de experiencia total en analítica digital, business intelligence o SEO; mínimo 2 años aplicando análisis de datos a SEO o marketing digital.
Certificaciones deseables en Google Analytics 4 y herramientas de visualización; posgrados en Business Analytics, Data Science o Marketing Digital son un plus.
Dominio avanzado de:
  • Google Analytics 4
  • Google Search Console
  • Google Looker Studio / Power BI / Tableau
  • Excel / Google Sheets (tablas dinámicas, funciones avanzadas)
Nivel intermedio-avanzado de SQL para consulta de bases de datos.
Deseable manejo de herramientas SEO (SEMrush, Ahrefs, Moz), conocimientos de Python y uso de APIs de plataformas SEO.

Competencias clave

  • Pensamiento analítico y cuantitativo
  • Data storytelling
  • Influencia y colaboración
  • Visión de negocio
  • Atención rigurosa al detalle.

Condiciones

En WiTi, ofrecemos un entorno de trabajo 100% remoto, lo que permite una gran flexibilidad y autonomía. Además, promovemos un ambiente colaborativo donde la cultura del aprendizaje es parte fundamental. Entre nuestros beneficios están:
  • Plan de carrera personalizado para el desarrollo profesional.
  • Certificaciones, para continuar creciendo en tu carrera.
  • Cursos de idiomas, apoyando el desarrollo personal y profesional.
Si eres apasionado por la tecnología y quieres formar parte de nuestro equipo, ¡nos encantaría conocerte!

Fully remote You can work from anywhere in the world.
Internal talks WiTi offers space for internal talks or presentations during working hours.
Digital library Access to digital books or subscriptions.
Computer provided WiTi provides a computer for your work.
Education stipend WiTi covers some educational expenses related to the position.
Personal coaching WiTi offers counseling or personal coaching to employees.
Conference stipend WiTi covers tickets and/or some expenses for conferences related to the position.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 1700 Tiempo completo
Analista Business Intelligence
  • Global Mobility Apex, S.A.
Python Git Data Analysis SQL

En Global Mobility Apex, S.A., una corporación multinacional de bebidas y alimentos con más de 15,000 colaboradores y presencia en más de 14 países, buscamos fortalecer nuestra estrategia dinámica de expansión y crecimiento a través del talento. La empresa se ha dividido en cuatro unidades de negocio: Apex (transformación), CBC (distribución), Beliv (innovación en bebidas) y BIA (alimentos), enfocadas en liderar el mercado con amplia experiencia y socios estratégicos como PepsiCo y AB InBev.

El equipo tecnológico desempeña un papel fundamental en la construcción de soluciones innovadoras y escalables que soportan este crecimiento global y la transformación digital de la compañía.

Opportunity published on Get on Board.

Responsabilidades

  • Trabajar con el equipo de Business Intelligence (BI) y de Ingeniería de Datos para desarrollar soluciones de reportería, lo cual incluye la recolección, modelado y presentación de datos relevantes para la toma de decisiones de los equipos de gestión y Product Owners de los casos de uso digitales.
  • Comunicar hallazgos y recomendaciones derivados del análisis de los datos de manera efectiva a los equipos de gestión y Product Owners de los casos de uso digitales.
  • Ayudar en el mantenimiento de las soluciones ya existentes y las nuevas que se implementen dentro del equipo de BI.
  • Asistir en el soporte de incidencias de las soluciones ya existentes y las nuevas que se implementen dentro del equipo de BI.

Requisitos del puesto

  • Licenciatura en ingeniería o carrera afín
  • Uso de herramientas de visualización, particularmente Power BI
  • Conocimiento de SQL y Python
  • Experiencia en desarrollo de proyectos de reportería
  • Conocimiento básico de metodología ágil
  • Conocimiento de sistemas de control de versión como Git (deseable)
  • Conocimiento de herramientas como Tabular Editor y Power Automate (deseable)

Beneficios

  • Ambiente de trabajo colaborativo y dinámico.
  • Desarrollo profesional continuo y oportunidades de crecimiento.
  • Flexibilidad de horarios y equilibrio entre vida laboral y personal.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Global Mobility Apex, S.A. pays or copays health insurance for employees.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Especialista en SEO Técnico y Data & Reporting
  • Adecco
  • Santiago (Hybrid)
Python SEO SEM Data Analysis

Adecco es la empresa líder mundial en servicios de Recursos Humanos, con más de 35 años de presencia en Chile y una extensa red de más de 25 sucursales en las principales ciudades del país. Su compromiso con la calidad y la adaptación a las necesidades específicas de cada cliente, sumado a la certificación bajo norma ISO 9001:2015, posiciona a Adecco Chile como referente en soluciones integrales en selección, staffing, payroll y capacitación en diversos sectores industriales. Este rol forma parte de un proyecto estratégico de nuestro cliente enfocado en optimizar el canal orgánico de las plataformas digitales de Adecco y sus clientes, a través de la implementación y mantenimiento de infraestructura avanzada para el análisis y reporte de SEO y datos asociados. El equipo responsable impulsa la toma de decisiones basada en datos precisos que favorecen el crecimiento y la mejora continua del posicionamiento orgánico regional.

Find this job on getonbrd.com.

Responsabilidades principales

  • Desarrollar y mantener dashboards y reportes de SEO que integren indicadores clave como tráfico web, rankings y conversiones.
  • Realizar análisis cuantitativos profundos para identificar tendencias, oportunidades de crecimiento y posibles áreas de mejora en el canal orgánico.
  • Ejecutar diagnósticos técnicos mediante el análisis de datos de rastreo y logs del servidor para detectar problemas que impactan el rendimiento SEO.
  • Comunicar de forma clara y efectiva los hallazgos mediante data storytelling, adaptando la presentación a audiencias técnicas y no técnicas.
  • Integrar datos SEO con otras fuentes de información del negocio en colaboración con el equipo de Business Intelligence, asegurando una visión holística.
  • Coordinar con el equipo de Analítica Digital para validar la correcta medición y etiquetado de los datos mediante herramientas como GA4 y Google Tag Manager.
  • Colaborar transversalmente con áreas de BI, Desarrollo/TI y marketing para alinear las iniciativas de SEO con los objetivos de negocio.

Requisitos del cargo

Buscamos un profesional con formación en Ingeniería Comercial, Civil Industrial, Informática, Estadística, Data Science o carreras afines con enfoque cuantitativo. Se requiere una experiencia total de 3 a 5 años en análisis digital, inteligencia de negocio o SEO, con un mínimo de 2 a 3 años enfocados específicamente en análisis de datos aplicados a SEO o marketing digital.

Es deseable contar con certificaciones en Google Analytics 4 y plataformas de visualización de datos, así como estudios avanzados como diplomados o magísteres en Business Analytics, Data Science o Marketing Digital.

En el plano técnico, es fundamental un dominio avanzado de Google Analytics 4, Search Console, Looker Studio (o Power BI/Tableau) y Excel/Google Sheets. También se valorará conocimiento intermedio-avanzado de SQL y experiencia con herramientas SEO como SEMrush, Ahrefs o Moz. Conocimientos de Python y gestión de APIs SEO son un plus.

El candidato debe poseer un nivel de inglés intermedio-alto para comunicarse eficazmente con stakeholders regionales y acceder a documentación técnica.

Se valoran competencias como pensamiento analítico y cuantitativo, habilidades para contar historias con datos (data storytelling), capacidad de influencia y colaboración interdisciplinaria, orientación al impacto de negocio, y atención minuciosa al detalle en análisis y reportes.

Competencias y habilidades deseables

Se considerarán positivamente conocimientos adicionales en programación con Python para automatización y análisis avanzado de datos. Familiaridad con metodologías ágiles de trabajo y experiencia en coordinación de proyectos multidisciplinarios.

También es deseable tener experiencia en ambientes regionales y multilingües, así como habilidades interpersonales para comunicar resultados a distintos niveles jerárquicos y equipos técnicos y no técnicos. La capacidad para adaptarse a entornos dinámicos y gestionar prioridades en colaboración con diversas áreas complementará el perfil requerido.

¿Qué te ofrecemos?

Nuestro cliente ofrecemos un ambiente laboral desafiante y dinámico que impulsa tu desarrollo profesional y personal. Trabajarás con un equipo altamente capacitado y profesional que favorece la colaboración y el aprendizaje constante.

Dispondrás de formación continua para mantenerte actualizado en las últimas tecnologías y tendencias del sector.

Contarás con oportunidades reales de crecimiento dentro de la empresa y del sector tecnológico, con contratos inicialmente a plazo fijo y posteriormente indefinidos con el cliente final.

Tu modalidad de trabajo será híbrida, con tres días remotos y dos presenciales en nuestra oficina ubicada en la comuna de Las Condes, Santiago.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Arquitecto Datos y Aplicaciones
  • CMPC
  • Santiago (Hybrid)
Java Analytics SAP Web server

Responsable de definir e implementar los principios de la arquitectura de datos, el gobierno, las arquitecturas de referencia, frameworks, los modelos de datos empresariales y promover su adopción en toda la organización a través de diferentes canales de comunicación, además de impulsar el gobierno de aplicaciones en la compañía:

  • Liderar la definición, implementación y evolución de la arquitectura de datos de CMPC bajo el marco de gobierno y digitalización del Negocio con foco en las soluciones self service BI basado en arquitectura Cloud GCP, fomentando la innovación continua y la adopción de tecnologías emergentes para optimizar el valor de los datos.
  • Promover la convergencia de los dominios de datos de CMPC en las diversas soluciones de BI y Datos, aportando en metodología y herramientas para la gestión del ciclo de vida del dato con calidad, trazabilidad y seguridad, asegurando la agilidad y adaptabilidad de la arquitectura a los cambios del negocio.

Job opportunity published on getonbrd.com.

Funciones del cargo

  • Liderar la arquitectura y la evolución de la plataforma de datos (Datalake) y todas sus integraciones.
  • Definición de arquitectura de datos, gobernanza, estándares, mejores prácticas y su implementación.
  • Proporcionar evaluación y estimación de soluciones de Línea de Negocios.
  • Participar en proyectos de datos como arquitecto principal de datos asumiendo la responsabilidad del diseño de la solución.
  • Asegurar la adecuada documentación y catálogos de los diseños de alto nivel en las herramientas definidas para tal fin.
  • Eficientar las arquitecturas vigentes para optimizar recursos (FinOps).
  • Gestionar el inventario de aplicaciones: Incluye la revisión periódica, identificación de redundancias y propuesta de racionalización.
  • Mantener y divulgar el stack de datos y aplicaciones.
  • Impulsar el desarrollo y aplicación del gobierno de aplicaciones.

Requerimientos del cargo

Formación:

  • Ingeniero Civil en Computación, Informática o carreras afines.
  • Deseable diplomado o formaciones especiales en el ámbito de Arquitectura de datos (Business Intelligence / Ciencia de Datos / Gobierno de Datos o Analítica de Datos)

Experiencia:

  • 3 años o más de experiencia profesional brindando soluciones con datos en entornos de nube e híbridas (on-premises + nube).
  • Experiencia en definición arquitecturas de datos en Google Cloud Platform.
  • Experiencia en roles de agente de cambio o liderazgo de proyectos.
  • Implementaciones de sistemas empresariales, software de clase mundial (Ej ERP SAP, CRM Salesford o WMS.)

Conocimiento específico:

  • Conocimiento y experiencia en Big Data y base de datos (relacionales y no relacionales). Excluyente
  • Conocimientos requeridos: experiencia en Cloud (GCP, AWS o Azure). Excluyente en alguno de esos
  • Conocimientos en integración de datos: extracción, modelo e integración de datos (ETL, API, microservicios, etc.) Excluyente
  • Conocimiento de metodologías de gestión ágil de proyectos. Excluyente
  • Conocimientos en BigQuery.
  • Deseable experiencia en SAP y Data service / Data Intelligence.
  • Conocimientos en soluciones para el manejo de eventos: Confluence, Apache Kafka, Event Hub.

Idioma: Inglés técnico

Condiciones

  • Contrato: Indefinido
  • Ubicación: Santiago Corporativo
  • Modalidad de trabajo: Hibrida 4x1, 4 días presencial, 1 día online

Computer provided CMPC provides a computer for your work.
Beverages and snacks CMPC offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2500 - 2600 Tiempo completo
Data Integration Engineer
  • Inetum
  • Lima (Hybrid)
Python Agile SQL Linux

Somos Inetum, una compañía de servicios ágiles que proporciona soluciones digitales y un grupo global de tecnólogos que acompaña a sus clientes. Ofrecemos a nuestros clientes una combinación única de proximidad, organización sectorial y soluciones de calidad. Presente en más de 26 países, el grupo tiene cerca de 27,000 colaboradores y apunta a seguir creciendo.

This job is original from Get on Board.

¿Cuáles serán tus funciones?

  • Diseñar, desarrollar y optimizar procesos de integración de datos en entornos on-premise (Oracle) y Cloud (Azure) y la migración e integración entre ellos.
  • Implementar y gestionar procesos batch y real-time, garantizando eficiencia y escalabilidad en la ejecución.
  • Desarrollar soluciones con SQL, PySpark/Spark, aplicando buenas prácticas de programación y optimización.
  • Orquestar flujos de datos mediante herramientas como el orquestador en Mainframe, Data Factory.
  • Automatizar procesos de datos para mejorar la eficiencia operativa y reducir tiempos de procesamiento.
  • Optimizar el rendimiento y los costos de servicios en Azure, asegurando el uso eficiente de los recursos en la nube.
  • Integrar los pipelines de datos con aplicaciones y microservicios, facilitando la interoperabilidad dentro del ecosistema bancario.
  • Colaborar con equipos de negocio y tecnología para garantizar la calidad y disponibilidad de los datos.

¿Cuáles son los requisitos para la posición?

  • Profesional de Ingeniería de Sistemas, Informática, Ciencias de la Computación u otras carreras afines.
  • Experiencia con lenguajes Python, PLSQL, PySpark (SparkSQL / Spark Dataframes), SQL. (mandatorio).
  • Experiencia en Tuning y optimización de procesos distribuidos, Shell Scripting y Comandos Linux / Unix. (mandatorio)
  • Experiencia en Cloud Azure y Databricks (Notebooks, Repos, Cluster Management, Unit Catalog) (mandatorio)
  • Experiencia en Azure Data Factory y Azure SQL / Azure Cosmos DB. (mandatorio)
  • Experiencia en Formato de Datos con Delta, CSV, Parquet, JSON y/o Avro.
  • Experiencia en Despliegues de soluciones con herramientas IC (Jira, Jenkins, Github).
  • Conocimientos generales en Arquitectura BigData, Pipeline de Datos, Data Quality y metodologías agile (Scrum).

Además, valoraremos talentos que muestren competencias desarrolladas de Comunicación Asertiva a todo nivel, Autonomía / Autogestión para la toma de decisiones, Orientación al Logro para la consecución de objetivos y Adaptabilidad al Cambio en cualquier entorno.

¿Qué puedes esperar de nosotros?

  • Remuneración en planilla con todas las condiciones de ley.
  • Bono de movilidad y bono de alimentos con tarjeta Pluxee.
  • Capacitaciones constantes acorde a tu línea de carrera y otras de interés general (plataformas de e-learning).
  • Pago de certificaciones acordes a tu perfil y a las necesidades del negocio, además de invitaciones a eventos o congresos relacionados a la comunidad.
  • Beneficios corporativos a través de nuestra plataforma de descuentos y de salud (psicología / nutrición)
  • Línea de carrera con objetivos definidos para tu crecimiento profesional.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero de Datos
  • Assetplan
  • Santiago (Hybrid)
Python Agile Excel SQL
Assetplan es una compañía líder en renta residencial en Chile, con presencia también en Perú. Actualmente, gestionamos más de 30.000 propiedades para clientes retail e institucionales y operamos más de 80 edificios multifamily, lo que refleja un sólido posicionamiento en el sector inmobiliario y de administración de propiedades en la región. El equipo de datos tiene un rol clave para optimizar y dirigir los procesos internos mediante soluciones tecnológicas de análisis y visualización de datos, apoyando la toma de decisiones estratégicas en la empresa.

Apply directly on Get on Board.

Responsabilidades principales

  • Diseñar, desarrollar y optimizar procesos ETL (Extract, Transform, Load) utilizando herramientas clave como Python (librerías Pandas y Numpy) y SQL.
  • Desarrollar y mantener dashboards y paneles en Power BI, integrando visualizaciones estratégicas para acompañar los procesos ETL y proporcionar insights relevantes.
  • Trabajar de forma colaborativa con diferentes áreas de la organización para interpretar y transformar sus necesidades en soluciones de datos que faciliten la toma de decisiones estratégicas.
  • Promover la calidad, escalabilidad y gobernanza de los datos durante el diseño, desarrollo y mantenimiento de los procesos y pipelines de datos, asegurando soluciones escalables y accesibles.
  • Mantener una comunicación efectiva con los equipos de negocio y tecnología para asegurar que las soluciones implementadas se alineen con los objetivos corporativos y generen impacto real en la organización.

Requisitos profesionales

Buscamos un profesional con 1 a 3 años de experiencia demostrable en el área de datos, en roles de ingeniería o análisis que impliquen manipulación y transformación de datos.
  • Manejo de SQL a nivel medio.
  • Manejo de Python Intermedio/Avanzado (excluyente), con experiencia en librerías Pandas y Numpy.
  • Manejo de Power BI a nivel medio para desarrollo y mantenimiento de dashboards.
  • Manejo avanzado de Excel para análisis y procesamiento de información.
  • Experiencia mínima de 1 a 3 años.
Es deseable poseer experiencia en ambientes ágiles y metodologías de desarrollo colaborativo que faciliten la integración entre equipos técnicos y de negocio.
Valoramos conocimientos en otras herramientas de visualización o procesamiento de datos, así como experiencia en gestión de la calidad y gobernanza de datos que permitan fortalecer el ecosistema de información de la empresa.

Habilidades y conocimientos deseables

Se valoran conocimientos en metodologías ágiles para la gestión y desarrollo colaborativo de proyectos, capacidades de comunicación efectiva para la interacción con equipos multidisciplinarios y experiencia en herramientas adicionales de visualización y procesamiento de datos. Asimismo, la experiencia en buenas prácticas de gobernanza y calidad de datos será un plus importante para aportar a la robustez del ecosistema de información de Assetplan.

Beneficios

En Assetplan valoramos y reconocemos el esfuerzo y dedicación de nuestros colaboradores, ofreciendo un ambiente laboral positivo basado en el respeto mutuo y la colaboración.
Entre nuestros beneficios contamos con:
  • Días extras de vacaciones por años de antigüedad.
  • Modalidad de trabajo híbrido y flexibilidad para trámites personales.
  • Monto mensual en app de snacks en la oficina.
  • Medio día libre en tu cumpleaños.
  • Copago en seguro complementario de salud.
  • Reajuste anual de renta basado en IPC.
  • Bono anual por desempeño.
  • Eventos empresa y happy hours financiados por la compañía.
  • Acceso a plataforma de cursos de formación.
  • Convenios con gimnasios, descuentos y más.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Assetplan pays or copays health insurance for employees.
Computer provided Assetplan provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Assetplan gives you paid vacations over the legal minimum.
Beverages and snacks Assetplan offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Lead Data Engineer
  • Bertoni Solutions
Python Analytics SQL Azure

We are Bertoni Solutions, a multinational team uniting Latin American talent and Swiss precision. Since 2016, we have helped clients translate technology into success by combining the creativity and passion of Latin American professionals with the rigor and organizational mindset of Swiss culture. Our development team is located across Latin America, including Lima, and we deliver consulting software and digital transformation services to organizations worldwide, always working 100% remotely. We focus on innovative, impactful projects leveraging the latest technology trends and digital transformation initiatives, offering a truly multicultural and global collaboration environment.

This job offer is available on Get on Board.

Key Responsibilities

  • Design and develop scalable data pipelines using PySpark to support analytics and reporting needs.
  • Write efficient SQL and Python code to transform, cleanse, and optimize large datasets.
  • Collaborate with machine learning engineers, product managers, and developers to understand data requirements and deliver effective solutions.
  • Implement and maintain robust ETL processes to integrate structured and semi-structured data from multiple sources.
  • Ensure data quality, integrity, and reliability across all pipelines and systems.
  • Participate in code reviews, troubleshooting, and performance tuning activities.
  • Work independently and proactively identify and resolve data-related issues.
  • Contribute to cloud-based data solutions, specifically on Azure platforms such as Azure Data Factory, Synapse, ADLS, Databricks, and Fabric.
  • Support cloud migration initiatives and adopt DevOps best practices.
  • Provide guidance on best practices and mentor junior team members when needed.

Job Description and Requirements

We are looking for a highly skilled Lead Data Engineer with extensive experience in PySpark, SQL, Python, Azure Data Factory, Synapse, Databricks, and Microsoft Fabric. The candidate must have a solid understanding of ETL processes, data warehousing principles, and end-to-end data engineering workflows.

Required Skills and Experience:

  • 8+ years of experience working in cross-functional teams that include machine learning engineers, developers, product managers, and analytics teams.
  • 3+ years of hands-on experience developing and managing data pipelines using PySpark.
  • 3 to 5 years of experience with Azure-native services such as Azure Data Lake Storage (ADLS), Azure Data Factory (ADF), Azure Databricks, Azure Synapse Analytics, Azure SQL Database, and Fabric.
  • Strong programming skills in Python and SQL.
  • Proven expertise in ETL processes, data modeling, and data warehousing end-to-end solutions.
  • Self-driven, resourceful, and comfortable working in fast-paced, dynamic environments.
  • Excellent communication skills and fluency in written and spoken English at an advanced level (B2, C1 or C2 only).
  • Demonstrated leadership experience in current or previous projects.
  • Must be located in Central or South America due to nearshore position requirements.

Soft Skills: Effective communication, proactive problem-solving, collaboration, mentoring capacity, and adaptability to changing priorities and technologies are crucial to succeed in this role.

Desirable Skills

  • Databricks certification.
  • Knowledge of DevOps practices, including CI/CD pipelines and cloud migration best practices.
  • Familiarity with Azure Event Hub, IoT Hub, Azure Stream Analytics, Azure Analysis Services, and Cosmos DB.
  • Basic understanding of SAP HANA.
  • Intermediate experience with Power BI.

Why Join Us?

  • 100% Remote Work.
  • Multicultural and Diverse Environment.
  • Continuous Professional Development:.
  • Challenging and Innovative Projects.

More Details:

  • Contract type: Independent contractor (This contract does not include PTO, tax deductions, or insurance. It only covers the monthly payment based on hours worked).
  • Location: The client is based in the United States; however, the position is 100% remote for nearshore candidates located in Central or South America.
  • Contract/project duration: Initially 6 months, with extension possibility based on performance.
  • Time zone and working hours: Full-time, Monday to Friday (8 hours per day, 40 hours per week), from 8:00 AM to 5:00 PM PST (U.S. time zone).
  • Equipment: Contractors are required to use their own laptop/PC.
  • Start date expectation: As soon as possible.
  • Payment methods: International bank transfer, PayPal, Wise, Payoneer, etc.

POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 2000 Tiempo completo
Ga4 & Google Tag Manager Developer
  • Niuro
JavaScript HTML5 Analytics Front-end
Niuro partners with leading U.S. companies by providing elite technology teams that drive innovation and deliver high-impact solutions. As part of Niuro's global network, this position involves working on advanced web analytics projects focused on optimizing digital measurement and insights to enhance business decision-making. Our projects revolve around integrating and perfecting analytics platforms to capture conversion, eCommerce, and user interaction data accurately, using cutting-edge tools and best practices.
This role is embedded in cross-functional teams including product managers, marketing strategists, and engineers, aiming to bridge technical implementation with business objectives to ensure data quality and actionable insights. By joining Niuro, you will contribute to high-profile, data-driven initiatives that empower U.S.-based clients while benefiting from a supportive environment focused on professional growth and innovation.

© Get on Board.

Role and Responsibilities

  • Lead the implementation, management, and optimization of Google Analytics 4 (GA4) and Google Tag Manager (GTM) setups to ensure precise tracking of user behavior, conversions, and eCommerce events.
  • Develop and maintain tags, triggers, and variables within GTM, ensuring they are aligned with evolving product and marketing goals.
  • Diagnose and resolve issues in front-end code related to tag implementation, including working directly with HTML, JavaScript, and the dataLayer structure.
  • Validate data quality using diagnostic and debugging tools such as Google Tag Assistant and other analytics validation utilities.
  • Collaborate closely with product teams, marketing departments, and software developers to synchronize analytics implementations with strategic business objectives.
  • Stay current with privacy regulations such as GDPR and CCPA to incorporate necessary consent management and ensure compliance in data collection processes.
  • Provide clear and effective communication to both technical and non-technical stakeholders, translating complex analytics concepts into understandable insights.

Required Skills and Experience

The ideal candidate must demonstrate strong expertise in GA4 and Google Tag Manager, with hands-on experience implementing complex tracking solutions for websites and web applications.
A solid understanding of JavaScript programming and HTML markup is essential to effectively troubleshoot and customize tracking code within GTM environments. Expertise in the structure and manipulation of the dataLayer is critical, as this is the backbone of event data collection.
Experience diagnosing and resolving tag-related problems in front-end codebases ensures the reliability and accuracy of analytics data. Candidates should be comfortable working in iterative environments, collaborating across teams and adapting implementations based on evolving product needs.
Excellent communication skills are required to liaise effectively between technical teams and marketing or business stakeholders. Conversational English proficiency is necessary due to close collaboration with U.S.-based teams.
Additionally, a keen awareness of privacy laws such as GDPR and CCPA is required to embed consent management mechanisms and support ethical, compliant data collection practices.
Soft skills such as problem-solving, attention to detail, and the ability to work independently while embracing teamwork will contribute to success in this role.

Preferred Qualifications

Experience with other analytics platforms such as Adobe Analytics, Mixpanel, or Segment adds value by broadening your digital measurement expertise.
Knowledge of tag auditing and governance tools can enhance your effectiveness in maintaining scalable and clean tagging implementations.
Familiarity with server-side tagging and advanced consent management solutions is considered a plus, reflecting a forward-thinking approach to analytics architecture and privacy compliance.
Background in A/B testing and optimization platforms, as well as understanding marketing technologies like CRM or CDP integration, will enable more comprehensive analytics execution aligned with digital marketing strategies.
Experience working in agile teams and using project management tools enhances collaboration and delivery efficiency.

What We Offer

We provide the opportunity to participate in impactful and technically rigorous industrial data projects that drive innovation and professional growth. Our work environment emphasizes technical excellence, collaboration, and continuous innovation.
Niuro supports a 100% remote work model within LATAM, offering flexibility and work-life balance while connecting you to top-tier U.S. companies.
We invest in career development through ongoing training programs in both technical skills and leadership development, ensuring continuous professional growth and success.
Upon successful completion of the initial contract, there is potential for long-term collaboration and stable, full-time employment, reflecting our commitment to building lasting relationships with our team members.
Joining Niuro means becoming part of a global community dedicated to technological excellence with a robust administrative infrastructure that allows you to focus on what you do best.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Engineer GCP Excluyente
  • coderslab.io
Java Python Agile NoSQL
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de un DATA ENGINEER para unirse a nuestro equipo.
Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.
¡Postúlate ahora para este increíble desafío!

Apply directly on Get on Board.

Funciones del cargo

  • Diseñar, desarrollar y mantener procesos de ingesta, transformación y carga (ETL/ELT) de datos para asegurar la disponibilidad y calidad de la información.
  • Crear y administrar pipelines de datos eficientes y escalables que soporten el flujo continuo de datos desde múltiples fuentes hacia los sistemas de almacenamiento y análisis.
  • Implementar y promover buenas prácticas en el manejo de datos, incluyendo seguridad, gobernanza, control de acceso y cumplimiento de normativas.
  • Desarrollar soluciones de procesamiento distribuido para manejar grandes volúmenes de datos en entornos cloud.
  • Gestionar y optimizar los servicios de Google Cloud Platform (GCP) relacionados con la ingeniería de datos, como Pub/Sub, Dataflow, Dataproc, Dataprep, Cloud Functions, BigQuery, Composer y Cloud Storage.
  • Colaborar con equipos multidisciplinarios para entender requerimientos de datos y traducirlos en soluciones técnicas robustas.
  • Realizar monitoreo, mantenimiento y mejora continua de los pipelines y sistemas de datos para garantizar alta disponibilidad y rendimiento.
  • Documentar procesos, arquitecturas y estándares técnicos relacionados con la ingeniería de datos.

Requerimientos del cargo

  • Experiencia comprobable en diseño y desarrollo de procesos ETL/ELT y pipelines de datos.
  • Sólidos conocimientos en Google Cloud Platform (GCP), especialmente en los servicios:
    • Pub/Sub
    • Dataflow
    • Dataproc
    • Dataprep
    • Cloud Functions
    • BigQuery
    • Composer
    • Cloud Storage
  • Dominio en programación con Python y Java para desarrollo de scripts, automatización y procesamiento de datos.
  • Conocimientos en bases de datos SQL y NoSQL, con experiencia en MongoDB y BigQuery.
  • Experiencia en procesamiento distribuido y manejo de grandes volúmenes de datos.
  • Conocimiento en buenas prácticas de seguridad y gobernanza de datos.
  • Capacidad para trabajar en equipos ágiles y multidisciplinarios.
  • Habilidades de comunicación efectiva para presentar soluciones técnicas y colaborar con otras áreas

Condiciones

Modalidad de contratación: Plazo fijo
Duración del proyecto: 18 MESES con posibilidad de extensión

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Financial Planning & Analytics Analyst
  • Wherex
  • Santiago (Hybrid)
Python Analytics Excel SQL

WherEX es una scale up tecnológica de comercio industrial con operaciones en México, Colombia, Chile y Perú 🚩

Estamos enfocados en transformar el comercio B2B con la aplicación de tecnología de vanguardia (Inteligencia Artificial, Data Analytics) para optimizar la toma de decisiones en el abastecimiento industrial, teniendo como pilares fundamentales la competencia, transparencia y eficiencia en las compras industriales. Creemos en el comercio B2B sostenible, donde todos los oferentes tengan la oportunidad de competir en igualdad de condiciones y los compradores pueda encontrar su mejor alternativa.

Queremos ir por más ¿nos acompañas?🚀 ¡Postula con nosotros!
Puedes enterarte un poco más de nosotros aquí

Apply without intermediaries from Get on Board.

Job functions

  • Realizar estudios y análisis específicos requeridos por distintas áreas.
  • Diseño de KPIs internos.
  • Generar y mantener los modelos de forecasting de la empresa.
  • Apoyar la creación y seguimiento de los presupuestos.
  • Apoyar el seguimiento de los resultados.
  • Desarrollar Dashboards y KPI’s financieros para la toma de decisiones y expansión del negocio

Qualifications and requirements

  • Ingeniero civil industrial.
  • 0 a 1 año de experiencia.
  • Manejo de excel avanzado.
  • Manejo de SQL básico.
  • Deseable conocimiento en programación.
  • Deseable uso de Python o herramienta similar.
  • Uso de herramientas de visualización (Power BI, Tableau, CartoDB o Google Studio).
  • Inglés.

Conditions

  • 🏖️ Días adicionales de descanso: nos importa que tengas tiempo para tu familia, tus hobbies o en lo que sea que quieras usar esos días.
  • 🏥 Seguro complementario: para que encargarte de tu salud no sea una preocupación.
  • Flexibilidad horaria: confiamos en tu gestión del tiempo y tu habilidad para organizarte.
  • 😷​ Licencia médica pagada durante dos días: te apoyamos en esos días que peor te sientes.
  • Trabajo híbrido 😎 llevando a la oficina y al equipo tu soporte un día a la semana

Además, serías parte de una cultura donde prima el trabajo en equipo, la colaboración, la buena onda y profesionales de alto nivel técnico que mantendrán tu standard muy elevado.

POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2300 Tiempo completo
Ingeniero de Datos AWS
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL Linux Virtualization
En BC Tecnología, una consultora especializada en servicios IT con más de 6 años de experiencia, diseñamos y ejecutamos soluciones tecnológicas para clientes de sectores como servicios financieros, seguros, retail y gobierno. A través de un enfoque ágil y centrado en el cliente, formamos equipos de trabajo dedicados en áreas como infraestructura tecnológica, desarrollo de software y unidades de negocio. En este proyecto de 6 meses, se integrará un Ingeniero de Datos AWS para trabajar en la manipulación de grandes volúmenes de información aprovechando la nube y tecnologías modernas, contribuyendo a optimizar procesos y aportar valor mediante datos escalables.

Apply to this posting directly on Get on Board.

Responsabilidades y Tareas

  • Desarrollar y mantener pipelines de datos escalables y eficientes en entornos AWS.
  • Manipular grandes volúmenes de datos utilizando Python y SQL, asegurando calidad y rendimiento.
  • Ejecutar procesos ETL en la nube utilizando servicios AWS como EC2, S3, Glue, Lambda, Athena y Redshift.
  • Modelar datos y aplicar técnicas de exploración para facilitar el análisis y la toma de decisiones.
  • Optimizar procesos de ingesta y transformación de datos para maximizar valor y eficiencia.
  • Colaborar con equipos multidisciplinarios para entender necesidades y desarrollar soluciones técnicas alineadas a los objetivos del negocio.
  • Mantenimiento y operación bajo sistemas Linux para soporte a las soluciones implementadas.

Requisitos y Perfil

Buscamos un Ingeniero de Datos con 2 a 3 años de experiencia comprobable en roles similares, especialmente trabajando en entornos cloud, preferentemente AWS. Es indispensable un manejo avanzado de Python, SQL y Linux, así como experiencia aplicada en servicios clave de AWS como EC2, S3, Glue, Lambda, Athena y Redshift. El candidato ideal debe tener sólidos conocimientos en procesos ETL en la nube, modelamiento de datos y técnicas exploratorias que permitan optimizar el flujo y la calidad de los datos.
Valoramos perfiles analíticos, proactivos y orientados a la mejora continua que disfruten construyendo pipelines robustos y aplicando buenas prácticas en gestión de datos. Se requiere capacidad para trabajar en modalidad híbrida, así como habilidades comunicativas efectivas para colaborar con equipos técnicos y de negocio.
Se considera como deseable experiencia previa con COBOL SQL en entornos Mainframe, ampliando así su versatilidad técnica.

Deseables

Experiencia en COBOL SQL sobre sistemas Mainframe, que permita complementar las capacidades en entornos legacy.
Conocimientos adicionales en herramientas de automatización y monitoreo de procesos ETL.
Familiaridad con metodologías ágiles y herramientas colaborativas para integración en equipos multidisciplinarios.
Capacidad para documentar procesos y generarreports técnicos orientados a stakeholders.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2400 - 2800 Tiempo completo
Data Engineer
  • ARKHO
Python Analytics Virtualization Amazon Web Services

ARKHO es una consultora experta en tecnologías de la información, que ofrece servicios expertos de TI en el marco de modernización de aplicaciones, analítica de datos y migración a la nube. Nuestro trabajo facilita y acelera la adopción de la cloud en múltiples industrias.

Nos destacamos por ser Partner Advanced de Amazon Web Services con foco estratégico en la generación de soluciones usando tecnología en la nube, somos obsesionados por lograr los objetivos propuestos y tenemos especial énfasis en el grupo humano que compone ARKHO (nuestros Archers), reconociendo a las personas y equipo como un componente vital para el logro de los resultados.

¿Te motivas? ¡Te esperamos!

Official job site: Get on Board.

🎯 Objetivo del Rol

Liderar y ejecutar el desarrollo de pipelines de datos en proyectos de analytics, con una visión integral de arquitectura de datos end to end. Se espera que aplique su experiencia técnica para fomentar la mejora continua, el cumplimiento de objetivos y la entrega de productos tecnológicos de alta calidad. Será un referente técnico dentro del equipo, aportando conocimientos en herramientas, lenguajes e infraestructura, y participando activamente en la generación de soluciones robustas y escalables.

Funciones Principales:

  • Colaborar estrechamente con el líder de equipo y el equipo de implementación, entregando visibilidad técnica del avance de las iniciativas.
  • Apoyar en la definición, estimación y planificación de tareas para productos analíticos bajo metodologías ágiles.
  • Liderar la gobernanza técnica de la solución junto al cliente, participando en decisiones clave.
  • Diseñar e implementar arquitecturas de soluciones de datos en la nube de forma colaborativa.
  • Participar en el modelado de datos y desarrollo de modelos analíticos corporativos.
  • Investigar y profundizar en tecnologías necesarias para alcanzar los objetivos del proyecto.

🏹 Perfil del archer

En nuestra compañía valoramos a las personas auto-gestionadas, proactivas e innovadoras. Debes ser capaz de organizar tu propia carga de trabajo, tomar decisiones, cumpliendo tus plazos y objetivos. Buscamos personas con:

  • Al menos 3 años en proyectos de analítica de datos.
  • Dominio avanzado de al menos un lenguaje de programación, preferiblemente Python.
  • Sólidos conocimientos en herramientas y servicios de datos en AWS (Glue, Lambda, S3, Athena, Redshift, Step Functions).
  • Experiencia en diseño de pipelines de datos y orquestación (por ejemplo, Airflow, Step Functions).
  • Familiaridad con arquitecturas modernas de datos como Data Lakes, Data Warehouses o Lakehouses.
  • Experiencia o conocimientos en modelado de datos utilizando enfoques como modelo dimensional, estrella y copo de nieve.

🌟 Beneficios del Archer

En ARKHO fomentamos una cultura de aprendizaje continuo, impulsamos la innovación tecnológica y promovemos un entorno de trabajo flexible, inclusivo y respetuoso, que valora tanto el desarrollo profesional como el bienestar personal.

📆 Día administrativo semestral hasta los 12 meses
🏖️ Week off: 5 días de vacaciones extra
🎉 ¡Celebra tu cumpleaños!
📚 Path de entrenamiento
☁️ Certificaciones AWS
🏡 Flexibilidad (trabajo híbrido)
💍 Regalo por casamiento + 5 días hábiles libres
👶 Regalo por nacimiento de hijos
✏️ Kit escolar
🤱 Beneficio paternidad
❤️ Bonda (plataforma de descuentos y bienestar)
💰 Aguinaldos
🏥 Seguro complementario de salud (solo Chile)
🧘‍♀️ ARKHO Open Doors

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage ARKHO pays or copays health insurance for employees.
Computer provided ARKHO provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal ARKHO gives you paid vacations over the legal minimum.
POSTULAR VÍA WEB Ver trabajo
Gross salary $800 - 1200 Tiempo completo
Data Engineer
  • Guinea Mobile SAC (Cuy Móvil)
Java Python PostgreSQL SQL

Guinea Mobile SAC (Guinea) es una startup de tecnología de telecomunicaciones latinoamericana, fundada en 2016 con sede en Lima, Perú. La empresa se basa en crear productos tecnológicos que faciliten la experiencia móvil.

Hoy cuenta con cuatro marcas de Operadores Móviles Virtuales: PeruSIM, Cuy Móvil, Inka Móvil y Wings Mobile, siendo uno de los principales OMVs del mercado.

Nuestra misión se centra en permitir que cualquier negocio o persona pueda tener su propia oferta móvil, democratizando el servicio móvil.

Se encuentra en la búsqueda de Data Engineer para conformar el equipo de TEC.

Apply only from getonbrd.com.

Funciones del cargo

Diseño de Infraestructura de Datos Escalable:

  • Crear sistemas robustos que soporten petabytes de datos con alta disponibilidad y rendimiento.

Automatización de Procesos de Integración:

  • Diseñar y gestionar pipelines automatizados para integración y limpieza de datos.

Colaboración con Analistas y Científicos de Datos:

  • Proveer datasets limpios, modelados y fácilmente accesibles.

Optimización de :

  • Identificar cuellos de botella en flujos de datos y aplicar soluciones para mejorar tiempos de respuesta.

Monitoreo de Flujos de Datos:

  • Implementar herramientas de monitoreo y alertas para garantizar la calidad y consistencia de los datos en tiempo real.

Requerimientos del cargo

  • Procesamiento de Datos:
    • Experiencia en frameworks como Apache Spark, Hadoop o Google Dataflow para procesamiento en grandes volúmenes de datos.
    • Conocimiento avanzado de batch processing y stream processing.
  • Bases de Datos y Almacenamiento:
    • Manejo de bases de datos relacionales (Oracle, PostgreSQL o SQL Server ) y NoSQL (MongoDB, DynamoDB, Cassandra).
    • Experiencia en la configuración y gestión servicios data warehouses como Snowflake, Redshift o BigQuery.
  • ETL/ELT:
    • Experiencia en la construcción y optimización de pipelines de datos usando herramientas como Apache Airflow, dbt, Talend o Luigi.
  • Programación:
    • Dominio de lenguajes como Python, Scala o Java, enfocados en la manipulación de datos.
    • Habilidades en scripting para automatización y manejo de grandes datasets.
  • Cloud Computing:
    • Familiaridad con servicios de datos en la nube como AWS Glue, Azure Data Factory o Google Cloud Dataflow.
    • Conocimientos en almacenamiento y gestión de datos en la nube: Amazon S3, Google Cloud Storage o Azure Blob Storage.
  • Calidad y Seguridad de Datos:
    • Implementación de procesos de data profiling, limpieza y validación de datos.
    • Experiencia en garantizar el cumplimiento de normativas como GDPR, HIPAA o similares.
  • Optimización de Consultas y Modelado de Datos Dimensionales:
    • Diseño de modelos de datos eficientes para análisis y consumo.
    • Desarrollo y optimización de queries SQL (CTES, Joins, Subqueries, etc) y otras herramientas.
  • Detallista: Capacidad para identificar inconsistencias y cuidar la calidad de los datos en cada etapa del proceso.
  • Proactivo/a: Capacidad para anticiparse a problemas, proponer mejoras y tomar iniciativa sin necesidad de esperar instrucciones.
  • Colaborativo/a: Comodidad para trabajar junto a analistas, desarrolladores o científicos de datos, fomentando el aprendizaje mutuo.
  • Flexible en la Colaboración: Valoramos a quienes se involucran donde pueden aportar, más allá de lo que indica su rol. Creemos que los equipos funcionan mejor cuando cada persona está dispuesta a sumar donde más se le necesita.
  • Enlace a repositorio en GitHub, GitLab o Bitbucket.
  • Certificaciones relevantes como Google Cloud Professional Data Engineer, AWS Certified Data Analytics, o similares.

Conditions

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
POSTULAR VÍA WEB Ver trabajo
Gross salary $4000 - 6500 Tiempo completo
Data Operations Lead
  • Thesis Driven
Python Machine Learning API Back-end

Thesis Driven is a specialized real estate media and data company dedicated to providing high-quality prospecting data to companies in the real estate industry. As a relatively small but highly profitable company, we are focused on scaling our operations.

We’re looking for a hands-on data operator to own and scale the enrichment of a high-value dataset of real estate developers across the U.S. and Canada. This role will drive scraping pipelines, integrate public data (e.g. building permits), and incorporate AI-powered enrichment workflows. You’ll work at the intersection of data engineering, product strategy, and real estate intelligence.

Apply without intermediaries through Get on Board.

Responsibilities

  • Maintain and expand scrapers targeting developer websites, permit portals, and public records
  • Integrate new data sources (APIs, CSVs, public datasets) into our core developer catalog
  • Build and refine AI-powered workflows using LLMs to enhance data (e.g., entity extraction, classification)
  • Normalize and de-duplicate records across multiple sources
  • Create lightweight QA processes and tools to monitor data quality
  • Make strategic decisions about which data points and sources are most valuable
  • Manage a small team of data entry specialists and freelancers

Qualifications and requirements

  • Strong Python skills (esp. for scraping, data wrangling, and light ML)
  • Experience working with unstructured and semi-structured data
  • Familiarity with public datasets (e.g., permit data, zoning, business registrations)
  • Prior work with LLM APIs (OpenAI, Claude, etc.) in a data context
  • Strong spoken and written English; capable of asynchronous remote communication

Nice-to-have skills

  • Familiarity with real estate or proptech data models
  • Experience with geospatial data
  • Exposure to orchestration tools (Airflow, Prefect) or no-code automation (Make, Zapier)
  • Familiarity with no-code tools like Bubble (our stack)

Conditions

We are a small yet profitable company committed to scaling our business and providing a dynamic work environment that encourages autonomy and professional growth. We support a remote work model, allowing you to join our team from anywhere while contributing to our ambitious growth plans.

By joining Thesis Driven, you will be part of a nimble organization that values your expertise and offers opportunities to lead sales initiatives in an exciting niche market. You will work directly with a motivated team focused on delivering data solutions that make a meaningful difference to our clients.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Actuario Senior
  • BNP Paribas Cardif
  • Santiago (Hybrid)
Data Analysis Excel SQL English

¿Quieres ser parte de los líderes en la revolución de los seguros?

BNP Paribas Cardif está presente en más de 30 países en América, Europa y Asia, contamos con 25 años de trayectoria en Chile y nuestra misión es hacer los seguros más accesibles, justos y valiosos.

✅ Por nuestro ambiente laboral único, somos una organización centrada en el bienestar de las personas y nuestro espíritu Cardif.
✅ Porque el deporte y sus valores son parte de nuestra cultura: la colaboración, la empatía y el respeto guían nuestro trabajo.
✅ Por la cercanía con nuestros líderes, somos una organización que cree en el talento y damos las oportunidades para desarrollarte y aprender juntos.
✅ Por nuestro modelo de trabajo mixto, teletrabajando tres días a la semana.
✅ Estamos comprometidos con el medio ambiente.
✅ Estamos comprometidos con la diversidad, equidad e inclusión.

Apply to this job through Get on Board.

Job functions

Hoy BNP Paribas Cardif busca a un Actuario Senior que se sume a la subgerencia de Pricing & Product Management. Donde tú misión será ser responsable de desarrollar y mejorar modelos de evaluación que permitan realizar análisis de estudios técnico-financieros orientados a la toma de decisiones por parte de los equipos de Pricing y Negocios. Además, serás responsable de presentar reportes que permitan monitorear las variables críticas de cada negocio con el fin de mitigar el riesgo de no alcanzar los resultados esperados. Y a su vez, deberás realizar evaluaciones de nuevos productos, respetando todas las políticas de la compañía en el proceso de desarrollo de producto y validación

Qualifications and requirements

¿Cuáles son los principales desafíos del cargo?

· Analizar la rentabilidad de la cartera de productos con el nivel de detalle requerido, entregar a la Gerencia General y Comercial las herramientas y los informes para tomar decisiones.

· Garantizar el seguimiento del riesgo (estudios, desarrollo de KPIs, metodologías de proyección de resultados).

· Facilitar la gestión del equipo de pricing y negocios, apoyando la relación con el cliente, a través del seguimiento de su catera.

· Gestionar y analizar los datos de la compañía con el fin de abordar distintas problemáticas actuariales que permitan apoyar el proceso de transformación.

· Desarrollar y mejorar los modelos de evaluación y herramientas de cálculo.

· Seguimiento, estudio y control de los riesgos que enfrenta cada cartera de socios.

· Participar activamente en proyectos transversales tanto a la gerencia técnica como a nivel compañía, aportando desde el punto de vista técnico y financiero.

· Buscar la mejora continua los procesos y procedimientos del área, buscando la agilidad y perfeccionamiento de las metodologías de cálculo.

¿Cómo saber si hago match con esta vacante?
Buscamos a alguien que:

Requisitos:

- Formación en Ingeniero Civil Industrial, Actuario, Estadístico o carrera afín.

- Experiencia mínima de 5 años en Pricing o Actuariado.

Conocimientos:

  • Manejo de MS Office, nivel avanzado, especialmente Excel
  • Manejo en bases de datos y programación en SQL y SAS.
  • Manejo de inglés intermedio

Conditions

¿Te sumas a la revolución de la industria del seguro?

Esperamos tu postulación ¡seguro y con todo!

“Todas las contrataciones están sujetas a la ley 21015. En BNP Paribas Cardif creemos en lugares de trabajos inclusivos y diversos, donde todas las personas son bienvenidas. En caso de necesitar adaptaciones para ser parte de nuestro proceso de selección, favor comunicarlo en la sección de preguntas.”

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Scientist
  • ARKHO
  • Bogotá (Hybrid)
Python SQL Virtualization Amazon Web Services
ARKHO es una consultora experta en tecnologías de la información, que ofrece servicios expertos de TI en el marco de modernización de aplicaciones, analítica de datos y migración a la nube. Nuestro trabajo facilita y acelera la adopción de la cloud en múltiples industrias.
Nos destacamos por ser Partner Advanced de Amazon Web Services con foco estratégico en la generación de soluciones usando tecnología en la nube, somos obsesionados por lograr los objetivos propuestos y tenemos especial énfasis en el grupo humano que compone ARKHO (nuestros Archers), reconociendo a las personas y equipo como un componente vital para el logro de los resultados.
¿Te motivas? ¡Te esperamos!
🎯 Objetivo del Rol

Transformar datos complejos en soluciones concretas. Su misión principal será entender los desafíos del negocio, analizar la información disponible y diseñar modelos que realmente generen impacto.

This job is published by getonbrd.com.

Funciones Principales

  • Entender el contexto del cliente: qué quiere lograr, cuáles son sus indicadores clave y qué datos tiene disponibles.
  • Aplicar técnicas de análisis estadístico, machine learning y deep learning para resolver problemas específicos.
  • Diseñar y poner en marcha soluciones basadas en inteligencia artificial, incluyendo el uso de Large Language Models (LLMs) y embeddings.
  • Acompañar al cliente en la toma de decisiones, explicando alternativas de solución de forma clara y práctica.
  • Trabajar en entornos colaborativos y ágiles, con foco en soluciones escalables, seguras y robustas en la nube (principalmente con herramientas de AWS como SageMaker, S3, Lambda y Bedrock).
  • Colaborar activamente con el equipo, aportando ideas y compartiendo buenas prácticas.

Perfil del Archer

Buscamos un profesional proactivo, autónomo y con iniciativa, apasionado por resolver problemas complejos y que disfrute trabajar en equipo. Se valoran especialmente las ganas de aprender y desarrollar nuevas habilidades.
Requisitos técnicos y experiencia:
  • Mínimo 3 años de experiencia en roles similares enfocados en machine learning e inteligencia artificial.
  • Conocimiento sólido en técnicas de machine learning como clustering, análisis de componentes principales (PCA), regresión logística, entre otras.
  • Experiencia en desarrollo de modelos utilizando deep learning y en particular con Large Language Models y embeddings.
  • Dominio avanzado de Python y SQL.
  • Experiencia con librerías de análisis y machine learning como Pandas, Scikit-learn, Numpy y Matplotlib.
  • Familiaridad con servicios en la nube, especialmente AWS (SageMaker, S3, Lambda y Bedrock).
  • Título profesional en Ingeniería de Sistemas, Ingeniería Matemática o carreras afines.
  • Inglés de nivel intermedio es deseable, pero no obligatorio.

Beneficios

En ARKHO fomentamos una cultura de aprendizaje continuo, innovación tecnológica y un ambiente de trabajo flexible, inclusivo y respetuoso, que apoya tanto el desarrollo profesional como el bienestar personal.
  • 📆 Día administrativo semestral durante el primer año.
  • 🏖️ Week off: 5 días extra de vacaciones.
  • 🎉 Celebración de cumpleaños.
  • 📚 Ruta de entrenamiento y desarrollo profesional.
  • ☁️ Certificaciones AWS patrocinadas.
  • 🏡 Trabajo flexible, modalidad híbrida con opción a remoto.
  • 💍 Regalo y 5 días hábiles libres por matrimonio.
  • 👶 Regalos por nacimiento de hijos.
  • ✏️ Kit escolar.
  • 🤱 Beneficio de paternidad.
  • ❤️ Acceso a Bonda, plataforma de descuentos y bienestar.
  • 💰 Aguinaldos.
  • 🧘‍♀️ Programa ARKHO Open Doors para bienestar integral.

POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Analyst (SQL/Tableau)
  • HumanForest
  • Santiago (Hybrid)
Python MySQL PostgreSQL Data Analysis
What is Forest?

We are Forest, London’s most sustainable shared eBike operator. We bridge the gap between affordability and sustainability, using our advertising revenue to offer all users 10 minutes free cycling daily.
We have just raised a Series A funding round to double our fleet size in London, continuing to invest in our digital marketing proprietary tech, and starting our international expansion plans.
If you want to join a quick-moving and fast-growing company, making a difference in the micro-mobility industry, come join us.
Please note: our company is based in the UK and has Chilean Founders.
*This job is based in Chile (candidate must be based here), and reports to the team in Chile and the UK. Spanish and English fluency is mandatory.

Apply directly at getonbrd.com.

What are you going to do?

-Work with stakeholders throughout the organization to identify opportunities for leveraging company data to drive business solutions.
-Interpret data, analyze results using statistical techniques and provide ongoing reports.
-Coordinate with different functional teams to develop dashboards and monitor outcomes.
-Identify, analyze, and interpret trends or patterns in complex data sets.
-Work with management to prioritize business and information needs.
-Locate and define new process improvement opportunities.

What are we looking for?

-Educational background in Statistics, Mathematics, Engineering or Computer Science.

-At least 2+ years of experience in similar roles.

-Strong problem solving skills.

-Strong knowledge and experience with Tableau and/or Microsoft Power BI.

-Knowledge of statistics and experience using statistical packages for analyzing datasets (Excel, SAS, R, Python).

-Experience querying databases: PostgreSQL, Redshift, MySQL, BigQuery, etc.

-Strong experience and knowledge in SQL.

-Excellent written and verbal communication skills for coordinating across teams.

-A drive to learn and master new technologies and techniques.

-Fluent in English to communicate effectively with the UK team.

Bonus

-Experience developing with Python and FastAPI.
-Experience developing Data Pipelines.
-Understanding of Git and GitHub for version control and collaboration.
-Experience using project management and collaboration tools like Linear, Jira, Trello, or Asana.

What will you get in return?

- Play a key role in the transformation of sustainable urban mobility in our cities.

- Competitive compensation plan with plenty of development opportunities.

- Scale with a rapidly growing organization, working with a team of fun, experienced and motivated individuals, with highly growth opportunities.

- Private Health Insurance plan.

- 20 days holiday plus your birthday.

- Work for an international company that has a link between Chile and the UK.

- Bilingual mode of communication at work.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage HumanForest pays or copays health insurance for employees.
Computer provided HumanForest provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal HumanForest gives you paid vacations over the legal minimum.
Beverages and snacks HumanForest offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Analista de Operaciones Medios de Pago
  • coderslab.io
  • Santiago (Hybrid)
Python Data Analysis SQL Power BI

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina y es por ello que estamos en búsqueda de ANALISTA DE OPERACIONES - MEDIOS DE PAGO para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Apply to this posting directly on Get on Board.

Funciones del cargo

  1. Desarrollo de Paneles:
    • Crear y mantener paneles interactivos en Power BI y Looker Studio para la visualización de datos.
    • Asegurar que los paneles reflejen métricas clave y sean accesibles para los usuarios finales.
  2. Explotación de Datos:
    • Realizar la extracción y transformación de datos desde diversas fuentes.
    • Implementar procesos de limpieza y validación de datos.
  3. Análisis de Datos:
    • Analizar grandes volúmenes de datos para identificar tendencias, patrones y oportunidades de mejora.
    • Generar informes analíticos que apoyen la toma de decisiones estratégicas.
  4. Extracción y Análisis Multiplataforma:
    • Integrar datos de diferentes plataformas y sistemas, asegurando una visión holística del rendimiento.
    • Colaborar con equipos de IT para optimizar la infraestructura de datos.
  5. Colaboración Interdepartamental:
    • Trabajar de manera colaborativa con otros departamentos para entender sus necesidades de datos y proporcionar soluciones efectivas.
    • Participar en reuniones de equipo para discutir resultados y proyecciones.
  6. Documentación:
    • Mantener documentación clara y concisa de procesos, análisis y hallazgos.
    • Presentar resultados de manera efectiva a diferentes niveles de la organización.

Requerimientos del cargo

Habilidades/Conocimientos Obligatorios

  • Herramientas y Tecnologías:
    • Power BI
    • GCP (Google Cloud Platform)
    • Looker Studio
    • SQL
    • Python
  • Educación:
    • Título universitario en áreas relacionadas (Ingeniería, Estadística, Ciencias de la Computación, etc.).
  • Experiencia:
    • Experiencia previa en análisis de datos o roles similares (preferentemente en el sector de medios de pago).
  • Habilidades Técnicas:
    • Dominio de SQL para la manipulación y consulta de bases de datos.
    • Conocimiento práctico de Python para análisis de datos y automatización de procesos.
    • Experiencia en el uso de herramientas de visualización (Power BI, Looker Studio).
  • Habilidades Blandas:
    • Excelentes habilidades de comunicación y presentación.
    • Capacidad para trabajar en equipo y colaborar con diferentes áreas.
    • Pensamiento analítico y atención al detalle.

POSTULAR VÍA WEB Ver trabajo
Gross salary $3000 - 4000 Tiempo completo
Ingeniero de Datos Senior
  • foris.ai
Artificial Intelligence English Data Engineer Continual improvement process

Somos una empresa líder en Latinoamérica que ofrece soluciones cloud basadas en Inteligencia Artificial y servicios de consultoría para optimizar procesos críticos en la Educación Superior. Nuestro objetivo es transformar la experiencia digital de alumnos, docentes y staff académico mediante una suite de productos que automatizan más del 50% de las tareas manuales, optimizan hasta un 25% los costos y contribuyen a la reducción de la deserción estudiantil.

Contamos con más de 65 instituciones educativas clientes en 10 países, alcanzando a un millón de estudiantes. Buscamos expandir nuestra tecnología disruptiva a nuevos mercados internacionales, diseñando sistemas escalables capaces de soportar un crecimiento importante y diferentes ecosistemas complejos.

Somos un equipo multicultural y multidisciplinario que combina capacidades en ingeniería, matemáticas, desarrollo, diseño y consultoría, enfocados en llevar al sector EdTech a un nuevo nivel usando inteligencia artificial avanzada.

Job source: getonbrd.com.

¿En qué consistirá tu trabajo?

  • Ser experto funcional de nuestra suite de soluciones, comprendiendo y dominando a fondo la lógica y arquitectura de cada aplicación.
  • Liderar la implementación y puesta en marcha de nuestros productos y sus integraciones para asegurar despliegues fluidos y exitosos en nuestros clientes.
  • Trabajar con consultas SQL avanzadas para explotar, transformar y analizar grandes volúmenes de datos con rigor y eficiencia.
  • Diseñar, desarrollar e implementar procesos ETL robustos para manejar grandes flujos de información alineados con las necesidades de las universidades y Foris.
  • Aplicar modelado, análisis y automatización de datos utilizando Python de forma estructurada y escalable.
  • Colaborar estrechamente con equipos internos multidisciplinarios y con clientes externos para diseñar soluciones técnicas innovadoras que aporten valor real al negocio.
  • Documentar detalladamente cada solución para garantizar su trazabilidad, mantenibilidad y calidad a largo plazo.

Stack de herramientas y tecnologías :
Herramientas:

  • Athena
  • Glue data catalog
  • Amazon S3
  • Cloudwatch AWS
  • IAM AWS
  • AWS CLI
  • Postman
  • JSON / RESTful APIs

Lenguajes

  • TrinoSql
  • MySQL
  • SparkSql
  • PySpark
  • Python
  • PostgresSql
  • YAML

Perfil del cargo

Buscamos profesionales con formación técnica rigurosa en Ingeniería de Sistemas, Matemáticas, Inteligencia Artificial, Ciencia de Datos o carreras afines. Es indispensable haber complementado cualquier formación que no sea estrictamente técnico-científica con educación y experiencia práctica.

El candidato ideal cuenta con al menos 5 años de experiencia profesional consolidada y mínima experiencia de 3 años en consultoría tecnológica y/o procesamiento y análisis avanzado de datos. Este puesto no es para perfiles juniors ni para quienes buscan un rol intermedio; está destinado a quienes desean escalar profesionalmente resolviendo desafíos complejos y reales.

Es fundamental poseer un entendimiento profundo tanto del negocio educativo como del ecosistema de datos y tecnología que soporta nuestras soluciones. Debe ser capaz de identificar ineficiencias, proponer soluciones innovadoras y ejecutar sin necesidad de supervisión constante.

Además, el rol requiere excelentes habilidades de comunicación, particularmente en redacción y verificación de información, tanto en español como en inglés, debido a la interacción con herramientas de Inteligencia Artificial generativa y de optimización. Se valoran especialmente competencias en generación y curaduría de prompts para IA.

Buscamos una persona proactiva, orientada a la mejora continua, capaz de transformar procesos, productos y flujos de trabajo mediante modelos de datos, visualización y automatización, que aporte prácticas y referencias que eleven el estándar técnico del equipo desde el primer día.

Competencias y conocimientos deseables

Se valorará experiencia previa en ambientes EdTech o en la educación superior, conocimiento avanzado en plataformas de nube, especialmente en arquitecturas escalables para grandes volúmenes de datos y familiaridad con herramientas de IA aplicadas a la optimización operacional.

Habilidades en manejo de metodologías ágiles y coordinación de equipos multidisciplinarios serán un plus para facilitar la integración y entrega de soluciones.

Además, se considerarán positivamente conocimientos en visualización avanzada de datos, manejo de tecnologías de integración de datos en tiempo real, y experiencia en diseño de arquitecturas data-driven.

Beneficios y cultura organizacional

En Foris valoramos la diversidad y el bienestar de nuestros colaboradores. Ofrecemos horarios flexibles que permiten compatibilizar trabajo con otras actividades, además de permitir días libres para trámites administrativos, cumpleaños y festividades importantes.

Contamos con jornadas reducidas cada quince días los viernes, iniciando a las 9:00 y finalizando a las 15:00 hrs, junto con un día completo de vacaciones canjeable para celebrar tu cumpleaños.

Nuestra cultura promueve un ambiente multicultural e inclusivo, con un equipo equilibrado en género y conformado por profesionales de diversas nacionalidades. No exigimos códigos de vestimenta para el día a día, salvo eventos con clientes.

Organizamos actividades de integración, viajes y retiros corporativos para fortalecer el espíritu de equipo en entornos distendidos y agradables.

El trabajo será hibrido en Bogotá, Colombia y remoto desde Chile.

Internal talks foris.ai offers space for internal talks or presentations during working hours.
Company retreats Team-building activities outside the premises.
Computer repairs foris.ai covers some computer repair expenses.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1200 - 1500 Tiempo completo
Data Engineer Junior
  • AgendaPro
  • Santiago (In-office)
Python Data Analysis SQL Artificial Intelligence

En AgendaPro, ayudamos a dueños y administradores de Centros de Estética, Salud, Belleza y Deporte a aceptar reservas de manera sencilla y vender sus servicios online. Como una de las Startups tecnológicas de Y Combinator de mayor crecimiento en Latinoamérica, contamos con más de 15.000 clientes en 17 países, incluyendo Argentina, Chile, Colombia, México y Perú. Nuestra misión es crear un software todo-en-uno simple e intuitivo que conecte estos negocios con el mundo digital, permitiéndoles enfocarse en lo importante: sus clientes y el crecimiento de sus negocios.

¿Preparado para crecer y enfrentar grandes desafíos con nosotros? 😎

Apply exclusively at getonbrd.com.

Responsabilidades del Puesto

Como Data Engineer Junior, serás el encargado de que los procesos de extracción, carga, y transformación de datos de AgendaPro --cientos de miles de datos por día-- funcionen a la perfección. Estos procesos nos permiten transformar datos complejos en hallazgos claros y útiles para los equipos de producto, tencología, marketing y finanzas, apoyando la toma de decisiones estratégicas. Entre tus responsabilidades se incluyen:

  • Automatizar y mantener funcionando los procesos de extracción, carga y transformación de datos
  • Apoyar en el análisis de datos utilizando estadísticas y metodologías cuantitativas para detectar patrones, anomalías y oportunidades.
  • Comunicar de forma clara y precisa tus hallazgos a distintos stakeholders mediante reportes y visualizaciones.
  • Colaborar con otros equipos para entender sus necesidades y apoyar en la definición de métricas y KPIs clave.
  • Participar activamente en reuniones y sesiones de trabajo en nuestras oficinas en Santiago, aportando una visión fresca y orientada a resultados.

Requisitos del Candidato

Buscamos un profesional con título universitario en áreas STEM (Ciencia, Tecnología, Ingeniería o Matemáticas) que tenga una base sólida en análisis estadístico. No es necesaria experiencia previa, pero sí un fuerte compromiso con la calidad y el aprendizaje continuo.

Requisitos específicos

  • Título universitario en matemáticas, estadística, ingeniería, informática, astronomía u otra carrera STEM
  • Experiencia o formación destacada en estadística y análisis de datos, con comprensión robusta de métodos estadísticos aplicados.
  • Haber usado IA en al menos 10 ramos de la U, en prácticas profesionales o en otros trabajos.
  • Disponibilidad para trabajar de manera presencial a tiempo completo en nuestras oficinas ubicadas en Santiago de Chile.

Cómo te apoyaremos

  • Durante la primera semana, partirás con un curso exprés de programación asistida por IA.
  • Durante el primer mes, te daremos una serie de tareas a cumplir, en grado ascendiente de dificultad. Te apoyaremos con cursos, material de estudio y guía constante.
  • Al final del tercer mes, dependiendo de tu rendimiento, te permitiremos escoger entre distintos roles: Data Engineer, Data Analyst o SDE.

Habilidades y Experiencia Deseables

  • Usas una IA como ChatGPT o Claude varias veces por día
  • Entiendes SQL, Python, R u otros lenguajes para la manipulación y consulta de bases de datos
  • Te expresas muy bien en español tanto hablado como escrito
  • Explicas en simple lo que es complejo

Beneficios y Cultura

  • El puesto es presencial en Santiago, Chile, contando con una oficina cómoda muy cercana al metro y con estacionamientos de bici
  • Incluimos stock options dependiendo de tu performance
  • Vacaciones sobre lo legal

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage AgendaPro pays or copays health insurance for employees.
Computer provided AgendaPro provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal AgendaPro gives you paid vacations over the legal minimum.
Beverages and snacks AgendaPro offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2500 Tiempo completo
Científico de Datos
  • Contac Ingenieros
  • Santiago (Hybrid)
Python Data Analysis Artificial Intelligence Machine Learning

Somos una empresa tecnológica con más de 40 años de trayectoria, especializada en soluciones de informática industrial, analítica avanzada, automatización, control de procesos y mejora continua. Colaboramos con empresas líderes de las industrias de procesos tales como minería, pulpa y papel y energía, brindando servicios de alto impacto en Chile y en diversos países de Latinoamérica.

This company only accepts applications on Get on Board.

Funciones Principales

  • Desarrollar, desplegar, mantener y mejorar modelos predictivos y prescriptivos.
  • Automatizar procesos de Machine Learning para optimizar análisis y toma de decisiones.
  • Desarrollar documentación técnica y explicativa de los modelos implementados.
  • Crear visualizaciones interactivas utilizando Dash (Plotly) para comunicar resultados a clientes y equipos.
  • Asegurar la disponibilidad y calidad constante de las salidas de los modelos.
  • Poner en producción los modelos desarrollados para su uso práctico en el entorno productivo.
  • Interactuar directamente con clientes finales, entendiendo sus procesos específicos y presentando hallazgos y resultados de manera clara y efectiva.

Requisitos

Formación Académica: Ingeniero Civil Electricista, Matemático, Químico u otra carrera afín, con experiencia demostrable.

Experiencia: De 2 a 4 años en roles relacionados con análisis de datos, desarrollo de modelos estadísticos o de Machine Learning.

Conocimientos Técnicos:

  • Dominio avanzado de Python para manipulación de datos, desarrollo de modelos y automatización.
  • Experiencia y conocimientos en Machine Learning y estadística aplicada.

Habilidades blandas: Capacidad analítica, pensamiento crítico, comunicación efectiva y orientación a soluciones innovadoras. Proactividad para aprender y adaptarse a distintos contextos y necesidades de clientes, así como trabajo colaborativo con equipos multidisciplinarios.

Conocimientos Deseables

  • Experiencia con procesos mineros que permita una mejor comprensión de los datos y contextos de aplicación.
  • Manejo en tecnologías emergentes como Inteligencia Artificial Generativa (Gen AI) para potenciar soluciones innovadoras.

Beneficios

  • Seguro complementario de salud que contribuye al bienestar integral.
  • Cafetería para favorecer un ambiente cómodo y accesible.
  • Estacionamiento para bicicletas y motos, promoviendo medios de transporte sustentables.

El puesto ofrece una modalidad híbrida, combinando trabajo en oficina ubicada en la comuna de La Reina, Santiago, con teletrabajo. Formarás parte de un equipo comprometido con la innovación, en un ambiente de colaboración y desarrollo profesional constante.

Partially remote You can work from your home some days a week.
Health coverage Contac Ingenieros pays or copays health insurance for employees.
Computer provided Contac Ingenieros provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2300 - 2500 Tiempo completo
Analista Power BI
  • BC Tecnología
  • Santiago (Hybrid)
Excel SQL Business Intelligence Virtualization
En BC Tecnología somos una consultora de Servicios IT con amplia experiencia en consultoría, desarrollo de proyectos, outsourcing y selección de profesionales. Creamos equipos de trabajo ágiles en áreas de Infraestructura Tecnológica, Desarrollo de Software y Unidades de Negocio, para clientes de sectores financieros, seguros, retail y gobierno. En este proyecto estratégico de 6 meses, nos enfocamos en la generación de dashboards y soluciones analíticas mediante Power BI, que permitan apoyar la toma de decisiones basada en datos dentro de la organización y sus áreas internas.

Apply directly on Get on Board.

Responsabilidades

  • Diseñar y mantener dashboards e informes utilizando Power BI.
  • Analizar datos para identificar oportunidades de mejora y resolver problemas de negocio.
  • Levantar requerimientos con áreas internas y proponer soluciones analíticas adecuadas.
  • Promover la alfabetización digital y el uso efectivo de herramientas analíticas en la organización.
  • Aplicar buenas prácticas en modelamiento de datos, visualización y asegurar la calidad de la información.

Requisitos

  • Dominio avanzado de Power BI, incluyendo DAX, modelado y visualización de datos.
  • Conocimientos sólidos en SQL y Excel, además de experiencia con herramientas como Tableau.
  • Deseable experiencia en plataformas cloud como BigQuery, AWS Redshift u otras similares.
  • Excelentes habilidades de comunicación y capacidad de análisis orientada al cliente interno.

Deseable

Se valorará experiencia adicional en manejo de plataformas en la nube para gestión y análisis de datos que complementen el trabajo en Power BI. También es deseable conocimiento en procesos de transformación digital y en promover el uso de analítica avanzada en diferentes áreas de la organización.

Beneficios

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
La modalidad híbrida que ofrecemos, ubicada en Las Condes, permite combinar la flexibilidad del trabajo remoto con la colaboración presencial, facilitando un mejor equilibrio y dinamismo laboral.
Participarás en proyectos innovadores con clientes de alto nivel y sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional.

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1500 - 2000 Tiempo completo
Técnico de Datos IA
  • Robotia
  • Santiago (Hybrid)
Python Git Excel Linux

Somos Robotia, una empresa joven y líder en el desarrollo de soluciones de visión artificial para procesos industriales, específicamente orientada a la minería y la industria a nivel nacional e internacional. Nuestro enfoque está en el desarrollo de tecnologías basadas en inteligencia artificial para apoyar la automatización y la toma de decisiones en tiempo real, contribuyendo así a la transformación digital del sector minero y otros procesos industriales relevantes.

Apply to this job without intermediaries on Get on Board.

Funciones del cargo

🎯 Objetivo del cargo
Buscamos una persona organizada y con habilidades operativas en gestión de datos para sumarse al equipo de IA. Será responsable de preparar, organizar y mantener los datos que alimentan nuestros modelos de IA, además de coordinar al equipo remoto de etiquetadores (4-5 personas).

👨‍💻 ¿Qué harás?

  • Gestionar y organizar datos no estructurados (imágenes y videos) de proyectos de IA
  • Coordinar y supervisar el trabajo del equipo de etiquetado
  • Controlar calidad del etiquetado y preparar datasets validados
  • Apoyar en procesos de minería de datos
  • Proponer mejoras al flujo operativo (scripts, automatización, base de datos no estructurada, etc.)

Requerimientos del cargo

  • Formación técnica o profesional afín
  • 1 a 3 años de experiencia en manejo de datos
  • Python básico/intermedio
  • Manejo de bash (Linux) y Excel intermedio/avanzado
  • Deseable: Git, experiencia con herramientas de etiquetado (CVAT u otras) y proyectos de visión artificial, librerias como pandas, OpenCV, NumPy.

Condiciones

o Pertenecer a una compañía joven, con gran potencial de crecimiento regional, líder en el desarrollo de tecnología de visión artificial en el ámbito de la minería y la industria.

o Jornada de Lunes a Viernes de 8.30 a 17.30 horas, 40 horas semanales.

o Café de grano gratis en oficina.

o Snack y galletas gratis en oficina.

o Permiso de 5 días administrativos al año para trámites personales (no vacaciones)

o Día de cumpleaños libre.

o Contrato a 12 meses, renovación a indefinido según evaluación.

o Seguro complementario de salud.

Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Robotia pays or copays health insurance for employees.
Computer provided Robotia provides a computer for your work.
Informal dress code No dress code is enforced.
Beverages and snacks Robotia offers beverages and snacks for free consumption.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2400 Tiempo completo
Operational Intelligence Engineer
  • ComunidadFeliz
Artificial Intelligence Machine Learning Automation Machine Learning Engineer
En ComunidadFeliz, somos una comunidad apasionada y diversa que trabaja para transformar la experiencia en comunidades residenciales y condominios. Nuestra plataforma se enfoca en mejorar la transparencia y la gestión para administradores, comités y residentes, facilitando una comunicación sencilla, efectiva y empática. Como aliados estratégicos, buscamos generar un impacto positivo en la calidad de vida de miles de usuarios, promoviendo la prosperidad, la felicidad y relaciones saludables dentro de cada comunidad.
La oportunidad dentro del área de Tecnología consiste en unirse a nuestro equipo de inteligencia operacional, donde se impulsan proyectos de automatización e inteligencia artificial para optimizar procesos internos, mejorar la eficiencia operativa y garantizar la continuidad del servicio en nuestra Business Unit (BU) dedicada a operaciones de pagos y gestión administrativa.

This offer is exclusive to getonbrd.com.

¿Qué desafíos deberás enfrentar?

  • Automatización e inteligencia artificial aplicada a operaciones: Identificar procesos operativos clave que pueden ser automatizados total o parcialmente utilizando inteligencia artificial (IA), machine learning (ML) o robotic process automation (RPA). Implementar, mantener y monitorear estas soluciones, asegurando su correcto funcionamiento y proponiendo mejoras continuas.
  • Operaciones monitoreadas a través de visualización de datos y análisis de rendimiento: Diseñar y desarrollar dashboards y reportes automáticos con foco en indicadores clave de performance para procesos operativos de pagos, tales como conciliaciones, anulaciones, devoluciones y facturación. Detectar cuellos de botella, ineficiencias y oportunidades de optimización basadas en datos relevantes. Establecer sistemas para alertas tempranas y monitoreo preventivo de operaciones críticas.
  • Mejora continua y eficiencia del negocio: Monitorear indicadores clave de desempeño (KPIs) como tasas de error y tiempos de ciclo para evaluar la eficacia de plataformas y procesos operativos. Proponer e implementar soluciones técnico-operativas que disminuyan la exposición a errores humanos y optimicen recursos.
Los KPIs asociados al cargo incluyen la reducción porcentual en tiempos operativos por automatización e IA, impacto económico medible en ingresos recurrentes mensuales (MRR) derivados de mejoras técnicas y operativas, y la tasa de éxito y continuidad operativa de los procesos automatizados.

¿Qué necesitas para postular?

Buscamos perfiles con fuerte capacidad analítica y técnica, con experiencia comprobable en proyectos de inteligencia artificial (IA), machine learning (ML) o robotic process automation (RPA), especialmente aplicados a la optimización de operaciones. Es fundamental contar con un enfoque orientado a la eficiencia, calidad, y mejora continua, así como tener conocimientos sólidos en ámbitos financiero y contable para contextualizar los procesos operativos a automatizar.
Las competencias laborales clave incluyen pensamiento analítico para identificar oportunidades y entender datos complejos, habilidades técnicas para diseñar y mantener soluciones inteligentes, y un fuerte compromiso con la continuidad operativa y el impacto positivo en el negocio. Se valoran habilidades de comunicación efectiva y trabajo colaborativo para interactuar con distintos equipos y usuarios finales.
El candidato ideal es proactivo, orientado a resultados, y capaz de trabajar en un contexto remoto y multidisciplinario, adaptándose a cambios y nuevas tecnologías con rapidez y responsabilidad.

Suman Puntos Felices

Será valorado positivamente contar con experiencia previa en plataformas SaaS y metodologías ágiles de desarrollo y mejora continua. Familiaridad con herramientas específicas de automatización, frameworks de IA y ML, y experiencia en la generación avanzada de reportes y visualizaciones con tecnologías como Power BI, Tableau o similares son un plus.
Conocimientos adicionales en gestión de proyectos tecnológicos, manejo de grandes volúmenes de datos (big data) y experiencia en entornos de trabajo remotos y distribuidos fortalecerán el perfil. Además, actitud empática y capacidad para entender las necesidades de clientes internos y externos facilitarán la adaptación al entorno colaborativo de ComunidadFeliz.

Beneficios

  • Trabajo Remoto 🏠: Tenemos una cultura remota que prioriza los valores y herramientas remotas.
  • Excelente Cultura 🎉: Mensualmente fomentamos la cultura mediante 2 eventos digitales a nivel empresa y 1 evento a nivel de equipo.
  • Día Libre el Día de tu Cumpleaños 🎂.
  • ¡Miércoles de Vida! 🏃‍♂️: Te damos 1 hora para que puedas tomar al inicio o al final de tu jornada para que puedas hacer tu deporte favorito.
  • Viernes Corto 🕔: ¡Los días viernes se sale a las 17:00 hrs!
  • 15 Días de Vacaciones al Año 🌴.
  • Desarrollo de Carrera 📈: Planes de carrera y cursos formativos.
  • Días de Salud 💊: Te pagaremos el 100% de los 3 primeros días de una licencia médica que no cubre tu previsión (en cualquier país) cada año.
  • Provisión de Días de Salud para +3 Días 🏥.
  • Permisos por Matrimonio, Nacimientos, Lactancia, Adopción 👰🤱.
  • Bono de Festividades 🎁: Entregamos bono en diciembre.

Wellness program ComunidadFeliz offers or subsidies mental and/or physical health activities.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Paid sick days Sick leave is compensated (limits might apply).
Health coverage ComunidadFeliz pays or copays health insurance for employees.
Company retreats Team-building activities outside the premises.
Computer provided ComunidadFeliz provides a computer for your work.
Education stipend ComunidadFeliz covers some educational expenses related to the position.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 3000 Tiempo completo
Data Engineer (AWS Data Lakes)
  • Niuro
Python Git SQL Virtualization
Niuro is a leading global technology talent provider specializing in connecting elite tech teams with top-tier U.S.-based companies. Our mission is to simplify global talent acquisition and maximize project quality through innovative and efficient solutions. We empower autonomous, high-performance teams by handling all administrative aspects such as hiring, payments, and training, enabling our professionals to focus fully on delivering exceptional results. Within this context, we collaborate on impactful industrial data projects with a strong emphasis on innovation and technical excellence. Our teams contribute to challenging projects that leverage cutting-edge data engineering techniques, particularly in cloud-based environments, ensuring both professional growth and meaningful contributions to the client’s success.

Exclusive to Get on Board.

Role and Responsibilities

As a Data Engineer specializing in AWS Data Lakes, you will play a pivotal role in architecting, building, and managing scalable and robust data lake solutions on the AWS cloud platform. Your primary responsibilities will include designing and implementing data ingestion pipelines, optimizing data transformation processes, and ensuring data quality and integrity to power analytics and business intelligence initiatives.
Key tasks include:
  • Designing and maintaining data lakes using AWS services such as S3, Glue, Athena, Lambda, and Step Functions.
  • Developing and optimizing data processing workflows with PySpark and Python to transform raw data into actionable datasets.
  • Writing efficient SQL queries for data extraction and manipulation.
  • Collaborating closely with U.S.-based cross-functional teams to understand requirements and deliver solutions that align with business objectives.
  • Monitoring, troubleshooting, and improving the performance and reliability of data platforms.
You will be part of a remote, agile, and collaborative environment where continuous improvement and innovation are encouraged.

Skills and Experience Required

We are looking for a motivated Data Engineer with solid experience building and managing data lakes on AWS. The ideal candidate will demonstrate proficiency with core AWS services including S3, Glue, Athena, Lambda, and Step Functions, and have strong programming skills in Python and SQL for processing and transforming data.
Essential qualifications include:
  • Hands-on experience implementing scalable data lake architectures on AWS.
  • Competence with PySpark for distributed data processing.
  • Strong Python programming skills with the ability to create clean, maintainable code.
  • Solid SQL skills for complex queries and data manipulation.
  • Effective communication skills in conversational English to collaborate with teams and stakeholders based in the United States.
Soft skills necessary for success include a proactive attitude, problem-solving mindset, strong attention to detail, and the ability to work independently within a remote work context.

Additional Skills and Technologies (Nice to Have)

While not mandatory, the following skills will enhance your fit for this role and our projects:
  • Experience with backend frameworks and libraries such as FastAPI, Pydantic, and Gunicorn.
  • Familiarity with AWS SDKs such as Boto3 for AWS service integration.
  • Knowledge of web technologies including Aestiva HTML/OS.
  • Containerization and DevOps skills, particularly using Docker.
  • Experience with continuous integration and deployment tools like TeamCity.
  • Version control expertise using GitHub or Gitea.

What We Offer

Joining Niuro means becoming part of an innovative, supportive, and high-performing global community focused on technological excellence. We offer a fully remote position allowing you to work from anywhere in the LATAM region, providing flexibility and work-life balance.
We are committed to your continuous professional growth through ongoing technical and soft skills training, leadership development programs, and opportunities to work on impactful and technically challenging industrial data projects.
Niuro also offers a strong administrative support system, so you can focus entirely on your work without distractions related to hiring, payments, or HR processes.
We maintain a long-term vision for our collaborations, with the possibility of transitioning to stable full-time employment after the initial contract, reflecting our dedication to building lasting relationships with our team members.

Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1400 - 1900 Tiempo completo
Consultor Data Engineer
  • MAS Analytics
  • Santiago (Hybrid)
SQL Azure ETL Power BI

MAS Analytics es una consultora de datos e inteligencia artificail que nos dedicamos a desarrollar proyectos de Data Science (DS), Inteligencia Artificial, Cloud Architecture y Business Intelligence (BI). Hoy en día tenemos muchos proyectos con clientes de muchos rubros distintos y necesitamos ingeniero/as apasionados que estén buscando aprender y desafiarse trabajando en equipo.

Si estás buscando profundizar y trabajar aplicando tus conocimientos día a día, dentro de un equipo de mucho talento, y alto rendimiento, este puesto es lo que estás buscando.

Apply only from getonbrd.com.

Funciones del cargo

Estamos buscando ingenier@s que sepan trabajar con datos, mover datos, interpretar datos y buscar datos. El cargo está orientado hacia la ingeniería de datos utilizando herramienta de ETL, Bases de datos y herramientas de reportería.

Si no manejas alguno de estos conceptos, no te preocupes, nos importa que tengas las bases para poder aprender y desafiarte día a día.

Tendrás que realizar las siguientes tareas (entre otras):

  1. Reuniones de negocio con clientes
  2. Creación de queries SQL
  3. Creación de pipelines ETL (on premise y cloud)
  4. Creación de visualizaciones en herramientas de BI

El éxito de tu trabajo se evaluará en el nivel de satisfacción de los modelos entregados a los clientes y en el cumplimiento de plazos.

Trabajarás dentro de los equipos de desarrollo de MAS Analytics teniendo reuniones de avance semanal con los clientes y otros miembros del equipo de MAS Analytics.

Requerimientos del cargo

Al ser consultoría en tecnología, necesitamos que tengas habilidades técnicas y habilidades blandas. Se privilegiarán perfiles de ingeniería civil TI o Computación.
En cuanto a las habilidades técnicas, se espera que puedas trabajar con las siguientes herramientas:
  1. Queries SQL (CRUD)
  2. Procesamiento: Dataflow (GCP, Azure), Lambda, Glue (AWS)
  3. Visualizaciones: Qlik, Tableau, Power BI
  4. Modelamiento de datos: modelos dimensionales OLAP
Con respecto a las habilidades blandas, necesitamos que estés preparada/o para:
  1. Llevar comunicación con los clientes
  2. Levantar requerimientos
  3. Trabajo en equipo
  4. Proactividad
  5. Pensamiento analítico

Opcionales

Conocimientos en herramientas Cloud (GCP, AWS, Azure)

Algunos beneficios

  1. Horario flexible
  2. Financiamiento de cursos y certificaciones 👨‍🎓👩‍🎓
  3. Ambiente laboral joven
  4. Viernes medio día
  5. Vacaciones extra 🌞🏝
  6. Celebraciones de cumpleaños 🎁🎊
  7. Actividades de empresa 🍻⚽
  8. Y muchos más que podrás conocer…

Wellness program MAS Analytics offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage MAS Analytics pays or copays health insurance for employees.
Dental insurance MAS Analytics pays or copays dental insurance for employees.
Computer provided MAS Analytics provides a computer for your work.
Education stipend MAS Analytics covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Vacation over legal MAS Analytics gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Data Analyst
  • Macal
  • Santiago (Hybrid)
Analytics Data Analysis English Data Visualization

Buscamos un/a Data Analyst que ayude a transformar datos en información útil a través del análisis profundo y la visualización adecuada, apoyando así la optimización de nuestros procesos y resultados.

Estamos construyendo algo grande y buscamos mentes curiosas que quieran marcar la diferencia. Este es un espacio para proponer, crear y ser protagonista de soluciones disruptivas en el mercado.

Un entorno que fomenta la innovación y el aprendizaje continuo. Trabajarás en proyectos desafiantes que tienen un impacto real, y disfrutarás de flexibilidad para equilibrar tu vida personal y profesional. Formarás parte de un equipo comprometido, enfocado en trabajar en tándem.

Ofrecemos un sistema híbrido y flexible, 3 días libres adicionales al año, seguro complementario, y acceso a programas de bonos anuales por cumplimiento de resultados. ¡Únete a nosotros y sé parte de algo grande!

Apply without intermediaries through Get on Board.

¿Qué harás?

El/la Data Analyst será un pilar fundamental en nuestro equipo, donde sus principales responsabilidades serán:

  • Recopilar datos de diversas fuentes.
  • Depurar y analizar grandes volúmenes de datos para identificar patrones y tendencias relevantes mediante la utilización de herramientas de extracción de datos.
  • Establecer metas y proyecciones basadas en datos.
  • Generar Insights relevantes para el negocio.
  • Generar reportería de datos de manera efectiva, utilizando herramientas de visualización para facilitar la toma de decisiones estratégicas.
  • Colaborar estrechamente con distintas áreas para optimizar procesos y resultados basados en datos.

El objetivo es aportar en la identificación de oportunidades de mejora que mantengan a nuestros clientes en el centro de nuestro negocio.

¿Qué buscamos?

Para el rol de Data Analyst, estamos buscando una persona con:

  • Titulación en áreas relacionadas con datos, ciencias computacionales o estadísticas.
  • Experiencia en análisis de datos y manejo de herramientas de visualización de datos.
  • Conocimientos en herramientas de extracción y visualización de datos son esenciales; habilidades en programación son un plus.
  • Actitud proactiva y mentalidad analítica, con la capacidad para comunicar hallazgos de manera clara y efectiva.
  • Habilidades interpersonales para trabajar en equipo y aportar con visión innovadora.
  • Inglés intermedio.

Buscamos mentes curiosas que amen cuestionar el estado actual de las cosas y que estén comprometidas con el crecimiento basado en datos.

Nuestros beneficios

Ofrecemos un entorno de trabajo dinámico y flexible, que incluye:

  • Un sistema híbrido y flexible, en el que trabajarás algunos días presenciales a la semana.
  • 3 días adicionales libres al año, además de tus vacaciones legales.
  • Un mes de teletrabajo 100% al año.
  • Seguro complementario para cuidar de tu salud y bienestar.
  • Acceso a un programa de bonos anuales basado en el cumplimiento de resultados.

En Macal, promovemos un ambiente de trabajo interesante, cercano y feliz, donde tus ideas y experiencias serán valoradas.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Macal pays or copays health insurance for employees.
Computer provided Macal provides a computer for your work.
Informal dress code No dress code is enforced.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Ingeniero Cloud
  • Zerviz Technologies
  • Santiago (In-office)
Linux Virtualization Amazon Web Services Azure

En ZerviZ somos una empresa innovadora especializada en consultoría y desarrollo de productos digitales enfocados en la experiencia del cliente (Customer Experience, CX) para toda América Latina. Desde 2017, hemos impulsado más de 150 proyectos en 16 países, apoyando a clientes en sectores diversos para optimizar procesos, mejorar la atención y servicio al cliente mediante desarrollos a medida y soluciones tecnológicas flexibles y escalables.

Nuestro equipo participa activamente en proyectos que involucran plataformas web, sistemas CRM, optimización de procesos back-office y la integración de nuevas funcionalidades en sistemas core. Con fuerte presencia en mercados como Estados Unidos, México, Colombia, Perú, Argentina y España, ofrecemos soluciones de alta calidad certificada, que combinan metodologías ágiles y prácticas de mejoramiento continuo, posicionándonos como referentes en innovación digital y transformación empresarial.

Apply directly through getonbrd.com.

Responsabilidades Principales

  • Diseñar, planificar y ejecutar migraciones de sistemas y servicios a entornos cloud.
  • Configurar y administrar recursos en ambas plataformas, garantizando rendimiento, disponibilidad y seguridad.
  • Documentar arquitecturas, procesos y decisiones técnicas.
  • Proponer mejoras continuas en infraestructura cloud.
  • Diagnosticar y resolver problemas de infraestructura cloud.

Skills técnicos excluyentes

  • Experiencia comprobable en migraciones cloud (on-premise a Azure y/o AWS).
  • Conocimientos en Azure ( Azure AD, networking, storage, App Services).
  • Conocimientos sólidos en AWS (EC2, S3, IAM, RDS, Lambda, CloudFormation).
  • Manejo de herramientas de automatización e infraestructura como código (Terraform, Ansible, CloudFormation).
  • Experiencia con sistemas operativos Linux y Windows en entornos cloud.
  • Seguridad en la nube (gestión de accesos, políticas, compliance).

Soft Skills deseables

  • Buen trabajo en equipo, fomentando la colaboración y el apoyo mutuo.
  • Comunicación efectiva, tanto con compañeros como con líderes técnicos y de negocio.
  • Proactividad para levantar alertas, proponer mejoras o anticipar riesgos.
  • Adaptabilidad frente a cambios de contexto, prioridades y metodologías de trabajo.
  • Buena disposición para colaborar con otras áreas técnicas y no técnicas.

Condiciones

Ofrecemos un ambiente laboral colaborativo y enriquecedor, ideal para tu desarrollo profesional continuo.
Puedes disfrutar de flexibilidad laboral y la oportunidad de trabajar en proyectos internacionales, lo que te brindará una vasta experiencia en el ámbito digital.
En ZerviZ, fomentamos un ambiente diverso e inclusivo donde la creatividad y la innovación son fundamentales.
Apoyamos tu crecimiento profesional y confiamos en tu capacidad para marcar la diferencia en nuestros proyectos.
Dentro de nuestros beneficios contamos con:

  • Seguro complementario de salud
  • Afiliación a Caja Los Andes
  • Afiliación a Mundo Achs
  • Operativos preventivos de salud
  • Día de cumpleaños libre
  • Capacitación y formación continua
  • Becas de estudio
  • Aguinaldos de fiestas patrias y navidad

¡Si te apasiona la tecnología y deseas mejorar la experiencia del cliente, únete a nosotros!

Wellness program Zerviz Technologies offers or subsidies mental and/or physical health activities.
Relocation offered If you are moving in from another country, Zerviz Technologies helps you with your relocation.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Zerviz Technologies pays or copays health insurance for employees.
Mobile phone provided Zerviz Technologies provides a mobile phone for work use.
Commuting stipend Zerviz Technologies offers a stipend to cover some commuting costs.
Computer provided Zerviz Technologies provides a computer for your work.
Informal dress code No dress code is enforced.
Beverages and snacks Zerviz Technologies offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
Gross salary $1100 - 1400 Tiempo completo
Administrador de Bases de Datos (DBA) Controller Call Center
  • S3 Chile
  • Santiago (In-office)
Data Analysis Excel SQL Business Intelligence

S3 Chile es una empresa especializada en la entrega de servicios de Outsourcing enfocados en los procesos de negocios de sus clientes, con una fuerte presencia en la gestión de operaciones relacionadas con el área de Contact Centers y análisis de datos. El equipo está comprometido con la innovación tecnológica y la mejora continua, apoyando a sus clientes mediante soluciones de análisis de datos y reportes que optimizan la operación de campañas y segmentaciones dentro del entorno de call centers, utilizando herramientas avanzadas de Business Intelligence y administración de bases de datos.

Apply to this posting directly on Get on Board.

Responsabilidades

  • Diseñar, desarrollar y mantener reportes y dashboards que faciliten la visualización y toma de decisiones para las operaciones del call center.
  • Gestionar bases de datos y segmentaciones, asegurando la integridad, disponibilidad y actualización oportuna de la información.
  • Analizar grandes volúmenes de datos para detectar oportunidades de mejora en los procesos y campañas, aportando con insights basados en datos reales.
  • Colaborar estrechamente con el equipo de Business Intelligence para optimizar procesos, mejorar la calidad de la información y automatizar tareas relacionadas con el análisis y la generación de reportes.

Requisitos

Buscamos un profesional con formación en Ingeniería o carreras afines, que cuente con experiencia en Business Intelligence o análisis de datos, idealmente en entornos de Contact Centers. Es imprescindible un manejo avanzado de SQL para administrar y consultar bases de datos complejas, así como experiencia con herramientas de visualización de datos como Power BI o similares. El candidato debe contar con conocimientos avanzados de Excel para procesamiento y análisis de información.

Además, se valorará experiencia previa o conocimiento en Genesys Cloud, una plataforma líder en gestión de centros de contacto, lo que facilitará la integración y administración de las campañas vía base de datos.

Las habilidades blandas incluyen capacidad analítica, orientación al detalle, trabajo colaborativo, proactividad en la mejora continua y una actitud hacia el aprendizaje constante de nuevas tecnologías.

Deseable

Se valorará positivamente experiencia específica en administración y optimización de campañas en call centers, conocimiento en otras plataformas de gestión de centros de contacto, y habilidades en programación para automatización de reportes o tareas analíticas (por ejemplo, Python o R). También es deseable experiencia en diseño de dashboards interactivos y manejo de grandes volúmenes de datos.

Lo que ofrecemos

💼 Renta competitiva acorde al mercado.
📈 Oportunidades reales de desarrollo profesional dentro de la empresa.
🎁 Beneficios corporativos.
👥 Un equipo comprometido y un entorno de aprendizaje continuo, en línea con los nuevos desarrollos tecnológicos.En S3 Chile fomentamos una cultura orientada a datos y mejora continua, con foco en la innovación y crecimiento profesional constante. Formarás parte de un equipo que valora el trabajo colaborativo y la actualización permanente de sus conocimientos.

POSTULAR VÍA WEB Ver trabajo
Gross salary $3000 - 3500 Tiempo completo
Data Engineer Azure Salesforce
  • BC Tecnología
Python Git REST API SQL
En BC Tecnología somos una consultora líder en servicios de TI que brinda soluciones integrales en infraestructura, desarrollo de software y outsourcing para clientes de sectores como servicios financieros, seguros, retail y gobierno. Actualmente, estamos desarrollando un proyecto innovador enfocado en la creación y optimización de pipelines de datos en la nube, utilizando tecnologías de Azure y Salesforce. Buscamos integrar grandes volúmenes de datos para transformar la información en activos estratégicos a través de análisis avanzados y modelos de datos robustos, apoyando a áreas de BI y Data Science para mejorar la toma de decisiones del negocio.

Apply to this job through Get on Board.

Responsabilidades principales

  • Diseñar, desarrollar y mantener pipelines de datos escalables y eficientes en Azure para la integración desde Salesforce, utilizando APIs REST y SOAP.
  • Gestionar la ingesta y almacenamiento de datos en Azure Data Lake Gen2, Azure SQL y Synapse Analytics para facilitar análisis avanzados y reporting.
  • Automatizar flujos de trabajo mediante Azure Data Factory (ADF), Logic Apps y Databricks asegurando la calidad y consistencia de los datos.
  • Implementar controles rigurosos de calidad, limpieza y transformación de datos según políticas corporativas de gobernanza y seguridad.
  • Colaborar de manera interdisciplinaria con equipos de Business Intelligence, Data Science y áreas de negocio para alinear los desarrollos con requerimientos funcionales.
  • Documentar detalladamente los procesos ETL/ELT y mantener actualizado el inventario de flujos y pipelines para facilitar la gestión y mantenimiento a futuro.

Requisitos y perfil del candidato

Buscamos un Data Engineer con al menos 3 años de experiencia en entornos cloud, preferentemente trabajando con Azure y Salesforce. El candidato ideal debe poseer experiencia práctica integrando datos desde Salesforce utilizando APIs REST, Bulk API y herramientas de Azure Data Factory.
Se requiere un conocimiento profundo en tecnologías clave de Azure como Azure Data Factory, Data Lake Gen2, Azure SQL y Synapse, así como experiencia en modelado de datos con esquemas en Estrella y Copo de Nieve.
Habilidades técnicas complementarias incluyen Python, PySpark, T-SQL y manejo avanzado de JSON/XML. Además, el candidato debe estar familiarizado con el uso de sistemas de control de versiones como Git y tener capacidad para trabajar en equipos multidisciplinarios bajo metodologías ágiles.
Valoramos competencias blandas como la proactividad, enfoque al detalle, capacidad analítica, buenas habilidades de comunicación y orientación al trabajo colaborativo.

Habilidades y certificaciones deseables

Es altamente valorado contar con certificaciones oficiales como Microsoft Azure DP-203, Power BI PL-300 y Scrum Master que respalden el conocimiento técnico y metodológico.
Contar con un nivel de inglés intermedio, tanto oral como escrito, es deseable para la comunicación con equipos globales y documentación técnica.
Experiencia previa en proyectos de integración de datos a gran escala y familiaridad con tecnologías complementarias como Logic Apps y Databricks serán consideradas un plus.

¿Qué ofrecemos?

En BC Tecnología promovemos un entorno colaborativo y basado en el aprendizaje continuo, donde valoramos el compromiso y el crecimiento profesional.
Nuestra modalidad de trabajo es 100% remoto, abierta a profesionales ubicados en toda Latinoamérica, lo que permite flexibilidad y balance personal.
Formarás parte de proyectos innovadores con clientes de alto nivel en diferentes industrias, en un clima laboral inclusivo, respetuoso y orientado al desarrollo tanto técnico como profesional.

Fully remote You can work from anywhere in the world.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2500 - 3500 Tiempo completo
Data Engineer Azure (Salesforce)
  • BC Tecnología
Python Git JSON TSQL
En BC Tecnología, una consultora de TI con 6 años de experiencia, nos especializamos en proveer soluciones tecnológicas a clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestro enfoque se centra en la formación de equipos ágiles para áreas de infraestructura, desarrollo de software y unidades de negocio, gestionando proyectos, outsourcing y soporte IT. Actualmente, buscamos incorporar un Data Engineer con experiencia en Azure y Salesforce para un proyecto 100% remoto dirigido a candidatos de LATAM, buscando potenciar nuestro equipo con talento especializado en ingeniería de datos en la nube.

This company only accepts applications on Get on Board.

Responsabilidades principales

  • Diseñar, desarrollar y mantener pipelines de datos eficientes y escalables en Azure, extrayendo información desde Salesforce utilizando API REST y SOAP.
  • Integrar y consolidar datos en Azure Data Lake Gen2, Azure SQL Database y Synapse Analytics para asegurar la disponibilidad y fiabilidad de la información.
  • Automatizar flujos ETL utilizando herramientas como Azure Data Factory (ADF), Logic Apps y Databricks para optimizar procesos y minimizar errores manuales.
  • Implementar controles estrictos de calidad y limpieza de datos para garantizar la integridad y precisión en todos los conjuntos de datos procesados.
  • Colaborar estrechamente con los equipos de Business Intelligence, Data Science y áreas de negocio para entender requerimientos y entregar soluciones alineadas a objetivos estratégicos.
  • Documentar detalladamente los procesos ETL y asegurar el cumplimiento de políticas de gobernanza de datos, seguridad y mejores prácticas en la nube.

Requisitos y habilidades necesarias

Buscamos un Data Engineer con al menos 3 años de experiencia comprobable trabajando con tecnologías cloud, especialmente en plataformas Microsoft Azure orientadas a la integración de datos desde Salesforce.
Es fundamental que el candidato tenga experiencia real y práctica en la integración de datos mediante APIs de Salesforce (REST, Bulk API) y el uso de Azure Data Factory para la orquestación de pipelines.
Además, se requieren conocimientos sólidos en:
  • Azure Data Factory para construir, automatizar y monitorear pipelines de datos.
  • Azure Data Lake Gen2 para el almacenamiento escalable y seguro de grandes volúmenes de datos.
  • Azure SQL Database y Synapse Analytics para procesamiento y análisis avanzado.
  • Power BI para visualización e interpretación de datos.
  • Lenguajes de programación y scripting como Python, PySpark y T-SQL para manipulación y transformación de datos.
  • Control de versiones con Git.
  • Modelado de datos usando esquemas estrella y copo de nieve, optimizando bases de datos y consultas.
  • Manejo avanzado de formatos de datos complejos como JSON y XML.
El candidato debe ser capaz de trabajar de forma autónoma, tener habilidades comunicativas para colaborar con múltiples equipos y orientarse a resultados con atención al detalle.

Habilidades y certificaciones deseables

  • Certificación Microsoft Azure Data Engineer (DP-203), demostrando dominio avanzado en servicios de datos de Azure.
  • Certificación Power BI Data Analyst (PL-300) para mejorar la capacidad de visualización y análisis de datos.
  • Certificación Scrum Master, lo que contribuiría a una integración más efectiva dentro de equipos ágiles y proyectos iterativos.
  • Nivel de inglés intermedio, tanto oral como escrito, para interactuar en equipos multiculturales y documentación técnica en inglés.

Beneficios y cultura de trabajo

En BC Tecnología promovemos un ambiente de trabajo colaborativo que valora el compromiso y el aprendizaje constante. Nuestra cultura se orienta al crecimiento profesional a través de la integración y el intercambio de conocimientos entre equipos.
Ofrecemos modalidad 100% remota con apertura a talentos de toda Latinoamérica, garantizando flexibilidad y autonomía en la gestión del tiempo.
Participarás en proyectos innovadores y desafiantes con clientes relevantes en sectores diversos, en un entorno que fomenta la inclusión, el respeto y el desarrollo técnico y profesional continuo.

Fully remote You can work from anywhere in the world.
Computer provided BC Tecnología provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Consultor de Gobierno de Datos GCP
  • Factor IT
Analytics Agile Data Science Cloud Computing

El área de Data & Analytics en FactorIT se dedica a desarrollar soluciones innovadoras que optimizan los procesos de gestión y transformación de datos, contribuyendo al éxito digital de nuestros clientes. Trabajamos con tecnologías de punta y equipos multidisciplinarios para diseñar estrategias que integran inteligencia artificial y automatización, garantizando la competitividad y eficiencia en entornos altamente regulados como el bancario.

Apply directly through getonbrd.com.

Funciones principales (responsabilidades)

En el rol de Consultor de Gobierno de Datos, nuestro objetivo es definir y establecer políticas sólidas para el manejo y gobernanza de datos dentro del marco regulatorio bancario. Esto implica la implementación integral del marco de Gobierno de Datos utilizando Dataplex en Google Cloud Platform, asegurando la seguridad, integridad y cumplimiento normativo en todo el ciclo de vida de los datos.

  • Establecer y documentar políticas, estándares y procedimientos para el Gobierno de Datos.
  • Implementar y configurar Dataplex para gestionar recursos de datos en la nube, facilitando la catalogación, clasificación y gobernanza de activos de datos.
  • Colaborar con equipos técnicos y de negocio para traducir requisitos en soluciones concretas y alineadas con regulaciones financieras.
  • Monitorear el cumplimiento de normativas internas y externas relacionadas con la gestión y seguridad de datos bancarios.
  • Promover buenas prácticas de datos, atención a auditorías y asegurar que los datos se manejen conforme a estándares regulatorios.
  • Trabajar en equipos multidisciplinarios y metodologías ágiles para adaptarse a entornos dinámicos y proyectos en evolución.

Requisitos Excluyentes (años de experiencia, herramientas o cursos de capacitación)

  • Experiencia mínima de 5 años en consultoría de Gobierno de Datos.
  • Al menos 2 años de experiencia práctica con Google Cloud Platform (GCP), específicamente Dataplex.
  • Conocimiento profundo de regulaciones y estándares del sector bancario y financiero.
  • Manejo avanzado de plataformas de datos en la nube.
  • Capacidad para diseñar políticas y marcos de gobernanza robustos.
  • Experiencia en la implementación de soluciones técnicas que aseguren la calidad, integridad y confidencialidad de los datos.
  • Conocimientos complementarios en transformación digital, analítica avanzada y automatización de procesos data-driven.

Habilidades personales:

  • Excelentes habilidades de comunicación para interactuar con equipos de negocio y tecnología.
  • Proactividad y autonomía para identificar oportunidades de mejora.
  • Capacidad para traducir necesidades del negocio en soluciones técnicas claras.
  • Trabajo colaborativo en ambientes ágiles y multidisciplinarios.
  • Adaptabilidad para enfrentar nuevos desafíos y entornos cambiantes.

Habilidades blandas (competencias, aptitudes o habilidades de importancia para el cargo)

Se valoran cualidades como una comunicación efectiva y clara para facilitar el entendimiento entre áreas técnicas y de negocio, fomentando una colaboración fluida e integrada. La iniciativa y la autonomía para proponer mejoras, anticipándose a potenciales riesgos o ineficiencias, son altamente apreciadas. Asimismo, consideramos importante la capacidad de adaptarse rápida y positivamente a los cambios propios de entornos dinámicos y proyectos tecnológicos en constante evolución.

También es deseable contar con experiencia en metodologías ágiles y trabajo en equipos multidisciplinarios, evidenciando habilidades de liderazgo situacional y resolución de conflictos para impulsar el éxito del proyecto. El compromiso con la calidad, la atención al detalle y el pensamiento crítico son competencias blandas esenciales para el cumplimiento riguroso de los estándares regulatorios y técnicos.

Beneficios

FactorIT ofrece una modalidad laboral 100% remota que facilita un equilibrio saludable entre la vida personal y profesional, ajustándose a las necesidades de cada colaborador. Contamos con un entorno colaborativo y dinámico, con acceso constante a tecnologías de última generación, fomentando la innovación y el aprendizaje continuo.

Además, brindamos un salario competitivo y acorde al perfil profesional y experiencia, en un ambiente inclusivo que promueve la diversidad y la creatividad. Únete a un equipo que está transformando el futuro de la tecnología y el análisis de datos en Latinoamérica, participando en proyectos retadores con impacto real en el sector financiero.

Fully remote You can work from anywhere in the world.
Computer provided Factor IT provides a computer for your work.
POSTULAR VÍA WEB Ver trabajo
$$$ Tiempo completo
Consultor de Calidad de Datos GCP
  • Factor IT
Automation Google Cloud Platform Data governance Agile Methodologies

El proyecto está dentro del área de Data & Analytics y tiene un impacto significativo en la gestión y explotación de datos. Utiliza tecnologías modernas de Google Cloud Platform, con un enfoque específico en Dataplex, para gestionar reglas de calidad y procesos de monitoreo avanzados en el entorno financiero. Contamos con un equipo multidisciplinario que trabaja en colaboración para entregar soluciones escalables y eficientes, que se ajustan a las necesidades específicas del cliente.

Apply to this posting directly on Get on Board.

Funciones principales (responsabilidades)

Como Consultor de Calidad de Datos, tu rol será fundamental para asegurar la integridad y confiabilidad de los datos en el proyecto. Entre tus funciones clave se incluyen:

  • Definir y especificar reglas de calidad de datos, alineadas con los requerimientos del cliente y mejores prácticas del sector financiero.
  • Implementar y configurar dichas reglas directamente en la plataforma Dataplex, garantizando que el sistema detecte y controle temas como inconsistencias, duplicados o anomalías en los datos.
  • Monitorear continuamente las reglas de calidad, realizando evaluaciones periódicas para asegurar la correcta aplicación y detectar oportunidades de mejora.
  • Utilizar funcionalidades avanzadas de Data Profiling dentro de Dataplex para analizar estadísticamente los datos y así obtener un diagnóstico profundo y preciso.
  • Promover la mejora continua en los procesos de calidad de datos, proponiendo ajustes, automatizaciones y nuevas prácticas que optimicen la gestión y control de la información.

Esta posición requiere una estrecha colaboración con equipos tanto técnicos como de negocio, asegurando que las soluciones técnicas reflejen fielmente las necesidades organizacionales, especialmente en el sector financiero.

Requisitos Excluyentes (años de experiencia, herramientas o cursos de capacitación)

Estamos buscando a un profesional con sólida experiencia en calidad de datos, especialmente en el sector bancario y financiero, para unirse a nuestro equipo en este proyecto desafiante y de alto impacto. Los requisitos indispensables para el cargo incluyen:
  • Experiencia mínima de 3 años en roles relacionados con la consultoría de calidad de datos, preferentemente en entornos regulados y con gran volumen de información.
  • Al menos 2 años de experiencia práctica utilizando Google Cloud Platform (GCP) y, de forma específica, trabajando con Google Dataplex para gestionar y aplicar reglas de calidad, así como para realizar data profiling.
  • Conocimiento profundo de las metodologías y técnicas de gobierno y calidad de datos, incluyendo establecimiento de métricas, definición de políticas y manejo de herramientas tecnológicas complementarias.
Además de la expertise técnica, buscamos un candidato con fuertes habilidades interpersonales y de comunicación, capaz de interactuar efectivamente con equipos de tecnología y negocio. Debe ser autónomo y proactivo, con la capacidad para identificar oportunidades de mejora y traducir las necesidades del negocio en soluciones técnicas adecuadas. La habilidad para trabajar en equipo dentro de un entorno ágil, dinámico y multidisciplinario es esencial, así como la adaptabilidad para evolucionar junto con los cambios del proyecto y la organización.

Habilidades blandas (competencias, aptitudes o habilidades de importancia para el cargo)

  • Excelentes habilidades comunicativas para facilitar el diálogo entre equipos técnicos y áreas de negocio, promoviendo un entendimiento común y efectivo.
  • Alta autonomía y proactividad para la identificación y implementación de mejoras continuas en los procesos de calidad de datos.
  • Capacidad para interpretar necesidades de negocio y traducirlas en requerimientos técnicos y soluciones robustas.
  • Experiencia trabajando en equipos ágiles y multidisciplinarios, colaborando con diferentes perfiles profesionales.
  • Adaptabilidad en entornos dinámicos y en constante evolución tecnológica, siendo flexible ante cambios y desafíos.

Beneficios

FactorIT ofrece un entorno laboral 100% remoto, lo que facilita un balance saludable entre la vida personal y profesional. Contamos con un ambiente colaborativo y dinámico donde el acceso a tecnologías de última generación es una constante. Nuestro plan de crecimiento profesional incluye capacitaciones especializadas, especialmente en áreas de inteligencia artificial y automatización. Además, brindamos flexibilidad horaria para que puedas adaptar tu jornada a tus necesidades, y ofrecemos un salario competitivo acorde a tu experiencia y nivel profesional.
Únete a un equipo innovador que está transformando el futuro de la tecnología en Latinoamérica, participando en proyectos desafiantes y con impacto real en industrias clave como el sector financiero.

Fully remote You can work from anywhere in the world.
POSTULAR VÍA WEB Ver trabajo
Gross salary $2000 - 2300 Tiempo completo
Data Engineer
  • Genesys Tecnologías de Inform. SpA
  • Santiago (Hybrid)
Java Python Git SQL
Genesys Tecnologías de Información SpA es una empresa consolidada en Latinoamérica con más de 30 años de experiencia en el mercado, especializada en soporte y mantenimiento de aplicaciones, RPA, inteligencia artificial, QA Automation, staff augmentation, cloud y más. Acompañamos a las empresas en su camino de transformación digital mediante tecnologías de última generación como Cloud, Data Analytics, Artificial Intelligence y Process Automation. Nuestro equipo multidisciplinario colabora estrechamente con la matriz en Santiago y otras operaciones para brindar soluciones tecnológicas que elevan el estándar tecnológico de las organizaciones.

Official source: getonbrd.com.

Responsabilidades

  • Diseñar y desarrollar canalizaciones de datos (ETL/ELT) robustas y eficientes.
  • Colaborar con equipos de ingeniería para asegurar la integración y calidad de los datos.
  • Implementar y gestionar bases de datos y data warehouses escalables.
  • Optimizar el rendimiento de las bases de datos y sistemas de almacenamiento de datos.
  • Garantizar la calidad, integridad y seguridad de los datos dentro de los sistemas.
  • Automatizar procesos de ingestión y transformación de datos para eficiencia operativa.
  • Monitorizar y solucionar problemas relacionados con los sistemas de datos.
  • Documentar procesos, arquitecturas, y mejores prácticas relacionadas con el manejo de datos para facilitar la continuidad y mejora.

Descripción

Buscamos un Data Engineer talentoso y motivado para integrarse a nuestro equipo de datos. El candidato ideal tendrá experiencia demostrable en roles similares, con habilidades para diseñar, construir y mantener sistemas de datos escalables que faciliten el análisis y la toma de decisiones dentro de la organización.
Requisitos imprescindibles incluyen una licenciatura en Ciencias de la Computación, Ingeniería Informática, Matemáticas o un campo relacionado. Debe poseer conocimientos profundos en SQL y experiencia con bases de datos relacionales y no relacionales, además de manejar grandes volúmenes de datos y trabajar con data lakes.
Es fundamental la experiencia con herramientas de procesamiento de datos como Apache Spark y lenguajes de programación Python. También exigimos conocimiento y experiencia con Google Cloud Platform (Composer, Cloud Functions, BigQuery, Dataproc, etc.), uso de Terraform y git para la gestión de infraestructura y código.
Se valoran igualmente las habilidades analíticas, la capacidad para resolver problemas complejos, excelentes habilidades de comunicación y la capacidad de trabajar colaborativamente en equipo. Además, el candidato debe poseer un nivel de inglés intermedio (B1+) para poder participar activamente en reuniones sin dificultades.

Deseable

  • Conocimientos en el lenguaje de programación Java.
  • Certificaciones relevantes en tecnologías de datos y cloud.
  • Experiencia trabajando en equipos ágiles.

Beneficios

Formarás parte de una empresa consolidada en Latinoamérica con más de tres décadas de experiencia, que valora el talento y fomenta la innovación.
Contamos con un equipo multidisciplinario y una comunicación diaria con nuestra matriz en Santiago y otras operaciones, lo que facilita la colaboración continua y el apoyo técnico.
¡Esperamos que te unas a nuestro equipo para crecer juntos! 😊

Computer provided Genesys Tecnologías de Inform. SpA provides a computer for your work.
Shopping discounts Genesys Tecnologías de Inform. SpA provides some discounts or deals in certain stores.
Vacation on birthday Your birthday counts as an extra day of vacation.
POSTULAR VÍA WEB Ver trabajo
Gross salary $3000 - 5000 Tiempo completo
Data Engineer/Science
  • Ceibo
  • Santiago (Hybrid)
Python Soporte técnico Apache Spark Back-end

En Ceibo, estamos a la vanguardia de la innovación tecnológica y la sostenibilidad, impulsando soluciones basadas en datos para transformar la toma de decisiones dentro de la compañía. Nuestro equipo de Data Science trabaja para convertir datos complejos en información accesible y valiosa que apoye diversos procesos internos. Nos encontramos en una etapa de consolidación y expansión, donde la integración eficiente de datos es clave para acelerar el impacto estratégico y operativo.

Apply exclusively at getonbrd.com.

Responsabilidades principales

Como Data Engineer con enfoque en Data Science, serás responsable de estructurar flujos de datos complejos, garantizando su uso eficiente en múltiples procesos de la empresa, que van desde la consulta diaria hasta análisis avanzados. Tendrás un rol estratégico fortaleciendo soluciones basadas en datos que aceleran la toma de decisiones en toda la organización.

Entre tus funciones destacadas estarán:

  • Diseñar, implementar y optimizar pipelines de datos robustos que integren tanto sistemas sincrónicos como asincrónicos, apoyándote en herramientas de última generación, incluyendo Spark, DataFlow y otras tecnologías relevantes.
  • Transformar y preparar grandes volúmenes de datos para facilitar el acceso y análisis por diferentes equipos y procesos.
  • Realizar consultas exploratorias y desarrollar scripts eficientes para la manipulación y comprensión de la información disponible.
  • Decidir la arquitectura más adecuada para almacenar, organizar y vincular datos provenientes de diversas fuentes, asegurando su disponibilidad futura y escalabilidad.
  • Colaborar con equipos multidisciplinarios para asegurar la correcta integración y uso de los datos dentro de la empresa.

Perfil y experiencia requerida

Buscamos un profesional con pensamiento lógico y una sólida formación cuantitativa, idealmente en ingeniería, física, matemáticas o carreras afines que den un soporte sólido para el modelamiento y el manejo avanzado de datos.

Es fundamental contar con al menos tres años de experiencia programando en uno o más lenguajes, preferentemente Python, aunque no es excluyente. Deberás tener experiencia demostrable en infraestructura de datos, modelado y manejo de grandes volúmenes de información.

Además, deberás mostrar capacidad para diseñar e implementar pipelines de datos complejos y modelos dimensionales, integrando sistemas variados y utilizando tanto herramientas propias como externas. Se valora especialmente la habilidad para pensar y estructurar cómo se deben organizar y almacenar los datos para maximizar su utilidad.

Buscamos a alguien capaz de construir el rompecabezas completo: no solo trabajar con piezas ya existentes, sino también crear nuevas piezas y diseñar la forma exacta en que encajan para ofrecer soluciones óptimas.

Habilidades y conocimientos deseables

Se valorarán conocimientos adicionales en tecnologías como Apache Spark, Apache Beam, Google DataFlow u otras plataformas similares para procesamiento de datos en batch y streaming. También apreciamos experiencia en modelamiento dimensional avanzado y en la integración de sistemas tanto sincrónicos como asincrónicos.

Además, es deseable poseer habilidades interpersonales para colaborar estrechamente con equipos multidisciplinarios, capacidad para trabajar en entornos ágiles y orientados a la mejora continua, y un enfoque proactivo para resolver problemas complejos relacionados con la gestión de datos.

Beneficios

En Ceibo, promovemos la innovación, el aprendizaje continuo y la contribución a proyectos tecnológicos con impacto sostenible. Ofrecemos un ambiente laboral colaborativo, flexible y orientado a resultados, con oportunidad de crecimiento profesional dentro de una empresa comprometida con la transformación digital y la sustentabilidad.

Equity offered This position includes equity compensation (in the form of stock options or another mechanism).
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance Ceibo pays or copays life insurance for employees.
Meals provided Ceibo provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Ceibo pays or copays health insurance for employees.
Dental insurance Ceibo pays or copays dental insurance for employees.
Computer provided Ceibo provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Ceibo gives you paid vacations over the legal minimum.
Beverages and snacks Ceibo offers beverages and snacks for free consumption.
Parental leave over legal Ceibo offers paid parental leave over the legal minimum.
POSTULAR VÍA WEB Ver trabajo