No encontramos ningún resultado.

Intenta con otro grupo de palabras.

Si crees que esto es un problema, por favor contáctanos.

Gross salary $2500 - 3000 Full time
Administrador de Bases de Datos (DBA) Oracle
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL Oracle Linux
BC Tecnología es una consultora de TI con personal experto en diferentes áreas de tecnología. Nos dedicamos a administrar portafolio, desarrollar proyectos, realizar outsourcing y selección de profesionales para crear equipos de trabajos ágiles en áreas como Infraestructura Tecnología, Desarrollo de Software y Unidades de Negocio.
En BC Tecnología, diseñamos soluciones acorde a las necesidades de nuestros clientes, especialmente en los sectores de servicios financieros, seguros, retail y gobierno, durante más de 6 años.

Responsabilidades:

  • Mantener la alta disponibilidad y rendimiento de las bases de datos Oracle.
  • Configurar y gestionar entornos de alta disponibilidad utilizando Oracle RAC y Data Guard.
  • Realizar migraciones de bases de datos a Oracle Cloud y otros entornos Cloud (OCI, Azure).
  • Automatizar tareas rutinarias mediante scripts.
  • Ejecutar monitoreo, tuning y optimización de bases de datos.
  • Diseñar e implementar planes de recuperación ante desastres y políticas de backup/restore.
  • Colaborar con equipos de desarrollo y operaciones para garantizar una integración eficiente.
  • Mantenerse actualizado con las nuevas funcionalidades y parches de Oracle, garantizando la seguridad.

Requisitos y Habilidades:

  • Experiencia mínima de 3 años en administración de bases de datos Oracle en entornos críticos y de alto volumen de transacciones.
  • Dominio avanzado de Oracle 19c o superior, Oracle RAC, Data Guard, ASM y Oracle Multitenant.
  • Conocimiento en Oracle Cloud Infrastructure (OCI) y otras nubes públicas (Azure, AWS deseable).
  • Competencia en scripting para automatización de tareas DBA (Bash, Python).
  • Conocimientos en monitoreo y optimización de bases de datos.
  • Familiaridad con sistemas operativos basados en Linux/Unix.
  • Experiencia en seguridad y encriptación de datos en bases de datos.
  • Conocimientos en PL/SQL y optimización de sentencias SQL (tuning).
  • Experiencia con Golden Gate.
  • Conocimientos en políticas de backup y recuperación (RMAN, Data Pump).

Trabajo Hibrido, requiere disponibilidad para turnos 24x7 de una semana al mes (o cada dos meses) según la carga de trabajo.

APPLY VIA WEB
Gross salary $2500 - 2900 Full time
DevOps Latam
  • BC Tecnología
DevOps Virtualization Amazon Web Services Cloud Computing

Somos BC Tecnología, creamos equipos de trabajos y células ágiles para las principales empresas de Chile con presencia global en servicios financieros, seguros, retail y gobierno.

Buscamos profesionales con alta capacidad de Análisis y síntesis, proactivos, flexibles, ordenados, enfocados en el trabajo de equipo, comprometidos y responsables.

Somos una organización que ofrece una variedad de servicios financieros de excelencia con el fin de permitir a nuestros clientes satisfacer sus necesidades de prosperidad familiar y seguridad patrimonial. Nuestra misión es crear valor para nuestros accionistas, construyendo relaciones de confianza con quienes interactuamos día a día, cumpliendo así nuestro rol de ser un buen ciudadano empresarial.

Ofrecemos además las condiciones necesarias para que las personas en nuestra organización desarrollen todo su potencial en un ambiente laboral desafiante y de respeto a los valores que consideramos importantes y profesamos.

Funciones del cargo

DevOps especializado en la gestión de servicios en la nube, automatización, y mantenimiento de sistemas. Este profesional es responsable de la implementación, mantenimiento y optimización de infraestructuras basadas en la nube, asegurando la escalabilidad, seguridad y eficiencia de los entornos.
Buen entendimiento del contexto de red y seguridad en entornos en la nube.

Requerimientos del cargo

Buen manejo de la gestión y mantenimiento de servicios de AWS.

Experiencia sólida con AirFlow.

Experiencia con AWS EKS.

Gestión de instancias y tableros de Grafana.

Buen manejo de la infraestructura como código.

Experiencia con CI/CD en cualquier tecnología.

Buenas prácticas de control de versiones de código (cualquiera como GitLab, Bitbucket, GitHub,

Opcionales

Buen manejo de la gestión y mantenimiento de servicios en GCP.

Experiencia con pipelines de GitLab (GitLab pipeline + GitLab Runner + GitLab Ops + Flux CD).

Se busca un recurso a nivel SC, capaz de trabajar de manera independiente en despliegues y colaborar con el equipo de HIMS.

Condiciones

  • Contrato 3 a 6 meses, con posibilidad de extensión.
  • Modalidad trabajo: Home Office (LATAM)

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
Gross salary $2200 - 3200 Full time
QA Engineer
  • Smith
  • Santiago (Hybrid)
Agile English QA Engineer Software
En Smith, desarrollamos soluciones de experiencia e-commerce de clase mundial ayudando a las marcas a diseñar las experiencias más relevantes y naturales posibles. Trabajamos a un ritmo acelerado, colaboramos, nos apasiona nuestro trabajo y cumplimos con nuestros clientes.
La demanda del mercado por nuestros servicios ha impulsado nuestro crecimiento. Actualmente estamos buscando un Qa Engineer para nuestro equipo y trabajar directamente con el equipo de Canadá y Estados Unidos.

Lo que tienes que hacer

Como parte del team de control de calidad, debes realizar pruebas de software para una variedad de aplicaciones/soluciones, aprovechando un conocimiento muy desarrollado de herramientas, equipos, estándares y tecnologías de prueba de software que pueden incluir una especialidad. Además de involucrarte en los siguientes procesos:
  • Asegúrese de que los entregables de calidad (planes de prueba, casos de prueba) se produzcan dentro del tiempo asignado.
  • Participar en la elaboración del plan de trabajo del proyecto, definiendo el alcance y tareas en le proyecto
  • Analizar los requisitos de prueba del cliente y asegúrese de que la aplicación/solución cumpla con estos requisitos.
  • Contribuir al proceso de propuesta recomendando soluciones, escribiendo secciones técnicas y proporcionando estimaciones de costos.
  • Diseñar, crear y mantener simuladores o arneses de prueba que se utilizarán en apoyo de las pruebas
  • Crear documentación y apoyar al cliente durante la fase de aceptación

Lo que tienes que saber

  • Conocimientos y experiencias sólidas en elaboración de casos de prueba.
  • Conocimientos transversales en desarrollo de software
  • Conocimiento en gestión de proyectos
  • Experiencia trabajando con metodologías ágiles
  • Inglés intermedio

Lo que tenemos para ti

🏖️Vacaciones adicionales
🎄Navidad en familia (Vacaciones entre navidad y año nuevo).
🤓Clases de inglés
📚Capacitación y certificación.
🏋🏻‍♀️Copago Gym y/o actividad física.
🏥 Seguro complementario de Salud

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Smith pays or copays health insurance for employees.
Computer provided Smith provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Smith gives you paid vacations over the legal minimum.
APPLY VIA WEB
Gross salary $1500 - 1900 Full time
DevOps AWS Junior
  • BC Tecnología
  • Santiago (Hybrid)
DevOps Virtualization Amazon Web Services Kubernetes

El Banco BICE es una entidad financiera bancaria chilena, fundada el 2 de mayo de 1979 por un grupo de empresas industriales chilenas, como CMPC S.A., Minera Valparaíso S.A., Compañía Industrial El Volcán S.A., y otras empresas de los sectores forestal, de generación eléctrica e inmobiliario.

Somos BC Tecnología, creamos equipos de trabajos y células ágiles para las principales empresas de Chile con presencia global en servicios financieros, seguros, retail y gobierno.

Buscamos profesionales con alta capacidad de Análisis y síntesis, proactivos, flexibles, ordenados, enfocados en el trabajo de equipo, comprometidos y responsables.

Funciones del cargo

1. Automatización de Despliegues**: Crear y mantener pipelines CI/CD en GitLab o GitHub para automatizar el build, pruebas y despliegue de aplicaciones en entornos Kubernetes.

2. Gestión de Clústeres Kubernetes**: Configurar, monitorear y escalar clústeres en Kubernetes para asegurar la alta disponibilidad y rendimiento de aplicaciones.

3. Monitoreo y Log Management**: Implementar y administrar ELK Stack para centralizar logs y crear dashboards que permitan detectar problemas en tiempo real.

4. Infraestructura como Código (IaC)**: Usar herramientas como Terraform o CloudFormation para definir, versionar y desplegar infraestructuras en AWS de manera automatizada y repetible.

5. Seguridad y Compliance**: Gestionar permisos, políticas de seguridad y acceso en AWS y Kubernetes, asegurando el cumplimiento de estándares de seguridad.

Requerimientos del cargo

Al menos 1 años de experiencia como Devops, utilizando las siguientes tecnologías / herramientas

  • Usar herramientas como Terraform o CloudFormation para definir, versionar y desplegar infraestructuras en AWS de manera automatizada y repetible.
  • Implementar y administrar ELK Stack
  • Gestión de Clústeres Kubernetes
  • Lambda
  • GitLab
  • GitHut ​​​​​​​

Opcionales

  • Contrato por proyecto estimado a 4 meses
  • Metodología de trabajo: Hibrido 2 días en la oficina (providencia)
  • Disponibilidad lunes a viernes 8:30 a 18:30h
  • Salario a convenir
  • Seguro complementario Salud (Gratis para el trabajador)
    Seguro de Vida
  • Amipass $4.500 diario

APPLY VIA WEB
Net salary $1000 - 1400 Full time
Analista QA
  • Defontana
  • Santiago (Hybrid)
QA ERP AWS

¿Te gusta trabajar con las últimas tecnologías? ¿Te consideras innovador y quieres participar proyectos de modernización de plataformas? Si tu respuesta es SÍ, este desafío es para ti. En Defontana buscamos nuevos talentos para formar parte de nuestros proyectos y construir en conjunto las mejores soluciones empresariales del mercado.

DEFONTANA ofrece soluciones empresariales 100% WEB, siendo la empresa líder del mercado latinoamericano en la implementación de software ERP.

Buscamos ofrecer grato ambiente laboral, compañerismo, conocimiento y desafíos, todos los ingredientes necesarios para hacer de tu día a día en Defontana algo interesante, algo diferente y que crezcas profesionalmente.

En el área de desarrollo de DEFONTANA estamos embarcados en una serie de proyectos que buscan expandir las funcionalidades disponibles para nuestros clientes, intentando generar un ecosistema que les entregue todo lo que necesitan para administrar con éxito sus empresas.

Funciones del cargo

Ser parte de la gestión de calidad de los productos asignados para realización de QA: diseño y ejecución integral de pruebas sobre el ERP Defontana según las necesidades de sus productos. Todas ellas creadas con el objetivo de detección temprana de errores durante el proceso de desarrollo.

Se busca en específico un analista QA que trabaje directamente con el equipo encargado de la Transformación Digital de la compañia, el cual esta compuesto por 2 celulas, siendo el responsable el Gerente del área misma (Gerencia de Transformación Digital), quien sera ademas jefatura directa de quien postule al cargo.
Alguna de las tareas que se deben desempeñar son las sgtes :

  • Realizar planes de pruebas
  • Ejecutar testing de productos
  • Simular ejecuciones de productos y su rendimiento
  • Evaluar exhaustivamente los resultados
  • Revisar especificaciones de servicios y productos
  • Asegurar un funcionamiento óptimo del software
  • Potenciar las estrategias de prueba

Requerimientos del cargo

Para este cargo se debe tener conocimiento o el perfil apropiado en algunos temas, tales como:

  • Tener y aplicar conocimiento sobre las distintas tipos de pruebas
  • Documentación de procesos.
  • Proponer soluciones a diferentes errores que se encuentren, de manera de no tan solo realizar pruebas, sino que aportar en las soluciones de las mismas.

Opcionales

Deseables:

  • Conocimiento en desarrollo de software: ciclos de vida, desarrollo ágil, etc.
  • Conocimientos básicos en AWS.

Condiciones

- Bono trimestral, según resultados de la empresa y antigüedad.
- Se entrega computador de trabajo.
- Trabajo remoto dos días a la semana.

APPLY VIA WEB
Gross salary $1400 - 1900 Full time
Consultor Data Engineer
  • MAS Analytics
  • Santiago (Hybrid)
SQL Azure ETL Power BI

MAS Analytics es una consultora de datos e inteligencia artificail que nos dedicamos a desarrollar proyectos de Data Science (DS), Inteligencia Artificial, Cloud Architecture y Business Intelligence (BI). Hoy en día tenemos muchos proyectos con clientes de muchos rubros distintos y necesitamos ingeniero/as apasionados que estén buscando aprender y desafiarse trabajando en equipo.

Si estás buscando profundizar y trabajar aplicando tus conocimientos día a día, dentro de un equipo de mucho talento, y alto rendimiento, este puesto es lo que estás buscando.

Funciones del cargo

Estamos buscando ingenier@s que sepan trabajar con datos, mover datos, interpretar datos y buscar datos. El cargo está orientado hacia la ingeniería de datos utilizando herramienta de ETL, Bases de datos y herramientas de reportería.

Si no manejas alguno de estos conceptos, no te preocupes, nos importa que tengas las bases para poder aprender y desafiarte día a día.

Tendrás que realizar las siguientes tareas (entre otras):

  1. Reuniones de negocio con clientes
  2. Creación de queries SQL
  3. Creación de pipelines ETL (on premise y cloud)
  4. Creación de visualizaciones en herramientas de BI

El éxito de tu trabajo se evaluará en el nivel de satisfacción de los modelos entregados a los clientes y en el cumplimiento de plazos.

Trabajarás dentro de los equipos de desarrollo de MAS Analytics teniendo reuniones de avance semanal con los clientes y otros miembros del equipo de MAS Analytics.

Requerimientos del cargo

Al ser consultoría en tecnología, necesitamos que tengas habilidades técnicas y habilidades blandas. Se privilegiarán perfiles de ingeniería civil TI o Computación.
En cuanto a las habilidades técnicas, se espera que puedas trabajar con las siguientes herramientas:
  1. Queries SQL (CRUD)
  2. Procesamiento: Dataflow (GCP, Azure), Lambda, Glue (AWS)
  3. Visualizaciones: Qlik, Tableau, Power BI
  4. Modelamiento de datos: modelos dimensionales OLAP
Con respecto a las habilidades blandas, necesitamos que estés preparada/o para:
  1. Llevar comunicación con los clientes
  2. Levantar requerimientos
  3. Trabajo en equipo
  4. Proactividad
  5. Pensamiento analítico

Opcionales

Conocimientos en herramientas Cloud (GCP, AWS, Azure)

Algunos beneficios

  1. Horario flexible
  2. Financiamiento de cursos y certificaciones 👨‍🎓👩‍🎓
  3. Ambiente laboral joven
  4. Viernes medio día
  5. Vacaciones extra 🌞🏝
  6. Celebraciones de cumpleaños 🎁🎊
  7. Actividades de empresa 🍻⚽
  8. Y muchos más que podrás conocer…

Wellness program MAS Analytics offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage MAS Analytics pays or copays health insurance for employees.
Dental insurance MAS Analytics pays or copays dental insurance for employees.
Computer provided MAS Analytics provides a computer for your work.
Education stipend MAS Analytics covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Vacation over legal MAS Analytics gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Consultor/a en People Analytics
  • Factor IT
  • Bogotá (In-office)
Data Analysis Excel Power BI Data Visualization
FactorIT es una empresa líder en tecnología dedicada a ofrecer soluciones en Data y Analytics, Transformación Digital e Inteligencia Artificial. Con presencia en 8 países de Latinoamérica, está en plena expansión, impulsando proyectos regionales que impactan múltiples industrias y grandes empresas. Nuestra visión es posicionarnos como el socio estratégico principal en procesos de transformación digital mediante soluciones innovadoras que integran automatización, analítica avanzada e inteligencia artificial.

Rol esperado

  • Realizar un diagnóstico inicial exhaustivo de la cultura de datos dentro del área de RRHH para identificar oportunidades y brechas en la adopción de prácticas data-driven.
  • Acompañar y liderar la definición e implementación de políticas internas basadas en análisis y métricas para la gestión del talento humano.
  • Diseñar, desarrollar y entregar reportes y visualizaciones estratégicas usando herramientas como Power BI y Excel, orientadas a apoyar la toma de decisiones en áreas clave de la organización.
  • Capacitar a los equipos internos en el manejo básico de herramientas de analítica y en la interpretación correcta de las métricas para fomentar el autogestionamiento y la cultura analítica.
  • Ejercer un liderazgo colaborativo, facilitando el cambio cultural y fomentando el relacionamiento humano con un enfoque híbrido entre técnica y psicología organizacional.
  • Actuar como consultor con capacidad para explicar conceptos analíticos complejos en términos claros para audiencias no técnicas, asegurando una adopción efectiva y sostenible.

Perfil propuesto

Buscamos un profesional con más de 4 años de experiencia comprobable en proyectos de People Analytics y transformación cultural organizacional, preferiblemente en los sectores de salud y servicios. Su formación debe incluir psicología organizacional, complementada con estudios en analítica de datos que fortalezcan su perfil híbrido y multidisciplinario.
Es indispensable contar con experiencia en la implementación y liderazgo de modelos analíticos relacionados con rotación de personal, engagement, desempeño y clima organizacional, basados en datos cuantitativos y cualitativos. El candidato debe tener habilidades avanzadas para desarrollar dashboards ejecutivos utilizando Power BI y Excel, orientados a facilitar la toma de decisiones estratégicas en recursos humanos.
Deberá tener competencia en la definición y estandarización de políticas y procesos de gestión del talento con un enfoque data-driven, demostrando un pensamiento estratégico alineado con la transformación digital.
Además, valoramos altamente la capacidad para relacionarse y comunicarse efectivamente con equipos multidisciplinarios, especialmente en contextos de cambio cultural, combinando un entendimiento técnico profundo con sensibilidad y claridad en el lenguaje humano.

Valor agregado

Se considera un valor diferencial que el perfil sea híbrido, combinando competencias técnicas de analítica con un enfoque humano y organizacional. También se valora la experiencia previa en consultoría presencial, con capacidad para adaptar el lenguaje técnico a públicos no especializados, facilitando así la adopción y comprensión de herramientas y métricas.
La alta capacidad para fomentar el cambio cultural y establecer relaciones fluidas y colaborativas con los distintos niveles organizacionales es otro aspecto deseable.

Beneficios

  • Oportunidad de trabajar en proyectos innovadores con tecnologías de vanguardia en un entorno dinámico y desafiante que impulsa la transformación digital en la región.
  • Plan de desarrollo profesional que incluye capacitaciones especializadas en inteligencia artificial, automatización y analítica avanzada.
  • Integración en un equipo colaborativo compuesto por profesionales de alto nivel y gran expertise técnico, respetando la cultura de innovación y aprendizaje continuo.
  • Salario competitivo alineado con la experiencia y el valor que aportes a la organización.
  • Trabajo 100% presencial en Bogotá, Colombia, lo que permite la interacción directa con clientes y equipos líderes, facilitando el desarrollo y la fluidez del proyecto.

APPLY VIA WEB
$$$ Full time
Especialista en Gobierno de Datos
  • Factor IT
  • Bogotá (In-office)
Artificial Intelligence Automation COBIT Data governance

FactorIT es una empresa líder en tecnología y soluciones de datos con presencia en ocho países latinoamericanos, enfocada en ofrecer proyectos regionales con impacto significativo en múltiples industrias. Nos especializamos en Data & Analytics, Transformación Digital e Inteligencia Artificial, trabajando con grandes empresas para impulsar su evolución tecnológica. El área de Gobierno de Datos es esencial dentro de nuestra estrategia para garantizar la calidad, seguridad y correcta gestión de la información empresarial, contribuyendo a que las organizaciones puedan tomar decisiones basadas en datos confiables y alineados con sus objetivos estratégicos. Esta vacante permite participar directamente en la promoción de una cultura organizacional basada en datos, así como en la definición e implementación de políticas claras que regulen su uso y cuidado en empresas multinacionales.

Objetivo y responsabilidades del rol

Como Especialista en Gobierno de Datos, serás responsable de acompañar estratégicamente a los equipos internos y clientes para fortalecer la cultura organizacional orientada a la gestión efectiva de datos. Tus principales funciones incluirán:

  • Impulsar y promover la adopción de una cultura basada en datos, generando conciencia sobre su importancia en todos los niveles organizacionales.
  • Definir, diseñar e implementar políticas, lineamientos y estándares claros para la gestión y el gobierno de los datos empresariales.
  • Coordinar con diferentes áreas para asegurar el cumplimiento de dichas políticas y su alineación con los objetivos estratégicos.
  • Entregar productos y resultados tangibles y concretos relacionados con la gestión de datos, asegurando la calidad, integridad y seguridad de la información.
  • Colaborar presencialmente con equipos de alto nivel, facilitando la comunicación efectiva y el trabajo interdisciplinario.
  • Monitorear y reportar avances en las iniciativas de gobierno de datos para garantizar la obtención de resultados y el cumplimiento de metas.

Este rol demanda liderazgo, habilidades de comunicación y la capacidad de articular soluciones eficientes en entornos complejos y colaborativos.

Perfil requerido

Buscamos profesionales con experiencia comprobada en proyectos de Gobierno de Datos, que posean un profundo conocimiento de las mejores prácticas, marcos normativos y herramientas relacionadas con esta disciplina. El candidato ideal debe tener habilidades para trabajar de forma presencial y facilitar el trabajo colaborativo con equipos multidisciplinarios y de alto nivel dentro de organizaciones complejas.

Es imprescindible contar con la capacidad para diseñar e implementar políticas organizacionales que regulen la gestión de datos, asegurando su alineación con las necesidades del negocio y el cumplimiento normativo. Además, esta posición requiere una persona orientada a resultados, capaz de entregar productos claros, medibles y de valor tangible que impulsen la madurez en la gestión de datos.

Se valoran también competencias blandas como comunicación efectiva, pensamiento estratégico, adaptación al cambio, y alta proactividad en la identificación y solución de problemas relacionados con los datos. La experiencia en sectores corporativos o multinacionales será un plus relevante para el desempeño óptimo en esta posición.

Competencias y experiencia deseables

Serán valorados conocimientos adicionales en tecnologías de almacenamiento y gestión de datos, plataformas de análisis avanzadas, y experiencia previa con marcos internacionales como DAMA o COBIT relacionados con el gobierno de datos. También es deseable contar con habilidades en gestión del cambio y experiencia en iniciativas de transformación digital que involucren inteligencia artificial o automatización.

El manejo de metodologías ágiles para la gestión de proyectos y la capacidad para desarrollar capacitaciones o workshops internos sobre cultura de datos se consideran plus para potenciar el impacto del rol.

Beneficios y cultura organizacional

  • Oportunidad de trabajar en proyectos innovadores con tecnologías de vanguardia en un entorno dinámico y desafiante.
  • Plan de desarrollo profesional que incluye capacitaciones especializadas en inteligencia artificial y automatización.
  • Integración en un equipo colaborativo con profesionales de alto nivel y gran expertise técnico.
  • Salario competitivo acorde con la experiencia y el valor aportado.
  • Trabajo 100% presencial en Colombia, con la posibilidad de interactuar directamente con clientes y equipos líderes.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Factor IT provides a computer for your work.
APPLY VIA WEB
$$$ Full time
Software Engineer ETL Powercenter/ Santiago Chile
  • Dynamic Devs
  • Santiago (Hybrid)

Somos una empresa de servicios de tecnología que busca proyectos de alto impacto haciendo de la innovación y transformación digital parte de diferentes empresas principalmente transnacionales latinoamericanas de diversos sectores económicos como retail, seguros, distribución de equipos médicos, banca y productos digitales masivos utilizados por los consumidores. en todo el continente

Somos partidarios de la excelencia técnica, DevOps, Entrega Continua e Integración Continua, conformando equipos de alto desempeño en proyectos desafiantes, orientados al crecimiento e implementación de nuevas tecnologías. Más importante aún, ofrecemos un entorno colaborativo y multicultural donde puedes aprender, disfrutar y crecer como profesional.

📢 En Dynamic Devs, estamos en la búsqueda de un Software Engineer ETL (PowerCenter) para sumarse a nuestro equipo de expertos en tecnología. Si te apasiona el procesamiento de datos, la optimización de flujos ETL, ¡postula con nosotros!

Funciones del cargo

✅ Desarrollar y mantener procesos ETL utilizando PowerCenter, asegurando la correcta integración de datos desde diferentes fuentes y transformándolos para análisis y uso posterior.
✅ Escribir y ejecutar sentencias SQL para consultas, actualizaciones, inserciones y eliminaciones de datos, interactuando de forma fluida con bases de datos.
✅ Configurar orígenes de datos y parametrizar procesos de integración de datos en el entorno de PowerCenter, asegurando la correcta integración de información.
✅ Utilizar Excel a nivel intermedio para análisis de datos, creación de reportes y manejo de funciones y fórmulas para realizar tareas más complejas.
✅ Colaborar con equipos multidisciplinarios para mejorar flujos de datos, integrando soluciones que optimicen procesos de análisis y gestión de datos.

Requerimientos del cargo

✅ Experiencia mínima de 2 años en:

- Desarrollo y optimización de procesos ETL con PowerCenter.
- Manejo y administración de bases de datos (estructura, acceso y gestión de datos).
- Uso avanzado de SQL para manipulación y consulta de datos.
- Conocimientos intermedios en Excel.
📍Disponibilidad para asistir 3 días a la semana de forma presencial a la oficina del cliente ubicada en Santiago-Chile (modalidad híbrida, requisito excluyente).

Beneficios Dynamo!!

💻 Beneficio Bring Your Own Device (A partir del 4to mes trabajando con nosotros, podrás adquirir un computador propio)
⌚ Horario flexible 🕒
🚀 Haz un impacto. Trabaja en proyectos desafiantes
📚 IT Training: acceso a más de 500 cursos actualizados cada semana 📖
🎤 Dev Talks: conferencias exclusivas con expertos del sector
🎉 Día especial: 🎂 ¡Día libre por cumpleaños!
👥 Trabaja en un equipo talentoso y multicultural usando tecnología increíble
🎙️ Escucha nuestro podcast aquí: 🔗 Escuchar Podcast
🌐 Visítanos en nuestra web: 🔗 Dynamic Devs

APPLY VIA WEB
$$$ Full time
Data Engineer Spark y AWS / Santiago Chile
  • Dynamic Devs
  • Santiago (Hybrid)
Python Git SQL Big Data

Somos una empresa de servicios de tecnología que busca proyectos de alto impacto haciendo de la innovación y transformación digital parte de diferentes empresas principalmente transnacionales latinoamericanas de diversos sectores económicos como retail, seguros, distribución de equipos médicos, banca y productos digitales masivos utilizados por los consumidores. en todo el continente

Somos partidarios de la excelencia técnica, DevOps, Entrega Continua e Integración Continua, conformando equipos de alto desempeño en proyectos desafiantes, orientados al crecimiento e implementación de nuevas tecnologías. Más importante aún, ofrecemos un entorno colaborativo y multicultural donde puedes aprender, disfrutar y crecer como profesional.

📢 En Dynamic Devs, estamos en la búsqueda de un Data Engineer con experiencia en procesamiento de datos a gran escala y un sólido conocimiento en PySpark, AWS EMR y Glue.

Funciones del cargo

✅ Diseñar, desarrollar y optimizar pipelines de datos utilizando PySpark, AWS EMR y Glue.
✅ Procesar grandes volúmenes de datos en entornos distribuidos y escalables.
✅ Implementar y mantener soluciones de integración y transformación de datos en la nube ☁️.
✅ Monitorear y optimizar el rendimiento de las soluciones de datos.
✅ Garantizar la seguridad y gobernanza de los datos en el ecosistema AWS.
✅ Integrar datos desde múltiples fuentes y asegurar su correcta transformación y almacenamiento.

Requerimientos del cargo

🎓 Experiencia mínima de 2 años en Databricks o AWS EMR.
🛠️ Conocimientos sólidos en SQL y modelado de datos.
⚙️Conocimientos en otras herramientas de AWS como: S3, Redshift, Athena, Glue o Lambda.
🐍 Desarrollo en Python aplicado a procesamiento de datos.
📊 Conocimientos en frameworks de Big Data y optimización de rendimiento en entornos distribuidos.
🔗 Experiencia en Git.
📍 Disponibilidad para asistir 3 días a la semana de forma presencial a la oficina del cliente ubicada en Santiago - Chile (modalidad híbrida, requisito excluyente).

Condiciones

💻 Beneficio Bring Your Own Device (A partir del 4to mes trabajando con nosotros, podrás adquirir un computador propio)
⌚ Horario flexible 🕒
🚀 Haz un impacto. Trabaja en proyectos desafiantes
📚 IT Training: acceso a más de 500 cursos actualizados cada semana 📖
🎤 Dev Talks: conferencias exclusivas con expertos del sector
🎉 Día especial: 🎂 ¡Día libre por cumpleaños!
👥 Trabaja en un equipo talentoso y multicultural usando tecnología increíble
🎙️ Escucha nuestro podcast aquí: 🔗 Escuchar Podcast
🌐 Visítanos en nuestra web: 🔗 Dynamic Devs

Internal talks Dynamic Devs offers space for internal talks or presentations during working hours.
Partially remote You can work from your home some days a week.
Computer provided Dynamic Devs provides a computer for your work.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Senior Data Scientist
  • Bci
Python SQL Business Intelligence Machine Learning

La principal misión del cargo será desarrollar e implementar mediante metodologías ágiles de desarrollo de software de nuevos productos y servicios innovadores para la corporación BCI, con el propósito de hacerlos disponibles para nuestros clientes y colaboradores, contribuyendo a la generación de nuevos negocios, a la continuidad operacional del negocio, a la satisfacción del cliente y al cumplimiento de visión innovadora corporativa, asegurando la calidad, escalabilidad y time to market de las soluciones.

En este rol tendrás la oportunidad de:

- Desarrollar activos analíticos que faciliten toma de decisiones mejor fundamentadas en el negocio. - Preparar presentaciones claras y efectivas que comuniquen resultados y recomendaciones a diferentes audiencias. - Supervizar y mejorar continuamente los activos analíticos desarrollados. - Apoyar el desarrollo de talentos menos experimentados dentro del equipo. - Asegurar el cumplimiento de objetivos y resultados clave en los proyectos liderados o mentoreados.

Requerimientos del cargo

Senior Data Scientist es un rol enfocado en el desarrollo de proyectos que apoyen la gestión y estrategia comercial utilizando métodos analíticos y de machine learning. En este sentido, se caracteriza por ser capaz de traducir problemas de negocios en problemas analíticos, proponer y desarrollar soluciones acorde a las necesidades de los stakeholders, y comunicar y recomendar efectivamente los resultados a distintos tipos de audiencias. El perfil se caracteriza por ser proactivo en cuanto al aprendizaje y el negocio, curioso en buscar la causa raíz a los problemas y colaborativo en la construcción de soluciones analíticas.

Para tener éxito en esta posición necesitas:

- Titulo de Ingeniería Civil Industrial, Ingeniería Civil Informática o carrera afín. - Experiencia previa de al menos 2 años en el diseño y automatización de procesos analíticos y de datos. - Experiencia de al menos 2 años realizando storytelling y presentaciones al negocio. - Nivel avanzado en Python y/o R. - Nivel avanzado en modelo de datos estructurados y SQL. - Conocimientos en temas de Machine Learning. - Experiencia con data wrangling / data prepare. - Conocimiento en temas de BI.

Es aún mejor si tienes:

- Nivel de inglés intermedio. - Experiencia en Banca.

Accessible An infrastructure adequate for people with special mobility needs.
Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance Bci pays or copays life insurance for employees.
Paid sick days Sick leave is compensated (limits might apply).
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Bci pays or copays health insurance for employees.
Dental insurance Bci pays or copays dental insurance for employees.
Free car parking You can park your car for free at the premises.
Computer provided Bci provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
APPLY VIA WEB
$$$ Full time
Senior Data Scientist
  • Bci
Python SQL Business Intelligence Machine Learning

La principal misión del cargo será desarrollar e implementar mediante metodologías ágiles de desarrollo de software de nuevos productos y servicios innovadores para la corporación BCI, con el propósito de hacerlos disponibles para nuestros clientes y colaboradores, contribuyendo a la generación de nuevos negocios, a la continuidad operacional del negocio, a la satisfacción del cliente y al cumplimiento de visión innovadora corporativa, asegurando la calidad, escalabilidad y time to market de las soluciones.

En este rol tendrás la oportunidad de:

- Desarrollar activos analíticos que faciliten toma de decisiones mejor fundamentadas en el negocio. - Preparar presentaciones claras y efectivas que comuniquen resultados y recomendaciones a diferentes audiencias. - Supervizar y mejorar continuamente los activos analíticos desarrollados. - Apoyar el desarrollo de talentos menos experimentados dentro del equipo. - Asegurar el cumplimiento de objetivos y resultados clave en los proyectos liderados o mentoreados.

Requerimientos del cargo

Senior Data Scientist es un rol enfocado en el desarrollo de proyectos que apoyen la gestión y estrategia comercial utilizando métodos analíticos y de machine learning. En este sentido, se caracteriza por ser capaz de traducir problemas de negocios en problemas analíticos, proponer y desarrollar soluciones acorde a las necesidades de los stakeholders, y comunicar y recomendar efectivamente los resultados a distintos tipos de audiencias. El perfil se caracteriza por ser proactivo en cuanto al aprendizaje y el negocio, curioso en buscar la causa raíz a los problemas y colaborativo en la construcción de soluciones analíticas.

Para tener éxito en esta posición necesitas:

- Titulo de Ingeniería Civil Industrial, Ingeniería Civil Informática o carrera afín. - Experiencia previa de al menos 2 años en el diseño y automatización de procesos analíticos y de datos. - Experiencia de al menos 2 años realizando storytelling y presentaciones al negocio. - Nivel avanzado en Python y/o R. - Nivel avanzado en modelo de datos estructurados y SQL. - Conocimientos en temas de Machine Learning. - Experiencia con data wrangling / data prepare. - Conocimiento en temas de BI.

Es aún mejor si tienes:

- Nivel de inglés intermedio. - Experiencia en Banca.

Accessible An infrastructure adequate for people with special mobility needs.
Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance Bci pays or copays life insurance for employees.
Paid sick days Sick leave is compensated (limits might apply).
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage Bci pays or copays health insurance for employees.
Dental insurance Bci pays or copays dental insurance for employees.
Free car parking You can park your car for free at the premises.
Computer provided Bci provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
APPLY VIA WEB
Gross salary $2100 - 3500 Full time
Arquitecto de Datos
  • Datasur
  • Santiago (Hybrid)
Python PHP Agile MySQL

En Datasur, somos líderes en inteligencia comercial basada en datos de comercio exterior. Nuestra plataforma procesa millones de registros de importaciones y exportaciones de más de 50 países, y estamos listos para escalar más alto. Para eso, buscamos a un Arquitecto de Datos.

Como profesional deberás ser capaz de unificar las diferentes fuentes de datos. establecer un modelo de gobierno de datos robusto y proporcionar insights accionables que contribuyan a la toma de decisiones basada en datos, mejorando así la competitividad de la empresa en el mercado global

Funciones del cargo

  • Diseñar y mantener una arquitectura de datos robusta, escalable y eficiente.
  • Estandarizar y optimizar flujos de ETL/ELT desde múltiples fuentes.
  • Liderar el equipo técnico: definir estándares, buenas prácticas y gestionar roadmap de proyectos e iniciativas del Área.
  • Supervisar integraciones con herramientas de reporting, BI y plataformas web.
  • Garantizar calidad, seguridad y disponibilidad de los datos, implementando prácticas de gobernanza y control de accesos.
  • Facilitar la colaboración entre tecnología, producto y negocio, traduciendo requerimientos y aportando valor.

Requerimientos del cargo

Formación académica: Ingeniería en informática, sistemas, software o carreras a fines.

  • Estudios de postgrado en IA, Data Science.
  • Experiencia comprobable como Arquitecto/a de Datos, Ingeniero de Datos senior o Líder Técnico.
  • Habilidad para elaborar especificaciones técnicas a partir de requisitos funcionales, definiendo estructuras de datos, métricas y dashboards que reflejen la lógica de negocio y aporten valor.
  • Experiencia en analizar user stories o requerimientos de negocio y descomponerlos en modelos de datos, esquemas OLAP y flujos ETL alineados a los KPIs del producto.
  • Competencia para diseñar modelos dimensionales y data marts basados en objetivos de negocio, asegurando que los pipelines de datos soporten los indicadores críticos del producto.
  • Modelado y optimización de bases de datos relacionales (MariaDB/MySQL) y arquitecturas de Data Warehouse (esquemas estrella/copos), Bases analíticas MPP y soluciones OLAP columnar.
  • Etapas de ETL/ELT: dominio de Apache Airflow y/o NiFi (o herramientas equivalentes) para grandes volúmenes de datos.
  • Python avanzado para scripting y orquestación; comprensión de PHP para interactuar con el backend existente.
  • Conocimiento de herramientas de visualización/reportes (Power BI, Tableau, Looker, etc.) es un plus.
  • Metodologías ágiles (Scrum/Kanban) y herramientas de gestión (JIRA, Git, CI/CD).

Condiciones

  • Un proyecto desafiante, con impacto real en el mundo del comercio exterior.
  • Equipo comprometido, ágil y con visión de crecimiento global.
  • Libertad para proponer, crear y liderar cambios.
  • Modalidad flexible y cultura de resultados.

Partially remote You can work from your home some days a week.
Health coverage Datasur pays or copays health insurance for employees.
Computer provided Datasur provides a computer for your work.
Informal dress code No dress code is enforced.
APPLY VIA WEB
Gross salary $4900 - 5800 Full time
Data Leader
  • Copec S.A
  • Santiago (Hybrid)
SQL Data Visualization Data lake Data governance

Desde hace 89 años que estamos presentes en Chile, comercializando y distribuyendo combustibles y lubricantes a lo largo y ancho de todo el país, desde Arica a Puerto Williams. Contamos con la red de Estaciones de Servicio más extensa del país y desde allí, cada día, atendemos a más de medio millón de personas. Existimos para acompañar y facilitar siempre la vida en movimiento de las personas y el país, y queremos convertirnos en una empresa líder en movilidad, ofreciendo soluciones para todos los nuevos modos de transporte y consumo de la nueva era digital.

Funciones del cargo

  • Diseñar y construir el Datalake corporativo.
  • Disponibilizar data para su explotación en base a diferentes usos (negocio, analítica, reportería, Marketing, procesos, etc).
  • Mantener la operación del Datalake corporativo en tiempo y forma (procesos, cuadraturas, calidad de datos).
  • Implementar lineamientos de gobierno de datos y protección de datos personales
  • Orquestar los proyectos de datos de punta a punta, integrando una visión desde la ingesta de información hasta las soluciones de visualización, coordinando la parte analítica con sus contrapartes de D&A.
  • Democratizar la información de manera segura y gobernada.
  • Implementar la arquitectura que se defina desde TI para la explotación de la data de clientes.
  • Mantener la operación de las herramientas de visualización.

Requerimientos del cargo

  • Manejo SQL.
  • Conocimiento de herramientas de visualización.
  • Conocimiento de herramientas de manejo de datos.
  • Conocimiento de industria de commoditties.
  • 5 años o más de experiencia en cargos de liderazgo de datos.

Conditions

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Copec S.A provides a computer for your work.
APPLY VIA WEB
$$$ Full time
Científica/o de Datos
  • Macal
  • Santiago (Hybrid)
Python Data Analysis SQL Machine Learning

Macal es una empresa tecnológica y Data Driven con 40 años de experiencia, reconocida por su innovación constante y su modelo disruptivo en el sector de compra y venta online de autos y propiedades. Actualmente, el equipo de Data de Macal se enfoca en crear y optimizar modelos descriptivos y predictivos que sustentan nuestra propuesta de valor y ventaja competitiva.

Responsabilidades principales

Como Científico de Datos con especial foco estadístico, nuestro profesional será responsable de desarrollar modelos predictivos avanzados que optimicen el sistema de subastas en la plataforma. Esto incluye el análisis estadístico profundo, diseño, validación y mejora continua de algoritmos predictivos para garantizar el máximo rendimiento del marketplace. Además, colaborará con equipos multidisciplinarios para transformar datos en información accionable que permita tomar decisiones fundamentadas y estratégicas.

Otras funciones esenciales incluyen:

  • Recolectar, limpiar y preparar grandes volúmenes de datos relevantes para los modelos.
  • Implementar técnicas estadísticas y de machine learning para la generación de predicciones precisas.
  • Realizar experimentos y pruebas para validar la efectividad de los modelos.
  • Documentar procesos y resultados para asegurar la replicabilidad y transparencia.
  • Comunicar hallazgos a stakeholders técnicos y no técnicos de manera clara y precisa.

Perfil y requisitos

Buscamos un profesional con sólida formación en Estadística, Matemáticas, Ingeniería en Computación o campos afines, que cuente con experiencia concreta en modelado predictivo y análisis estadístico avanzado aplicado en entornos reales. Es imprescindible poseer habilidades en programación orientada a análisis de datos, dominio de herramientas y lenguajes como Python, R, SQL, y experiencia con bibliotecas especializadas para machine learning y estadística.

Además de competencias técnicas, valoramos una mentalidad curiosa e innovadora, con capacidad de análisis crítico y enfoque en resultados basados en datos. La comunicación efectiva, el trabajo colaborativo y la orientación al cliente final son también aspectos clave para integrarse adecuadamente en nuestro equipo y en la cultura organizacional de Macal.

Habilidades y conocimientos deseables

Será altamente valorado el conocimiento en metodologías ágiles de desarrollo, experiencia previa en proyectos de subastas o comercio electrónico, y manejo de plataformas de nube para procesamiento de datos como AWS o Google Cloud. También suman puntos las certificaciones en ciencia de datos y estadística aplicada, así como el interés por seguir innovando permanentemente y adaptarse a un ambiente dinámico y colaborativo.

Beneficios y cultura

  • Sistema híbrido y flexible que promueve el equilibrio entre vida laboral y personal.
  • 3 días libres adicionales al año complementan las vacaciones para mayor descanso.
  • Seguro complementario para cuidar tu salud y bienestar.
  • Acceso a programa anual de bonos basado en cumplimiento de resultados, incentivando el crecimiento profesional y económico.

Formar parte de Macal significa integrarse a un ambiente cercano, colaborativo y feliz, donde el talento y la innovación son el motor para crecer y lograr objetivos a través del análisis de datos y la tecnología. Buscamos personas que se sumen con entusiasmo y visión para transformar juntos la industria y la experiencia de nuestros clientes.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Macal pays or copays health insurance for employees.
Computer provided Macal provides a computer for your work.
Informal dress code No dress code is enforced.
APPLY VIA WEB
$$$ Full time
Consultor/a de Datos en Azure – Power BI & Databricks
  • Factor IT
SQL Oracle Big Data Azure

En FactorIT, somos líderes en tecnología y soluciones de datos, trabajando con grandes empresas en sus procesos de transformación digital. Buscamos un/a Consultor/a de Datos que apoye a nuestras iniciativas de explotación de datos en una institución bancaria clave mientras implementamos soluciones innovadoras en Azure.

Nuestro objetivo es brindar a nuestros clientes servicios de analítica avanzada y transformación digital. Aquí, tendrás la oportunidad de participar en grandes proyectos que marcan la diferencia y promueven el uso estratégico de la información.

Descripción del Rol

Estamos buscando a un/a Consultor/a de Datos en Azure, quien será fundamental en nuestra misión de optimizar el uso de datos dentro de la banca. Las responsabilidades incluyen:

  • Identificar oportunidades de explotación de datos junto a las áreas de negocio.
  • Desarrollar pipelines y modelos en Azure Databricks.
  • Diseñar y construir dashboards y reportes interactivos en Power BI.
  • Realizar talleres con usuarios del negocio para levantar requerimientos.
  • Acompañar a las áreas funcionales en la adopción de una cultura data-driven.
  • Traducir necesidades del negocio en soluciones técnicas sostenibles.
  • Documentar soluciones y reportes desarrollados.

Requisitos del Puesto

Solicitamos a un/a profesional con experiencia técnica en las siguientes áreas:

  • Experiencia comprobable en Azure Databricks (PySpark / Spark SQL).
  • Conocimiento avanzado en Power BI, cualquier experiencia en DAX, modelado y visualización es un plus.
  • Familiaridad con servicios de datos de Azure como Data Lake, Synapse y Data Factory.
  • Competencia en SQL, preferiblemente en Oracle y/o Azure SQL.

Además, el candidato ideal debe poseer excelentes habilidades comunicativas, siendo capaz de interactuar con usuarios no técnicos y traducir sus necesidades. Buscamos a una persona empática, colaborativa y proactiva que impulse la adopción de soluciones en un entorno de rápida transformación tecnológica.

Habilidades Adicionales Preferidas

Además de los requisitos mencionados, se valorará la experiencia previa en:

  • Proyectos de transformación digital o migraciones tecnológicas.
  • Sector bancario, seguros o industrias reguladas.

El dominio del español es excluyente, mientras que el inglés técnico para lectura y escritura es deseable.

Beneficios y Oportunidades

Ofrecemos un entorno laboral flexible, permitiendo equilibrar trabajo en oficina y remoto, adaptándonos a tus necesidades. Además de un salario competitivo basado en tu experiencia, contamos con:

  • Flexibilidad laboral y modalidad de trabajo remoto.
  • Capacitación continua en tecnologías emergentes enfocadas en inteligencia artificial y automatización.
  • Cultura inclusiva que fomenta la creatividad y la innovación.

Si te apasiona la tecnología y quieres unirte a un equipo innovador en expansión, ¡esta es tu oportunidad!

Fully remote You can work from anywhere in the world.
Computer provided Factor IT provides a computer for your work.
APPLY VIA WEB
$$$ Full time
Data Analyst
  • Promarketing
SQL CRO Google Tag Manager A/B Testing

Promarketing Chile es una empresa de desarrollo de software especializada en soluciones web escalables e innovadoras, utilizando tecnologías de vanguardia para impulsar la transformación digital, optimizar procesos y destacarse en el mercado.

Contamos con profesionales altamente capacitados y fomentamos un espacio de trabajo colaborativo y orientado al crecimiento tecnológico de nuestros colaboradores y del negocio.

Funciones del cargo

  • Recopilar datos de diversas fuentes.
  • Depurar y analizar grandes volúmenes de datos para identificar patrones y tendencias relevantes mediante la utilización de herramientas de extracción de datos.
  • Planificar, diseñar y ejecutar experimentos de optimización de conversión (A/B tests, multivariantes y pruebas incrementales).
  • Monitorizar y analizar el comportamiento de usuarios en web y app para identificar puntos de fricción y oportunidades de mejora.
  • Definir, construir y mantener funnels y reportes avanzados en Google Analytics 4.
  • Traducir los datos experimentales en insights accionables para el negocio y recomendaciones de mejora.
  • Presentar resultados, insights y propuestas de optimización a equipos técnicos, de marketing y demás stakeholders.
  • Colaborar estrechamente con producto, desarrollo y marketing para implementar y validar cambios de manera continua.

Requerimientos del cargo

  • Experiencia de 2 años como analista de datos
  • Profunda experiencia en estrategias de optimización de conversión (CRO) y análisis de datos.
  • Manejo avanzado de herramientas de analytics para web y apps:
    • Google Analytics 4 (lectura avanzada de datos, construcción de funnels y elaboración de reportes).
    • Google Tag Manager (instalación de herramientas de seguimiento)
    • Google Optimizer (optmizar sitios web)
    • Excel avanzado (lectura, organización y filtrado de datos)
    • SQL para obtener información de bases de datos.
    • Herramienta de presentación de datos de manera amigable.
  • Capacidad para identificar y validar hipótesis de conversión a través de análisis de comportamiento de usuario.
  • Conocimientos básicos de estadística aplicada a la experimentación digital.
  • Habilidades de comunicación interpersonal y presentación de datos, con enfoque colaborativo y orientación a objetivos.

Te Ofrecemos

  • Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos.
  • Un entorno de trabajo flexible y dinámico.
  • Día libre para tu cumpleaños.
  • Trabajo 100% Remoto
  • 40 Hora de trabajo semanales

Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Ingeniero de Datos
  • Assetplan
  • Santiago (Hybrid)
Python Excel SQL ETL
Assetplan es una compañía líder en renta residencial en Chile, con presencia también en Perú. Actualmente, gestionamos más de 30.000 propiedades para clientes retail e institucionales y operamos más de 80 edificios multifamily. Con más de 10 años de trayectoria, Assetplan ha sido pionera en innovar y aplicar tecnología en el sector inmobiliario, promoviendo un modelo de negocio basado en la eficiencia, innovación y mejora continua.
El proyecto al que te integrarás busca potenciar la gestión de datos para respaldar la toma de decisiones estratégicas en toda la organización. Forma parte de un equipo joven con una estructura horizontal que valora el aprendizaje, la colaboración y la generación de valor a través de la innovación tecnológica aplicada a la información y análisis de grandes volúmenes de datos.

Responsabilidades principales

Como Ingeniero de Datos, serás responsable de:
  • Diseñar, desarrollar y optimizar procesos ETL (Extract, Transform, Load) utilizando herramientas clave como Python (librerías Pandas y Numpy) y SQL.
  • Desarrollar y mantener dashboards y paneles en Power BI, integrando visualizaciones estratégicas para acompañar los procesos ETL y proporcionar insights relevantes.
  • Trabajar de forma colaborativa con diferentes áreas de la organización para interpretar y transformar sus necesidades en soluciones de datos que faciliten la toma de decisiones estratégicas.
  • Promover la calidad, escalabilidad y gobernanza de los datos durante el diseño, desarrollo y mantenimiento de los procesos y pipelines de datos, asegurando soluciones escalables y accesibles.
  • Mantener una comunicación efectiva con los equipos de negocio y tecnología para asegurar que las soluciones implementadas se alineen con los objetivos corporativos y generen impacto real en la organización.

Requisitos y habilidades necesarias

Buscamos un profesional con 1 a 3 años de experiencia demostrable en el área de datos, en roles de ingeniería o análisis que impliquen manipulación y transformación de datos.
  • Manejo de SQL Medio
  • Manejo de Python Intermedio/Avanzado (excluyente)
  • Manejo de Power BI Medio
  • Manejo de Excel Avanzado
  • 1-3 años de experiencia (excluyente)

Conocimientos adicionales deseables

Es deseable poseer experiencia en ambientes ágiles y metodologías de desarrollo colaborativo que faciliten la integración entre equipos técnicos y de negocio.
Valoramos conocimientos en otras herramientas de visualización o procesamiento de datos, así como experiencia en gestión de la calidad y gobernanza de datos que permitan fortalecer el ecosistema de información de la empresa.

Beneficios y cultura empresarial

En Assetplan valoramos y reconocemos el esfuerzo y dedicación de nuestros colaboradores, ofreciendo un ambiente laboral positivo basado en el respeto mutuo y la colaboración.
Entre nuestros beneficios contamos con:
  • Días extras de vacaciones por años de antigüedad
  • Modalidad de trabajo híbrido y flexibilidad para trámites personales
  • Monto mensual en app de snacks en la oficina
  • Medio día libre en tu cumpleaños
  • Copago en seguro complementario de salud
  • Reajuste anual de renta basado en IPC
  • Bono anual por desempeño
  • Eventos empresa y happy hours financiados por la compañía
  • Acceso a plataforma de cursos de formación
  • Convenios con gimnasios, descuentos y más

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Assetplan pays or copays health insurance for employees.
Computer provided Assetplan provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Assetplan gives you paid vacations over the legal minimum.
Beverages and snacks Assetplan offers beverages and snacks for free consumption.
APPLY VIA WEB
$$$ Full time
Digital Analytics y CRO
  • 2BRAINS
  • Santiago (Hybrid)
Data Analysis CRO A/B Testing Conversion Rate Optimization

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

El perfil Digital Analytics y CRO de 2Brains

Perfil con experiencia en estrategias de optimización de conversión (CRO), orientado a mejorar el rendimiento de la web y app a través de metodologías de experimentación y análisis de datos. Con una fuerte base técnica y estratégica para liderar iniciativas de crecimiento digital, combinando capacidades analíticas con habilidades de comunicación efectiva.

¿Qué funciones deberá realizar el/la Digital Analyst o CRO?

  • Planificar, diseñar y ejecutar experimentos de optimización de conversión (A/B tests, multivariantes y pruebas incrementales).
  • Monitorizar y analizar el comportamiento de usuarios en web y app para identificar puntos de fricción y oportunidades de mejora.
  • Configurar y gestionar campañas de personalización y tests en Dynamic Yield.
  • Definir, construir y mantener funnels y reportes avanzados en Google Analytics 4.
  • Traducir los datos experimentales en insights accionables y recomendaciones de mejora.
  • Presentar resultados, insights y propuestas de optimización a equipos técnicos, de marketing y demás stakeholders.
  • Colaborar estrechamente con producto, desarrollo y marketing para implementar y validar cambios de manera continua.

¿Qué conocimientos buscamos en el/la Digital Analytics y CRO?

  • Profunda experiencia en estrategias de optimización de conversión (CRO) y análisis de datos.
  • Dominio de metodologías de experimentación: diseño, ejecución y análisis de A/B testing, pruebas multivariantes e incrementales.
  • Manejo avanzado de herramientas de analytics para web y apps:
    • Dynamic Yield (configuración y gestión de campañas de personalización/A/B tests).
    • Google Analytics 4 (lectura avanzada de datos, construcción de funnels y elaboración de reportes).
  • Capacidad para identificar y validar hipótesis de conversión a través de análisis de comportamiento de usuario.
  • Conocimientos básicos de estadística aplicada a la experimentación digital.
  • Habilidades de comunicación interpersonal y presentación de datos, con enfoque colaborativo y orientación a objetivos.

¿Qué competencias buscamos en el/la Digital Analytics y CRO?

  • Adaptación y flexibilidad
  • Colaboración y trabajo en equipo
  • Compromiso
  • Responsabilidad
  • Tolerancia a la presión

Te ofrecemos

  • Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos.
  • Acceso a grandes clientes y proyectos desafiantes.
  • Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales.
  • Un entorno de trabajo flexible y dinámico.
  • Día libre para tu cumpleaños.
  • 4 semanas de vacaciones.
  • Trabajo híbrido (algunos días puedes trabajar desde casa)
  • Asignación de computadora para tu trabajo.
  • Código de vestimenta informal.
  • Espacio para charlas internas.
  • Cursos con certificación.

APPLY VIA WEB
$$$ Full time
Data Scientist
  • ARKHO
Python SQL Machine Learning Deep Learning

ARKHO es una consultora experta en tecnologías de la información, que ofrece servicios expertos de TI en el marco de modernización de aplicaciones, analítica de datos, IA y migración a la nube. Nuestro trabajo facilita y acelera la adopción de la cloud en múltiples industrias.

Nos destacamos por ser Partner Advanced de Amazon Web Services con foco estratégico en la generación de soluciones usando tecnología en la nube, somos obsesionados por lograr los objetivos propuestos y tenemos especial énfasis en el grupo humano que compone ARKHO (nuestros Archers), reconociendo a nuestro equipo como un componente vital para el logro de los resultados.
¿Te motivas? ¡Te esperamos!

Funciones

Estamos en busqueda de un Data Scientist con por lo menos dos años de experiencia, para incorporarse a nuestro equipo ágil para diversos proyectos Data Analytics. Será el encargado de velar por soluciones integrales para las problemáticas de cada uno de los clientes y proyectos en los cuales se desenvuelva junto al equipo.
Dentro de sus actividades principales se encuentran:
  • Comprender el contexto de negocio del cliente, desde la bajada comercial, indicadores claves que se busca potenciar, fuentes de datos y cómo sacar el mayor provecho de esta data para potenciar los resultados.
  • Analizar datos de alta complejidad utilizando técnicas de análisis estadístico, aprendizaje automático.
  • Acompañar y orientar al cliente respecto a diversas alternativas de solución.
  • Todos nuestros proyectos nos desafían a desplegar productos y servicios más rápidos, seguros, escalables y robustos en la nube.
Nos gusta conformar equipos colaborativos y auto-gestionados, por lo que las habilidades de comunicación y responsabilidad son muy importantes. ¡Buscamos profesionales de excelencia e íntegros dentro y fuera de la cancha!

Perfil del rol

En nuestra compañía valoramos a las personas autosuficientes, proactivas e innovadoras. Debes ser capaz de organizar tu propia carga de trabajo, tomar decisiones, cumpliendo los plazos y objetivos.
En tu carrera profesional deberías contar al menos con:
  • Experiencia mínima de 3 años en roles similares.
  • Técnicas de machine learning (Clustering, PCA, regresión logística, etc) y Deep Learning.
  • Desarrollo e implementación de modelos de IA utilizando embeddings y Large Language Models (LLMs)
  • Dominio de lenguajes de programación: Structured Query Language (SQL) y Python.
  • Experiencia con AWS cloud (SageMaker, S3, Lambda, bedrock).
  • Manejo de librerías: Pandas, Sklearn, Numpy, Matplotlib.
  • Ser graduado de Ingeniería de sistemas, Ingeniería matemática o afín.

Habilidades opcionales

  • Idioma inglés nivel intermedio

Beneficios del Archer

  • Día administrativo semestral hasta los 12 meses
  • Week off: 5 días de vacaciones extra
  • ¡Celebra tu cumpleaños!
  • Path de entrenamiento
  • Certificaciones AWS
  • Aguinaldos Fiestas Patrias y Navidad
  • Seguro complementario (sólo para Chile)
  • Flexibilidad (trabajo híbrido o remoto)
  • Regalo por casamiento + 5 días hábiles libres
  • Regalo por nacimiento de hijos
  • Kit escolar
  • Beneficio paternidad + 10 días (5 días adicionales a la Ley Chilena)
  • Bonda (Workshops de temáticas diversas, Wellness y descuentos en locales comerciales)

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
Vacation over legal ARKHO gives you paid vacations over the legal minimum.
APPLY VIA WEB
$$$ Full time
Data Engineer
  • ARKHO
Python Git SQL NoSQL

ARKHO es una consultora experta en tecnologías de la información, que ofrece servicios expertos de TI en el marco de modernización de aplicaciones, analítica de datos y migración a la nube. Nuestro trabajo facilita y acelera la adopción de la cloud en múltiples industrias.

Nos destacamos por ser Partner Advanced de Amazon Web Services con foco estratégico en la generación de soluciones usando tecnología en la nube, somos obsesionados por lograr los objetivos propuestos y tenemos especial énfasis en el grupo humano que compone ARKHO (nuestros Archers), reconociendo a las personas y equipo como un componente vital para el logro de los resultados.

¿Te motivas? ¡Te esperamos!

Funciones

Estamos en busca de un o una profesional con experiencia en el desarrollo de pipelines de analytics, con una visión en la arquitectura de datos End to End, que logre aplicar sus conocimientos técnicos en la ejecución de proyectos tecnológicos. La vacante considera que el o la aspirante sea un referente orientando a la mejora continua y el cumplimiento de los objetivos y la creación de productos tecnológicos de alta calidad. Para ello, la experiencia en el uso de diversas herramientas, lenguajes de programación, infraestructura y otros, son la base para apoyar desde el conocimiento al equipo de desarrollo, participando en el desarrollo de entregables de alto impacto y calidad.

  • Trabajar de forma integrada y colaborativa con el líder de equipo, y el equipo de implementación proporcionando un contexto claro del estado de las iniciativas desde el ámbito tecnológico.
  • Apoyar al equipo en la definición, estimación y planificación de tareas/actividades para el desarrollo de productos de analítica en el marco ágil del desarrollo.
  • Gobernar técnicamente la solución con el cliente, participando activamente de decisiones claves y proporcionando información relevante en el aspecto técnico.
  • Trabajar con los integrantes del equipo en el diseño e implementación de arquitecturas de soluciones de analítica de datos en la nube y para la solución completa.
  • Involucramiento en el modelado de los datos, generando modelos analíticos corporativos.
  • Profundización en aspectos tecnológicos desconocidos y que se requieren para el logro de los objetivos.

Perfil del archer

En nuestra compañía valoramos a las personas auto-gestionadas, proactivas e innovadoras. Debes ser capaz de organizar tu propia carga de trabajo, tomar decisiones, cumpliendo tus plazos y objetivos. Buscamos personas con:

  • Experiencia relevante en Python con datos.
  • Dominio de SQL y bases de datos no relacionales.
  • Conocimiento en tecnologías de ETL.
  • Capacidades de documentación de negocio y tecnológica.
  • Desarrollo de APIs.
  • Experiencia en AWS cloud.
  • Experiencia en proyectos BI y modelando bases de datos para Data Warehouse (Estrella, Copo de nieve).
  • Habilidades de priorización de requerimientos y resultados de negocio.

Habilidades opcionales

Si posees experiencia en algunas de las tecnologías a continuación es un plus:

  • Conocimiento de Machine Learning
  • Nivel de inglés Intermedio - Avanzado
  • Experiencia en metodologías ágiles como Scrum
  • Git

Beneficios del Archer

  • Día administrativo semestral hasta los 12 meses
  • Week off: 5 días de vacaciones extra
  • ¡Celebra tu cumpleaños!
  • Path de entrenamiento
  • Certificaciones AWS
  • Aguinaldos Fiestas Patrias y Navidad
  • Bono de salud
  • Flexibilidad (trabajo híbrido o remoto)
  • Regalo por casamiento + 5 días hábiles libres
  • Regalo por nacimiento de hijos
  • Kit escolar
  • Beneficio paternidad
  • Bonda

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
Vacation over legal ARKHO gives you paid vacations over the legal minimum.
APPLY VIA WEB
Gross salary $2000 - 2500 Full time
Data Scientist
  • Interfell
Python Git Data Analysis SQL

En Interfell, estamos revolucionando la manera en que las empresas se conectan con talento calificado en LATAM. Nuestro proyecto actual se orienta hacia el área de ciencia de los datos es por ellos que actualmente estamos en búsqueda de un DATA SCIENTIST con +4 años de experiencia para que se una a nuestro equipo de IT, para trabajar en un proyecto a tiempo determinado de 6 a 8 meses

** Con el objetivo de facilitar nuestros procesos, solicitamos amablemente que consideres postularte únicamente si cumples con los conocimientos requeridos. En caso contrario, te animamos a estar pendiente de nuestras futuras oportunidades, ya que seguramente surgirá alguna donde puedas destacarte. Agradecemos tu comprensión y colaboración. **

Funciones del cargo

  • Identificar oportunidades donde el análisis de datos puede generar ventajas competitivas y diseñar soluciones apropiadas.
  • Desarrollar modelos de machine learning y analítica predictiva (clasificación, regresión, segmentación, scoring, recomendación, etc.).
  • Construir y automatizar pipelines de datos para la limpieza, transformación y enriquecimiento de fuentes heterogéneas.
  • Realizar análisis exploratorios y visualización de datos para generar insights relevantes y comunicar hallazgos de manera efectiva.
  • Implementar modelos en producción, trabajando junto a ingenieros de datos y software, asegurando performance, escalabilidad y mantenibilidad.
  • Evaluar el impacto de iniciativas mediante técnicas estadísticas (pruebas de hipótesis, análisis causal, A/B testing).
  • Documentar procesos y resultados, promoviendo una cultura de datos dentro de la organización.

Requerimientos del cargo


Formación y experiencia:
  • Grado o máster en carreras STEM (Ciencia, Tecnología, Ingeniería o Matemáticas), idealmente con enfoque en ciencia de datos, estadística o informática.
  • Mínimo 3-5 años de experiencia aplicando técnicas de análisis de datos y machine learning en entornos profesionales.

Habilidades técnicas:
  • Programación fluida en Python o R para análisis de datos y modelado estadístico.
  • Manejo avanzado de bibliotecas como Pandas, Scikit-learn, TensorFlow/PyTorch, Statsmodels, Matplotlib/Seaborn.
  • Experiencia en SQL y trabajo con bases de datos relacionales y no relacionales.
  • Familiaridad con herramientas de visualización (Tableau, Power BI, Looker o similares).
  • Conocimiento de plataformas cloud (AWS, GCP, Azure) y entornos colaborativos (Git, Docker, notebooks).

Opcionales

  • Deseable: experiencia en despliegue de modelos, MLOps y frameworks de producción.

Condiciones

  • Oportunidad de crecimiento con un equipo multinivel
  • Pago USD
  • Jornada: Lunes - Viernes -09:00 am - 06:30 pm / Perú
  • Tiempo de contratación estimado: Proyecto 6 - 8 meses
    IMPORTANTE: Este empleo requiere exclusividad.

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
$$$ Full time
Data Engineer
  • NeuralWorks
  • Santiago (Hybrid)
Python SQL Big Data Amazon Web Services

NeuralWorks es una compañía de alto crecimiento fundada hace 3 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

Descripción del trabajo

El equipo de Data y Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.
Dentro del equipo multidisciplinario con Data Scientist, Translators, DevOps, Data Architect, tu rol será clave en construir y proveer los sistemas e infraestructura que permiten el desarrollo de estos servicios, formando los cimientos sobre los cuales se construyen los modelos que permiten generar impacto, con servicios que deben escalar, con altísima disponibilidad y tolerantes a fallas, en otras palabras, que funcionen. Además, mantendrás tu mirada en los indicadores de capacidad y performance de los sistemas.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Como Data Engineer, tu trabajo consistirá en:

  • Participar activamente durante el ciclo de vida del software, desde inception, diseño, deploy, operación y mejora.
  • Apoyar a los equipos de desarrollo en actividades de diseño y consultoría, desarrollando software, frameworks y capacity planning.
  • Desarrollar y mantener arquitecturas de datos, pipelines, templates y estándares.
  • Conectarse a través de API a otros sistemas (Python)
  • Manejar y monitorear el desempeño de infraestructura y aplicaciones.
  • Asegurar la escalabilidad y resiliencia.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia práctica de al menos 3 años en entornos de trabajo como Data Engineer, Software Engineer entre otros.
  • Experiencia con Python.
    Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida optimización de consultas.
  • Pasión en problemáticas de procesamiento de datos.
  • Experiencia con servidores cloud (GCP, AWS o Azure), especialmente el conjunto de servicios de procesamiento de datos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.
  • Habilidades de comunicación y trabajo colaborativo.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” D. Gaucher , J. Friesen and A. C. Kay, Journal of Personality and Social Psychology, 2011.

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Vestimenta informal
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Vacation over legal NeuralWorks gives you paid vacations over the legal minimum.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
APPLY VIA WEB
$$$ Full time
Junior Data Analyst & Automation
  • Banco Santander Chile
  • Santiago (Hybrid)

Banco Santander Chile es una organización internacional líder en el sector financiero con presencia en más de 20 países, reconocida por su compromiso con el desarrollo profesional, el aprendizaje continuo y la movilidad interna. La Vicepresidencia de Tecnología y Operaciones del banco es un área estratégica que impulsa la innovación tecnológica, la optimización y mejora de procesos con el objetivo de contribuir al progreso de las personas y empresas. Este departamento está enfocado en liderar iniciativas tecnológicas de vanguardia que fortalecen la posición de Santander como líder en el sector financiero chileno y a nivel internacional, promoviendo un ambiente de trabajo colaborativo, desafío constante y crecimiento profesional.

Misión del cargo

Buscamos jóvenes profesionales comprometidos y flexibles para integrarse al equipo de Tecnología y Operaciones, donde contribuirán a la optimización y mejora continua de procesos mediante el uso de tecnologías punteras.

El rol implica colaborar en proyectos estratégicos que impulsen la innovación tecnológica dentro del banco, trabajando estrechamente con diferentes áreas para apoyar la transformación digital y la eficiencia operativa.

Además, se espera que el candidato participe activamente en el aprendizaje permanente y el desarrollo de competencias técnicas y colaborativas, favoreciendo un ambiente dinámico y orientado al trabajo en equipo.

Qué te ayudará a tener éxito en el proceso

  • Para tener éxito en esta posición, buscamos egresados de carreras como Ingeniería Civil Industrial, Ingeniería Civil en Informática o afines, con no más de un año de experiencia profesional, ya que aspiramos a formar jóvenes talentos que aporten con nuevas ideas y ganas de aprender.
  • Debe contar con formación o experiencia en automatización de procesos, analítica avanzada y manejo de datos, con conocimientos intermedios en SQL, Power BI y/o Tableau. Se valoran conocimientos deseables en Python, Spark y Appian, orientados a potenciar habilidades técnicas y tecnológicas en análisis de datos.
  • El candidato debe tener un nivel intermedio de inglés (B1), mostrando capacidad para manejar información en este idioma y comunicarse de forma básica en el contexto laboral.
  • Buscamos personas con interés genuino en las herramientas tecnológicas de análisis de datos, motivadas a contribuir en un entorno desafiante y colaborativo, con habilidades blandas como adaptabilidad, actitud proactiva y capacidad de trabajo en equipo.
  • Se requiere disponibilidad para incorporarse en junio de 2025.

Conocimientos y habilidades deseables

  • Nos interesa especialmente candidatos que hayan desarrollado conocimientos en programación avanzada, analítica de datos con Python y Spark, así como familiaridad con plataformas de automatización como Appian.
  • Valoramos la capacidad para desenvolverse en entornos multidisciplinarios, con habilidades comunicativas y de gestión del tiempo, que contribuyan a un equipo colaborativo y efectivo.
  • Además, la experiencia en proyectos relacionados con la transformación digital y optimización de procesos se considera un plus importante, aunque no es requisito excluyente.

¿Qué te ofrecemos?

  • Formar parte de la principal empresa financiera de Chile y uno de los mejores lugares para trabajar en el país.
  • Aprendizaje mediante la experiencia práctica, con múltiples oportunidades de desarrollo, formación continua y movilidad interna para participar en proyectos estratégicos.
  • Acompañamiento formativo durante el proceso de adaptación y desarrollo del rol, asegurando una integración exitosa y crecimiento profesional.
  • Redes internas de colaboración que potencian el aprendizaje, la creación de vínculos profesionales y la expansión de la mirada laboral.
  • Beneficios orientados a mejorar la calidad de vida y el desarrollo profesional del colaborador.
  • Contrato indefinido que aporta estabilidad laboral y seguridad.

APPLY VIA WEB
Gross salary $2200 - 2500 Full time
Jefe de Datos
  • Genesys Tecnologías de Inform. SpA
  • Santiago (In-office)
Genesys Tecnologías de Inform. SpA es una empresa con más de 30 años de trayectoria en el sector tecnológico latinoamericano, dedicada a facilitar la transformación digital en empresas mediante servicios avanzados de tecnología. Con oficinas en Concepción y Santiago, nos especializamos en el desarrollo de software y la prestación de servicios tecnológicos, incluyendo soporte y mantenimiento de aplicaciones, RPA, Inteligencia Artificial, QA Automation, Staff Augmentation y Cloud.
El área o proyecto donde se desarrollará este rol está focalizado en la gestión y coordinación de servicios vinculados a datos y analítica, incluyendo la supervisión de proveedores en la nube y tecnologías emergentes. Nuestra fábrica de desarrollo y los servicios de outsourcing buscan fortalecer la gestión eficiente de proyectos y ofrecer soluciones tecnológicas con valor agregado para nuestros clientes.

Funciones del Cargo

El profesional contratado liderará la gestión integral de servicios relacionados con proyectos de Datos y Analítica, actuando como enlace principal entre la empresa y los proveedores externos. Entre sus principales responsabilidades está coordinar y supervisar proveedores de servicios Cloud y datos, asegurando entregas oportunas y con la calidad exigida.
  • Coordinar y supervisar el desempeño de proveedores externos en Cloud, Datos & Analítica e Inteligencia Artificial, garantizando el cumplimiento de estándares y acuerdos.
  • Asegurar que los equipos externos entreguen productos y servicios alineados a los requisitos y dentro de los plazos establecidos.
  • Colaborar activamente con stakeholders internos para definir y clarificar requerimientos específicos de los proyectos de datos y analítica.
  • Evaluar y validar que los equipos proveídos por los proveedores cumplan con la experiencia, competencias técnicas y estándares de calidad previstos.
  • Administrar contratos y acuerdos de nivel de servicio (SLA), monitoreando su cumplimiento y gestionando posibles incidencias o desviaciones.
  • Implementar un seguimiento continuo de métricas de desempeño que incluyen calidad, tiempos de entrega y satisfacción del cliente interno.
  • Controlar y gestionar el presupuesto asignado a proyectos y contratos, proponiendo acciones correctivas en caso de desviaciones.

Descripción del Rol

Buscamos un profesional con al menos tres años de experiencia liderando la gestión de servicios tecnológicos, especialmente en proyectos relacionados con Datos y Analítica. Es indispensable contar con experiencia demostrada en la gestión integral de proveedores y coordinación de proyectos complejos en el área, aplicando metodologías tradicionales (waterfall) y ágiles, tales como iterativas, agile y SDLC.
Entre las habilidades técnicas requeridas destacamos el dominio en la gestión de proyectos y proveedores en el entorno de datos, conocimiento profundo en las metodologías de desarrollo de software y ciclo de vida, así como una visión estratégica para alinear los objetivos de negocio con las capacidades técnicas externas.
Además, el candidato ideal deberá poseer excelentes capacidades de comunicación, coordinación y liderazgo para gestionar múltiples equipos y partes interesadas simultáneamente. La capacidad para negociar contratos, supervisar SLA y evaluar desempeño técnico son competencias clave.
Valoramos experiencia con plataformas en la nube relevantes como Amazon Web Services (AWS), Google Cloud Platform, Microsoft Azure y SAP Business Technology Platform (BTP), ya que estos conocimientos permitirán optimizar la gestión y supervisión de servicios de datos y analítica.

Requisitos Deseables

Serán muy valoradas experiencias adicionales que aporten al fortalecimiento del rol, tales como: familiaridad con herramientas y soluciones de Inteligencia Artificial aplicadas a proyectos de datos, manejo avanzado de métricas y análisis de desempeño de proveedores, y experiencia previa en ambientes multinacionales o con equipos distribuidos.
También se considerará como plus tener certificaciones en gestión de proyectos (PMP, Scrum Master, ITIL), así como conocimientos en integración y funcionamiento de plataformas cloud específicas vinculadas a análisis de datos y automatización.

Se Ofrece

Ofrecemos un contrato a plazo fijo con un ambiente laboral dinámico, colaborativo y enfocado en el desarrollo profesional y el aprendizaje constante. Trabajamos con un horario estable de lunes a viernes, de 08:30 a 18:30 hrs.
La modalidad de trabajo es presencial, desarrollando las labores en nuestras oficinas situadas en Concepción, con posibilidad de interacción constante con nuestra oficina matriz en Santiago.
Formarás parte de una empresa consolidada en el mercado tecnológico latinoamericano con más de 30 años de experiencia, donde valoramos el talento, fomentamos la innovación continua y ofrecemos un entorno que impulsa la excelencia técnica y el compromiso con la transformación digital regional.
¡Te esperamos para crecer junto a nosotros! 😊

APPLY VIA WEB
Gross salary $3500 - 4000 Full time
Sr. Data Analyst (Power BI & Azure)
  • TECLA
SQL Business Intelligence ETL Power BI

TECLA is a fully remote software development company with a diverse and highly skilled team of 100+ experts across Latin America. We specialize in AI, cloud, automation, and DevOps, building innovative solutions for high-growth startups and established mid-market technology companies in the U.S.

Our work culture is agile, collaborative, and fast-paced—we take our work seriously while keeping the environment fun and engaging. As a remote-first company, we emphasize strong teamwork and close collaboration, working seamlessly with our U.S. partners as one integrated unit. Whether optimizing cloud environments, developing AI-driven applications, or enhancing DevOps automation, TECLA is at the forefront of technical innovation, solving complex challenges with cutting-edge technology.

Job Details:

We are seeking a highly skilled Short-Term Senior Data Analyst with deep expertise in Power BI, Azure Data Lake, and Azure Data Factory, along with proven experience in data replication and executive-level dashboard creation. Familiarity with the TOTVS ERP schema is essential.

Key Responsibilities:

  • Design, develop, and maintain advanced Power BI dashboards and reports to support business intelligence needs across departments.
  • Leverage Azure Data Factory and Azure Data Lake to replicate and transform data from TOTVS and other enterprise data sources.
  • Work closely with stakeholders to define KPIs and translate business requirements into insightful, scalable analytics solutions.
  • Manage ETL pipelines and ensure data quality, integrity, and availability across platforms.
  • Optimize data models for performance and usability in Power BI.
  • Lead initiatives to automate reporting and streamline data workflows.
  • Document data flows, schema mappings, and report specifications clearly for hand-off and future development.

Required Skills & Experience:

  • 5+ years of experience in data analytics and business intelligence roles.
  • Advanced proficiency in Power BI, including DAX, data modeling, and visualization techniques.
  • Strong hands-on experience with Azure Data Lake, Azure Data Factory, and cloud-based data workflows.
  • Demonstrated experience with data replication and integration from TOTVS ERP systems.
  • Proven ability to create executive dashboards that effectively communicate complex data to non-technical stakeholders.
  • Proficiency in SQL and experience working with large, complex datasets.
  • Strong communication skills and fluent English required.
  • Self-motivated and able to deliver independently in a remote work environment.

Working Hours:

Eastern Time Zone

Duration:

3 months (with the possibility of extension).

Benefits:

  • A fully remote position with a structured schedule that supports work-life balance.
  • The opportunity to work with a fast-growing company driving digital transformation across enterprise IT infrastructure and operations.
  • Two weeks of paid vacation per year.
  • 10 paid days for local holidays.

*Please note we are only looking for full-time dedicated team members who are eager to fully integrate within our team.

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
Gross salary $2000 - 2200 Full time
Analista de Datos
  • Genesys Tecnologías de Inform. SpA
  • Santiago (Hybrid)
PostgreSQL Data Transformation ETL Power BI
Genesys Tecnologías de Inform. SpA es una empresa con más de 30 años de trayectoria en el mercado Latinoamericano, especializada en desarrollo de software y servicios TI para acompañar a las empresas en sus procesos de transformación digital. Con sedes en Concepción y Santiago, Genesys se especializa en ofrecer soluciones basadas en tecnologías de última generación como Cloud, Data Analytics, Inteligencia Artificial y Automatización de Procesos (RPA).
En esta oportunidad, el proyecto se enfoca en la definición e implementación de una arquitectura de datos moderna y eficiente que soporte la toma de decisiones, facilite la interoperabilidad entre sistemas y garantice la calidad y trazabilidad de la información. Se trata de un proyecto de transformación estratégica dentro de la compañía, donde el equipo técnico de alto nivel trabaja con tecnologías y buenas prácticas aplicadas en un entorno real y desafiante.

Responsabilidades Clave

  • Diseñar la arquitectura de datos del proyecto, abarcando esquemas lógicos y físicos, así como los flujos de datos necesarios para garantizar la integridad y escalabilidad.
  • Modelar y normalizar estructuras de datos relacionales optimizadas en PostgreSQL, asegurando eficiencia en almacenamiento y consulta.
  • Participar activamente en la recolección y análisis de los requerimientos de negocio, interpretándolos para desarrollar modelos de datos alineados con las necesidades analíticas y operativas.
  • Establecer procesos robustos de ingesta, limpieza, transformación y catalogación de datos, para soportar casos de uso presentes y futuros en la organización.
  • Colaborar con equipos multidisciplinarios en la definición e integración de mecanismos de transferencia de datos mediante APIs, servicios externos y diversas fuentes de datos.
  • Definir y aplicar estándares claros de calidad, gobernanza y seguridad de datos en conjunto con los roles técnicos relacionados.
  • Apoyar la construcción y validación de dashboards o reportes exploratorios cuando sea necesario para dar soporte a las áreas de negocio.
  • Documentar meticulosamente las estructuras de datos, procesos implementados y decisiones tomadas para asegurar la trazabilidad y reutilización futura de los modelos desarrollados.

Requisitos Técnicos y de Experiencia

Buscamos profesionales con experiencia comprobable como Analista de Datos, Data Engineer o roles afines, preferentemente que hayan participado en proyectos de arquitectura de datos o transformación digital organizacional.
El candidato ideal debe tener dominio avanzado en el diseño y modelamiento de bases de datos relacionales, con un énfasis particular en PostgreSQL, además de conocimientos en bases de datos no relacionales.
Es imprescindible el entendimiento profundo de arquitecturas de datos modernas, incluyendo Data Lakes, Data Warehouses o arquitecturas híbridas que se complementen entre sí para soportar cargas analíticas y operativas.
Se requiere experiencia demostrable en el diseño y ejecución de procesos ETL/ELT para la obtención, procesamiento y almacenamiento eficiente de grandes volúmenes de datos.
Se valorará positivamente el manejo de herramientas específicas de ETL/ELT, así como el conocimiento en plataformas de visualización de datos tales como Power BI, Metabase, Tableau o Looker, para la realización de pruebas exploratorias y validaciones de datos.
Además de las competencias técnicas, buscamos una persona con mentalidad analítica orientada a la comprensión profunda del negocio facilitada por el análisis de datos, con iniciativa, atención al detalle y un fuerte compromiso con la calidad y consistencia en la información. La capacidad para trabajar en entornos colaborativos y multidisciplinarios, así como para comunicar conceptos técnicos complejos en términos claros y estructurados, es fundamental. Se valorará la curiosidad y la apertura para el aprendizaje continuo, contribuyendo así al crecimiento profesional y al éxito del equipo.

Habilidades y Herramientas Deseables

Además de los requisitos técnicos principales, es deseable que el candidato posea experiencia con herramientas específicas de ETL/ELT que faciliten la automatización y optimización de los procesos de transformación de datos.
Se valorará el conocimiento en herramientas de visualización de datos reconocidas en el mercado, como Power BI, Tableau, Looker o Metabase, para la validación rápida y exploratoria de los datos procesados, permitiendo una mejor toma de decisiones basada en información confiable.
El manejo de técnicas y metodologías de gobernanza de datos, calidad y seguridad será un plus para asegurar la integridad y protección de la información en todos los procesos.
Finalmente, poseer habilidades comunicativas y colaborativas que faciliten la interacción entre áreas técnicas y de negocio será un diferencial para fortalecer el trabajo en equipo.

Se Ofrece

Ofrecemos un contrato a plazo fijo dentro de un ambiente laboral dinámico y colaborativo, que fomenta el crecimiento profesional y el aprendizaje constante. Nuestro horario laboral es de lunes a jueves de 08:30 a 18:30 hrs, y viernes de 08:30 a 17:30 hrs, bajo modalidad híbrida que combina trabajo presencial y remoto.
Formarás parte de una empresa con más de 30 años de experiencia en el sector tecnológico, con presencia en las ciudades de Concepción y Santiago. Valoramos el talento y promovemos el desarrollo de nuestros colaboradores en un entorno que impulsa la innovación y la excelencia técnica.
Únete a Genesys Tecnologías de Inform. SpA y sé parte de un equipo tecnológico comprometido con mantener los negocios en movimiento y elevar el estándar tecnológico de las empresas en Latinoamérica. ¡Te esperamos con entusiasmo para crecer juntos! 😊

Computer provided Genesys Tecnologías de Inform. SpA provides a computer for your work.
APPLY VIA WEB
Gross salary $3000 - 4000 Full time
Senior Data Engineer (Rag)
  • Niuro
Python MySQL PostgreSQL BigQuery
Niuro is a company dedicated to connecting projects with elite technology teams specializing in partnerships with leading U.S. companies. Our mission focuses on simplifying global talent acquisition through innovative and efficient solutions that emphasize maximizing quality and performance. We empower autonomous, high-performance tech teams by offering a collaborative environment enriched with continuous professional growth, training in both technical and soft skills, and leadership development. Through managing all administrative tasks, including hiring, payments, and training, Niuro allows teams to concentrate fully on delivering excellent and innovative outcomes aligned with cutting-edge technology and client needs.

Responsibilities

  • Design, implement, and maintain scalable, reliable, and efficient data pipelines tailored to Retrieval-Augmented Generation (RAG) based applications, ensuring seamless automation of intelligent query processes.
  • Configure, manage, and optimize vector databases and advanced search engines to support high-performance embedding and retrieval functionalities.
  • Collaborate closely with Data Scientists and AI Engineers to deploy embedding models and generative AI solutions, fostering integration across teams.
  • Develop and fine-tune ETL/ELT processes to guarantee outstanding data quality, pipeline performance, and resilience within production environments.
  • Ensure system scalability, stability, and operational efficiency to support high-demand data workloads and AI-powered services.

Requirements & Professional Profile

We require candidates with a minimum of 4 to 5 years of experience as a Data Engineer, demonstrating a proven track record managing data-intensive projects and environments. Expertise in Retrieval-Augmented Generation (RAG) methodologies is essential as you will lead innovative data pipeline development.
Technical proficiency must include deep experience with at least one tool or technology from each of the following categories:
  • Vector Databases: Experience with Pinecone, Milvus, Qdrant, Weaviate, or equivalent solutions to manage embedding data effectively.
  • Databases: Proficiency in SQL databases such as PostgreSQL and MySQL, plus NoSQL databases including MongoDB and Cassandra.
  • Data Warehousing: Knowledge of warehouse platforms such as Redshift, BigQuery, or Snowflake to support analytical processing.
  • ETL/ELT Tools: Skilled in dbt, Apache NiFi, Talend, or Informatica for robust data transformation workflows.
  • Big Data Frameworks: Experience with Apache Spark and Kafka for handling large-scale data streams.
  • Search Engines: Familiarity with Elasticsearch, Solr, or OpenSearch to implement advanced search capabilities.
  • Cloud Platforms: Working knowledge of AWS, Google Cloud Platform, or Azure for scalable cloud infrastructure.
  • Containers: Proficient with Docker to containerize and deploy applications reliably.
  • Programming: Advanced skills in Python for scripting, automation, and integration.
Strong analytical aptitude and problem-solving capabilities are vital to address complex data challenges. We seek candidates who thrive in agile, cross-functional teams and possess excellent communication and collaboration skills to work effectively across different roles and disciplines.

Nice-to-have Skills

  • Experience with machine learning frameworks including TensorFlow, PyTorch, and Scikit-learn to support advanced model deployment.
  • Familiarity with natural language processing tools such as spaCy, NLTK, and Hugging Face Transformers to enhance text and language-related functionalities.
  • Knowledge of generative AI models like OpenAI, Azure GPT, and Amazon Bedrock is beneficial for working on cutting-edge AI augmentation projects.
  • Competence in container orchestration using Kubernetes to manage containerized applications at scale.

What We Offer

  • 🌍 100% Remote – Embrace full flexibility by working from anywhere around the world, enabling an optimal work-life balance.
  • 📈 Career Growth – Become part of a tech-forward, innovative, and collaborative team committed to your ongoing professional development and success.
  • 📝 Full-time employment contract with an initial 3-month trial period followed by an indefinite contract, ensuring job stability and continuous collaboration.

Fully remote You can work from anywhere in the world.
Informal dress code No dress code is enforced.
APPLY VIA WEB
$$$ Full time
Data Engineer
  • 2BRAINS
SQL NoSQL DevOps Hadoop

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

El/la Data Engineer de 2Brains debe

Participar en el diseño y desarrollo de los nuevos modelos de información de gestión y las mantenciones evolutivas de los existentes. Participar en las iniciativas de Analítica avanzada del área, apoyando las exploración de modelos de información internos y externos (Data Discovery). Obtener datos históricos desde múltiples fuentes de información interna para apoyar las iniciativas de analítica avanzada del equipo.

Qué conocimientos buscamos en/la Data Engineer

  • Desarrollo de pipelines de datos para extracción, transformación y carga (ETL/ELT).
  • Dominio de herramientas de orquestación como Apache Airflow o Luigi.
  • Automatización y programación de flujos de datos complejos.
  • Gestión de bases de datos relacionales (SQL).
  • Manejo de bases de datos NoSQL (MongoDB, Cassandra, etc.).
  • Experiencia en Cloud Databases (BigQuery, Redshift, Snowflake, etc.).
  • Diseño y construcción de data warehouses, data lakes y lakehouses.
  • Modelado de datos para entornos analíticos y operacionales.
  • Uso de herramientas y tecnologías para procesamiento distribuido (ej. Spark, Hadoop, Kafka).
  • Experiencia en servicios de datos en la nube: Microsoft Azure, Google Cloud Platform, AWS.
  • Conocimientos en integración de flujos de datos con modelos de machine learning (deseable).
  • Manejo de prácticas DevOps para automatización, CI/CD y monitoreo en pipelines de datos.
  • +4 años de experiencia en roles de Ingeniería de Datos.
  • Certificaciones como Professional Data Engineer en Microsoft Azure o Google Cloud Platform.
  • Deseable experiencia desarrollando soluciones de análisis de datos o BI (Business Intelligence).

Que competencias buscamos en/la Data Engineer

  • Empatía
  • Buena capacidad de comunicación.
  • Colaboración y trabajo en equipo.
  • Proactividad.
  • Autonomía.
  • Foco en los objetivos de proyectos.

Te ofrecemos

  • Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos
  • Acceso a grandes clientes y proyectos desafiantes
  • Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales
  • Un entorno de trabajo flexible y dinámico
  • Día libre para tu cumpleaños.
  • 4 semanas de vacaciones al año.
  • Cursos de especialización.
  • Espacio para charlas internas.

Wellness program 2BRAINS offers or subsidies mental and/or physical health activities.
Internal talks 2BRAINS offers space for internal talks or presentations during working hours.
Computer provided 2BRAINS provides a computer for your work.
Education stipend 2BRAINS covers some educational expenses related to the position.
Informal dress code No dress code is enforced.
Shopping discounts 2BRAINS provides some discounts or deals in certain stores.
Vacation over legal 2BRAINS gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Social Intelligence
  • Forma - Moovmedia Group
Excel Power BI Looker Studio YouScan

¡Hola! Somos Forma y somos parte de Moov Media Group, una familia de empresas que también integran Metrix y Moov. Nuestro modelo es colaborativo, ¿qué significa esto? Que trabajamos de manera específica o integral según las necesidades de cada cliente.

Buscamos ser el mejor partner de nuestros clientes apañándolos en la transformación digital. Nos peinamos con el desarrollo tecnológico y el uso de datos, siempre con una mirada estratégica que nos lleve a tomar la mejor decisión.

Hoy queremos seguir creciendo y para eso buscamos un Social Intelligence Analyst que nos acompañe a recorrer el mundo digital en una empresa con cultura flexible, ágil e innovadora. ¿Te interesa? Entonces déjanos contarte un poco más.

El proceso de selección consta de:

  • Llamado telefónico
  • Entrevista con Selección
  • Entrevista con jefatura directa.

¿Te interesa? ¡Dale! Escríbenos y conversemos.

Funciones del cargo

Realizar el monitoreo de las menciones de redes sociales
Realizar reportes y de contingencia reportando métricas e insights para el cliente.
Realizar presentaciones y reuniones con el cliente.
Levantar oportunidades y anticiparse a crisis utilizando la data como fuente.
Entregar informes de percepción en redes sociales a áreas internas para toma de decisiones estratégicas

Requerimientos del cargo

  • Formación en: Sociología, Periodismo, Publicidad o carreras afines
  • Mínimo un año de experiencia en herramientas de visualización como Looker Studio o Power BI [Excluyente]
  • Manejo intermedio/avanzado de plataformas de social listening (YouScan, Radian6, Brandwatch, Buzzmonitor o similar) [Excluyente] | Mínimo un año de experiencia siendo contraparte de clientes [Excluyente]
  • Manejo de Excel y Power Point intermedio: [Deseable] |

Conditions

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
$$$ Full time
Data Scientist
  • Forma - Moovmedia Group
¡Hola! Somos Forma y somos parte de Moov Media Group, una familia de empresas que también integran Metrix y Moov. Nuestro modelo es colaborativo, ¿qué significa esto? Que trabajamos de manera específica o integral según las necesidades de cada cliente.
Buscamos ser el mejor partner de nuestros clientes apañándolos en la transformación digital. Nos peinamos con el desarrollo tecnológico y el uso de datos, siempre con una mirada estratégica que nos lleve a tomar la mejor decisión.
Hoy queremos seguir creciendo y para eso buscamos un Data Scientist que nos acompañe a recorrer el mundo digital en una empresa con cultura flexible, ágil e innovadora. ¿Te interesa? Entonces déjanos contarte un poco más.
El proceso de selección consta de:

  • Llamado telefónico
  • Entrevista con Selección
  • Entrevista con jefatura directa.
¿Te interesa? ¡Dale! Escríbenos y conversemos.

Funciones del cargo

Diseñar, entrenar y desplegar modelos de Machine Learning y algoritmos de predicción (scikit-learn, XGBoost, etc.)
Liderar procesos de análisis estadístico y modelado de datos con Python y SQL
Automatizar pipelines de datos e integraciones con APIs (Google Ads, Meta, ecommerce, CRM)
Desarrollar dashboards interactivos y embebidos (Power BI, Looker Studio, Tableau)
Validar y mantener la calidad de modelos en producción, utilizando ML Ops básico
Colaborar con equipos de ingeniería, automatización, media y producto

Requerimientos del cargo

Requisitos técnicos:
  • Lenguajes obligatorios: Python (Pandas, Scikit-learn, Numpy, Matplotlib), SQL.
  • Cloud: GCP o AWS (manejo de BigQuery, S3, Redshift u otros).
  • Automatización: Airflow, dbt o scripts programados.
  • Visualización: Power BI y/o Looker Studio (excluyente).
  • Modelos ML: Clasificación, regresión, clustering, análisis de series temporales.
Otros requisitos:
  • Ingeniero en Estadística, Computación, Ciencia de Datos o afín.
  • 3+ años de experiencia en proyectos de data science o advanced analytics.
  • Capacidad para explicar conceptos técnicos a equipos no técnicos.
  • Mentalidad de experimentación y prototipado rápido (MVPs, hackathons).

Opcionales

Deseable: ML Ops (Vertex AI, SageMaker, MLflow), APIs REST, web scraping, Docker
Deseable: experiencia en ecommerce, retail o marketing digital.

Conditions

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
$$$ Full time
Data Scientist & GCP Specialist
  • Forma - Moovmedia Group
Python SQL BigQuery Power BI

¡Hola! Somos Moov Media Group, una familia de empresas integrada por Moov, Metrix y Forma. Nuestro modelo es colaborativo, ¿qué significa esto? Que trabajamos de manera específica o integral según las necesidades de cada cliente.

Navegamos en el mundo digital usando la tecnología, la data analytics, los medios y la publicidad para encontrar soluciones de marketing multicanal que nos conviertan en los más secos de Latinoamérica.

Hoy queremos seguir creciendo y para eso buscamos un Data Scientist & GCP Specialist que nos acompañe a recorrer el mundo digital en una empresa con cultura flexible, ágil e innovadora. ¿Te interesa? Entonces déjanos contarte un poco más.

El proceso de selección consta de:

  • Llamado telefónico
  • Entrevista con Selección
  • Entrevista con jefatura directa.

¿Te interesa? ¡Dale! Escríbenos y conversemos.

Funciones del cargo

Diseñar, entrenar y desplegar modelos de Machine Learning avanzados usando Vertex AI.
Gestionar y optimizar infraestructura cloud en GCP (BigQuery, Cloud Storage, Dataflow, Compute Engine).
Automatizar pipelines avanzados de datos con Cloud Composer (Airflow), Cloud Functions y APIs externas.
Desarrollar dashboards interactivos avanzados principalmente con Looker Studio.
Implementar y gestionar prácticas de ML Ops avanzadas (monitoreo, versionado, CI/CD) en Vertex AI.
Colaborar y asesorar técnicamente a equipos de ingeniería, media y producto.

Requerimientos del cargo

Requisitos técnicos:

  • Lenguajes obligatorios: Python (Pandas, TensorFlow/Keras, Scikit-learn, Numpy), SQL.
  • Cloud: Google Cloud Platform (Vertex AI, BigQuery, Dataflow, Cloud Storage, Compute Engine).
  • Automatización: Cloud Composer (Airflow), Cloud Functions, Dataflow.
  • Visualización: Looker Studio (excluyente), Power BI o Tableau (deseable).
  • Modelos ML: Clasificación, regresión, clustering, detección de anomalías, series temporales.
  • Ingeniero en Estadística, Computación, Ciencia de Datos o carrera afín.
  • 3+ años de experiencia especializada en proyectos utilizando Google Cloud Platform y Vertex AI.

Opcionales

Deseable: experiencia previa en ecommerce, retail o marketing digital.

Conditions

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
$$$ Full time
Data Engineer
  • 2BRAINS
Python Git Data Analysis SQL

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

El/la Data Engineer de 2Brains

Se encarga de participar en el diseño y desarrollo de los nuevos modelos de información de gestión y las mantenciones evolutivas de los existentes. Participar en las iniciativas de Analítica avanzada del área, apoyando las exploración de modelos de información internos y externos (Data Discovery). Obtener datos históricos desde múltiples fuentes de información interna para apoyar las iniciativas de analítica avanzada del equipo.

El/la Data Engineer de 2Brains debe

  • Construir y optimizar pipelines de datos para la ingesta, transformación y carga eficiente de información.
  • Manejar infraestructuras en la nube (AWS, GCP, Azure), asegurando escalabilidad y eficiencia en costos.
  • Automatizar y monitorear procesos mediante herramientas de DevOps como Airflow, Terraform o Kubernetes.
  • Implementar controles de calidad y gobernanza para garantizar la integridad y disponibilidad de los datos.
  • Colaborar con equipos de Data Science, Producto y Desarrollo para diseñar soluciones alineadas con las necesidades del negocio.

Qué conocimientos buscamos en/la Data Engineer

  • Excluyente Experiencia trabajando con tecnologías de BI
  • Experiencia en la construcción/operación de sistemas distribuidos de extracción, ingestión y procesamiento de grandes conjuntos de datos de gran disponibilidad.
  • Capacidad demostrable en modelado de datos, desarrollo de ETL y almacenamiento de datos.
  • Experiencia en el uso de herramientas de informes de inteligencia empresarial (Power BI)
  • Excluyente conocimiento en consumo de microservicios de APIs Rest
  • Excluyente conocimiento en Git , Bitbucket, Docker,Jenkins,Webhooks
  • Programación con Python y bases sólidas de ingeniería de software.
  • Automatización y scripting.
  • Uso de librerías de Python para manipulación y análisis de datos y Apache Spark.
  • Conocimientos en bases de datos SQL y NoSQL.
  • Conocimiento en CI/CD, Dataflow
  • Conocimiento en S3, Redshift y Glue AWS

Que competencias buscamos en/la Data Engineer

  • Empatía
  • Buena capacidad de comunicación.
  • Colaboración y trabajo en equipo.
  • Proactividad.
  • Autonomía.
  • Foco en los objetivos de proyectos.

Condiciones

Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos

Acceso a grandes clientes y proyectos desafiantes

Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales

Un entorno de trabajo flexible y dinámico

Beneficios especiales: día libre para tu cumpleaños, días de descanso a convenir.

Informal dress code No dress code is enforced.
Vacation over legal 2BRAINS gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
BI Analyst
  • The Optimal
  • Santiago (Hybrid)
Python SQL Tableau
The Optimall es una empresa líder en servicios tecnológicos e innovadores orientados al apoyo en la toma de decisiones en Logística de carga y pasajeros en Chile, Colombia, Ecuador y Perú (pronto mucho más🚀).
Parte importante de nuestros proyectos apuntan a reducir costos de transporte, mejorar la visibilidad de la cadena de abastecimiento y ofrecer soluciones tecnológicas para la optimización de rutas, automatización de procesos y análisis de datos para nuestros clientes.

¿Qué desafíos tendrás? 💪

Serás responsable de transformar datos en información valiosa para la toma de decisiones estratégicas tanto de The Optimal como de nuestros clientes. Tu rol consistirá en analizar e interpretar datos clave, proponer planes de mejora que optimicen el servicio entregado a nuestros clientes e impulsen el rendimiento del equipo. Además, deberás estructurar bases de datos, desarrollar paneles funcionales y centralizar la información para su uso transversal en toda la organización y nuestros clientes.

¿Qué buscamos en ti? 🚀

Buscamos a alguien ingenioso/a, con pensamiento analítico, orientación a resultados y pasión y agilidad de manejo de datos. Alguien que sepa traducir información compleja en soluciones accionables.
  • Formación profesional en Ingeniería Civil, Industrial, en TI o carrera afín.
  • Al menos 2 años de experiencia desarrollando paneles de control para clientes y equipos internos (Tableau)
  • Dominio de SQL, Tableau y Python.
  • Capacidad para interpretar datos, detectar oportunidades de mejora y proponer soluciones concretas.

Condiciones✍

Jornada Mixta: Cowork 🏢 & Home Office 🏠
Horario laboral: Lunes a viernes Full Time⏱️
Proyectos retadores y uso de tecnologías a la vanguardia 🤓
Asignación por concepto de movilización y colación🪙

APPLY VIA WEB
$$$ Full time
Business Analyst Semi Senior
  • BC Tecnología
  • Santiago (Hybrid)
Análisis de Negocios Liderazgo de equipo Metodologías ágiles Análisis de datos
En BC Tecnología, somos una consultora de TI que ofrece un enfoque ágil y personalizado a las necesidades de nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestro objetivo es crear soluciones efectivas que se alineen con las expectativas de cada cliente a través de la formación de equipos de trabajo enfocados y la gestión de portafolios robustos. Con más de seis años de experiencia, hemos diseñado equipos multidisciplinarios que se dedican a la consultoría, desarrollo de software y administración IT, ofreciendo un entorno flexible que fomenta la innovación y el crecimiento profesional.

Liderazgo y Comunicación

El rol del de Análisis de Negocios implica varias responsabilidades críticas para asegurar el éxito del producto y del equipo. Entre las principales funciones están:

  • Liderazgo de equipo: Liderar y motivar a un equipo multidisciplinario en el desarrollo de aplicaciones, asegurando una colaboración efectiva y el cumplimiento de los objetivos del Product Owner.
  • Priorización de iniciativas: Evaluar y proponer iniciativas de negocio que maximicen el impacto en el producto y los resultados generales.
  • Comunicación y presentación: Elaborar y presentar informes periódicos claros y pertinentes a los stakeholders, facilitando ceremonias para fomentar la colaboración y compartir resultados.
  • Explotación de datos: Utilizar herramientas de análisis de datos para detectar oportunidades de mejora en el funnel del producto, analizando distintos datos relacionados con el comportamiento del cliente y las tendencias del mercado.

habilidades y experiencia requeridas

Buscamos un profesional con una sólida formación en Ingeniería Civil Industrial, Ingeniería Comercial, Informática o áreas afines. Se requiere un mínimo de 2 años de experiencia en un rol de analista de negocios, donde haya demostrado una capacidad efectiva para gestionar equipos de desarrollo. Las habilidades analíticas y de resolución de problemas son esenciales, así como la capacidad de comunicación tanto oral como escrita. También valoramos la capidad para trabajar de forma independiente y ser parte de un equipo colaborativo.
El candidato ideal será un profesional orientado a resultados, con experiencia en el desarrollo de productos digitales y habilidades de liderazgo, capaz de gestionar equipos multidisciplinarios. Es fundamental tener un enfoque en la toma de decisiones basada en datos y un entusiasmo por la venta digital. Se requiere una capacidad excepcional para identificar oportunidades de mejora y una destreza notable en la creación de un ambiente laboral motivador y colaborativo. La apertura al aprendizaje y aplicación de nuevas tecnologías y metodologías es altamente valorada.

Competencias deseables

Se valorarán habilidades adicionales, como experiencia con metodologías ágiles, conocimiento en herramientas de visualización de datos, y capacidad para implementar procesos de mejora continua. El deseo de crecer profesionalmente dentro del área de analítica y un interés activo por participar en la transformación digital de nuestros clientes también son aspectos positivos que consideraríamos importantes.

Beneficios ofrecidos

En BC Tecnología, cuidamos nuestro equipo y ofrecemos un entorno laboral flexible, con un paquete de beneficios que incluye:

  • Modalidad híbrida que combina trabajo remoto y presencial.
  • Salud prepaga de primer nivel para el empleado y su familia.
  • Un dos a tres días de home office por semana

¡Únete a nosotros y marca una diferencia en el mundo de la tecnología! 🎉

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
Informal dress code No dress code is enforced.
APPLY VIA WEB
$$$ Full time
Data Engineer
  • Niuro
Python MySQL Docker SQL Server
At Niuro, we connect elite tech teams with top-tier U.S. companies. Our mission is to simplify global talent acquisition through innovative solutions that maximize efficiency and quality. We empower projects by providing autonomous, high-performance tech teams, and we offer continuous professional growth opportunities to ensure everyone involved is set for success in innovative and challenging projects.

Key Responsibilities

  • Ingest, process, and integrate data from multiple systems and platforms using Big Data tools.
  • Design and implement data pipelines to transfer data from source to destination systems, ensuring alignment with integration standards and existing frameworks.
  • Guarantee high data quality, availability, and compliance across applications and digital products.
  • Collaborate with product teams to identify required datasets and evaluate existing sources (e.g., update frequency, data reliability, known issues).
  • Contribute to the delivery of scalable, strategic data engineering solutions aligned with our data roadmap.

Requirements

🔹 Experience: 3+ years in data engineering or a similar role.
🔹 Tech Stack:
  • Cloud & Big Data: Proficient with AWS services including Lambda, S3, Glue.
  • Data Orchestration: Experience designing and managing workflows using Airflow.
  • Data Modeling & Transformation: Hands-on experience with dbt.
  • Data Warehousing: Solid knowledge of Snowflake.
  • Databases: Experience with MySQL or SQL Server.
  • Programming: Strong Python skills, including scripting, automation, and unit testing.
🔹 Other Skills:
  • Good understanding of data quality and governance practices.
  • Familiarity with various data sources and types in data mining and analytics.
  • Intermediate to advanced English for international team collaboration.

Nice to Have

🔸 Experience deploying dbt in production environments.
🔸 Knowledge of Data Lake and Lakehouse architectures.
🔸 Familiarity with CI/CD tools and Git-based version control (GitHub, GitLab, or Azure DevOps).
🔸 Experience with Docker for containerized data workflows.

What We Offer

  • 🌍 100% Remote – Work from anywhere in the world.
  • 🚀 Growth Opportunities – Be part of shaping a robust and modern data ecosystem.

Informal dress code No dress code is enforced.
APPLY VIA WEB
Gross salary $1200 - 1900 Full time
Business Analyst
  • coderslab.io
  • Santiago (Hybrid)
Liderazgo de equipo Análisis de datos Resolución de problemas Visualización de datos

En CodersLab, actualmente estamos enfocados en el crecimiento global de nuestros equipos con el objetivo de posicionar nuestros productos en más países de Latinoamérica. Por esta razón, estamos buscando un Business Analyst.

Te sumarás a un equipo desafiante y ambicioso con ganas de innovar en el mercado, haciendo que tus propuestas sean altamente valiosas para el negocio.

¡Aplica ahora para este increíble reto!

Funciones del cargo

  • Liderazgo de equipo:
    • Liderar y motivar a un equipo multidisciplinario de desarrollo de la aplicación.
    • Facilitar la colaboración efectiva entre los miembros del equipo y garantizar la alineación con los objetivos del Product Owner.
  • Priorización de iniciativas:
    • Evaluar y proponer iniciativas de negocio en función de su potencial impacto en el producto y los resultados.
  • Comunicación y presentación:
    • Desarrollar y presentar informes periódicos claros y de impacto a los stakeholders.
    • Facilitar ceremonias y presentaciones para compartir resultados y fomentar la colaboración entre equipos.
  • Explotación de datos:
    • Conocer y utilizar herramientas para la explotación de datos para identificar oportunidades de mejora en el embudo del producto.
    • Extraer y analizar datos de diversas fuentes para obtener información valiosa sobre el comportamiento del cliente y las tendencias del mercado.

Requerimientos del cargo

  • Ingeniería Civil Industrial, Ingeniería Comercial, Informática o áreas relacionadas.
  • Mínimo 2 años de experiencia en un rol de analista de negocios.
  • Experiencia demostrable en la gestión de equipos de desarrollo.
  • Sólidas habilidades analíticas y de resolución de problemas.
  • Excelentes habilidades de comunicación oral y escrita.
  • Capacidad para trabajar de forma independiente y como parte de un equipo.
  • Experiencia en el uso de herramientas para la explotación de datos y visualización de datos.
  • Buena comunicación y relaciones con stakeholders.

Conditions

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
APPLY VIA WEB
Gross salary $2000 - 2200 Full time
Data Engineer Senior GCP
  • coderslab.io
  • Santiago (Hybrid)
Python SQL Big Data BigQuery

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente nos encontramos apuntando al crecimiento de nuestros equipos de manera global con el objetivo de posicionarnos con nuestros productos en más países de Latinoamérica, es por ello que estamos en búsqueda de un Data Engineer Senior - GCP para sumarse a nuestro equipo.

Te sumarás a un equipo desafiante y ambicioso con ganas de renovar el mercado, por lo que tus propuestas serán de mucho valor para el negocio.

¡Postula para este tremendo desafío!

Job functions

  • Ejecutar procesos de ingesta y modelamiento de datos en entornos de Google Cloud Platform (GCP).
  • Participar activamente en el desarrollo y mantenimiento de pipelines de datos (ETLs).
  • Colaborar en el diseño y optimización de arquitecturas de datos eficientes.
  • Trabajar de forma colaborativa en equipos multidisciplinarios, tanto de forma remota como presencial.
  • Documentar procesos y contribuir a las buenas prácticas de desarrollo y versionamiento de código.

Qualifications and requirements

Experiencia comprobable en proyectos de datos (ETLs) sobre GCP.

Dominio de productos de GCP como:

  • BigQuery
  • Cloud Functions
  • Cloud Composer / Airflow
  • Cloud Storage

Conocimientos en DBT (deseable).

Sólida experiencia en SQL y Python.

Experiencia trabajando con sistemas de versionamiento como GitLab, Bitbucket o GitHub.

Habilidades blandas:

  • Alta capacidad de trabajo en equipo.
  • Autonomía y habilidades de autogestión.
  • Buenas capacidades analíticas y de resolución de problemas.

Conditions

Modalidad: Híbrida (mínimo 2 días presencial en Santiago, Chile)
Duración: contrato por 8 meses con extension

APPLY VIA WEB
Gross salary $2400 - 2600 Full time
Data Engineer AWS
  • BC Tecnología
  • Santiago (Hybrid)
Python Data Analysis SQL Web server
En BC Tecnología, nos especializamos en la consultoría de TI, ofreciendo un amplio rango de servicios para adaptarnos a las necesidades específicas de nuestros clientes, principalmente en finanzas, seguros, retail y gobierno. Nuestro equipo trabaja mediante metodologías ágiles, lo que nos permite diseñar e implementar soluciones tecnológicas efectivas y dirigidas al cliente. Actualmente, estamos buscando un Data Engineer con experiencia en AWS para sumarse a nuestro equipo y contribuir a proyectos innovadores en la gestión y explotación de datos.

Responsabilidades del Cargo

  • Desarrollar y gestionar procesos de ETL, asegurando la calidad y fiabilidad de los datos.
  • Optimizar la explotación de datos a través de técnicas de Tuning.
  • Implementar soluciones utilizando herramientas de AWS, incluyendo Glue, Lambda, S3, Redshift y DynamoDB.
  • Colaborar con los equipos de desarrollo de software para asegurar la integración de datos eficiente.
  • Realizar análisis y visualización de datos para apoyar en la toma de decisiones.
  • Mantener un enfoque en la innovación y la mejora continua de los procesos y herramientas utilizadas.

Descripción del Cargo

Buscamos un Data Engineer AWS con un mínimo de 3 años de experiencia en el manejo de datos. El candidato ideal tendrá conocimientos sólidos en:
  • Explotación de datos y Tuning.
  • Diseño e implementación de procesos ETL.
  • Desarrollo de consultas efectivas en SQL.
  • Programación en Python.
  • Uso de herramientas de orquestación como Apache Airflow (deseable).
Valoramos habilidades como el trabajo en equipo, la proactividad y la capacidad para adaptarse a nuevas tecnologías. La combinación de habilidades técnicas y soft skills es esencial para unirse a nuestro equipo dinámico.

Habilidades Deseables

Además de los requisitos mencionados, sería beneficioso contar con experiencia en:
  • Integraciones y gestión de datos en múltiples fuentes.
  • Implementación de soluciones en la nube de AWS.
  • Conocimientos en herramientas de visualización de datos.
Estas habilidades ayudarán al candidato a integrarse de manera efectiva en nuestros equipos de trabajo y contribuir a proyectos futuros.

Beneficios de Trabajar con Nosotros

En BC Tecnología, valoramos a nuestro equipo y ofrecemos un entorno flexible y beneficios atractivos:
  • Contrato indefinido.
  • Modalidad híbrida, combinando trabajo remoto y en oficina.
  • Paquete de beneficios corporativos que incluye salud prepaga de primer nivel para el empleado y su familia.
  • Un día de home office a la semana, junto con desayunos y un comedor en la planta.
  • Acceso a un Sport Club y asistencia de un nutricionista.
¡Únete a nosotros y marca una diferencia en el mundo de la tecnología! 🎉

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB
$$$ Full time
Semi Senior / Senior Data Engineer
  • Devsu
  • Quito, Cuenca or Guayaquil (In-office)
Java Python NoSQL Scala
En Devsu, nos dedicamos a construir productos digitales innovadores que se ajustan a las necesidades de nuestros clientes. Con una trayectoria de más de 10 años, hemos reclutado y formado equipos de tecnología de alto rendimiento para algunas de las marcas más reconocidas del mundo.
Buscamos un Ingeniero de Datos con amplia experiencia en el ciclo completo de desarrollo de soluciones de información, incluyendo análisis, diseño, desarrollo, certificación, despliegue y mantenimiento, en entornos OnPremise y tecnologías Big Data. El candidato ideal debe demostrar sólidos conocimientos en optimización de bases de datos y un enfoque proactivo para superar limitaciones técnicas o de procesos, asegurando soluciones robustas, eficientes y alineadas con las mejores prácticas de desarrollo.

Es una posición presencial en la ciudad de Quito, Ecuador, en donde serás asignado/a a uno de nuestros clientes más importantes en el sector financiero/bancario de Latinoamérica.

Funciones del cargo

  • Diseñar y desarrollar soluciones de datos alineadas con la visión de Arquitectura de Datos.
  • Crear y optimizar ETLs, ELTs y APIs para manejo eficiente de datos.
  • Implementar estrategias de testing para validar calidad funcional y no funcional.
  • Proponer mejoras continuas en procesos y productos de datos.
  • Resolver incidencias técnicas y documentar soluciones conforme a estándares.
  • Mentorizar y apoyar el onboarding de nuevos integrantes del equipo.

Requerimientos del cargo

  • Bases de datos relacionales y NoSQL, diseño de Datawarehouse, Datamarts, Datalakes y Lakehouse.
  • Procesamiento distribuido con Hadoop, Spark y arquitecturas batch/streaming.
  • Desarrollo en Python, Scala o Java, aplicando principios de Clean Code.
  • Construcción de pipelines con herramientas ETL (Azure Data Factory, AWS Glue, SSIS).
  • Estrategias de DataOps/MLOps y despliegue CI/CD.
  • Deseable: Certificaciones en AWS, Azure, o Big Data, y experiencia en arquitecturas modernas como Data Mesh o Data Fabric.

Herramientas

  • Apache Spark, Kafka, Flink, Hadoop, HDFS.
  • Servicios Cloud: AWS, Azure, GCP.
  • Lenguajes: Python, Scala, Java.

Beneficios

Un contrato estable a largo plazo. Entrenamiento contínuo. Seguro de Salud Privado. Trabajarás con algunos de los ingenieros de software más talentosos de América Latina y los EEUU, haciendo un trabajo desafiante y software de clase mundial.

Wellness program Devsu offers or subsidies mental and/or physical health activities.
Internal talks Devsu offers space for internal talks or presentations during working hours.
Digital library Access to digital books or subscriptions.
Health coverage Devsu pays or copays health insurance for employees.
Computer provided Devsu provides a computer for your work.
Education stipend Devsu covers some educational expenses related to the position.
Personal coaching Devsu offers counseling or personal coaching to employees.
APPLY VIA WEB
$$$ Full time
Arquitecto de Datos / Sector Bancario
  • Devsu
  • Quito, Cuenca or Guayaquil (Hybrid)
Agile Web server Spark Apache Spark
Con más de 10 años de experiencia creando innovación para empresas, desde startups hasta las mayores compañías de Estados Unidos y Latinoamérica en diferentes industrias como entretenimiento, banca, salud, retail, educación y seguros.
En Devsu te encontrarás trabajando con los mejores profesionales de los que podrás aprender constantemente y participar en proyectos emocionantes y desafiantes para clientes globales.
Buscamos un Arquitecto de Datos con experiencia comprobada en el diseño e implementación de soluciones de procesamiento de datos en NRT utilizando Spark . El candidato ideal deberá diseñar y construir arquitecturas escalables y realizar la integración de sistemas complejos para satisfacer las necesidades de negocio.
Es una posición híbrida en la ciudad de QUITO, ECUADOR, en donde serás asignado/a a uno de nuestros clientes más importantes en el sector financiero/bancario de Latinoamérica.

Funciones del cargo

  • Diseñar e implementar soluciones de procesamiento de datos en NRT y por lotes utilizando Spark.
  • Optimizar y mantener flujos de datos para garantizar su eficiencia y confiabilidad.
  • Colaborar con equipos multidisciplinarios para integrar sistemas y desarrollar soluciones de datos robustas.
  • Asegurar la integridad y la seguridad de los datos, aplicando las mejores prácticas y estándares de la industria.
  • Proporcionar mentoría y acompañamiento a otros miembros del equipo.
  • Cocreación y despliegue de flujos de datos en Spark vía CI/CD

Requerimientos del cargo

  • Mínimo 3 años de experiencia en arquitectura de datos.
  • Experiencia demostrable con apache spark y plataformas de datos al menos 3 años.
  • Conocimiento en la creación y mantenimiento de flujos de datos en NRT en al menos 3 proyectos comprobables de complejidad media o alta con gran volumen de datos.
  • Familiaridad con la gobernanza de datos y la seguridad de la información.
  • Habilidad para trabajar en entornos ágiles y dinámicos.
  • Excelentes habilidades de comunicación y trabajo en equipo.

Deseables

  • Certificación Oracle DBA / MCSA SQL Server Administrator / DB2 DBA for Unix Linux & Windows.
  • Certificados relacionados con Arquitectura de solución y/o Arquitectura de Software.

Beneficios

Un contrato estable a largo plazo. Entrenamiento contínuo. Seguro de Salud Privado. Trabajarás con algunos de los ingenieros de software más talentosos de América Latina y los EEUU, haciendo un trabajo desafiante y software de clase mundial.

Wellness program Devsu offers or subsidies mental and/or physical health activities.
Internal talks Devsu offers space for internal talks or presentations during working hours.
Digital library Access to digital books or subscriptions.
Health coverage Devsu pays or copays health insurance for employees.
Computer provided Devsu provides a computer for your work.
Education stipend Devsu covers some educational expenses related to the position.
APPLY VIA WEB
$$$ Full time
Data Engineer
  • Compara
Python PostgreSQL Back-end Kafka
ComparaOnline es una plataforma digital que permite cotizar y comparar los principales seguros y productos financieros de Latinoamérica. En nuestra empresa, buscamos un Data Engineer que ayude a construir, optimizar y evolucionar nuestra infraestructura de datos. Con un énfasis en la modernización y mejora continua, esta posición es clave para asegurar que nuestros procesos de datos sean eficientes y escalables.

🎯 ¿Qué harás?

  • Mantener y optimizar nuestro data warehouse en PostgreSQL y los pipelines de ingesta de datos en producción.
  • Liderar la transición hacia una arquitectura moderna basada en Databricks, dbt y un data lake en S3.
  • Desarrollar y escalar pipelines de procesamiento y transformación de datos.
  • Monitorear, depurar y documentar procesos de datos para garantizar su calidad y confiabilidad.

🔎 ¿A quién buscamos?

  • Persona con más de 3 años de experiencia en ingeniería de datos, construyendo y manteniendo pipelines en producción.
  • Dominio de Python para procesamiento de datos, incluyendo el uso de librerías como pandas, SQLAlchemy y psycopg2.
  • Experiencia trabajando con orquestadores de workflows, especialmente Airflow.
  • Conocimiento sólido de bases de datos relacionales, especialmente PostgreSQL, incluyendo modelamiento y optimización de rendimiento.
  • Experiencia práctica con almacenamiento en la nube (S3 o equivalente) y formatos como Parquet.
  • Autonomía y capacidad de tomar decisiones técnicas.

🌟 Será un plus si cuentas con

  • Experiencia con dbt y modelado de datos.
  • Conocimiento en Databricks, Delta Lake, Apache Iceberg o arquitecturas de lakehouse.
  • Experiencia con diseño e implementación de pipelines CDC (Change Data Capture) usando Debezium, Kafka o similares.
  • Conocimientos de buenas prácticas de DevOps para data (versionado de pipelines, testing, CI/CD).
  • Inglés técnico para leer documentación y colaborar en proyectos internacionales.

🚀Únete a nuestro equipo

En Compara, ofrecemos horarios flexibles y un entorno que favorece el crecimiento profesional. Valoramos la cultura de aprendizaje continuo y el desarrollo de cada miembro del equipo, por lo que si disfrutas optimizando infraestructuras de datos, impulsando mejoras estratégicas y explorando nuevas herramientas, ¡nos encantaría conocerte! 🚀

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Vacation over legal Compara gives you paid vacations over the legal minimum.
APPLY VIA WEB
Gross salary $1700 - 2000 Full time
Business Analyst Especializado en Inteligencia Artificial
  • Factor IT
Python Data Analysis Big Data Artificial Intelligence
En FactorIT, una empresa líder en tecnología presente en 8 países de Latam, estamos en búsqueda de un Business Analyst que se una a nuestro equipo especializado en Inteligencia Artificial (IA). Nuestro enfoque en soluciones innovadoras y personalizadas nos posiciona como el socio estratégico que las grandes empresas necesitan en su transformación digital.
Estamos comprometidos con abordar los retos más complejos de nuestros clientes, utilizando IA para optimizar procesos y mejorar la eficiencia. Al unirte a nosotros, participarás en proyectos significativos que generan un impacto real en el desarrollo de soluciones tecnológicas avanzadas.

Responsabilidades:

  • Colaborar con los stakeholders para identificar necesidades y oportunidades de mejora mediante el uso de IA.
  • Traducir los requerimientos del negocio en especificaciones técnicas para equipos de desarrollo de IA.
  • Analizar y modelar datos, generando insights relevantes que faciliten la toma de decisiones.
  • Participar en la planificación, diseño e implementación de soluciones de IA en los procesos de negocio.
  • Realizar pruebas y validaciones de las soluciones implementadas asegurando su alineación con los objetivos de negocio.
  • Asegurar que las soluciones de IA sean escalables, sostenibles y alineadas con las necesidades del negocio.

Requisitos:

  • Experiencia mínima: 4 años como Business Analyst con un enfoque en proyectos de IA.
  • Conocimientos técnicos en análisis de datos, modelado predictivo y herramientas de IA.
  • Dominio de herramientas como Python, R, o plataformas como TensorFlow y PyTorch.
  • Capacidad para traducir problemas complejos de negocio en soluciones claras de IA.
  • Fuertes habilidades analíticas y de resolución de problemas.

Desirable

Valoramos la experiencia en proyectos multidisciplinarios y la capacidad de trabajar en equipos internacionales. Habilidades de comunicación efectiva y una mentalidad proactiva también son aspectos deseables.

Ofrecemos:

  • Un entorno de trabajo remoto y flexible que favorece el equilibrio entre la vida personal y laboral.
  • Proyectos innovadores en IA y Machine Learning que desafían tus habilidades.
  • Oportunidades de crecimiento profesional y desarrollo continuo en el ámbito de IA.
  • Colaboración con equipos internacionales que enriquecen la experiencia laboral.
¡Si eres un experto en ingeniería de datos con pasión por la Inteligencia Artificial, te estamos esperando! 🚀

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
$$$ Full time
Database Engineer
  • Leniolabs_
Python PostgreSQL SQL Web server

Leniolabs_ que ahora es Improving South America es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España, USA y Canadá.

Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes.

Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.

Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Funciones del cargo

En Leniolabs/Improving South America estamos en la búsqueda de un Database Engineer (DBE) SSR/SR.

El candidato ideal va a gestionar, monitorear y mejorar el rendimiento de bases de datos con PostgreSQL en AWS RDS Aurora, asegurando alta disponibilidad, seguridad y eficiencia.

Colaborará con el diseño e implementar canales ETL para facilitar un flujo de datos sin inconvenientes entre la base de datos centralizada y varios sistemas internos.

Optimización del rendimiento: analizar y optimizar consultas SQL, índices y diseños de esquemas para mejorar la eficiencia y la escalabilidad.

Colaboración: trabajar en estrecha colaboración con ingenieros de datos, desarrolladores de aplicaciones y equipos de DevOps para facilitar conexiones directas a bases de datos y soluciones de integración.

Automatización y monitoreo: utilizar herramientas nativas de AWS y soluciones de terceros para el monitoreo, las alertas y la automatización proactivos de bases de datos.

Diseña estrategias de respaldo y recuperación ante desastres para proteger la integridad de los datos y garantizar la continuidad del negocio.

Buscamos perfiles con un compromiso claro con la excelencia técnica, la innovación y un interés genuino en las últimas tecnologías, capaces de trabajar en un entorno ágil y de alto rendimiento.

Requerimientos del cargo

  • Contar con más de 5 años de experiencia en bases de datos.
  • Al menos 3 años trabajando con PostgreSQL: diseño de esquemas, optimización de consultas y estrategias de indexación.
  • Conocimientos en AWS: manejo de RDS, Aurora, IAM, S3, Lambda, Glue y CloudWatch.
  • Experiencia en ETL y canalizaciones de datos, utilizando herramientas como AWS Glue, Apache Airflow o scripts personalizados.
  • Habilidad en scripting y automatización con SQL, Python o AWS CDK.
  • Excelentes habilidades de resolución de problemas en entornos de bases de datos a gran escala.
  • Contar con inglés intermedio/avanzado (B2/C1).

Beneficios

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Leniolabs_ provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Leniolabs_ gives you paid vacations over the legal minimum.
APPLY VIA WEB
Gross salary $1000 - 1200 Full time
Analista de Datos
  • LFi
  • Santiago (Hybrid)
Data Analysis Excel Marketing SQL

En LFI buscamos talento para ofrecer las mejores soluciones de tecnología y marketing de la región. Desarrollamos proyectos que construyen la presencia digital de nuestros clientes y que hacen la vida más fácil y mejor a sus usuarios. Queremos innovar, buscar nuevas tecnologías, ser un equipo diverso y combinar nuestros talentos.

Funciones del cargo

Nos encontramos en búsqueda de un Analista de Datos talentoso para unirse a nuestro equipo dinámico y en crecimiento.
Como Analista de Datos, jugarás un papel crucial en la extracción de información valiosa de nuestros datos, lo que nos ayudará a tomar decisiones estratégicas más informadas y mejorar nuestras campañas de marketing digital.

Funciones:

  • Recopilar, limpiar y analizar grandes conjuntos de datos de diversas fuentes.
  • Identificar tendencias y patrones en los datos que sean relevantes para nuestras campañas de marketing digital.
  • Crear informes y visualizaciones de datos claros y concisos para comunicar los hallazgos a las partes interesadas.
  • Desarrollar y mantener modelos de análisis de datos para predecir y optimizar el rendimiento de las campañas.
  • Colaborar con el equipo de marketing digital para desarrollar e implementar estrategias basadas en datos.

Requerimientos del cargo (excluyentes)

  • Ingeniero civil industrial, Ingeniero industrial, Ingeniero comercial o carrera afín.
  • Mínimo de 2 años de experiencia laboral como Analista de Datos.
  • Sólida experiencia en SQL, Power BI y Office avanzado.
  • Excelentes habilidades de comunicación escrita y oral.
  • Capacidad para trabajar de forma independiente y como parte de un equipo.
  • Fuerte orientación a los detalles y capacidad para resolver problemas.
  • Pasión por el marketing digital y los datos.

Habilidades

- Excelente trato con el clientes y colaboradores
- Entusiasta
- Proactividad.
- Adaptabilidad.
- Trabajo en equipo.

Condiciones y beneficios

  • De lunes a jueves de 9 a 17 hs y los días viernes de 9 a 16hs
  • Inicialmente la posición es presencial, luego es modalidad híbrida. Las oficinas se encuentran ubicadas en Santiago Centro
  • Desarrollo profesional ilimitado... ¡el cielo es el límite!
  • Entrenamiento permanente con diversas plataformas
  • Metodologías de trabajo colaborativas en un buen ambiente
  • Respeto total
  • Día de cumpleaños off

Partially remote You can work from your home some days a week.
Computer provided LFi provides a computer for your work.
Informal dress code No dress code is enforced.
Beverages and snacks LFi offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Ingeniero de Datos Maestros (Proyecto Corporativo)
  • Agrosuper
  • Rancagua (Hybrid)
Excel SAP Data Science Data Engineer

En Agrosuper, tenemos la misión de llevar alimentos de la más alta calidad a las familias de Chile y el mundo. Nos mueve el deseo de alimentar el talento y las ganas de crecer constantemente. Buscamos mejorar y fomentar un entorno donde todos disfruten lo bueno de la vida, por lo que valoramos a las personas, que son el alma de nuestra organización. Este cargo de Ingeniero de Datos Maestros (Corporativo) es fundamental para garantizar la calidad y disponibilidad de nuestros Datos Maestros a través de la optimización de procesos y recursos en nuestras unidades de negocio.

Principales Funciones

  • Gestionar los Datos Maestros en diversos Proyectos Corporativos.
  • Identificar y proponer mejoras, optimizando y eficientando nuestros procesos internos.
  • Gestionar la creación de códigos de distintos Datos Maestros considerados críticos por la Organización.
  • Definir y configurar en SAP Estrategias de Liberación (Compras).
  • Validar y autorizar Órdenes de Transportes Customizing en SAP.
  • Validar estándares de los Datos Maestros en SAP.
  • Evaluar y desarrollar parametrizaciones técnicas de Customizing alrededor de los Datos Maestros en SAP.
  • Asesorar al Equipo de Datos Maestros sobre dudas y buenas prácticas en el Gobierno de Datos Maestros.

Requisitos

  • Título profesional en áreas como Ingeniería Civil Industrial, Comercial, Informática o similar.
  • Experiencia laboral mínima de 2 años en roles similares.
  • Experiencia en SAP, específicamente en Gobierno de Datos Maestros (certificado).
  • Conocimientos en herramientas de análisis y visualización, especialmente en Excel a nivel avanzado.

Desirable Skills

Si bien los requisitos mencionados son fundamentales, también valoramos habilidades adicionales que pueden enriquecer la experiencia en este rol. Esto incluye certificaciones adicionales en SAP, experiencia en gestión de proyectos y habilidades en liderazgo y trabajo en equipo. Además, el deseo de mantenerse al día con las tendencias en tecnología y análisis de datos será considerado un gran plus.

Beneficios

Agrosuper ofrece un entorno de trabajo inspirador donde se valora el crecimiento tanto profesional como personal. Contamos con planes de crecimiento y desarrollo, capacitación continua y becas de estudios, además de convenios con distintas instituciones. También ofrecemos bonos asociados al desempeño para incentivar el trabajo de nuestros colaboradores. Además, promovemos la inclusión de colaboradores con discapacidad, asegurando que todos tengan la oportunidad de contribuir a nuestro propósito de alimentar lo bueno de la vida.

APPLY VIA WEB
$$$ Full time
Ingeniero de Datos/ Dbt
  • BC Tecnología
  • Santiago (Hybrid)
SQL Big Data BigQuery Google Cloud Platform

En BC Tecnología, somos una consultora de TI con más de seis años de experiencia, especializada en ofrecer soluciones personalizadas para nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Nos enfocamos en consultoría, outsourcing, desarrollo de proyectos y formación de equipos, siempre con un claro compromiso hacia la satisfacción del cliente. Como parte de nuestro equipo, el ingeniero/a de datos jugará un papel clave en la creación de soluciones basadas en tecnologías de la nube, impulsando la innovación y la colaboración en un entorno de trabajo ágil.

Responsabilidades Clave

El ingeniero/a de datos será responsable de:

  • Diseñar y mantener pipelines de datos utilizando BigQuery y DBT.
  • Implementar tareas programadas en Google Cloud Platform (GCP) para la ingesta y procesamiento continuo de datos.
  • Construir y documentar modelos de datos optimizados para su análisis.
  • Validar y realizar pruebas para garantizar la precisión de los datos transformados.
  • Realizar seguimiento y documentación de cambios en modelos y sus transformaciones.

Requisitos Técnicos

Buscamos un ingeniero/a de datos con:

  • Experiencia avanzada en BigQuery y DBT.
  • Conocimiento práctico en Google Cloud Platform, incluyendo la programación de tareas y almacenamiento.
  • Sólido manejo de SQL y experiencia en modelado de datos.
  • Capacidad para documentar procesos y realizar pruebas de calidad de datos de manera eficiente.

Lo que ofrecemos

Brindamos un contrato por proyecto de 12 meses en modalidad híbrida, lo que permite combinar trabajo remoto con visitas a la oficina 2 a 3 días a la semana. También garantizamos un enfoque en la inclusión, en cumplimiento con la Ley Nº 21.015, promoviendo un entorno donde todos los empleados puedan prosperar.

APPLY VIA WEB
Gross salary $2200 - 2500 Full time
Ingeniero en Gestión de Datos
  • Genesys Tecnologías de Inform. SpA
  • Santiago (In-office)
Analytics Agile SAP Virtualization
En Genesys Tecnologías de Inform. SpA, nos dedicamos a mantener los negocios en movimiento elevando el estándar tecnológico de las empresas. Con más de 30 años de experiencia en el mercado Latinoamericano, ofrecemos servicios de soporte y mantenimiento de aplicaciones, RPA, Inteligencia Artificial, QA Automation, Staff Augmentation, Cloud y más. Estamos buscando un Ingeniero en Gestión de Datos para formar parte de nuestro equipo en la operación de Concepción y Santiago, desempeñando un papel clave en la optimización de nuestros servicios de datos y Cloud.

Funciones del Cargo:

  • Gestión de Servicios Externos: Supervisar el desempeño de los proveedores externos - Cloud, Datos & Analítica (D&A), IA - asegurándose de que los servicios contratados se entreguen según los estándares acordados.
  • Coordinación de Entregas: Asegurar que los equipos externos entreguen sus productos y servicios dentro de los plazos y conforme a los requisitos establecidos, manteniendo un enfoque en la calidad.
  • Definición de Requerimientos: Colaborar con los stakeholders internos para establecer requisitos claros y asegurarse de que los proveedores los implementen adecuadamente.
  • Evaluación de Proveedores: Asegurar que el equipo provisto sea adecuado para el proyecto, evaluando su experiencia, capacidad técnica y cumplimiento de acuerdos previos.
  • Gestión de Contratos y SLA: Administrar los contratos, supervisando el cumplimiento de los SLA y gestionando cualquier incumplimiento.
  • Monitoreo de Desempeño: Seguimiento regular de las métricas de desempeño de los proveedores, incluyendo la calidad, tiempos de entrega y satisfacción del cliente interno.
  • Control de Costos: Asegurar el cumplimiento del presupuesto asignado, monitorear desempeño y proponer medidas correctivas ante desviaciones.

Descripción del Rol:

Buscamos un profesional con al menos 3 años de experiencia en gestión de proveedores y proyectos, especialmente en el ámbito de Datos y Analítica. El candidato ideal debe tener experiencia en metodologías de gestión de proyectos como waterfall, iterativas, agile y SDLC. También se valorará el conocimiento en plataformas como AWS, GCP, Azure y BTP. La habilidad para comunicarte y colaborar con diferentes áreas de la empresa es crucial, así como el pensamiento analítico para evaluar el desempeño de proveedores y la realización de propuestas de mejora.

Experiencia Deseable:

Será un plus contar con conocimientos en plataformas de Cloud como AWS, GCP, Azure y BTP. Si tienes una formación o experiencia adicional en áreas de analítica de datos, será muy valorado nuestro enfoque en la mejora continua y optimización de nuestros procesos.

Se Ofrece:

Ofrecemos un contrato a plazo fijo, en un ambiente de trabajo dinámico y colaborativo. Nuestro horario es de lunes a viernes de 08:30 a 18:30 hrs, trabajo de forma presencial, En Genesys Tecnologías de Inform. SpA, promovemos un entorno de aprendizaje continuo y oportunidades de crecimiento profesional. ¡Te esperamos para que te unas a nuestra familia tecnológica! 😊

APPLY VIA WEB
$$$ Full time
Data Engineer con Power BI/ Azure
  • Leniolabs_
SQL SAP Big Data Azure

Leniolabs_ es una empresa internacional de desarrollo de software con una sólida presencia en Argentina, Chile, España y USA. Cobrimos un espectro diverso de clientes, mayoritariamente en San Francisco, ofreciendo soluciones innovadoras en el desarrollo de software. Nuestro enfoque se centra en trabajar codo a codo con nuestros clientes, integrando equipos y asegurando que las soluciones sean totalmente adaptadas a sus necesidades específicas.

Actualmente, tenemos un proyecto significativo en marcha donde estamos asistiendo a en la implementación de BeyondTrust (PAM) para la gestión de acceso privilegiado. Este esfuerzo no solo permitirá mejorar los protocolos de seguridad, sino que también abre puertas para la transferencia de conocimientos y creación de un entorno colaborativo entre nuestros equipos y el personal.

Funciones del cargo

En Leniolabs estamos en la búsqueda de profesionales especializados en ingeniería de datos para una posición de Data Engineer (Semi Senior/ Senior)

El candidato ideal debe contar con un mínimo de 5 años de experiencia. Además de conocimientos y experiencia en Power BI, DAX, Azure Data Lake, Synapse.

El rol implica colaborar estrechamente con arquitectos, ingenieros y propietarios de producto para diseñar soluciones técnicas que soporten altos niveles de disponibilidad y consistencia.

Buscamos perfiles con un compromiso claro con la excelencia técnica, la innovación y un interés genuino en las últimas tecnologías, capaces de trabajar en un entorno ágil y de alto rendimiento

Requerimientos del cargo

  • Experiencia +5 años como Data Engineer.
  • Experiencia con Power BI, DAX, Power Query (Excluyente).
  • Experiencia con Synapse y Azure Data Factory (Excluyente)
  • Experiencia con Data Lake y SAP SCM (Deseable).
  • Sólido manejo de SQL.
  • Inglés avanzado.

Importante:

  • En caso de postular desde Argentina, Chile o Brasil, se debe contar con disponibilidad para trabajar en horario 8:00 AM - 5:00 PM CEST (GMT+2)

Beneficios que ofrecemos

  • Contrato de trabajo indefinido (España y Chile)
  • Salario dolarizado ( Argentina)
  • Metlife (Chile)
  • 100% Teletrabajo.
  • Posibilidad de recibir 2 bonos al año por desempeño.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Internal talks Leniolabs_ offers space for internal talks or presentations during working hours.
Computer provided Leniolabs_ provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
Gross salary $1800 - 2500 Full time
Data Engineer Semisenior o Senior
  • Lisit
  • Santiago (Hybrid)
Python SQL Big Data BigQuery
Lisit es una empresa comprometida con la creación, desarrollo e implementación de soluciones de software que faciliten la automatización y optimización para nuestros clientes. Nuestra visión se centra en brindar servicios que no solo cumplan con las necesidades del mercado, sino que también transformen la operatividad de las organizaciones. Tu función como Ingeniero de Datos será fundamental para lograr un acompañamiento consultivo integral en sus procesos de transformación.

Responsabilidades del puesto

Como Ingeniero de Datos Semi-senior o Senior en Lisit, serás una pieza clave en el diseño y desarrollo de soluciones de datos que optimicen nuestros servicios y herramientas. Tus tareas incluirán:
  • Generar pipelines de datos eficientes y resolver integraciones entre diversos sistemas.
  • Modelar datos para garantizar que nuestras plataformas sean útiles y escalables.
  • Colaborar en la implementación de herramientas de infraestructura como código (IaC) y gestionar el versionamiento a través de GitHub o GitLab.
  • Desarrollar y ejecutar procesos ETL/ELT utilizando Azure Data Factory, asegurando la calidad y accesibilidad de los datos.

Descripción del puesto

Buscamos un Ingeniero de Datos altamente motivado, con un mínimo de 3 años de experiencia en el tratamiento de datos. Tu destreza con lenguajes de programación como Python y Spark te permitirá desempeñarte con solidez en el equipo. Se requiere un conocimiento intermedio-avanzado de herramientas de IaC (Terraform) y manejo de versionamiento de código (GitHub/GitLab), así como una sólida comprensión del lenguaje SQL y bases de datos.
Es esencial que tengas experiencia con plataformas en la nube como Google Cloud Platform (GCP) o Azure, y herramientas como Airflow, Cloud Run, Cloud Composer y BigQuery. Además, el dominio de Azure Data Factory para procesos ETL-ELT es un requisito excluyente. Las certificaciones en Ingeniería de Datos son valoradas, tales como Azure DP-700, AZ-203, DP-600 y Google Cloud Digital Leader.

Habilidades deseables

Si cuentas con conocimientos en Microsoft Power BI o Fabric, sería un gran plus para tu perfil. Queremos personas que no solo cumplan con los requisitos, sino que también aporten un enfoque innovador y colaborativo a nuestro equipo.

Beneficios de trabajar con nosotros

En Lisit, fomentamos un ambiente de trabajo excepcional, donde la innovación y la pasión por el aprendizaje son clave. Te ofrecemos:
  • Acceso a oportunidades continuas de desarrollo profesional en tecnologías emergentes.
  • Un equipo motivado y apasionado que valora tu entusiasmo y contribuciones.
Aquí, tendrás la oportunidad de crecer y alcanzar tus objetivos profesionales mientras colaboras en proyectos desafiantes y de alto impacto.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
APPLY VIA WEB
Gross salary $2200 - 2600 Full time
Data Analytics Residente Uruguay
  • BC Tecnología
Python Analytics SQL Business Intelligence
En BC Tecnología, somos una consultora de TI especializada en diversas áreas tecnológicas, con más de seis años de experiencia diseñando soluciones adecuadas a las necesidades de nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestro enfoque incluye consultoría y diseño de soluciones, formación de equipos, desarrollo de proyectos y servicios de soporte y administración IT.

Responsabilidades principales:

  • Extraer y procesar datos desde diversas fuentes mediante SQL y Python (PySpark).
  • Diseñar y optimizar modelos de datos en Power BI para reportes avanzados.
  • Implementar y mejorar flujos ETL para la integración de datos.
  • Colaborar con áreas de negocio para entender necesidades analíticas y generar soluciones BI.
  • Asegurar la calidad y disponibilidad de los datos en los reportes.

Requisitos:

  • SQL Avanzado: Creación, optimización y modelado de datos.
  • Python (PySpark): Procesamiento y transformación de datos en entornos Big Data.
  • Power BI: Nivel medio-alto en creación de reportes y dashboards interactivos.
  • Databricks: Deseable, con experiencia en plataformas de datos en la nube.
  • Experiencia mínima de 3 años en roles de BI, Data Analytics o similares.
  • Habilidades de comunicación y trabajo en equipo para traducir necesidades de negocio en soluciones BI.

Deseable:

  • Experiencia con Databricks sería un plus, mostrando la capacidad de trabajar con plataformas de datos en la nube.

Condiciones

  • Trabajo 100% remoto.
  • El cargo puede ser desempeñado desde cualquier lugar del mundo.
En BC Tecnología, fomentamos un entorno laboral flexible que impulsa el crecimiento profesional. Si te consideras una mente analítica que quiere marcar la diferencia, ¡te invitamos a ser parte de nuestro equipo y a impulsar la transformación organizacional! 🚀✨

APPLY VIA WEB
Gross salary $1500 - 1800 Full time
Data Engineer Junior
  • Lisit
  • Santiago (Hybrid)
Python SQL Azure Power BI
En Lisit, nos dedicamos a crear, desarrollar e implementar herramientas y servicios de software que automatizan y optimizan procesos, siempre con un fuerte enfoque en la innovación y los desafíos que se presentan. Nuestro objetivo es fomentar la eficacia operativa de nuestros clientes, ayudándoles a alcanzar sus metas de transformación mediante un acompañamiento consultivo integral. Actualmente, estamos en búsqueda de un Data Engineer Junior que se una a nuestro equipo apasionado por la tecnología y el aprendizaje continuo.

Funciones del Rol

Como Data Engineer Junior, serás parte esencial del equipo encargado de manejar y optimizar el flujo de datos de la organización. Tus principales responsabilidades incluirán:
  • Colaborar en la recopilación y procesamiento de datos relacionales y no relacionales.
  • Trabajar con lenguajes de programación, especialmente Python, para crear soluciones de datos efectivas.
  • Implementar y mantener los procesos de integración en ambientes cloud como GCP o Azure.
  • Realizar consultas y manipulación de bases de datos utilizando SQL.
  • Aprender y adaptarte a nuevas tecnologías y herramientas en el entorno de la nube.

Descripción del Perfil

Buscamos un perfil proactivo, con conocimientos intermedios en Python y disposición para aprender sobre nuevas tecnologías. El candidato ideal deberá tener:
  • Experiencia básica a intermedia en programación Python.
  • Habilidades en el uso y tratamiento de datos en ambientes tanto relacionales como no relacionales.
  • Conocimientos fundamentales en tecnologías de nube, incluyendo GCP o Azure.
  • Experiencia en el uso del lenguaje SQL.
  • Bajo es requisito pero se valorará el conocimiento en Power BI.

Habilidades Deseables

Sería excelente contar con conocimientos adicionales en herramientas de visualización de datos como Power BI. Además, habilidad para trabajar en equipo y una mentalidad orientada al aprendizaje continuo son altamente valoradas.

Beneficios de Trabajar con Nosotros

En Lisit, promovemos un ambiente de trabajo excepcional:
  • Acceso a oportunidades de desarrollo profesional continuo en tecnologías emergentes.
  • Un equipo apasionado por la innovación y el aprendizaje, donde tu entusiasmo será bienvenido.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
APPLY VIA WEB
$$$ Full time
Data Analyst
  • Macal
  • Santiago (Hybrid)
Analytics Data Analysis English Análisis de datos

Buscamos un/a Data Analyst que ayude a transformar datos en información útil a través del análisis profundo y la visualización adecuada, apoyando así la optimización de nuestros procesos y resultados.

Estamos construyendo algo grande y buscamos mentes curiosas que quieran marcar la diferencia. Este es un espacio para proponer, crear y ser protagonista de soluciones disruptivas en el mercado.

Un entorno que fomenta la innovación y el aprendizaje continuo. Trabajarás en proyectos desafiantes que tienen un impacto real, y disfrutarás de flexibilidad para equilibrar tu vida personal y profesional. Formarás parte de un equipo comprometido, enfocado en trabajar en tándem.

Ofrecemos un sistema híbrido y flexible, 3 días libres adicionales al año, seguro complementario, y acceso a programas de bonos anuales por cumplimiento de resultados. ¡Únete a nosotros y sé parte de algo grande!

¿Qué harás?

El/la Data Analyst será un pilar fundamental en nuestro equipo, donde sus principales responsabilidades serán:

  • Recopilar datos de diversas fuentes.
  • Depurar y analizar grandes volúmenes de datos para identificar patrones y tendencias relevantes mediante la utilización de herramientas de extracción de datos.
  • Establecer metas y proyecciones basadas en datos.
  • Generar Insights relevantes para el negocio.
  • Generar reportería de datos de manera efectiva, utilizando herramientas de visualización para facilitar la toma de decisiones estratégicas.
  • Colaborar estrechamente con distintas áreas para optimizar procesos y resultados basados en datos.

El objetivo es aportar en la identificación de oportunidades de mejora que mantengan a nuestros clientes en el centro de nuestro negocio.

¿Qué buscamos?

Para el rol de Data Analyst, estamos buscando una persona con:

  • Titulación en áreas relacionadas con datos, ciencias computacionales o estadísticas.
  • Experiencia en análisis de datos y manejo de herramientas de visualización de datos.
  • Conocimientos en herramientas de extracción y visualización de datos son esenciales; habilidades en programación son un plus.
  • Actitud proactiva y mentalidad analítica, con la capacidad para comunicar hallazgos de manera clara y efectiva.
  • Habilidades interpersonales para trabajar en equipo y aportar con visión innovadora.
  • Inglés intermedio.

Buscamos mentes curiosas que amen cuestionar el estado actual de las cosas y que estén comprometidas con el crecimiento basado en datos.

Nuestros beneficios

Ofrecemos un entorno de trabajo dinámico y flexible, que incluye:

  • Un sistema híbrido y flexible, en el que trabajarás algunos días presenciales a la semana.
  • 3 días adicionales libres al año, además de tus vacaciones legales.
  • Un mes de teletrabajo 100% al año.
  • Seguro complementario para cuidar de tu salud y bienestar.
  • Acceso a un programa de bonos anuales basado en el cumplimiento de resultados.

En Macal, promovemos un ambiente de trabajo interesante, cercano y feliz, donde tus ideas y experiencias serán valoradas.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Macal pays or copays health insurance for employees.
Computer provided Macal provides a computer for your work.
Informal dress code No dress code is enforced.
APPLY VIA WEB
$$$ Full time
Data Booster
  • 2BRAINS
Python Data Analysis SQL Web server

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

El/la Data Booster de 2Brains

Se encarga de participar en el diseño y desarrollo de los nuevos modelos de información de gestión y las mantenciones evolutivas de los existentes. Participar en las iniciativas de Analítica avanzada del área, apoyando las exploración de modelos de información internos y externos (Data Discovery). Obtener datos históricos desde múltiples fuentes de información interna para apoyar las iniciativas de analítica avanzada del equipo.

Qué harás como Data Booster de 2Brains

  • Identificar oportunidades y definir hipótesis basadas en datos para mejorar procesos y generar impacto en el negocio.
  • Diseñar y ejecutar experimentos que permitan validar soluciones con métricas claras y medibles.
  • Construir modelos analíticos y aplicar IA para transformar datos en insights accionables.
  • Facilitar la co-creación de productos de datos, asegurando que sean escalables y sostenibles.
  • Optimizar el desarrollo y adopción de soluciones según la madurez del squad y las necesidades del negocio.
  • Colaborar con equipos de tecnología, negocio y data science para alinear soluciones con los objetivos estratégicos.
  • Garantizar la calidad y gobernanza de los datos, promoviendo mejores prácticas en el manejo y uso de información.

Qué conocimientos buscamos en/la Data Booster

  • Métodos de análisis estadístico (regresión, pruebas de hipótesis, análisis multivariante).
  • Técnicas de modelado predictivo y prescriptivo.
  • Análisis de series temporales.
  • Algoritmos de machine learning supervisados y no supervisados.
  • Modelos de clasificación, regresión, clustering, y reducción de dimensionalidad.
  • Técnicas de deep learning y redes neuronales.
  • Limpieza, transformación y preprocesamiento de datos (ETL).
  • Manejo de grandes volúmenes de datos y optimización del procesamiento (Big Data).
  • Uso de herramientas de análisis de datos como Pandas, NumPy, Spark.
  • Diseño de experimentos (A/B testing, pruebas de causalidad).
  • Métodos de validación de modelos (cross-validation, métricas de evaluación).
  • Técnicas de evaluación de impacto y pruebas de hipótesis.
  • Creación de dashboards y reportes con herramientas como Tableau, Power BI, Looker.
  • Visualización avanzada con bibliotecas de Python como Matplotlib, Seaborn, Plotly.
  • Python/R para análisis de datos y desarrollo de modelos.
  • SQL para consultas y manipulación de bases de datos.
  • Experiencia con plataformas de nube como AWS, GCP, Azure para almacenamiento y procesamiento de datos.
  • Uso de servicios de data engineering en la nube (como Google BigQuery, Amazon Redshift, Azure Synapse).
  • Prácticas de DevOps aplicadas a proyectos de datos (automatización, integración continua).
  • MLOps para la automatización de la implementación y monitoreo de modelos.
  • Estándares y buenas prácticas en el manejo de datos (calidad, privacidad, seguridad).
  • Herramientas para la gobernanza de datos como Apache Atlas, Collibra.

Que competencias buscamos en/la Data Booster

  • Empatía
  • Buena capacidad de comunicación.
  • Colaboración y trabajo en equipo.
  • Proactividad.
  • Autonomía.
  • Foco en los objetivos de proyectos.

Te ofrecemos

  • Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos
  • Acceso a grandes clientes y proyectos desafiantes
  • Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales
  • Un entorno de trabajo flexible y dinámico
  • Beneficios especiales: día libre para tu cumpleaños, 4 semanas de vacaciones

Wellness program 2BRAINS offers or subsidies mental and/or physical health activities.
Internal talks 2BRAINS offers space for internal talks or presentations during working hours.
Education stipend 2BRAINS covers some educational expenses related to the position.
Informal dress code No dress code is enforced.
Shopping discounts 2BRAINS provides some discounts or deals in certain stores.
Vacation over legal 2BRAINS gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
Gross salary $1900 - 2100 Full time
Business Analyst
  • BC Tecnología
  • Santiago (Hybrid)
Analytics Agile Front-end Business Intelligence
En *BC Tecnología*, estamos en la búsqueda de un Business Analyst para un emocionante proyecto de desarrollo de productos digitales. Nos especializamos en la creación de soluciones IT que se adapten a las demandas de nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Buscamos potenciar la manera en que los equipos gestionan la documentación de requerimientos y optimizan procesos, contribuyendo a la entrega de innovadoras soluciones tecnológicas.

Funciones del Puesto

Como Business Analyst, serás responsable de:
  • Realizar análisis detallados sobre el desarrollo de software y productos digitales.
  • Estructurar artefactos de documentación necesarios para el proceso de desarrollo.
  • Gestionar la documentación requerida en cada etapa del proyecto.
  • Colaborar con los equipos para implementar soluciones innovadoras que promuevan la eficiencia.
  • Utilizar herramientas de medición y análisis para evaluar métricas de rendimiento mediante Google Analytics.
  • Trabajar en un entorno ágil, aplicando metodologías como Scrum y Kanban.

Requisitos del Perfil

Buscamos un profesional con:
  • Experiencia demostrable en desarrollo de software, incluyendo Back-End, Front-End y Bases de Datos.
  • Conocimiento práctico en Business Analytics y herramientas de medición.
  • Manejo de herramientas como JIRA y familiarización con metodologías ágiles.
  • Capacidad para documentar y comunicar de manera efectiva en inglés, a nivel intermedio-avanzado.

Además, el candidato ideal deberá tener habilidades analíticas sobresalientes, una mentalidad orientada a la solución de problemas y una gran capacidad de trabajo en equipo, ya que colaborarás con diferentes áreas dentro de nuestra consultora.

Habilidades Deseables

Sería un plus tener:
  • Conocimientos fundamentales en diseño de UX/UI.
  • Experiencia previa en el análisis de datos y generación de informes.

Beneficios que Ofrecemos

En *BC Tecnología*, ofrecemos un entorno laboral flexible, con una modalidad mayormente remota, donde solo se requiere presencia 1-2 días a la semana al inicio del proyecto. Nuestros beneficios incluyen:
  • Contrato inicial por proyecto.
  • Un espacio que fomenta el crecimiento profesional constante.
  • Horario laboral de 8:30 a 18:00 hrs.
Si te consideras una mente analítica que quiere marcar la diferencia, esta es tu oportunidad. ¡Te invitamos a ser parte de nuestro equipo! 🚀✨

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB
Gross salary $2000 - 2700 Full time
Data Science Senior
  • coderslab.io
  • Santiago (Hybrid)
Python SQL Business Intelligence Big Data

CodersLab es una empresa dedicada al desarrollo de soluciones en el sector IT. Actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina. Por eso, estamos buscando un Data scientist Senior para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Job functions

  • Diseñar y desarrollar modelos de aprendizaje automático utilizando herramientas de Vertex AI (AutoML, Pipelines, Feature Store, etc.).
  • Implementar flujos de trabajo de datos en GCP, utilizando servicios como BigQuery, Dataflow, Pub/Sub y Cloud Storage.
  • Desplegar y gestionar modelos de ML en producción, asegurando rendimiento, escalabilidad y monitoreo continuo.
  • Crear y optimizar pipelines de MLOps para el desarrollo ágil de modelos y su mantenimiento.
  • Colaborar con ingenieros de datos, analistas y DevOps para integrar los modelos en sistemas productivos.
  • Analizar grandes volúmenes de datos y generar insights accionables que respondan a las necesidades del negocio.
  • Comunicar resultados técnicos y hallazgos analíticos a audiencias técnicas y no técnicas.
  • Mantenerse actualizado sobre las últimas innovaciones en GCP, Vertex AI y aprendizaje automático.

Qualifications and requirements

  • Experiencia mínima de 3 años trabajando como Data Scientist o en roles similares.
  • Conocimiento avanzado de Google Cloud Platform (GCP), incluyendo:
    • BigQuery
    • Dataflow
    • Cloud Storage
    • Pub/Sub
    • Cloud Composer
  • Experiencia en el uso de Vertex AI para el desarrollo y despliegue de modelos de aprendizaje automático.
  • Dominio de lenguajes como Python y SQL.
  • Conocimiento de frameworks de aprendizaje automático como TensorFlow, PyTorch o scikit-learn.
  • Experiencia en construcción de pipelines de datos y MLOps.
  • Familiaridad con herramientas de visualización como Looker, Tableau o Data Studio.

Conditions

Hibrido en Santiago de Chile
Renta en pesos Chilenos

APPLY VIA WEB
Gross salary $1000 - 1300 Full time
Data Scientist Junior
  • coderslab.io
  • Santiago (Hybrid)
Python SQL Business Intelligence Big Data

CodersLab es una empresa dedicada al desarrollo de soluciones en el sector IT. Actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina. Por eso, estamos buscando un Data scientist Junior para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Job functions

  • Diseñar y desarrollar modelos de aprendizaje automático utilizando herramientas de Vertex AI (AutoML, Pipelines, Feature Store, etc.).
  • Implementar flujos de trabajo de datos en GCP, utilizando servicios como BigQuery, Dataflow, Pub/Sub y Cloud Storage.
  • Desplegar y gestionar modelos de ML en producción, asegurando rendimiento, escalabilidad y monitoreo continuo.
  • Crear y optimizar pipelines de MLOps para el desarrollo ágil de modelos y su mantenimiento.
  • Colaborar con ingenieros de datos, analistas y DevOps para integrar los modelos en sistemas productivos.
  • Analizar grandes volúmenes de datos y generar insights accionables que respondan a las necesidades del negocio.
  • Comunicar resultados técnicos y hallazgos analíticos a audiencias técnicas y no técnicas.
  • Mantenerse actualizado sobre las últimas innovaciones en GCP, Vertex AI y aprendizaje automático.

Qualifications and requirements

  • Experiencia mínima de 3 años trabajando como Data Scientist o en roles similares.
  • Conocimiento avanzado de Google Cloud Platform (GCP), incluyendo:
    • BigQuery
    • Dataflow
    • Cloud Storage
    • Pub/Sub
    • Cloud Composer
  • Experiencia en el uso de Vertex AI para el desarrollo y despliegue de modelos de aprendizaje automático.
  • Dominio de lenguajes como Python y SQL.
  • Conocimiento de frameworks de aprendizaje automático como TensorFlow, PyTorch o scikit-learn.
  • Experiencia en construcción de pipelines de datos y MLOps.
  • Familiaridad con herramientas de visualización como Looker, Tableau o Data Studio.

Conditions

Hibrido en Santigo de Chile
Renta en pesos Chilenos

APPLY VIA WEB
$$$ Full time
Data Scientist
  • 2BRAINS
Python SQL NoSQL Big Data

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

El Data Scientist de 2Brains

Es responsable de analizar y extraer conocimiento a partir de datos mediante técnicas de Machine Learning, estadística y análisis avanzado, con el fin de optimizar la toma de decisiones y generar impacto en el negocio. Trabaja en conjunto con el equipo digital para desarrollar productos de datos, asegurando su calidad, documentación y correcta implementación. Además, mide el impacto de sus soluciones mediante estándares de experimentación, contribuyendo a la mejora continua y eficiencia operativa.

El Data Scientist de 2Brains deberá

  • Analizar grandes volúmenes de datos para identificar patrones, tendencias y oportunidades de mejora.
  • Diseñar, desarrollar e implementar modelos de Machine Learning y técnicas estadísticas para resolver problemas de negocio.
  • Desarrollar productos de datos en colaboración con el equipo digital, asegurando calidad, mantenimiento y escalabilidad.
  • Aplicar métodos de experimentación y validación (A/B testing, causal inference, etc.) para medir el impacto de las soluciones implementadas.
  • Garantizar la correcta documentación de los modelos, algoritmos y procesos desarrollados.
  • Optimizar y mejorar continuamente los modelos en producción en función de su desempeño y nuevos datos.
  • Colaborar con equipos de negocio y tecnología para alinear soluciones de datos con objetivos estratégicos.
  • Explorar nuevas herramientas y tecnologías para potenciar el uso de datos dentro de la organización.

¿Qué conocimientos buscamos en el/la Data Scientist?

  • Python/R, SQL y Spark. Para programar modelos de machine learning, realizar análisis estadístico y manipular datos, además de procesar grandes volúmenes de datos en paralelo y a gran escala.
  • Machine Learning, métricas de evaluación de modelos.
  • Pruebas A/B.
  • Deployment de modelos
  • Análisis estadístico
  • Desarrollo de productos de datos.
  • Deseables:
  • NoSQL, Bayesian Statistics, MLOps avanzado.
  • Herramientas de visualización como Streamlit.

¿Qué competencias buscamos en el/la Data Scientist?

  • Curiosidad
  • Foco en los objetivos
  • Colaboración y trabajo en equipo (ínter y multidisciplinario)
  • Proactividad
  • Autonomía

Te ofrecemos

  • Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos.
  • Un proyecto con foco en los usuarios, visión de UX e integrada al desarrollo.
  • Acceso a grandes clientes y proyectos desafiantes.
  • Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales.
  • Un entorno de trabajo flexible y dinámico.
  • Beneficios especiales: un día libre de regalo por tu cumpleaños, días de descanso (previa coordinación), convenios para cursos de especialización.

Wellness program 2BRAINS offers or subsidies mental and/or physical health activities.
Internal talks 2BRAINS offers space for internal talks or presentations during working hours.
Informal dress code No dress code is enforced.
Shopping discounts 2BRAINS provides some discounts or deals in certain stores.
Vacation over legal 2BRAINS gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Data Engineer Azure
  • Factor IT
  • Santiago (Hybrid)
Python Agile SQL NoSQL
En FactorIT, buscamos un Ingeniero de Datos con experiencia en banca y entidades financieras para liderar y ejecutar proyectos de Data & Analytics. Te unirás a un equipo innovador en el que tu trabajo impactará directamente en la transformación digital de importantes instituciones en el sector financiero.
Este rol es clave para potenciar el uso de datos dentro de la banca, asegurando que la infraestructura y los procesos estén alineados con los objetivos estratégicos del negocio. Tendrás la oportunidad de trabajar con tecnologías de vanguardia, incluyendo Azure Databricks y otros servicios en la nube, asegurando soluciones escalables y seguras que optimicen la toma de decisiones.

Responsabilidades:

  • Diseñar y desarrollar soluciones de ingestión, transformación y modelado de datos en Azure Databricks y otras tecnologías relacionadas.
  • Optimizar procesos de ETL/ELT, asegurando calidad, integridad y eficiencia en el procesamiento de datos.
  • Colaborar con equipos de negocio para entender sus necesidades, identificar oportunidades y proponer soluciones basadas en datos.
  • Implementar arquitecturas de datos escalables que soporten analítica avanzada, machine learning e inteligencia de negocio.
  • Garantizar la seguridad y el cumplimiento normativo en el manejo de datos, siguiendo estándares bancarios y regulatorios.
  • Desarrollar y optimizar pipelines de datos para la explotación en entornos analíticos y de reportes.
  • Documentar procesos, arquitecturas y modelos de datos, asegurando buenas prácticas de gobernanza.
  • Trabajar en conjunto con equipos de Data Science, BI y Tecnología para garantizar la disponibilidad y calidad de los datos.

Requisitos Técnicos y Habilidades:

Buscamos un profesional con un mínimo de 3 años de experiencia en ingeniería de datos, idealmente en el sector financiero. Debe poseer un conocimiento avanzado en:
  • Azure Databricks, Spark y servicios de datos en la nube como Azure Data Factory, Azure Synapse y Data Lake.
  • Modelado de datos, optimización de consultas y bases de datos en SQL y NoSQL.
  • Programación en Python y/o Scala para el desarrollo de pipelines y procesamiento de datos.
  • Arquitecturas de datos escalables y distribuidas.
  • Principios de seguridad y cumplimiento normativo en banca (ej. GDPR, PCI-DSS, BCBS 239).
  • Herramientas de orquestación y automatización de flujos de datos.
Además, necesitaremos que cuentes con habilidades blandas como excelente comunicación, pensamiento analítico, proactividad y capacidad de trabajo en equipo en entornos ágiles y dinámicos.

Habilidades Deseables:

Sería un plus contar con experiencia previa en proyectos de transformación digital en el sector bancario, así como familiaridad con herramientas de visualización de datos y reportes. La capacidad para adaptarse rápidamente a nuevas tecnologías y seguir aprendiendo continuamente es muy valorada dentro de nuestra cultura.

Beneficios:

En FactorIT, brindamos un entorno de trabajo dinámico y colaborativo donde puedes trabajar con tecnologías de punta. Ofrecemos un plan de crecimiento profesional, capacitaciones en IA y automatización, y un salario competitivo acorde a tu experiencia.
Promovemos el equilibrio entre la vida personal y laboral mediante trabajo 100% remoto 🌍 y flexibilidad laboral. Únete a nosotros y sé parte de un equipo que está transformando el futuro de la tecnología en la región.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Computer provided Factor IT provides a computer for your work.
APPLY VIA WEB
Gross salary $2000 - 2500 Full time
Analista de BI Latam
  • BC Tecnología
Python Analytics Data Analysis SQL

En BC Tecnología, somos una consultora de TI especializada en diversas áreas tecnológicas, ofreciendo un entorno de trabajo colaborativo donde se valora el compromiso y el desarrollo profesional. Trabajamos con clientes en los sectores de servicios financieros, seguros, retail y gobierno, diseñando soluciones adecuadas a sus necesidades desde hace más de seis años. Nuestro enfoque incluye consultoría y diseño de soluciones, formación de equipos, desarrollo de proyectos, y servicios de soporte y administración IT.

Responsabilidades principales:

  • Extraer y procesar datos desde diversas fuentes mediante SQL y Python (PySpark).
  • Diseñar y optimizar modelos de datos en Power BI para reportes avanzados.
  • Implementar y mejorar flujos ETL para la integración de datos.
  • Colaborar con áreas de negocio para entender necesidades analíticas y generar soluciones BI.
  • Asegurar la calidad y disponibilidad de los datos en los reportes.

Requisitos:

  • SQL Avanzado – Creación, optimización y modelado de datos.
  • Python (PySpark) – Procesamiento y transformación de datos en entornos Big Data.
  • Power BI (Nivel medio-alto) – Creación de reportes y dashboards interactivos.
  • Databricks (Deseable) – Experiencia en plataformas de datos en la nube.
  • Experiencia mínima de 3 años en roles de BI, Data Analytics o similares.
  • Habilidades de comunicación y trabajo en equipo para traducir necesidades de negocio en soluciones BI.

Deseable:

Experiencia con Databricks sería un plus, mostrando la capacidad de trabajar con plataformas de datos en la nube.

Conditions

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
$$$ Full time
Data Engineer
  • Leniolabs_
SQL Business Intelligence Virtualization Amazon Web Services
Leniolabs_ que ahora es Improving South America es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España, USA y Canadá.
Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes.
Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.
Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Responsabilidades del Ingeniero de Datos

  • Descubrimiento de Fuentes Legacy: Utilizar SQL avanzado y scripting (Python/PowerShell) para automatizar procesos y documentar sistemas heredados.
  • Análisis de Calidad de Datos: Ejecutar perfiles de datos, identificar problemas de calidad y generar métricas clave de calidad (KPIs).
  • Limpieza Inicial de Datos: Aplicar herramientas ETL/ELT (Informatica, Talend, dbt) y realizar limpieza de datos en base a las comunicaciones con expertos.
  • Definición de Estrategias de Archivo vs. Migración: Diseñar modelos de datos y evaluar soluciones de almacenamiento equilibrando cumplimiento y costos.
  • Mapping a la Plataforma del Proveedor: Desarrollar procesos de mapeo y transformación para garantizar la correcta transferencia de datos.
  • Análisis de Necesidades Actuales de BI/Reportes: Colaborar con usuarios para optimizar consultas SQL y estructurar datos para reportes.
  • Tareas Adicionales: Orquestación de pipelines (Airflow), CI/CD, contenedorización (Docker, Kubernetes) y automatización en la nube (AWS).

Requisitos Técnicos y Habilidades Deseadas

Buscamos un profesional con el siguiente perfil:

  • Dominio en SQL avanzado, así como experiencia en herramientas ETL/ELT como Informatica, Talend y dbt. Conocimientos en sistemas de almacenamiento en la nube (AWS S3, Redshift)
  • Habilidades en orquestación de pipelines (Airflow, Docker, Kubernetes)
  • Familiaridad con herramientas de BI como Power BI o Tableau.
  • Nivel de inglés intermedio/avanzado o avanzado.
  • A nivel de habilidades blandas, esperamos que los candidatos tengan un fuerte pensamiento crítico, atención al detalle y la capacidad de comunicar hallazgos técnicos a diferentes públicos.

Habilidades Deseables

Si bien no son imprescindibles, se valorarán conocimientos adicionales en el trabajo con big data y experiencia en entornos ágiles. La capacidad de adaptarse rápidamente a nuevas herramientas y requisitos será muy apreciada, al igual que la iniciativa para proponer mejoras a nuestros procesos actuales.

¿Qué Ofrecemos?

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Computer provided Leniolabs_ provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Data Engineer
  • Factor IT
Python Data Analysis SQL NoSQL

En FactorIT, somos líderes en el sector de tecnología y ofrecemos soluciones innovadoras en Data y Analytics, Transformación Digital e Inteligencia Artificial. Con presencia en 8 países de Latinoamérica, nos apasiona abordar los desafíos tecnológicos de grandes empresas. Únete a nuestro equipo de ingenieros de datos que están a la vanguardia de la transformación tecnológica. Trabajamos en proyectos de gran impacto, creando soluciones personalizadas que integran tecnologías emergentes y analítica avanzada.

Responsabilidades del Ingeniero de Datos

Como Data Engineer en FactorIT, tu objetivo será diseñar, construir y mantener infraestructuras y sistemas de datos que permitan a nuestros clientes tomar decisiones informadas. Tus responsabilidades incluirán:

  • Desarrollar y mantener pipelines de datos eficientes y escalables.
  • Colaborar con equipos multidisciplinarios para analizar necesidades de datos y proporcionar soluciones efectivas.
  • Implementar y optimizar herramientas de integración de datos.
  • Monitorear la calidad y eficiencia de los sistemas de procesamiento de datos.
  • Participar en la gestión y almacenamiento de datos, asegurando la integridad y confidencialidad.

Tu papel será fundamental para impulsar la transformación digital y potenciar la analítica en nuestras soluciones.

Requisitos del Puesto

Buscamos un Data Engineer con pasión por la tecnología y habilidades tanto técnicas como interpersonales. Las características que valoramos son:

  • Título en Ingeniería Informática, Ciencias de la Computación o campos relacionados.
  • Conocimientos en lenguajes de programación como Python o SQL.
  • Experiencia con herramientas de ETL y plataformas de análisis de datos.
  • Aptitudes analíticas y capacidad para resolver problemas.
  • Habilidades de comunicación efectiva para trabajar en equipo y entender las necesidades del cliente.

Valorizamos un enfoque proactivo y la capacidad de aprender de manera continua.

Habilidades Deseables

Si bien no es obligatorio, será un plus contar con:

  • Experiencia en herramientas de Big Data como Hadoop o Spark.
  • Conocimientos en la implementación y gestión de bases de datos no relacionales (NoSQL).
  • Familiaridad con prácticas de DevOps relacionadas con el manejo de datos.
  • Certificaciones en tecnologías de datos o análisis.

Estas habilidades complementarias serán valoradas en el proceso de selección.

Beneficios de Trabajar en FactorIT

Ofrecemos un entorno de trabajo dinámico y colaborativo, donde podrás trabajar con tecnologías de punta y acceder a un plan de crecimiento profesional. Además, brindamos capacitaciones en IA y automatización. Nuestros beneficios incluyen:

  • Trabajo 100% remoto 🌍 para mantener un equilibrio entre tu vida personal y laboral.
  • Flexibilidad laboral para adaptarte a tus necesidades.
  • Un salario competitivo acorde a tu experiencia.

Únete a nosotros y sé parte de un equipo que está transformando el futuro de la tecnología en la región.

Fully remote You can work from anywhere in the world.
Computer provided Factor IT provides a computer for your work.
APPLY VIA WEB
Gross salary $2500 - 3000 Full time
Data Science
  • coderslab.io
Python Data Analysis SQL Virtualization

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente nos encontramos apuntando al crecimiento de nuestros equipos de manera global con el objetivo de posicionarnos con nuestros productos en más países de Latinoamérica, es por ello que estamos en búsqueda de un Data Science Semi-Senior para sumarse a nuestro equipo.

Te sumarás a un equipo desafiante y ambicioso con ganas de renovar el mercado, por lo que tus propuestas serán de mucho valor para el negocio.

¡Postula para este tremendo desafío!

Job functions

Responsabilidades

  • Análisis y modelado de datos: Utilizar habilidades analíticas para identificar patrones, tendencias e insights en grandes conjuntos de datos.
  • Desarrollo y validación de modelos: Aplicar técnicas estándar de la industria para crear características, limpiar conjuntos de datos y desarrollar pipelines para entrenar y servir modelos, principalmente enfocados en clasificación.
  • Evaluación de riesgo crediticio: Analizar el riesgo crediticio de posibles prestatarios mediante los modelos desarrollados, asignando puntajes de crédito o probabilidades de incumplimiento. Se valora el uso de datos alternativos y enfoques innovadores.
  • Ingeniería de características: Identificar y crear características relevantes que mejoren la capacidad predictiva de los modelos y reflejen la solvencia crediticia de los individuos.
  • Colaboración interdisciplinaria: Trabajar con otros equipos para proporcionar información, desarrollar modelos y participar en la toma de decisiones técnicas.
  • Monitoreo y evaluación de desempeño: Realizar un seguimiento continuo del rendimiento de los modelos desplegados, evaluar métricas y ajustarlos según sea necesario en respuesta a cambios en el comportamiento, condiciones del mercado o regulaciones.
  • Investigación e innovación: Mantenerse actualizado con los últimos avances en ciencia de datos y aprendizaje automático, experimentando con nuevos enfoques para la evaluación del riesgo crediticio.

Qualifications and requirements

Obligatorios (MUST)

  • 1-2 años de experiencia en Ciencia de Datos, Análisis de Datos o Análisis de Negocios (con conocimientos en Machine Learning).
  • Más de 2 años de experiencia con Python y SQL.
  • Perfil con habilidades para la resolución creativa de problemas, capaz de analizar datos, extraer insights y convertirlos en decisiones accionables.
  • Conocimientos en servicios de AWS.
  • 1-2 años de experiencia en Machine Learning aplicado al riesgo financiero.

Conditions

Remoto LATAM

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
$$$ Full time
Senior Salesforce CRM Analytics Consultant
  • Niuro
Analytics Business Intelligence Big Data CRM
At Niuro, we connect elite tech teams with leading U.S. companies, revolutionizing the way organizations engage with top talent. Our Salesforce CRM Analytics division is at the forefront of transforming how our sales teams leverage data, driving measurable results and ensuring continuous improvement in sales performance through insightful analytics.

Responsibilities

✅ Design and build custom dashboards in Salesforce CRM Analytics based on provided Excel mockups.
✅ Develop interactive reports to track key sales metrics across different levels (Sales Reps, Sales Managers, Regional Managers, and the entire Sales Department).
✅ Implement dynamic filtering, allowing users to filter by date, role, office, region, tenure, and status.
✅ Ensure accurate tracking of sales activities, including calls, meetings, proposals, contracts, and conversions.
✅ Automate calculations for quota attainment, proposal success rates, and pipeline tracking.
✅ Collaborate with sales and business teams to refine reporting requirements and improve data-driven decision-making.
✅ Optimize data integration and processing for real-time analytics.
✅ Ensure data accuracy and integrity within Salesforce CRM Analytics.

Requirements

🔹 Salesforce CRM Analytics Expertise: 3+ years of hands-on experience in Salesforce CRM Analytics (Tableau CRM) and reporting tools.
🔹 Technical Skills: Strong knowledge of Salesforce data models, SAQL, and data transformations.
🔹 Sales Performance Reporting: Experience in tracking KPIs and developing custom dashboards with complex filtering and aggregation logic.
🔹 Data Visualization: Proficiency in best practices for analytics and interactive reporting.
🔹 Sales Process Understanding: Knowledge of call tracking, proposal rates, and contract conversions.
🔹 Big Data Handling: Experience working with large datasets and optimizing queries.
🔹 Problem-Solving & Analytical Thinking: Strong ability to analyze data and drive insights.
🔹 Communication & Teamwork: Excellent interpersonal skills to work closely with sales teams and stakeholders.
🔹 Advanced English (oral & written): Required for effective collaboration with international teams.

Nice to Have

🔸 Salesforce Sales Cloud & Einstein Analytics experience.
🔸 Apex, SOQL, and Lightning Components knowledge for advanced customizations.
🔸 Background in Data Analytics, Business Intelligence, or Financial Reporting.

What We Offer

🌎 100% Remote – Work from anywhere in Eastern Europe or LATAM!
📈 Professional Growth – Be part of a dynamic and innovative team.
💰 Competitive Salary & Reviews – Compensation adjusted based on experience.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
APPLY VIA WEB
$$$ Full time
Power BI Analyst Sr
  • Leniolabs_
SQL Big Data BigQuery ETL
Leniolabs_ es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA.
Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.
Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.

Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Funciones del cargo

En Leniolabs estamos en la búsqueda de un SR Power BI Analyst.

El candidato ideal debe contar con un mínimo de 6 años de experiencia, el equipo está buscando recursos para ayudar a satisfacer las necesidades de sus clientes internos de EE. UU. Los miembros de nuestro equipo recibirán tickets de solución de ServiceNow y ejecutarán informes/consultas centrados en los datos de uso del cliente, la validación de datos, etc.

El objetivo es crear un equipo de mejora. Este grupo quiere familiarizarse y sentirse cómodo con la mejora.

El rol implica colaborar estrechamente con arquitectos, ingenieros y propietarios de producto para diseñar soluciones técnicas que soporten altos niveles de disponibilidad y consistencia.

Buscamos perfiles con un compromiso claro con la excelencia técnica, la innovación y un interés genuino en las últimas tecnologías, capaces de trabajar en un entorno ágil y de alto rendimiento.

Requerimientos del cargo

  • Contar con mínimo 6 años de experiencia trabajando con Power BI y SQL.
  • Manejo de Google Cloud Platform (GCP) y BigQuery.
  • Experiencia en ETL (idealmente con Talend) y capacidad para trabajar con grandes volúmenes de datos (terabytes).
  • Sólidas habilidades de redacción y comunicación, además de iniciativa.
  • Nivel de inglés intermedio-avanzado (B2/C1).

Beneficios

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Internal talks Leniolabs_ offers space for internal talks or presentations during working hours.
Computer provided Leniolabs_ provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Leniolabs_ gives you paid vacations over the legal minimum.
APPLY VIA WEB
Gross salary $2000 - 2300 Full time
Data Engineer – Proyecto de 6 Meses
  • BC Tecnología
  • Santiago (Hybrid)
Python Git SQL Scala
En BC Tecnología, somos una consultora de TI comprometida con ofrecer soluciones innovadoras y adaptadas a las necesidades de nuestros clientes. Con más de 6 años de experiencia en el sector, trabajamos con empresas en diferentes industrias, incluyendo servicios financieros, seguros, retail y gobierno. En este proyecto de Data Engineering, tendrás la oportunidad de contribuir al diseño y construcción de pipelines de datos para nuestros clientes, utilizando metodologías ágiles y colaborando con equipos altamente especializados.

Responsabilidades del Rol

  • Diseñar y construir pipelines de datos efectivos para cumplimentar las necesidades analíticas de nuestros clientes.
  • Programar usando lenguajes como Python, Scala o SQL para manipulación y transformación de datos.
  • Implementar y gestionar herramientas de orquestación de pipelines, como Airflow, Mage, NiFi o similares.
  • Colaborar en prácticas de CI/CD, incluidos conocimientos básicos en Git y versionado de código.
  • Integrar arquitecturas de datos, con un enfoque en Datalakes, Datawarehouses o Lakehouse.
  • Participar en modelado de datos utilizando técnicas dimensional, estrella y copo de nieve, si es requerido.

Requisitos y Habilidades

Buscamos candidatos que cuenten con al menos 2 años de experiencia en el área de Data Engineering. Deberán tener competencias en diseño y construcción de pipelines de datos, así como experiencia con lenguajes de programación pertinentes como Python, Scala o SQL.
Es esencial dominar herramientas de orquestación de datos, y tener un conocimiento básico sobre integraciones de CI/CD y flujos de trabajo de versionamiento de código. Adicionalmente, es deseable contar con experiencia en arquitecturas de datos y modelado, incluidos Datalakes y técnicas de modelado específicas.
La modalidad de trabajo es híbrida, lo que permitirá equilibrar la colaboración en persona con flexibilidad laboral.

Habilidades Deseables

Si bien no es un requisito, consideraremos positivamente la experiencia previa con Datalakes y Datawarehouses, así como familiaridad con técnicas de modelado como dimensional, estrella o copo de nieve. Esto contribuirá a un mejor entendimiento del contexto de las soluciones que desarrollaremos.

Beneficios y Condiciones

Ofrecemos un contrato por proyecto de 6 meses, con posibilidad de extensión. Los empleados disfrutarán de un sueldo a convenir, además de beneficios adicionales como:
  • Seguro complementario.
  • Amipass de $4,500 por día laborado.
  • Convenciones, actividades y bonos.
Estamos ubicados en Alto Las Condes, permitiendo un ambiente de trabajo funcional y moderno. ¡Nos encantaría contar contigo en nuestro equipo! 🌟

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB
Gross salary $2000 - 2300 Full time
Data Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Python Git SQL Scala
En BC Tecnología, somos una consultora de TI que cuenta con un equipo experto en diversas áreas tecnológicas. Nuestra misión es brindar soluciones personalizadas que se adapten a las necesidades de nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Actualmente, buscamos incorporar un Data Engineer para diseñar, construir y mantener pipelines de datos, utilizando tecnologías modernas.
Contamos con un enfoque ágil y orientado al cliente, lo que nos permite ofrecer servicios de consultoría, desarrollo de proyectos y administración IT de alta calidad.

✅ Funciones

  • Diseñar y construir pipelines de datos eficientes para mover y transformar datos.
  • Garantizar que los procesos de datos sean consistentes y confiables en el tiempo.
  • Implementar flujos de trabajo de CI/CD para la integración con ambientes de desarrollo y productivos.
  • Colaborar con el equipo para mejorar la calidad y eficiencia de los procesos de datos.
  • Apoyarse en líderes técnicos para lineamientos y mejores prácticas en el desarrollo.

✅ Requerimiento:

Se requiere entre 1 a 2 años de experiencia en diseño y construcción de pipelines de datos. Consideraciones específicas incluyen:
  • Lenguajes de programación: Python, Scala o SQL.
  • Herramientas de orquestación de pipelines: Airflow, Mage, NiFi o similares.
  • CI/CD: Conocimientos básicos en Git y flujos de trabajo de versionamiento de código.

Deseables:

  • Arquitectura de datos: Familiaridad con Datalakes, Datawarehouses o Lakehouse.
  • Modelado de datos: Conocimiento en técnicas como dimensional, estrella, copo de nieve.

✅ Condiciones:

El contrato es por proyecto, estimado en 3 meses, con metodología de trabajo híbrido en Alto las Condes (2 a 3 veces por semana). Los postulantes deben tener disponibilidad de lunes a viernes. Sueldo a convenir y disfrutará de beneficios como seguro complementario, Amipass de $4,500 por día laborado, convenios, actividades y bonos. 🌟

APPLY VIA WEB
$$$ Full time
Administrador de Bases de Datos – AWS Rds Aurora PostgreSQL
  • Leniolabs_
PostgreSQL SQL Linux Virtualization
Leniolabs_ que ahora es Improving South America es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España, USA y Canadá.
Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes.
Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.
Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Responsabilidades clave

  • Administración de bases de datos: Gestionar, monitorear y optimizar bases de datos AWS RDS Aurora PostgreSQL para garantizar alta disponibilidad, seguridad y rendimiento.
  • Optimización de rendimiento: Analizar y optimizar consultas SQL, índices y rendimiento general de la base de datos para mejorar tiempos de respuesta y escalabilidad.
  • Seguridad y cumplimiento: Implementar mejores prácticas de seguridad en bases de datos, controles de acceso, cifrado y garantizar el cumplimiento de estándares de la industria y políticas organizacionales.
  • Respaldo y recuperación: Establecer y mantener estrategias de respaldo y recuperación ante desastres para asegurar la integridad de los datos y la continuidad del negocio.
  • Automatización y monitoreo: Utilizar herramientas nativas de AWS y soluciones de terceros para monitoreo proactivo, alertas y automatización de procesos.
  • Documentación: Mantener actualizada la documentación sobre estructuras de bases de datos, políticas de acceso y mejores prácticas.

Requisitos

  • Experiencia: Más de 5 años de experiencia en ingeniería de bases de datos, con al menos 3 años trabajando con PostgreSQL (preferiblemente AWS RDS Aurora PostgreSQL).
  • Experiencia en bases de datos: Amplio dominio de PostgreSQL, incluyendo optimización de consultas, replicación, particionamiento y configuraciones de alta disponibilidad.
  • Nube y AWS: Experiencia práctica con AWS RDS, Aurora, IAM, S3, Lambda y CloudWatch para gestión y automatización de bases de datos.
  • Scripting y automatización: Dominio de SQL, Bash o Terraform AWS CDK para automatización de bases de datos e infraestructura como código.
  • Seguridad y cumplimiento: Conocimiento en cifrado de bases de datos, control de accesos, auditoría y marcos de cumplimiento (GDPR, HIPAA, SOC 2, etc.).
  • Resolución de problemas: Habilidades avanzadas de diagnóstico y solución de problemas en entornos de bases de datos de alta disponibilidad.
  • Nivel de inglés intermedio avanzado o avanzado (B2 -C1)

Requisitos deseados

  • Experiencia con arquitecturas de lago de datos, transmisión en tiempo real o soluciones de almacenamiento de datos.
  • Certificaciones de AWS (ej. AWS Certified Database – Specialty, AWS Solutions Architect – Associate).

Beneficios

  • Seguro complementario de salud Metlife (Chile).
  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Computer provided Leniolabs_ provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
APPLY VIA WEB
$$$ Full time
Business Analyst
  • Agilesoft SpA
Business Analyst Metodologías ágiles Análisis de datos Documentation
Agilesoft SpA es una empresa apasionada por el desarrollo de software Web y Móvil. Nos enfocamos en innovar y ofrecer soluciones tecnológicas de calidad. Actualmente, estamos expandiendo nuestras operaciones y creando una nueva célula en República Dominicana. Esta nueva unidad operativa jugará un papel clave en la formación de estrategias y en la implementación de proyectos que satisfagan las necesidades de nuestros clientes.

Funciones del puesto

Como Business Analyst, serás responsable de:
  • Recolectar y analizar los requisitos del negocio y de los usuarios.
  • Colaborar con los equipos de desarrollo para asegurar que las soluciones tecnológicas propuestas cumplan con los objetivos del cliente.
  • Elaborar documentación técnica y de usuario.
  • Participar en reuniones de seguimiento y generar reportes de avances.
  • Facilitar la comunicación entre los equipos técnicos y comerciales.

Descripción del perfil

Buscamos a una persona con las siguientes habilidades y experiencia:
  • Título en Ingeniería, Sistemas de Información o carreras similares.
  • Al menos 2-3 años de experiencia en análisis de negocio y gestión de proyectos.
  • Habilidades analíticas sólidas y atención al detalle.
  • Capacidad para trabajar de manera independiente y en equipo en un entorno remoto.
  • Excelentes habilidades de comunicación verbal y escrita en español.

Habilidades deseables

Sería excelente si posees:
  • Conocimientos en metodologías ágiles.
  • Experiencia en herramientas de gestión de proyectos y análisis de datos.
  • Conocimientos en tecnologías de desarrollo web y móvil.

Beneficios que ofrecemos

En Agilesoft SpA, valoramos a nuestro equipo y ofrecemos:
  • Un ambiente de trabajo grato, flexible y dinámico.
  • Modalidad 100% remoto con horario de trabajo de lunes a jueves de 09:00 a 18:00 hrs y viernes de 09:00 a 17:00 hrs.
  • Contrato indefinido y un computador de trabajo.
  • Beneficios de salud complementario para residentes en Chile y República Dominicana.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Agilesoft SpA pays or copays health insurance for employees.
Computer provided Agilesoft SpA provides a computer for your work.
APPLY VIA WEB
$$$ Full time
Microsoft Power BI Developer
  • Leniolabs_
SQL SAP Big Data Azure

Leniolabs_ es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA.

Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.

Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.

Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Funciones del cargo

En Leniolabs estamos en la búsqueda de un SSR/SR Microsoft Power BI Developer.

El candidato ideal debe contar con un mínimo de 5 años de experiencia. Además de conocimientos y experiencia en informes analíticos, es fundamental que tenga experiencia en SQL, ya que en el proyecto deberá trabajar en reportes, realizar extracción y manejo de datos en SQL.

El rol implica colaborar estrechamente con arquitectos, ingenieros y propietarios de producto para diseñar soluciones técnicas que soporten altos niveles de disponibilidad y consistencia.

Buscamos perfiles con un compromiso claro con la excelencia técnica, la innovación y un interés genuino en las últimas tecnologías, capaces de trabajar en un entorno ágil y de alto rendimiento.

Requerimientos del cargo

  • Contar con aproximadamente 5 años de experiencia como Data Engineer.
  • Manejo de Power BI y SQL (Excluyente).
  • Experiencia con Synapse y Azure Data Factory.
  • Es deseable la experiencia con Data Lake y SAP SCM
  • Habilidad para crear documentación técnica.
  • Inglés avanzado.

Beneficios

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo,

Computer provided Leniolabs_ provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Leniolabs_ gives you paid vacations over the legal minimum.
APPLY VIA WEB
$$$ Full time
Senior Data Engineer
  • Leniolabs_
Python Data Analysis SQL Big Data

Leniolabs_ es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA.

Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.

Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.

Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Funciones del cargo

Actualmente buscamos talentos especializados en desarrollo frontend, que quieran unirse al equipo de Leniolabs como Senior Data Engineer especializado en Azure para trabajar con uno de nuestros clientes más importantes que se encuentra ubicado en San Francisco. Buscamos personas con muchas ganas de aprender, de sumar y que tenga manejo de trabajo en equipo.

Se trabajará en el departamento de desarrollo de tecnología de la empresa.
El proyecto es con clientes en USA.

  • Diseño, construcción y optimización de pipelines de datos.
  • Se hablará directamente con el cliente.
  • Trabajo en equipo - liderazgo.
  • Será responsable de avanzar en los diferentes requerimientos del cliente, junto con el equipo.
  • Su trabajo consiste en hacer que las tareas se realicen utilizando todos los recursos disponibles (tangibles e intangibles).

Requerimientos del cargo

  • 6+ años de experiencia laboral en análisis de datos e ingeniería de datos - (indispensable)
  • Nivel de inglés avanzado - B2/C1 - (indispensable)
  • Experiencia en la construcción y mantenimiento de pipelines de datos robustos y eficientes.
  • Gestión de cargas y transformaciones de datos en Microsoft Fabric
  • Manejo de Python.
  • Experiencia en la gestión y optimización del almacenamiento de datos mediante Azure Data Lake Storage, Azure SQL Data Warehouse y Azure Cosmos DB.
  • Diseño e implementación de pipelines de procesamiento de datos escalables.
  • Habilidad para integrar datos y reportes desde otros sistemas como Salesforce.

Condiciones

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Internal talks Leniolabs_ offers space for internal talks or presentations during working hours.
Computer provided Leniolabs_ provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
Gross salary $2500 - 2800 Full time
Data Scientist
  • Niuro
Python SQL Azure Artificial Intelligence
At Niuro, we are dedicated to connecting cutting-edge projects with elite tech teams, collaborating closely with leading U.S. companies. Our mission revolves around simplifying global talent acquisition through innovative solutions that enhance efficiency and quality. As part of our team, you will engage in dynamic and challenging projects that are pivotal to our clients' success.
By providing autonomous, high-performance tech teams, we empower our professionals through continuous training in both technical and soft skills, along with leadership development. Our structure supports collaborative growth and excellence.

Responsibilities:

  • Design, develop, and evaluate machine learning and statistical models aimed at enhancing various business processes.
  • Analyze large datasets to derive insights and formulate data-driven strategies.
  • Deploy models into production utilizing tools such as TensorFlow, PyTorch, or Scikit-learn.
  • Create dashboards and reports via visualization tools like Tableau, Power BI, or Looker.
  • Collaborate with engineering teams to optimize data pipelines and model infrastructures.
  • Deliver findings and recommendations to non-technical stakeholders in a clear and concise manner.

Requirements:

  • 3-5 years of experience in data science, machine learning, and statistical analysis.
  • Proficiency in Python with solid knowledge of data science libraries including Pandas, Polars, Scikit-learn, TensorFlow, and PyTorch.
  • Experience with SQL and both relational and non-relational databases.
  • Knowledge of feature engineering, model selection, and cross-validation techniques.
  • Experience with Generative AI frameworks and libraries, such as Hugging Face Transformers and LangChain, alongside API usage and prompt engineering skills.
  • Able to visualize data with tools like Matplotlib, Seaborn, and Plotly.
  • Strong communication skills with a knack for data storytelling.
  • Intermediate to advanced English proficiency (written and spoken).

Nice-to-Haves:

  • Experience with cloud computing platforms such as AWS, GCP, or Azure.
  • Familiarity with real-time data processing using tools like Apache Kafka or Spark Streaming.
  • Working knowledge of deep learning frameworks.
  • Understanding of MLOps techniques for deploying models effectively.
  • Curiosity and enthusiasm for exploring the latest trends in Generative AI within the field of data analysis.

Salary & Benefits:

We offer a competitive salary ranging from $2,500 to $2,800 USD per month, depending on your experience. Our organization embraces a fully remote work environment, paired with flexible working hours to enhance your work-life balance.
At Niuro, you will find ample opportunities for professional development, along with access to training in advanced data analysis tools. Join us, and be part of a team that values continuous learning and growth!

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
APPLY VIA WEB
Gross salary $3000 - 3900 Full time
Senior Data Engineer
  • Apply Digital Latam
Python SQL Virtualization Big Data
ABOUT APPLY DIGITAL
Apply Digital is a global digital transformation partner for change agents. Leveraging expertise that spans Business Transformation Strategy, Product Design & Development, Commerce, Platform Engineering, Data Intelligence, Change Management, and beyond, we enable our clients to modernize their organizations and deliver meaningful impact to the business and to their customers. Our 650+ team members have helped transform global companies like Kraft Heinz, NFL, Moderna, Lululemon, Games Workshop, Atlassian, and The Very Group. Visit applydigital.com to learn how we can unlock your company’s potential.
If you'd like to learn more about Apply Digital's culture click HERE.
LOCATION: Apply Digital is hybrid/remote-friendly. The preferred candidate should be based in Latin America, preferably working in hours that align to ET (Eastern Timezone) or PT (Pacific Timezone).

Responsibilities:

  • Design, build, and optimize ETL/ELT pipelines using Python and SQL
  • Develop and maintain data warehouse schemas and analytics solutions
  • Implement data models and ensure data quality, consistency, and integrity
  • Leverage cloud data platforms (e.g., AWS Athena, Databricks, Snowflake, Azure Synapse/Fabric, Google BigQuery) for storage, processing, and querying
  • Create and maintain optimal data pipeline architecture.
  • Collaborate with analysts and stakeholders to define requirements and deliver data solutions that meet business needs
  • Communicate with stakeholders to understand data requirements and develop solutions.
  • Design, develop, implement, and maintain data architectures and pipelines.
  • Optimize query performance and ensure efficient data workflowsDocument data pipelines, architectures, and processes
  • Continuously improve and refine existing data infrastructure and solution
  • Develop and implement best practices for data management, security, and privacy.

Requirements:

  • A Bachelor's degree in Computer Science, Information Systems, or a related field.
  • At least 5 years of experience in data engineering or related fields.
  • Strong expertise in SQL, ETL, and data warehousing technologies.
  • Strong working knowledge of Python and PySpark
  • Proven experience with at least one major cloud data platform (AWS Athena, Databricks, Snowflake, Azure Synapse/Fabric, or Google BigQuery)
  • Knowledge of data migration tools and techniques.
  • Good knowledge of databases.
  • Strong background in data warehouse design, ETL/ELT processes, and data modeling, ideally with modern data warehouse and DBT
  • Familiarity with cloud engineering concepts and best practices
  • Experience working with large datasets and optimizing performance
  • Excellent problem-solving skills and attention to detail
  • Outstanding communication skills in English, both written and verbal.

Nice-to-haves:

  • Knowledge of multiple cloud platforms (AWS, Azure, GCP) and their data services
  • Familiarity with data governance and compliance requirements
  • Knowledge of CI/CD practices for data engineering
  • Familiarity with Agile development methodologies
  • Experience with containerization (Docker, Kubernetes)

Conditions

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Apply Digital Latam provides a computer for your work.
Vacation over legal Apply Digital Latam gives you paid vacations over the legal minimum.
Beverages and snacks Apply Digital Latam offers beverages and snacks for free consumption.
APPLY VIA WEB
$$$ Full time
Data Engineer Soluciones de Datos
  • Lisit
  • Biobío, Santiago or Temuco (In-office)
Python SQL Scala Virtualization
En *Lisit*, nos dedicamos a crear, desarrollar e implementar servicios de software que ofrecen herramientas de automatización y optimización. Nuestra misión es promover la eficacia en la operatividad de nuestros clientes a través de un soporte consultivo que integra diversas herramientas y prácticas. Buscamos contribuir al éxito de las transformaciones empresariales mediante estrategias integrales de acompañamiento e implementación.

Que estamos buscando

  • Diseñar, desarrollar y mantener infraestructuras y pipelines de datos escalables y confiables.
  • Optimizar el almacenamiento, procesamiento y recuperación de datos para un funcionamiento eficiente e impecable.
  • Colaborar con equipos de diferentes departamentos para recopilar y analizar los requisitos de datos.
  • Garantizar la calidad, integridad y seguridad de los datos durante todo el ciclo de vida de estos.
  • Mantenerse actualizado sobre los últimos avances, desarrollos y enfoques en ingeniería de datos.

¿Qué habilidades y experiencia necesitas?

  • Fuertes habilidades analíticas y de resolución de problemas.
  • Al menos 3 años de experiencia en ingeniería de datos.
  • Experiencia comprobada en el diseño y desarrollo de data pipelines y procesos ETL, preferiblemente con Azure Data Factory.
  • Amplia experiencia en SQL y dominio de al menos un lenguaje de ingeniería de datos, como Python o Scala.
  • Experiencia con Spark, Airflow y tecnologías Big Data relacionadas.
  • Familiaridad con plataformas de datos basadas en la nube como AWS, Azure o GCP.
  • Excelentes habilidades de comunicación y colaboración.

Deseable

Se valorará la experiencia con herramientas de BI como Power BI y Microsoft Fabric. También es deseable contar con alguna de las siguientes certificaciones: DP-203, PL-300, DP-600 y/o DP-700.

Únete a nosotros

En *Lisit* ofrecemos un ambiente de trabajo innovador y colaborativo. Nos aseguramos de que nuestros empleados disfruten de un equilibrio entre trabajo y vida personal, con programas de capacitación y desarrollo continuo. Valoramos tu entusiasmo y pasión por la ingeniería de datos.

Estamos emocionados por conocer a personas con una mentalidad abierta y dispuestas a enfrentar nuevos desafíos. ¡Si estás listo para innovar y crecer con nosotros, te queremos en nuestro equipo!

En el caso de residir en Santiago, debe tener disponibilidad para viajar una o dos semanas a Los Angeles, región del BioBío

APPLY VIA WEB
$$$ Full time
Data Analyst
  • Lisit
  • Santiago or Los Ángeles (In-office)
Git Data Analysis SQL Oracle

En Lisit, nos dedicamos a crear, desarrollar e implementar servicios de software que ofrecen herramientas de automatización y optimización. Nuestra misión es promover la eficacia operativa de nuestros clientes a través de un acompañamiento consultivo, mediante el uso de diversas herramientas y prácticas. Estamos presentes en un sector en constante evolución, donde la innovación y la pasión por los desafíos son fundamentales. En este contexto, buscamos fortalecer nuestro equipo con un perfil especializado que pueda contribuir a un proyecto específico en el ámbito de Business Intelligence.

Funciones del cargo

  • Diseñar e implementar paneles e informes interactivos en Power BI.
  • Desarrollar modelos de datos, medidas y columnas DAX para optimizar los informes.
  • Escribir consultas SQL complejas y procedimientos para procesos ETL y manipulación de datos.
  • Diseñar y mantener flujos de trabajo eficientes para integrar, limpiar y transformar datos de diversas fuentes.
  • Optimizar consultas y asegurar un alto rendimiento en grandes volúmenes de datos.
  • Diseñar soluciones de almacenamiento de datos que respalden los requerimientos de BI.
  • Integrar datos de bases de datos, plataformas en la nube, APIs y archivos planos.
  • Colaborar de manera proactiva con el equipo de proyecto y las áreas de negocio, mostrando disposición y agilidad para alcanzar los objetivos.
  • Supervisar y optimizar el rendimiento de los informes de Power BI y sus modelos de datos.
  • Asegurar la precisión, integridad y confiabilidad de los datos en las plataformas de BI.

Requerimientos del cargo

  • 3 años experiencia en desarrollo de Business intelligence o ingeniería de datos.
  • Experiencia en desarrollar y construir soluciones utilizando Microsoft Power BI.
  • Amplia experiencia en desarrollos de modelos de datos, Power Query y DAX.
  • Experiencia trabajando en plataformas de bases de datos como Oracle, SQL Server o BigQuery.
  • Experiencia con herramientas ETL y procesos (Azure Data factory).
  • Conocimiento en diseño de almacenes de datos (Warehouses - esquemas estrella modelado dimensional).

Opcionales

  • Certificación PL-300
  • Conocimientos en herramientas de versionamiento de código como GIT
  • Conocimientos en Microsoft Fabric

Condiciones

  • No es requisito excluyente residir en Los Ángeles.
  • Puede residir en Santiago en modalidad 3x2 o 3x1 (flexible) que trabaje en las oficinas de Santiago Centro y al menos 1 semana al mes viajar al sur según la necesidad de las oficinas de los Ángeles.

APPLY VIA WEB
$$$ Full time
Consultor Data Analyst
  • Lisit
  • Santiago or Los Ángeles (In-office)
Git Data Analysis SQL Oracle
En Lisit, nos dedicamos a crear, desarrollar e implementar servicios de software que ofrecen herramientas de automatización y optimización. Nuestra misión es promover la eficacia operativa de nuestros clientes a través de un acompañamiento consultivo, mediante el uso de diversas herramientas y prácticas. Estamos presentes en un sector en constante evolución, donde la innovación y la pasión por los desafíos son fundamentales. En este contexto, buscamos fortalecer nuestro equipo con un perfil especializado que pueda contribuir a un proyecto específico en el ámbito de Business Intelligence.

Responsabilidades del Rol

  • Diseñar e implementar paneles e informes interactivos en Power BI.
  • Desarrollar modelos de datos, medidas y columnas DAX para optimizar los informes.
  • Escribir consultas SQL complejas y procedimientos para procesos ETL y manipulación de datos.
  • Diseñar y mantener flujos de trabajo eficientes para integrar, limpiar y transformar datos de diversas fuentes.
  • Optimizar consultas y asegurar un alto rendimiento en grandes volúmenes de datos.
  • Diseñar soluciones de almacenamiento de datos que respalden los requerimientos de BI.
  • Integrar datos de bases de datos, plataformas en la nube, APIs y archivos planos.
  • Colaborar de manera proactiva con el equipo de proyecto y las áreas de negocio para alcanzar los objetivos.
  • Supervisar y optimizar el rendimiento de los informes de Power BI y sus modelos de datos.
  • Asegurar la precisión, integridad y confiabilidad de los datos en las plataformas de BI.

Requisitos del Puesto

Buscamos a alguien con al menos 3 años de experiencia en desarrollo de Business Intelligence o ingeniería de datos, que tenga una sólida experiencia en el desarrollo y construcción de soluciones utilizando Microsoft Power BI. Es esencial poseer una amplia experiencia en el desarrollo de modelos de datos, así como un dominio de herramientas como Power Query y DAX. La experiencia en plataformas de bases de datos como Oracle, SQL Server o BigQuery, junto con conocimientos en herramientas ETL y procesos como Azure Data Factory, será fundamental. Además, se valorará el conocimiento en diseño de almacenes de datos (Warehouses - esquemas estrella con modelación dimensional).

Habilidades Deseables

Se considera un plus contar con la certificación PL-300 y tener experiencia en herramientas de versionamiento de código como GIT. También valoramos el conocimiento en Microsoft Fabric, que puede ser beneficioso para el desarrollo de este puesto.

Modalidad de trabajo

  • No es requisito excluyente residir en Los Ángeles.
  • Puede residir en Santiago en modalidad 3x2 o 3x1 (flexible) que trabaje en las oficinas de Santiago Centro y al menos 1 semana al mes viajar al sur según la necesidad de las oficinas de los Ángeles.

APPLY VIA WEB
Gross salary $1500 - 2500 Full time
Data Engineer
  • Guinea Mobile SAC (Cuy Móvil)
Java Python Analytics PostgreSQL

Guinea Mobile SAC (Guinea) es una startup de tecnología de telecomunicaciones latinoamericana, fundada en 2016 con sede en Lima, Perú. La empresa se basa en crear productos tecnológicos que faciliten la experiencia móvil.

Hoy cuenta con cuatro marcas de Operadores Móviles Virtuales: PeruSIM, Cuy Móvil, Inka Móvil y Wings Mobile, siendo uno de los principales OMVs del mercado.

Nuestra misión se centra en permitir que cualquier negocio o persona pueda tener su propia oferta móvil, democratizando el servicio móvil.

Se encuentra en la búsqueda de Data Engineer para conformar el equipo de TEC.

Funciones del cargo

  1. Diseño de Infraestructura de Datos Escalable: Crear sistemas robustos que soporten petabytes de datos con alta disponibilidad y rendimiento.
  2. Automatización de Procesos de Integración:
    • Diseñar y gestionar pipelines automatizados para integración y limpieza de datos.
  3. Colaboración con Analistas y Científicos de Datos: Proveer datasets limpios, modelados y fácilmente accesibles.
  4. Optimización de : Identificar cuellos de botella en flujos de datos y aplicar soluciones para mejorar tiempos de respuesta.
  5. Monitoreo de Flujos de Datos: Implementar herramientas de monitoreo y alertas para garantizar la calidad y consistencia de los datos en tiempo real.

Requerimientos del cargo

  • Procesamiento de Datos:
    • Experiencia en frameworks como Apache Spark, Hadoop o Google Dataflow para procesamiento en grandes volúmenes de datos.
    • Conocimiento avanzado de batch processing y stream processing.
  • Bases de Datos y Almacenamiento:
    • Manejo de bases de datos relacionales (Oracle, PostgreSQL o SQL Server ) y NoSQL (MongoDB, DynamoDB, Cassandra).
    • Experiencia en la configuración y gestión servicios data warehouses como Snowflake, Redshift o BigQuery.
  • ETL/ELT:
    • Experiencia en la construcción y optimización de pipelines de datos usando herramientas como Apache Airflow, dbt, Talend o Luigi.
  • Programación:
    • Dominio de lenguajes como Python, Scala o Java, enfocados en la manipulación de datos.
    • Habilidades en scripting para automatización y manejo de grandes datasets.
  • Cloud Computing:
    • Familiaridad con servicios de datos en la nube como AWS Glue, Azure Data Factory o Google Cloud Dataflow.
    • Conocimientos en almacenamiento y gestión de datos en la nube: Amazon S3, Google Cloud Storage o Azure Blob Storage.
  • Calidad y Seguridad de Datos:
    • Implementación de procesos de data profiling, limpieza y validación de datos.
    • Experiencia en garantizar el cumplimiento de normativas como GDPR, HIPAA o similares.
  • Optimización de Consultas y Modelado de Datos Dimensionales:
    • Diseño de modelos de datos eficientes para análisis y consumo.
    • Desarrollo y optimización de queries SQL (CTES, Joins, Subqueries, etc) y otras herramientas.
  • Detallista: Capacidad para identificar inconsistencias y garantizar la calidad de los datos.
  • Proactivo/a: Habilidad para anticipar problemas y proponer mejoras.
  • Colaborativo/a: Experiencia trabajando junto a equipos de analistas, desarrolladores o científicos de datos.
  • Enlace a repositorio en GitHub, GitLab o Bitbucket.
  • Certificaciones relevantes como Google Cloud Professional Data Engineer, AWS Certified Data Analytics, o similares.

APPLY VIA WEB
$$$ Full time
Data Architect Data & AI
  • Factor IT
  • Santiago (Hybrid)
Oracle Big Data Azure Cloud Computing

FactorIT es una empresa líder en tecnología con presencia en 8 países, dedicada a ofrecer soluciones innovadoras en Data y Analytics, Transformación Digital e Inteligencia Artificial. En nuestra unidad de Data & Analytics, estamos enfocados en abordar los desafíos complejos de nuestros clientes a través de proyectos impactantes que abarcan una variedad de industrias. Buscamos un Data Architect - Data & AI para unirse a nuestro equipo en un entorno dinámico y en constante evolución, donde cada contribución juega un papel fundamental en la implementación de soluciones tecnológicas efectivas.

Responsabilidades del Puesto

  • Diseñar y elevar la Arquitectura de Datos, desarrollando el esquema general para la infraestructura de datos que incluya bases de datos, pipelines de procesamiento y almacenamiento.
  • Desarrollar y mantener Modelos de Datos que reflejen con precisión la información interna, creando diagramas de relaciones y definiciones de entidades.
  • Establecer e implementar políticas de Integración y Gobernanza de Datos, asegurando la calidad, seguridad y privacidad.
  • Optimizar el rendimiento de la infraestructura de datos mediante la implementación de prácticas avanzadas.
  • Planificar y supervisar migraciones de datos, garantizando la integridad y continuidad de los procesos organizacionales.
  • Colaborar con equipos de Desarrollo y Analítica para asegurar que la arquitectura de datos se alinee con los requisitos comerciales y proyectos de análisis.
  • Explorar e implementar nuevas herramientas y tecnologías que mejoren la arquitectura existente.
  • Documentar la arquitectura y capacitar a los equipos en el uso adecuado de los sistemas de datos.
  • Monitorear el progreso de los proyectos y comunicar resultados a las partes interesadas.

Descripción del Puesto

Buscamos un Data Architect - Data & AI con no más de 2 años de experiencia, dispuesto a aprender y adaptarse rápidamente. Deberás tener un conocimiento práctico en diseño de arquitecturas de datos y bases de datos, con la capacidad de trabajar proactivamente en un entorno dinámico. Se valorará la experiencia en reingeniería de bases de datos y la creación de diccionarios de datos. También es esencial tener habilidades para comunicar resultados y coordinar esfuerzos con equipos multidisciplinarios.

Serás parte de un equipo colaborativo donde se fomenta la innovación y el continuo desarrollo profesional. Conocimientos en tecnologías de Big Data, administración de sistemas distribuidos, y cloud computing son altamente deseables, aunque no es necesario dominar todos los aspectos.

Habilidades Deseables

Se valorará conocimiento en herramientas como Oracle On-premise y Azure. Experiencia previa en la gestión de Data Warehouses y Data Lake Houses será un plus. La habilidad para resolver problemas de manera creativa y un enfoque proactivo son deseables, así como la capacidad de trabajar bajo presión y cumplir con plazos establecidos.

Beneficios

Ofrecemos un entorno de trabajo flexible y colaborativo, con opciones de trabajo híbrido en un entorno dinámico y multicultural. Promovemos un equilibrio entre trabajo y vida personal, además de fomentar la inclusión y la diversidad. Al unirte a FactorIT, tendrás la oportunidad de participar en proyectos desafiantes que impactan positivamente en diversas industrias y contribuir al futuro tecnológico de la región. ¡Únete a nosotros y transformemos juntos la tecnología! 💻✨

APPLY VIA WEB
$$$ Full time
Analista Control Operaciones Siniestros Masivos
  • BNP Paribas Cardif
  • Santiago (Hybrid)
Excel SQL Power BI Data Visualization

¿Quieres ser parte de los líderes en la revolución de los seguros?
BNP Paribas Cardif está presente en más de 30 países en América, Europa y Asia, contamos con 25 años de trayectoria en Chile y nuestra misión es hacer los seguros más accesibles, justos y valiosos.

✅ Por nuestro ambiente laboral único, somos una organización centrada en el bienestar de las personas y nuestro espíritu Cardif está presente en la oficina y fuera de ella.
✅ Porque el deporte y sus valores son parte de nuestra cultura: la colaboración, la empatía y el respeto guían nuestro trabajo.
✅ Por la cercanía con nuestros líderes, somos una organización que cree en el talento y damos las oportunidades para desarrollarte y aprender juntos.
✅ Por nuestro modelo de trabajo mixto, teletrabajando tres días a la semana.
✅ Estamos comprometidos con el medio ambiente.
✅ Estamos comprometidos con la diversidad, equidad e inclusión, siendo ésta parte de nuestra cultura y estrategia de la compañía.

Funciones del cargo

Hoy BNP Paribas Cardif busca a unAnalista de Control de Operaciones de Siniestros Masivos que se sume al equipo de Siniestros (Gerencia de Operaciones). Donde tú misión será ser responsable de analizar, registrar y controlar la información de la liquidación tanto interna como externa, del área de Siniestros. Además, como parte de tu rol deberás tener control de los indicadores; cumplimientos SLA, extracción y análisis de datos requeridos para dar cumplimientos normativos. En este cargo responderás a los requerimientos y solicitudes levantadas por los socios designados, siendo así, la cara visible del área de Siniestros.

¿Cuáles son los principales desafíos del cargo?

• Analizar y responder los requerimientos de los socios.

• Generación de reportería e indicadores de socios designados.

• Generar herramientas de soporte al área de digitación-liquidación.

• Liderar comités de siniestros con socios, liquidador externo y clientes internos.

• Generar el control de la liquidación interna/externa (cumplimiento SLA, issues, entre otros).

• Ser expertos en las herramientas de siniestros (BOIS, Beneficios, Portal Liquidadores, entre otros).

• Participar en levantamientos de proyectos relacionadas con siniestros socios.

• Actualización de procedimientos del área.

• Asegurar la correcta configuración de los productos asociados al proceso de siniestros.

• Extracción y análisis base de datos (SQL / PLSQ).

• Apoyo y participación en funciones que sean necesarias de ejecutar, velando por el control y mejora de los procesos de la gerencia de siniestros.

Requerimientos del cargo

¿Cómo saber si hago match con esta vacante? Buscamos a alguien que:

Requisitos:

- Formación en Ingeniero de control de gestión, ingeniero industrial, carreras afín.

- 1 año de experiencia laboral en cargos similiares en rubro de Seguro (no excluyente).

Conocimientos:

- Herramientas Microsoft office, nivel avanzado (Excel, Word, PPT).

- Nivel Intermedio de Power BI y SQL.

¿Te sumas a la revolución de la industria del seguro?

Esperamos tu postulación ¡seguro y con todo!

“Todas las contrataciones están sujetas a la ley 21015. En BNP Paribas Cardif creemos en lugares de trabajos inclusivos y diversos, donde todas las personas son bienvenidas. En caso de necesitar adaptaciones para ser parte de nuestro proceso de selección, favor comunicarlo en la sección de preguntas”.

APPLY VIA WEB
$$$ Full time
Analista de Datos en GCP
  • BC Tecnología
  • Santiago (Hybrid)
Data Analysis SQL Big Data BigQuery
En BC Tecnología, somos una consultora de TI que se especializa en la transformación y análisis de datos. Dentro de un entorno innovador y en constante crecimiento, nuestros equipos de trabajo construyen soluciones avanzadas para clientes de servicios financieros, seguros, retail y gobierno. Contamos con seis años de experiencia diseñando soluciones a medida, basadas en las necesidades de nuestros clientes, utilizando metodologías ágiles y un enfoque en resultados.
Buscamos un profesional que desee ser parte de un equipo donde se valoran el bienestar y el crecimiento profesional. Trabajamos en el diseño y mantenimiento de canalizaciones de datos utilizando herramientas como BigQuery y DBT en Google Cloud Platform.

¿Qué harás en este rol?

  • Diseñar y mantener canalizaciones de datos en BigQuery utilizando DBT, garantizando flujos eficientes y automatizados.
  • Implementar tareas programadas en Google Cloud Platform (GCP) para la ingesta y procesamiento continuo de datos, asegurando procesos ágiles y escalables.
  • Construir y documentar modelos de datos optimizados para análisis, impulsando decisiones basadas en datos de alto impacto.
  • Validar y probar la precisión de los datos transformados para asegurar la calidad y exactitud de la información.
  • Realizar seguimiento de cambios en modelos y transformaciones, manteniendo eficacia y consistencia a lo largo del tiempo.

¿Qué buscamos en ti?

  • Experiencia avanzada con BigQuery y DBT.
  • Conocimiento práctico en Google Cloud Platform (GCP), incluyendo tareas programadas y almacenamiento.
  • Sólidas habilidades en SQL y modelado de datos.
  • Capacidad para documentar de manera clara y eficiente los procesos, así como realizar pruebas rigurosas para garantizar la precisión de los datos.

Ofrecemos

  • Contrato inicial de 3 meses con posibilidades de conversión a indefinido.
  • Modalidad híbrida, que permite trabajo remoto y en oficina de 2 a 3 días a la semana.
  • Beneficios adicionales a convenir para asegurar el bienestar de nuestros empleados. 😊
En BC Tecnología, fomentamos un entorno laboral flexible y colaborativo, promoviendo activamente el desarrollo del talento a través de capacitación continua. ¡Esperamos tu interés y que te unas a nuestro equipo!

Relocation offered If you are moving in from another country, BC Tecnología helps you with your relocation.
Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB
Gross salary $1500 - 2000 Full time
Analista de Datos
  • coderslab.io
  • Santiago (Hybrid)
Data Analysis SQL Big Data BigQuery
En CodersLab actualmente nos encontramos apuntando al crecimiento de nuestros equipos de manera global con el objetivo de posicionarnos con nuestros productos en más países de Latinoamérica, es por ello que estamos en búsqueda de un ANALISTA DE PROCESAMIENTO DE DATOS quien deberá ser una persona motivada y orientada al cumplimiento de objetivos.
Te sumarás a un equipo desafiante y ambicioso con ganas de renovar el mercado, por lo que tus propuestas serán de mucho valor para el negocio.
¡Postula para este tremendo desafío!

Funciones del cargo

  1. Utilización de BigQuery:
    • Realizar análisis de datos, ingesta y procesamiento continuo mediante tareas programadas en GCP utilizando BigQuery.
  2. Transformación de Datos:
    • Aplicar técnicas de transformación de datos utilizando DBT (Data Build Tool) para asegurar que los datos sean precisos y estén listos para su análisis.
  3. Pruebas de Precisión de Datos:
    • Testear la precisión y validez de los datos, asegurando que se cumplan los estándares de calidad antes de su utilización.
  4. Seguimiento de Cambios:
    • Realizar un seguimiento de los cambios en los datos y actualizar la documentación correspondiente para mantener un registro claro y comprensible.
  5. Construcción de Modelos de Datos:
    • Diseñar y construir modelos de datos adecuados que soporten las necesidades del negocio y faciliten el análisis.
  6. Escritura de Código de Transformación:
    • Escribir y validar código para la transformación de datos, garantizando que sea eficiente y escalable.
  7. Implementación y Documentación:
    • Implementar mejoras en los procesos de datos y documentar todos los procedimientos que se lleven a cabo, facilitando la comprensión y el uso por parte de otros equipos.

Requerimientos del cargo

  • BigQuery:
    • Experiencia en el uso de BigQuery para el manejo y análisis de grandes volúmenes de datos.
  • DBT (Data Build Tool):
    • Conocimiento y experiencia en DBT para modelar, transformar y documentar datos.
  • Lenguajes de Programación:
    • Familiaridad con SQL y posiblemente con otros lenguajes relacionados con el procesamiento de datos.
  • Análisis de Datos:
    • Capacidad para analizar datos, identificar patrones y tendencias, y ofrecer recomendaciones basadas en los hallazgos.
  • Atención al Detalle:
    • Fuerte atención al detalle y habilidades analíticas para asegurar la precisión de los datos.
  • Comunicación:
    • Habilidades de comunicación efectivas, tanto escritas como verbales, para colaborar con otros equipos y presentar resultados de manera clara.

Competencias Personales:
  • Habilidad para trabajar en un ambiente dinámico y bajo presión.
  • Capacidad de trabajo en equipo y colaboración interdepartamental.
  • Flexibilidad y adaptabilidad a cambios en proyectos y prioridades.

APPLY VIA WEB
$$$ Full time
Data Technical Lead
  • BC Tecnología
  • Santiago (Hybrid)
Python Agile SQL Scala
En BC Tecnología, somos una consultora de TI reconocida por nuestra experiencia en diversas áreas tecnológicas. Nos especializamos en la creación de equipos de trabajo ágiles para el desarrollo de proyectos en infraestructura tecnológica, desarrollo de software, y unidades de negocio, operando principalmente en sectores como servicios financieros, seguros, retail y gobierno.
Desde hace más de seis años, nos dedicamos a diseñar soluciones personalizadas según las necesidades de nuestros clientes, mediante un enfoque claro en el cliente, metodologías ágiles, y un compromiso con el desarrollo de productos que aporten valor. Nuestro portafolio incluye:
  • Consultoría y diseño de soluciones
  • Formación de equipos de trabajo y outsourcing
  • Desarrollo y ejecución de proyectos
  • Servicios de soporte y administración IT
Fomentamos un ambiente laboral colaborativo y flexible, así como el crecimiento profesional continuo.

Funciones del rol

Como Data Technical Lead, su objetivo principal será liderar equipos en la construcción de soluciones de datos sólidas mientras asegura la entrega de proyectos alineados a metodologías ágiles y estándares de calidad. Las responsabilidades incluirán:
  • Diseño y desarrollo de pipelines de datos eficientes.
  • Supervisión de la implementación de herramientas modernas de arquitectura de datos.
  • Fomento del uso de prácticas CI/CD y gestión del versionamiento de código.
  • Liderazgo efectivo de equipos técnicos, asegurando una comunicación clara y una colaboración continua.
  • Implementación de metodologías ágiles como Scrum y Kanban en los equipos.

Descripción del puesto

Buscamos un Data Technical Lead con más de 4 años de experiencia en el diseño y construcción de pipelines de datos. Debe tener un dominio avanzado de Python, Scala y SQL. Se espera que el candidato tenga experiencia con herramientas de arquitecturas de datos modernas como Airflow y Mage, así como conocimientos avanzados en CI/CD. Es vital que el candidato haya liderado equipos técnicos previamente y esté familiarizado con la implementación de metodologías ágiles como Scrum y Kanban.
Además, buscamos a alguien que cuente con habilidades de comunicación eficaz, pensamiento crítico y que esté orientado a la resolución de problemas. La capacidad para trabajar en un entorno cambiante y colaborativo es esencial.

Habilidades deseables

Si bien estamos enfocados en las habilidades mencionadas, será un plus contar con conocimientos adicionales en:
  • Herramientas de visualización de datos (como Tableau o Power BI).
  • Implementación de soluciones de Machine Learning.
  • Conocimientos en seguridad de datos y cumplimiento de normativas.

Beneficios que ofrecemos

En BC Tecnología ofrecemos una modalidad de trabajo híbrida que permite combinar trabajo remoto y en oficina, de 2 a 3 días por semana. El contrato inicial será por un proyecto de 3 meses con posibilidad de extensión a indefinido. Adicionalmente, garantizamos un entorno laboral flexible y colaborativo, fomentando el bienestar de nuestros empleados mediante beneficios acordes a convenir. 😊 Siempre priorizamos el crecimiento profesional y la capacitación continua, por lo que estamos emocionados de recibir tu interés para unirte a nosotros y crecer juntos en esta aventura emocionante.

APPLY VIA WEB
Gross salary $2000 - 2300 Full time
Data Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Python Git SQL Scala
En BC Tecnología, somos una consultora de TI especializada en el desarrollo de soluciones a medida para diferentes sectores, incluyendo servicios financieros, seguros, retail y gobierno. A lo largo de los últimos seis años, hemos creado equipos ágiles para abordar las necesidades de nuestros clientes. Ahora, buscamos un Data Engineer talentoso para diseñar y mantener nuestros pipelines de datos, utilizando tecnologías modernas que transforman, almacenan y procesan grandes volúmenes de información.

Descripción del Rol:

El Data Engineer será fundamental para nuestras operaciones, siendo responsable de:
  • Diseñar y construir pipelines de datos eficientes que faciliten el movimiento y la transformación de datos.
  • Asegurar que los procesos de datos sean consistentes y confiables a lo largo del tiempo.
  • Implementar flujos de trabajo de CI/CD que permitan la incorporación efectiva hacia los entornos de desarrollo y producción.
  • Colaborar con el equipo para mejorar constantemente la calidad y eficiencia de los procesos de datos.
  • Asesorarse con líderes técnicos sobre lineamientos y mejores prácticas en el desarrollo.

Requisitos:

  • 0 a 2 años de experiencia en diseño y construcción de pipelines de datos.
  • Dominio de lenguajes de programación como Python o Scala, así como SQL.
  • Experiencia con herramientas de orquestación de pipelines como Airflow, Mage, NiFi o similares.
  • Conocimientos básicos en CI/CD (Git) y flujos de trabajo de versionamiento de código.
  • Familiaridad con arquitecturas de datos como Datalakes, Datawarehouses o Lakehouse es deseable.
  • Conocimientos en técnicas de modelación de datos (dimensional, estrella, copo de nieve, etc.) son también deseables.

Deseable:

Se valorarán habilidades adicionales que puedan enriquecer nuestro equipo, como experiencia en metodologías ágiles y un enfoque proactivo en la resolución de problemas. Buscamos a alguien que esté entusiasmado por aprender y crecer en un ambiente colaborativo, con ganas de enfrentar nuevos desafíos en el mundo de los datos.

Beneficios:

En BC Tecnología, ofrecemos un entorno laboral flexible y colaborativo que incluye:
  • Contrato inicial de 3 meses con posibilidad de conversión a indefinido.
  • Modalidad híbrida que permite combinar trabajo remoto y en oficina, de 2 a 3 días a la semana.
  • Beneficios adicionales acordes a convenir, garantizando el bienestar de nuestros empleados. 😊
Fomentamos el crecimiento profesional y la capacitación continua, siempre enfocados en el desarrollo del talento. ¡Esperamos tu interés para unirte a nuestra emocionante aventura!

APPLY VIA WEB
Gross salary $1800 - 2000 Full time
Data Engineer GCP
  • BC Tecnología
Agile SQL Scrum Kanban
En *BC Tecnología*, somos una consultora de TI que se especializa en servicios innovadores y en la creación de soluciones tecnológicas personalizadas para nuestros clientes. Con más de 6 años de experiencia, trabajamos en diversas áreas, incluyendo el desarrollo de software y la integración de sistemas, principalmente en sectores como finanzas, seguros y retail.
Buscamos expandir nuestro equipo con un Data Engineer apasionado por la tecnología que se una a nuestro departamento dedicado a crear soluciones analíticas y resistentes para nuestros clientes, aprovechando todo el potencial de Google Cloud Platform.

Funciones del Cargo

Como Data Engineer en *BC Tecnología*, serás responsable de:
  • Diseñar e implementar modelos de datos analíticos y relacionales.
  • Integrar software y herramientas necesarias para optimizar procesos de datos.
  • Colaborar con equipos utilizando metodologías ágiles como Scrum y Kanban.
  • Contribuir a la mejora continua de los sistemas y procesos de análisis de datos.
  • Utilizar herramientas de CI/CD para un manejo eficiente del código y la integración de aplicaciones.

Descripción del Cargo

Estamos buscando una persona con pasión por la tecnología y la innovación. Deberás contar con habilidades sólidas en:
  • Modelos de datos analíticos y relacionales.
  • Lenguajes de programación como SQL y PySpark.
  • Desarrollo e integración de software.
  • Manejo de metodologías ágiles (Scrum, Kanban).
  • Experiencia con herramientas de CI/CD, específicamente GitLab.
Además, deberás ser capaz de trabajar con bases de datos basadas en SQL y PySpark, gestionando los progresos a través de JIRA y tener conocimientos avanzados en ofimática.

Habilidades Deseables

Estos son algunos conocimientos que serían un plus para el puesto:
  • Experiencia previa en proyectos de análisis de datos en Google Cloud Platform.
  • Conocimiento en herramientas de visualización de datos.
  • Capacidad de trabajar en entornos dinámicos y adaptarse rápidamente a cambios en los proyectos.

Beneficios de Trabajar con Nosotros

En *BC Tecnología*, ofrecemos un entorno de trabajo innovador y colaborativo, donde se fomenta el crecimiento profesional y el desarrollo de habilidades. Ofrecemos:
  • Oportunidades de capacitación continua y desarrollo profesional.
  • Participación en proyectos interesantes que impactan en grandes sectores.
Estamos emocionados por encontrar a alguien que comparta nuestra visión y se una a nuestro equipo. ¡Esperamos tu interés!

Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB
$$$ Full time
Ingeniero/a de Estudios Actuariales Senior
  • BNP Paribas Cardif
  • Santiago (Hybrid)
C Python Data Analysis Excel
¿Quieres ser parte de los líderes en la revolución de los seguros?
BNP Paribas Cardif está presente en más de 30 países en América, Europa y Asia, contamos con 25 años de trayectoria en Chile y nuestra misión es hacer los seguros más accesibles, justos y valiosos.
✅ Por nuestro ambiente laboral único, somos una organización centrada en el bienestar de las personas y nuestro espíritu Cardif está presente en la oficina y fuera de ella.
✅ Porque el deporte y sus valores son parte de nuestra cultura: la colaboración, la empatía y el respeto guían nuestro trabajo.
✅ Por la cercanía con nuestros líderes, somos una organización que cree en el talento y damos las oportunidades para desarrollarte y aprender juntos.
✅ Por nuestro modelo de trabajo mixto, teletrabajando tres días a la semana.
✅ Estamos comprometidos con el medio ambiente.
✅ Estamos comprometidos con la diversidad, equidad e inclusión, siendo ésta parte de nuestra cultura y estrategia de la compañía.

Funciones del cargo

Hoy buscamos a un Ingeniero(a) de Estudios Actuariales que se sume al equipo de Modelos de Riesgos y Estudios, de la Gerencia Técnica - Financiera, donde tú misión será proveer a las distintas áreas de la gerencia técnica y de la compañía con parámetros técnicos, a través de estudios y herramientas, con el fin que se puedan tomar las decisiones correctas a la hora de evaluar rentabilidad de los productos.
Además de:
• Analizar grandes volúmenes de datos en SAS, Excel y Python, para estudiar el comportamiento de las coberturas de seguros a través de parámetros técnicos, con el fin de entregárselos a pricing y distintas áreas de la compañía para la toma de decisiones.
• Proveer de herramientas al área técnica de la compañía, con el fin de facilitar la toma de decisiones, a través de actualizaciones de Dashboard o creación de nuevas herramientas.
• Seguimiento, estudio y control, de los diferentes riesgos que enfrenta la compañía.
• Gestionar y analizar los datos de la compañía con el fin de abordar distintas problemáticas actuariales que permitan apoyar el proceso de transformación.
• Participar activamente en proyectos transversales tanto a la gerencia técnica como a nivel compañía, aportando desde el punto de vista técnico y financiero.
• Buscar la mejora continua de los procesos y procedimientos del área, buscando la agilidad y perfeccionamiento de las metodologías de cálculo, ya sea proponiendo nuevas herramientas o modelos o mejorando los utilizados actualmente.

Requisitos Mínimos

a. Formación

- Ingeniería Civil Industrial, Ingeniería en Estadística o afín.
b. Experiencia Requerida

- Deseable: Experiencia previa en áreas de analisis de datos, ya sea en manejo de grandes volumenes de datos, reporterías, monitoreos de KPI’s, modelación estadística o similares.
Tiempo: 0 – 2 años
c. Conocimientos y Habilidades

- Conocimiento avanzado de Excel, SAS y Python.
- Conocimiento Básico – Intermedio de Power BI.
- Nivel de inglés intermedio – avanzado.
- Conocimiento del ámbito asegurador
- Alta capacidad de síntesis y análisis
- Autonomía y autogestión
- Proactividad
- Capacidad de trabajo en equipo.
- Habilidades comunicacionales orales y escritas.
- Capacidad de generar ideas y mejoras continuas
- Orientación a resultados.
- Efectividad en presentaciones.
- Capacidad de planificación y seguimiento.

Beneficios

  • Trabajamos eficientemente: 40 horas semanales en horarios flexibles y los viernes salimos a las 14:00.
  • ¡Tenemos más vacaciones y días libres! Una semana adicional de vacaciones + 1 día libre considerando tu cumpleaños y quehaceres personales.
  • Apoyamos tu formación profesional: Acceso ilimitado a nuestra plataforma Coursera y dos días libres al año por estudios.
  • Cardif te cuida: Contarás con telemedicina gratis, seguro de vida, de salud y dental.
  • Queremos que seas tú mismo: Contamos con política de vestimenta flexible.
Y muchos otros beneficios que podrás conocer al avanzar en nuestro proceso de selección

¿Te sumas a la revolución de la industria del seguro?

Esperamos tu postulación ¡seguro y con todo!

“Todas las contrataciones están sujetas a la ley 21015. En BNP Paribas Cardif creemos en lugares de trabajos inclusivos y diversos, donde todas las personas son bienvenidas. En caso de necesitar adaptaciones para ser parte de nuestro proceso de selección, favor comunicarlo en la sección de preguntas.”

APPLY VIA WEB
$$$ Full time
Data Engineer
  • Leniolabs_
Azure Artificial Intelligence Cloud Computing English

Leniolabs_ es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA.

Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.

Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.

Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Funciones del cargo

Actualmente, estamos en la búsqueda de un Data Engineer SSR/SR que se quieran unir a Leniolabs, para trabajar de la mano de uno de nuestros importantes clientes relacionado con el almacenamiento de datos. El objetivo principal del cargo es garantizar la estabilidad, escalabilidad y seguridad de la infraestructura tecnológica, apoyando el manejo eficiente de grandes volúmenes de datos mediante soluciones modernas y automatizadas.

La persona que se sume trabajará directamente en del desarrollo de un producto externo de la empresa, manteniendo relación directa con el cliente.

  • Se trabajará en el departamento de desarrollo de tecnología de la empresa.
  • Trabajo en equipo - liderazgo.
  • Será responsable de avanzar en los diferentes requerimientos del cliente, junto con el equipo.
  • Su trabajo consiste en hacer que las tareas se realicen utilizando todos los recursos disponibles (tangibles e intangibles).
  • Contamos internamente con personas capacitadas para realizar QA, Líder de proyecto, etc, por lo cual tendrá la responsabilidad de adaptarse a cada equipo.

Requerimientos del cargo

  • Más de 5 años de experiencia como Data Engineer.
  • Conocimiento avanzado y experiencia obligatoria con Microsoft Fabric:
    • Fabric Pipelines.
  • Experiencia con la suite de Azure AI, incluyendo:
    • Azure AI Search.
    • Promptflow.
    • Copilot Studio.
  • Habilidades de integración con herramientas avanzadas de inteligencia artificial.
  • Optimizar y gestionar flujos de datos escalables.
  • Integrar funcionalidades avanzadas de IA utilizando herramientas de la suite Azure AI.
  • Desarrollar sistemas de búsqueda inteligente y exploración de datos con Azure AI Search
  • Nivel de inglés: Intermedio/avanzado en adelante (B2+).

Beneficios

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Internal talks Leniolabs_ offers space for internal talks or presentations during working hours.
Computer provided Leniolabs_ provides a computer for your work.
Informal dress code No dress code is enforced.
APPLY VIA WEB
$$$ Full time
Planificador de Demanda
  • Agrosuper
  • Rancagua (Hybrid)
Data Analysis Excel Power BI Planning

Agrosuper es una empresa que une a más de 13.000 personas con el sueño de llevar alimentos de la más alta calidad a la mesa de las familias en Chile y el mundo. En nuestro equipo, cada miembro es importante y estamos dedicados a encontrar a los mejores para impulsar nuevas ideas y facilitar tu crecimiento profesional.

Estamos buscando un Planificador de Demanda que jugará un papel fundamental en la elaboración de pronósticos y presupuestos, apoyando a nuestra área comercial a alcanzar sus objetivos. Ven y sé parte de una empresa que transforma desafíos en oportunidades.

Responsabilidades esenciales del Planificador de Demanda

El rol de Planificador de Demanda implica una serie de responsabilidades clave:

  • Coordinar el Proceso de S&OP para elaborar pronósticos consensuados a 12-18 meses y pronósticos estratégicos a 3-5 años.
  • Apoyar en la elaboración del presupuesto de la compañía con inputs estratégicos.
  • Promover y asegurar la precisión del pronóstico estadístico, identificando desvíos y sugiriendo acciones correctivas en coordinación con diversas áreas.
  • Elaborar reportes de desviación de pronóstico y utilizar herramientas disponibles para medir la efectividad de la colaboración en el pronóstico.
  • Garantizar el monitoreo y cumplimiento del Plan de Ventas mensual, utilizando KPI’s claves como Precisión y BIAS.

¿Qué buscamos en el candidato ideal?

Buscamos un profesional con un enfoque fuerte en la planificación y análisis. Debe contar con habilidades en:

  • Experiencia de 2 a 3 años como planificador de demanda, idealmente en Forecasting o Supply Planning.
  • Conocimientos en S&OP e IBP, y ser competente en el manejo avanzado de Excel; el uso de Power BI sería un plus.
  • Capacidad para proponer mejoras y utilizar información estadística para generar pronósticos confiables.

Se valoran competencias en planificación y análisis crítico para el desarrollo de estrategias efectivas en ventas.

Habilidades y experiencia deseables

Sería ideal que el candidato también tenga conocimientos sobre:

  • Herramientas de análisis de datos y soluciones de reporte.
  • Experiencia previa en análisis comercial u operaciones para fortalecer la capacidad de insight en la toma de decisiones.
  • Un enfoque colaborativo para interactuar de manera efectiva con diversas áreas de la empresa.

Aunque no son requisitos excluyentes, estos aspectos sumarán valor a tu perfil.

Beneficios de unirse a Agrosuper

Ofrecemos un entorno laboral enriquecedor que fomenta la salud y el bienestar. Nuestros horarios son de lunes a viernes de 08:30 a 18:00, garantizando un balance entre la vida laboral y personal. Recibirás capacitación continua y la oportunidad de formar parte de un equipo sólido que valora tus ideas.
¡Ven a ser parte de nuestra familia en Agrosuper! 🌟

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance Agrosuper pays or copays life insurance for employees.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Commuting buses Agrosuper provides free commuting buses from and to the offices.
Dental insurance Agrosuper pays or copays dental insurance for employees.
Free car parking You can park your car for free at the premises.
Computer provided Agrosuper provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
APPLY VIA WEB
Gross salary $1500 - 2000 Full time
Business Analyst
  • BC Tecnología
  • Santiago (Hybrid)
Agile Scrum VTEX Kanban
BC Tecnología es una consultora de TI con un equipo de expertos dedicados a ofrecer soluciones innovadoras en diversas áreas tecnológicas. Nos especializamos en la administración de portafolios, desarrollo de proyectos, outsourcing y selección de profesionales. Formamos equipos de trabajo ágiles que se enfocan en las necesidades de nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Durante seis años, hemos proporcionado soluciones personalizadas y efectivas.
En el área específica de Nuevos Negocios, buscamos fortalecer nuestro equipo con un Business Analyst innovador. Este profesional será esencial para nuestro enfoque en la mejora continua y la maximización del valor entregado a nuestros clientes.

Responsabilidades del Business Analyst

En este rol, el Business Analyst asumirá las siguientes responsabilidades:
  • Gestión del Backlog: Colaborar con el Product Owner para organizar y priorizar el backlog del producto, alineando mejoras y funcionalidades con las necesidades del negocio.
  • Creación y Refinamiento de Historias de Usuario: Redactar y asegurar que las historias de usuario sean claras y bien definidas para el equipo de desarrollo.
  • Gestión de Dependencias: Identificar interacciones con otras áreas y gestionar dependencias para mantener un flujo de trabajo óptimo.
  • Solución de Problemas: Colaborar con el equipo para identificar y proponer soluciones innovadoras, mejorando la experiencia del cliente.
  • Comunicación y Colaboración: Actuar como puente entre el equipo de desarrollo y las definiciones de negocio.
  • Revisión de KPIs: Monitorear el rendimiento del producto y asegurar el cumplimiento de los KPIs establecidos.

Perfil del Candidato

Requisitos Obligatorios:
  • 1 a 3 años de experiencia como Business Analyst, Product Owner o en roles similares en entornos ágiles.
  • Conocimiento en gestión de backlogs y definición de historias de usuario.
  • Experiencia en análisis y seguimiento de KPIs.
  • Experiencia en metodologías ágiles (Scrum, Kanban, etc.) de al menos un año.
  • Excelentes habilidades de comunicación y trabajo en equipo.
  • Disponibilidad para asistir presencialmente en Santiago al menos una vez por semana.

Requisitos Deseables

Además, sería ideal contar con:
  • Conocimiento en aplicaciones móviles.
  • Experiencia en la plataforma Vtex.
  • Conocimientos técnicos básicos de desarrollo para facilitar la colaboración con el equipo técnico.

Beneficios de Trabajar con Nosotros

Ofrecemos un ambiente de trabajo colaborativo y estimulante. Los beneficios incluyen:
  • Seguro complementario para colaboradores.
  • Amipass de $4.500 por día trabajado.
  • Convenios y actividades para fomentar el bienestar del equipo.
  • Bonos por rendimiento.
  • Un contrato inicial de 12 meses con posibilidad de extensión, y un horario flexible de lunes a viernes.
Valoramos a nuestros colaboradores y estamos comprometidos con su desarrollo profesional.

APPLY VIA WEB
$2200 - 2300 Full time
Data Engineer (GCP)
  • BC Tecnología
  • Santiago (Hybrid)
Python SQL Big Data BigQuery

En esta posición, te unirás a un equipo de expertos en análisis de datos dentro de BC Tecnología, una consultora de TI que se especializa en la gestión de proyectos y servicios IT para diversos sectores, incluyendo servicios financieros, seguros, retail y gobierno. Nuestro enfoque se centra en brindar soluciones efectivas y de alta calidad a nuestros clientes, utilizando metodologías ágiles para adaptarnos rápidamente a sus necesidades.

El equipo al que te incorporarás trabaja directamente con nuestros clientes del sector bancario para mejorar la toma de decisiones a través del análisis avanzado de datos. Como Data Engineer, tu rol será crucial para optimizar procesos de datos y proporcionar insights que ayuden a impulsar la eficiencia y alcanzar los objetivos estratégicos de nuestros clientes.

Funciones del Rol

Como Data Engineer (GCP), tus principales responsabilidades incluirán:

  • Diseñar e implementar procesos de ingesta y modelamiento de datos en GCP.
  • Desarrollar y optimizar flujos de trabajo de datos (ETLs) utilizando las herramientas de GCP.
  • Mantener y mejorar pipelines de datos en BigQuery.
  • Implementar funciones en Cloud Functions para la automatización de procesos.
  • Gestionar la orquestación de tareas mediante Airflow.
  • Colaborar en proyectos utilizando herramientas de versionamiento como GitLab.
  • Crear y documentar soluciones de modelamiento de datos con herramientas como DBT.
  • Asegurar la calidad y escalabilidad de los modelos y pipelines de datos.

Descripción del Perfil

Buscamos un profesional con la siguiente experiencia y habilidades:

  • Experiencia en GCP: Uso de productos clave como BigQuery, Cloud Functions, Cloud Storage y Airflow.
  • Conocimientos avanzados en SQL y Python: Capacidad para desarrollar consultas complejas y automatizar procesos.
  • Gestión de versionamiento: Experiencia práctica con sistemas de control de versiones como GitLab, Bitbucket o GitHub.

Además, se valorará la habilidad para trabajar en equipo y realizar adaptaciones en un entorno de trabajo en evolución constante.

Habilidades Deseables

Aunque no son requisitos obligatorios, son valoradas las siguientes competencias:

  • Experiencia previa en la implementación de soluciones de almacenamiento de datos en la nube.
  • Capacidades de comunicación efectiva y trabajo colaborativo.
  • Experiencia en entornos ágil y retador.

Beneficios Ofrecidos

Condiciones:

  • -Contrato por proyecto estimado a 3 meses con posibilidad de extensión
  • -Metodología de trabajo: Hibrido a demanda (promedió 2 a 3 días a la semana / Santiago Centro)
  • -Disponibilidad lunes a viernes
  • -Salario a convenir
  • -Beneficios (Seguro Complementario, Amipass $4.500 por día laborado, convenios, actividades, bonos)

APPLY VIA WEB
Gross salary $2300 - 2400 Full time
Data Analyst
  • BC Tecnología
  • Santiago (Hybrid)
Python Data Analysis SQL Big Data
En esta posición, te unirás a un equipo de expertos en análisis de datos dentro de BC Tecnología, una consultora de TI que se especializa en la gestión de proyectos y servicios IT para diversos sectores, incluyendo servicios financieros, seguros, retail y gobierno. Nuestro enfoque se centra en brindar soluciones efectivas y de alta calidad a nuestros clientes, utilizando metodologías ágiles para adaptarnos rápidamente a sus necesidades.
El equipo al que te incorporarás trabaja directamente con nuestros clientes del sector bancario para mejorar la toma de decisiones a través del análisis avanzado de datos. Como Data Analyst, tu rol será crucial para optimizar procesos de datos y proporcionar insights que ayuden a impulsar la eficiencia y alcanzar los objetivos estratégicos de nuestros clientes.

Funciones

  • Levantar, analizar y documentar procesos de datos para optimizar flujos y estructuras.
  • Gestionar y modelar datos en Google BigQuery.
  • Implementar funciones automáticas utilizando Google Cloud Functions.
  • Administrar almacenamiento de datos en Google Cloud Storage.
  • Utilizar DBT para transformación de datos y desarrollo de modelos analíticos.
  • Realizar consultas complejas mediante SQL Avanzado.
  • Automatizar tareas y análisis de datos con Python.
  • Trabajar con herramientas de control de versiones como GitLab, Bitbucket o GitHub.

Descripción

Buscamos un Data Analyst con las siguientes habilidades y experiencia:
  • Capacidad para levantar y optimizar procesos de datos.
  • Sólido conocimiento de Google Cloud Platform, especialmente en BigQuery, Cloud Functions y Cloud Storage.
  • Experiencia con DBT para modelos analíticos.
  • Dominio de SQL avanzado y lenguaje Python para automatización.
  • Habilidad para manejar herramientas de versionado de código.

Deseable

Sería ideal contar con experiencia previa en trabajos similares y tener habilidades en la utilización de otras plataformas de análisis de datos.

Beneficios

  • Contrato de proyecto de 4 meses con posibilidad de extensión.
  • Modalidad de trabajo 100% remoto.
  • Disponibilidad requerida a tiempo completo de lunes a viernes.
  • Beneficios adicionales como seguro complementario, Amipass de $4.500 por día laborado, convenios y actividades especiales.

APPLY VIA WEB
Gross salary $2000 - 2200 Full time
Business Analyst Senior
  • BC Tecnología
  • Santiago (Hybrid)
Excel Jira Cloud Business Analyst

Somos BC Tecnología, creamos equipos de trabajos y células ágiles para las principales empresas de Chile con presencia global en servicios financieros, seguros, retail y gobierno.

MISIÓN Hacer posibles las aspiraciones de las personas, mejorar su calidad de vida y superar sus expectativas a través de una oferta integrada de servicios financieros, potenciada por los beneficios del "Mundo Falabella".

VISIÓN Ser la compañía preferida por las personas, generando relaciones de largo plazo a partir de:

  • Ser líderes por nuestra transparencia, simplicidad y conveniencia.
  • Atraer, desarrollar y motivar un equipo de excelencia, colaborativo y apasionado por los clientes.
  • Ser valorados por nuestro aporte a las comunidades donde trabajamos.

Funciones del cargo

  • Planificar y priorizar iniciativas tecnológicas.
  • Gestionar proyectos y recursos, garantizando el cumplimiento de actividades.
  • Colaborar con el PO para asegurar la disponibilidad de recursos y alineación con los objetivos.
  • Comunicar resultados y coordinar con stakeholders y terceros.
  • Identificar riesgos y mejorar procesos mediante metodologías ágiles.

Requerimientos del cargo

Al menos 3 años de experiencia en:

  • Experiencia como BA.
  • Manejo de Jira, Confluence, Excel, PowerPoint, Project.
  • Conocimientos en tecnologías Cloud, bases de datos, redes.
  • Experiencia en gestión de recursos, presupuesto, y deseable en infraestructura
  • Background en APP Mobile .

· Trabajo Hibrido (Ubicación Santiago Centro)

APPLY VIA WEB
Gross salary $3000 - 3200 Full time
Data Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Python Data Analysis Excel SQL

Data Engineer Senior en Banco Falabella tiene la misión de gestionar, desarrollar e implementar el ciclo de vida de iniciativas dentro de la Gerencia de Operaciones. Desde el levantamiento de la situación actual hasta su desarrollo, implementación y mantenimiento continuo. Además, será responsable de la automatización de procesos, integración continua, monitoreo y seguridad, asegurando que las soluciones sean escalables, confiables y eficientes.

Funciones del cargo

  • Automatización de procesos y recopilación de datos: Implementar procesos automatizados para garantizar que los datos utilizados para el análisis sean completos y estén actualizados.
  • Generación y automatización de visualizaciones de datos: Crear dashboards dinámicos que faciliten la comprensión de la información para su uso estratégico.
  • Colaboración interdisciplinaria: Integrarse continuamente con otros equipos para asegurar un trabajo colaborativo eficaz y sin interrupciones.
  • Presentación de informes y recomendaciones: Proporcionar informes claros con recomendaciones fundamentadas para la toma de decisiones.

Requerimientos del cargo

  • Análisis de datos y estadística.
  • Manejo de bases de datos (SQL, BIGQUERY, entre otras).
  • Conocimientos avanzados en lenguajes de programación (Python, SQL).
  • Herramientas de análisis y visualización (Excel, Power BI, Tableau, Data Studio).
  • Experiencia en el manejo de grandes volúmenes de datos (Big Data, Google Big Query).
  • Levantamiento de procesos.

Condiciones

  • Contrato Proyecto de 12 meses
  • Modalidad trabajo: Hibrido
  • Beneficios de la empresa

Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB
Gross salary $2000 - 2400 Full time
Desarrollador ETL ( Power Center)
  • BC Tecnología
  • Santiago (Hybrid)
Excel SQL Linux ETL

Somos BC Tecnología, creamos equipos de trabajos y células ágiles para las principales empresas de Chile con presencia global en servicios financieros, seguros, retail y gobierno.

Buscamos profesionales con alta capacidad de Análisis y síntesis, proactivos, flexibles, ordenados, enfocados en el trabajo de equipo, comprometidos y responsables.

Funciones del cargo

Este perfil describe a una persona con habilidades técnicas en el manejo y administración de bases de datos, con un enfoque particular en SQL y desarrollo con PowerCenter, además de conocimientos en sistemas operativos Linux y scripting con Shell. Aquí te detallo cada aspecto:

  1. Conocimiento del manejo de bases de datos: Esta persona tiene experiencia en cómo funcionan las bases de datos, incluyendo la estructura de campos y tablas, lo que implica una comprensión de cómo se organiza y accede a la información dentro de una base de datos.
  2. Manejo de sentencias SQL: Es capaz de escribir y ejecutar sentencias SQL, que son comandos utilizados para interactuar con bases de datos, como para consultar, actualizar, insertar o eliminar datos.
  3. Experiencia en desarrollo con PowerCenter: PowerCenter es una herramienta ETL (Extracción, Transformación y Carga) que se utiliza para integrar datos de diferentes fuentes y transformarlos para su análisis o uso en otras aplicaciones. La persona tiene experiencia en proyectos que involucran PowerCenter, incluyendo la configuración de orígenes de datos y la parametrización de procesos ETL.
  4. Conocimiento medio de Excel: Tiene un nivel intermedio de habilidad en Excel, lo que sugiere que puede manejar funciones y fórmulas básicas a intermedias, y posiblemente realizar análisis de datos o crear reportes.
  5. Conocimiento de Shell y Linux: Está familiarizado con el uso de Linux y la escritura de scripts en Shell, lo que indica que puede automatizar tareas, gestionar archivos y sistemas, y posiblemente realizar operaciones administrativas en servidores Linux.

Requerimientos del cargo

📣 Chile - Desarrollador Power Center - Proyecto a 3 meses

✅ Requerimiento:

Experiencia:

Al menos 2 añis de experiencia en:

  • -Desarrollo Power Center ( referencia de proyectos), orígenes de datos y parametría.
  • -Conocimiento medio de Excel
  • -Conocimiento del manejo de base de datos, accesos a información, estructuras de campos y tablas
  • -Manejos de sentencias
  • -Conocimiento de Shell, Linux

Condiciones

✅ Condiciones:

  • -Contrato por proyecto a 2 meses
  • -Metodología de trabajo: Hibrido 2 a 3 veces por semana (las condes)
  • -Disponibilidad lunes a viernes
  • -Salario a convenir
  • -Beneficios (Seguro Complementario, Amipass $4.500 por día laborado, convenios, actividades, bonos)

APPLY VIA WEB
Gross salary $3000 - 3500 Full time
Data Scientist Bilingüe – Contrato Indefinido
  • BC Tecnología
  • Santiago (Hybrid)
Python Git SQL Business Intelligence

Somos BC Tecnología, creamos equipos de trabajos y células ágiles para las principales empresas de Chile con presencia global en Servicios Financieros, Tecnología, Banca, Educación, Seguros, Retail y Gobierno.

Evaluar, diseñar y proponer iniciativas relacionadas a procesos, sistemas y/o tecnologías, realizando el levantamiento y análisis funcional/técnico de los requerimientos, de acuerdo a las normas y procedimientos vigentes, con el objetivo de mantener la continuidad operacional de los servicios de TI de la Corporación y entregar un servicio de calidad a las áreas usuarias.

Funciones del cargo

  • Líder tecnológico dentro del equipo, en búsqueda constante de nuevas y mejores formas de trabajar adoptando y probando las nuevas herramientas cloud disponibles, con especial foco en Google Cloud Platform (Suite Corporativa).
  • Definir en conjunto con el equipo de Ingeniería de datos el Universo de información donde se acota un problema de negocio.
  • Data Wrangling: Construir la estructura de los datos para optimizar su manipulación.
  • Feature Engineering: Mejorar la calidad de los datos mediante construcción de características (o atributos), para aumentar la cantidad de conocimiento que aportan los datos para la resolución del problema.
  • Modelamiento: Determinar la técnica de análisis adecuada para calzar con el problema de negocio a tratar.
  • Delivery: Comunicar en el contexto, en tiempo y forma la mejora de proceso que se está buscando resolver.
  • Feedback: Mejorar mediante el método científico el proceso de construcción de conocimiento y participar en la evaluación si existió una mejora al proceso abordado, mediante método científico.
  • Documentación: Registrar los logros, nuevos conocimientos, tecnologías o problemas del proceso en general.

Requerimientos del cargo

Al menos 3 años de experiencia en:

· Métodos numéricos de optimización (programación lineal, programación entera, programación cuadrática, etc.)

· Métodos estadísticos avanzados y mejores prácticas técnicas de modelado avanzadas (modelos gráficos, inferencia bayesiana, nivel básico de PNL, Visión, redes neuronales, SVM).

· Python, SQL, No SQL, programación.

· Experiencia con GCP, AWS o alguna cloud. Power BI, Tableau, streamlit o herramientas afines de visualización. Herramientas de versionamiento (GIT)

· Ingles Avanzado hablado

· Trabajo Hibrido (1 día presencial)

Condiciones

Seguro complementario Salud (Gratis para el trabajador)
Seguro de Vida
Kon3cta Dodo (Beneficio de Salud, donde podran acceder a valores preferenciales en las siguientes disciplinas:
Psicologia
Nutricion
Fonoaudiologia
Kinesiologia
Coaching
Ademas cuenta con un area legal
Amipass $4.500 diario
Sala cuna $350.000
Bono Cuidadora $350.000
Bono Escalaridad $40.000
Bono por Natalidad $200.000
Bono por Matrimonio $200.000
Bono por Fallecimiento Conyuge - Hijo $500.000
Bono por Fallecimiento Padres - Hermanos $200.000
Celebración Aniversario
Aguinaldo Fiestas Patrias y Navidad $80.000
1 Día libre por cumpleaños
Convenio Open English
Convenio con Clinica Eigner
Mutual de Seguridad
Caja de compensación los Andes
Capacitaciones Platzi
Dias Administrativos 2
Día de mudanza 1

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB
Gross salary $3100 - 4500 Full time
Data Engineer
  • Haystack News
  • Lima (Hybrid)
Python Analytics SQL Big Data

Haystack News is the leading local & world news service on Connected TVs reaching millions of users! This is a unique opportunity to work at Haystack News, one of the fastest-growing TV startups in the world. We are already preloaded on 37% of all TVs shipped in the US!

Be part of a Silicon Valley startup and work directly with the founding team. Jumpstart your career by working with Stanford & Carnegie Mellon alumni and faculty who have already been part of other successful startups in Silicon Valley.

You should join us if you're hungry to learn how Silicon Valley startups thrive, you like to ship quickly and often, love to solve challenging problems, and like working in small teams.

See Haystack's feature at this year's Google IO:

Job functions

  • Analyze large data sets to get insights using statistical analysis tools and techniques
  • Collaborate with the Marketing, Editorial and Engineering teams on dataset building, querying and dashboard implementations
  • Support the data tooling improvement efforts and help increase the company data literacy
  • Work with the ML team on feature engineering and A/B testing for model building and improvement
  • Design, test and build highly scalable data management and monitoring systems
  • Build high-performance algorithms, prototypes and predictive models

Qualifications and requirements

  • Strong written and spoken English is a must!
  • Bachelor's degree in Computer Science, Statistics, Math, Economics or related field
  • 2+ years experience doing analytics in a professional setting
  • Advanced SQL skills, including performance troubleshooting
  • Experience with data warehouses (e.g. Snowflake, BigQuery, Redshift)
  • Proficient in Python including familiarity with Jupyter notebooks
  • Strong Math/Stats background with statistical analysis experience on big data sets
  • Strong communication skills, be able to communicate complex concepts effectively.

Conditions

  • Unlimited vacations :)
  • Travel to team's offsite events
  • 100% paid Uber rides to go to the office
  • Learn about multiple technologies

Accessible An infrastructure adequate for people with special mobility needs.
Relocation offered If you are moving in from another country, Haystack News helps you with your relocation.
Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Meals provided Haystack News provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Company retreats Team-building activities outside the premises.
Computer repairs Haystack News covers some computer repair expenses.
Commuting stipend Haystack News offers a stipend to cover some commuting costs.
Computer provided Haystack News provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
APPLY VIA WEB
$$$ Full time
Product Owner
  • LeytonMedia
  • Santiago (Hybrid)
Agile Scrum Design Thinking API
En LeytonMedia impulsamos la transformación digital desde 1994, ayudando a empresas a concretar sus metas y objetivos en un ecosistema ágil basado en metodologías que potencian la colaboración, la innovación y la experiencia del usuario. Trabajamos con clientes destacados del sector financiero, tecnológico y de consumo masivo como Bci, Santander Súper Digital, Carozzi, Sonda, Corfo y Movistar, entre otros. Nuestro equipo talentoso está enfocado en crear experiencias que conectan marcas con usuarios, promoviendo el crecimiento profesional mediante capacitaciones, certificaciones y coaching. En este contexto, el área de innovación financiera se dedica a diseñar e implementar soluciones financieras que impactan positivamente el ecosistema bancario, facilitando alianzas con fintechs y startups para fortalecer la estrategia de innovación abierta.

Responsabilidades principales

  • Diseñar productos y soluciones bancarias centradas en el cliente, empleando metodologías como Lean Startup y Design Thinking para asegurar una adecuada experimentación y validación.
  • Liderar procesos de investigación, validación de hipótesis, pruebas de usabilidad, y testeo para garantizar propuestas relevantes y viables en el sector financiero.
  • Incorporar una visión técnica y operativa en el desarrollo de productos, evaluando la factibilidad desde perspectivas técnicas, operativas y regulatorias.
  • Coordinar y colaborar con equipos internos multidisciplinarios de tecnología, riesgos, operaciones y otras áreas del banco, alineando los proyectos con los objetivos estratégicos del negocio.
  • Liderar o participar activamente en pilotos y proyectos colaborativos con startups fintech y otros actores clave del ecosistema de innovación financiera.
  • Documentar, presentar y comunicar los avances y resultados de los proyectos de manera clara, estructurada y persuasiva, utilizando técnicas avanzadas de storytelling.
  • Contribuir al fortalecimiento continuo del modelo de innovación dentro de la organización a través de la adopción de mejores prácticas y nuevas metodologías.

Requisitos y habilidades fundamentales

Buscamos profesionales con formación en Ingeniería Comercial, Ingeniería Civil Industrial, Diseño, Innovación, Sistemas o carreras afines, capacitados para enfrentar desafíos en el sector financiero con un enfoque innovador y estratégico.
Es imprescindible contar con certificaciones actualizadas en Scrum Master y/o Product Owner, que respalden el manejo avanzado de metodologías ágiles y gestión de proyectos.
El candidato debe poseer sólido conocimiento en metodologías de innovación como Lean Startup, Design Thinking y prototipado rápido, además de destreza en herramientas de investigación y testing como entrevistas, encuestas y pruebas de usabilidad.
Se valorará experiencia probada en el sector financiero, junto con un buen entendimiento de procesos bancarios, tecnologías financieras y APIs modernas, garantizando así su capacidad para traducir las necesidades del negocio en soluciones efectivas y viables.
Otro aspecto clave es la habilidad de comunicación avanzada, especialmente mediante técnicas de storytelling para presentar y vender ideas de manera clara, atractiva y estratégica, facilitando la gestión de stakeholders internos y externos.
Finalmente, el profesional debe ser capaz de trabajar transversalmente, demostrando iniciativa, pensamiento crítico, orientación al cliente y capacidad para manejar procesos complejos dentro de ecosistemas innovadores y colaborativos.

Competencias y experiencias valoradas

Se valorará experiencia adicional en la coordinación de proyectos de innovación abierta, especialmente en la gestión de relaciones con startups fintech y otros actores relevantes del ecosistema financiero.
Conocimientos complementarios en metodologías ágiles avanzadas y gestión de riesgos tecnológicos serán considerados un plus para fortalecer la implementación práctica de soluciones.
Además, se apreciará que el candidato tenga habilidades para facilitar talleres y dinámicas de co-creación, así como una mentalidad orientada a la mejora continua y adaptación rápida a un entorno cambiante.
El dominio de más de un idioma o experiencia internacional en proyectos similares potenciará la capacidad de operar en un mercado globalizado y competitivo.

Beneficios y desarrollo profesional

  • Flexibilidad de horarios para promover un equilibrio saludable entre vida laboral y personal.
  • Acceso a plataformas de E-Learning para continuar desarrollando habilidades técnicas y profesionales.
  • Presupuesto destinado a capacitación, incentivando la actualización continua y certificaciones especializadas.
  • Alianzas con centros de bienestar y salud integral que contribuyen al bienestar físico y mental del equipo.
En LeytonMedia ofrecemos un ambiente cercano, transparente y colaborativo, fomentando el crecimiento profesional mediante acompañamiento, coaching y mentorías. Formamos parte de un equipo motivado que trabaja con clientes líderes en sus sectores, lo que garantiza un entorno desafiante y enriquecedor para los profesionales que deseen proyectar su crecimiento personal y carrera profesional.

Computer provided LeytonMedia provides a computer for your work.
Informal dress code No dress code is enforced.
APPLY VIA WEB
$$$ Full time
Technical Product Manager / Lima Perú
  • Dynamic Devs
  • Lima (Hybrid)
Agile Scrum

Somos una empresa de servicios de tecnología que busca proyectos de alto impacto haciendo de la innovación y transformación digital parte de diferentes empresas principalmente transnacionales latinoamericanas de diversos sectores económicos como retail, seguros, distribución de equipos médicos, banca y productos digitales masivos utilizados por los consumidores. en todo el continente

Somos partidarios de la excelencia técnica, DevOps, Entrega Continua e Integración Continua, conformando equipos de alto desempeño en proyectos desafiantes, orientados al crecimiento e implementación de nuevas tecnologías. Más importante aún, ofrecemos un entorno colaborativo y multicultural donde puedes aprender, disfrutar y crecer como profesional.

📢 En Dynamic Devs, buscamos un Technical Product Manager con iniciativa y ambición de crecimiento para liderar proyectos desafiantes y alinear las soluciones tecnológicas con los objetivos comerciales de nuestros clientes.

Funciones del cargo

1. Coordinar y supervisar proyectos de complejidad variable, asegurando la entrega dentro del tiempo y el presupuesto establecidos.
2. Actuar como punto de contacto entre los equipos de desarrollo y los stakeholders del cliente, facilitando una comunicación clara y eficiente.
3. Participar en la definición de requisitos junto con el equipo de desarrollo y el cliente.
4. Gestionar el backlog y priorizar tareas de acuerdo a los objetivos del proyecto.
5. Apoyar en la implementación y mejora de procesos ágiles (Scrum, Kanban) dentro del equipo.
6. Identificar riesgos y proponer soluciones para mitigar problemas durante el ciclo de vida del proyecto.
7. Facilitar el descubrimiento técnico junto al equipo, asegurando que las soluciones propuestas se alineen con las expectativas del cliente.
8. Documentar decisiones técnicas y de producto, asegurando transparencia y trazabilidad en los proyectos.

Requerimientos del cargo

  • 2 a 3 años de experiencia en roles de gestión de proyectos o Technical Product Manager en proyectos de tecnología.
  • Experiencia con metodologías ágiles (Scrum, Kanban) y herramientas de gestión de proyectos como Jira, Trello, Notion, o similares.
  • Familiaridad con conceptos técnicos en desarrollo de software (QA, pipelines, cloud, APIs) para poder colaborar con equipos técnicos.
  • Excelentes habilidades de comunicación y experiencia en la gestión de la relación cliente-equipo.
  • Capacidad para identificar riesgos y priorizar soluciones.
  • Iniciativa y proactividad para liderar proyectos y equipos.
  • Excelentes habilidades interpersonales, con capacidad para trabajar con equipos diversos y multiculturales.
  • Fuerte habilidad de gestión del tiempo y manejo de proyectos simultáneos.
  • Disponibilidad para asistir 3 días a la semana de forma presencial a la oficina del cliente ubicada en Lima, Perú (modalidad híbrida, requisito excluyente).

Opcionales

  • Experiencia previa en consultoría o gestión de proyectos de software en sectores como retail, seguros, finanzas, etc.
  • Habilidades avanzadas en gestión de métricas y evaluación de KPIs.
  • Conocimiento cloud a nivel ejecutivo (AWS, GCP)

Beneficios Dynamo!!

💻 Beneficio Bring Your Own Device (A partir del 4to mes trabajando con nosotros, podrás adquirir un computador propio)
🚀 Haz un impacto. Trabaja en proyectos desafiantes
🤓 Cloud Partnership. Accede a certificaciones y nuestros grupos de estudio
📚 IT Training: acceso a más de 500 cursos actualizados cada semana 📖
🎤 Dev Talks: conferencias exclusivas con expertos del sector
🎉 Día especial: 🎂 ¡Día libre por cumpleaños!
👥 Trabaja en un equipo talentoso y multicultural usando una tecnología increíble
🎙️ Conoce nuestro podcast aquí: https://acortar.link/DHlDFT
🌐 Nuestra web: https://www.dynamicdevs.com/

Internal talks Dynamic Devs offers space for internal talks or presentations during working hours.
Partially remote You can work from your home some days a week.
Computer provided Dynamic Devs provides a computer for your work.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Líder de Proyecto
  • Agilesoft SpA
  • Santiago (Hybrid)

Agilesoft es una start-up conformada por un equipo joven y apasionado por la tecnología. Nos especializamos en el desarrollo de software, creando plataformas web y aplicaciones móviles para grandes empresas. Nuestro ambiente de trabajo es dinámico, colaborativo y entretenido, donde cada día es una oportunidad para aprender algo nuevo y desafiar nuestras habilidades.

Estamos en la búsqueda de un/a Líder de Proyecto con habilidades de liderazgo, gestión de equipos y experiencia en la entrega de proyectos de tecnología para trabajar con uno de nuestros clientes en modalidad hibrida.

Funciones del Rol

  • Liderar la gestión de proyectos en el ámbito de software, especialmente en sistemas financieros y de gestión empresarial.
  • Coordinar equipos multidisciplinarios y mantener una comunicación fluida con todos los involucrados.
  • Supervisar el desarrollo y mantenimiento de aplicaciones utilizando Genexus y Visual Studio .NET.
  • Optimizar bases de datos en SQL Server y asegurar el buen uso de herramientas de gestión de proyectos como Microsoft Project y Trello.
  • Fomentar la colaboración y documentación utilizando plataformas como SharePoint y Teams.

Descripción del Puesto

  • Mínimo 5 años como Jefe de Proyecto en implementación de software.
  • Experiencia demostrable en proyectos de sistemas financieros o de gestión empresarial.
  • Microsoft Project y Trello o equivalentes
  • Conocimientos en Genexus.
  • Dominio de Visual Studio .NET.
  • Experiencia sólida en SQL Server.
  • Conocimiento en herramientas de colaboración y documentación (SharePoint, Teams).
  • Familiaridad con metodologías ágiles y gestión de proyectos tradicionales.

Además, buscamos habilidades interpersonales fuertes para liderar y motivar equipos, así como una actitud proactiva ante la resolución de problemas en entornos de alta exigencia.

Beneficios de Trabajar con Nosotros

  • Horario de trabajo de lunes a jueves de 09:00 a 18:00 hrs, y viernes de 09:00 a 17:00 hrs.
  • Computador de trabajo proporcionado.
  • Caja de compensación Los Andes
  • Seguro complementario de salud y dental (50%)
  • Contrato indefinido
  • Modalidad híbrida (Miércoles presencial)

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Agilesoft SpA pays or copays health insurance for employees.
Computer provided Agilesoft SpA provides a computer for your work.
APPLY VIA WEB
$$$ Full time
Consultor Funcional Senior ERP Dynamics 365
  • Grupo Mekano
  • Santiago (Hybrid)
Agile Excel Scrum Power BI
En Grupo Mekano, nos dedicamos a aumentar la productividad de nuestros clientes mediante soluciones de negocios de clase mundial y servicios especializados de alta calidad, construyendo relaciones duraderas. Nuestra propuesta de valor reside en la integración eficiente de software y servicios, posicionándonos como líderes en consultoría tecnológica para empresas que buscan transformar sus procesos y alcanzar su máximo potencial.
El área de consultoría funcional trabaja con importantes clientes del mercado en proyectos estratégicos asociados a la implementación del ERP Microsoft Dynamics 365 Finance & Operations. Estos proyectos abarcan diversas industrias como retail, manufactura, alimentos y servicios, con el objetivo de optimizar operaciones logísticas y de cadena de suministro, mejorando la eficiencia y escalabilidad de los procesos empresariales.

Responsabilidades Clave

Como Consultor Funcional Senior en Dynamics 365 F&O, serás un actor fundamental en el éxito de los proyectos ERP, liderando el levantamiento y análisis de procesos logísticos y operacionales junto a los clientes.
  • Desarrollar y documentar soluciones funcionales de alta calidad basadas en requerimientos y mejores prácticas.
  • Configurar diversos módulos del ERP como inventario, producción, compras y gestión de almacenes (WMS).
  • Coordinar y apoyar el proceso de pruebas y la puesta en marcha del sistema para garantizar el cumplimiento de plazos y estándares de calidad.
  • Formar y capacitar a usuarios finales, así como brindar soporte funcional post-implementación para asegurar una adopción exitosa.
  • Colaborar estrechamente con equipos técnicos para gestionar ajustes y desarrollos integrados, promoviendo una comunicación fluida y efectiva.
  • Optimizar procesos logísticos mediante el diseño de soluciones funcionales que garanticen eficiencia y escalabilidad.
  • Impulsar mejoras continuas, identificando oportunidades para el desarrollo o ampliación de funcionalidades y módulos.
  • Fomentar una cultura de trabajo colaborativo con enfoque en aprendizaje continuo dentro del equipo de proyectos.

Habilidades Técnicas y Competencias Específicas

Buscamos profesionales con sólida experiencia comprobable de al menos 5 años en consultoría y soporte funcional en entornos ERP, preferentemente en Dynamics 365 Finance & Operations. El candidato ideal posee un profundo conocimiento de procesos logísticos y de cadena de suministro aplicados a industrias diversas como retail, manufactura, alimentos y servicios.
Es imprescindible que cuentes con experiencia práctica en la configuración de módulos funcionales como inventario, compras, producción, gestión de almacenes y planificación maestra dentro de Dynamics 365. La experiencia en proyectos de implementación completos bajo metodologías ágiles (Scrum) o híbridas será altamente valorada.
Debes demostrar capacidad para realizar documentación funcional detallada, levantar requerimientos, y liderar sesiones de trabajo con clientes, además de validar desarrollos junto a equipos técnicos, tanto en castellano como en inglés, principalmente para la lectura y entendimiento de documentación técnica.
Es deseable contar con certificaciones oficiales en módulos funcionales de Microsoft Dynamics 365 (por ejemplo, MB-300, MB-330) y conocimientos básicos en herramientas complementarias como Azure DevOps, Power Platform (Power BI, Power Apps) e integraciones OData/APIs. Dominio avanzado de herramientas ofimáticas como Excel, Visio, Word y plataformas colaborativas como Teams y SharePoint es necesario.
Además, valoramos competencias personales alineadas a nuestra cultura CORE: Ownership (asumir responsabilidad de proyectos y resultados), Orientación a Resultados, Calidad del Trabajo, Innovación, Orientación al Cliente, Adaptabilidad y Colaboración.
Contar con un nivel de inglés intermedio, especialmente para la lectura técnica y comunicación con socios o clientes internacionales, es un plus importante para desempeñarse con eficacia en el rol.

Habilidades y Experiencias Deseables

Se valorará especialmente haber participado en implementaciones end-to-end de Dynamics 365 utilizando metodologías ágiles o híbridas, aportando a equipos multidisciplinarios con un enfoque colaborativo. Contar con certificaciones oficiales en Microsoft Dynamics 365 agrega un valor diferenciador.
Un conocimiento básico o intermedio en plataformas de integración y análisis de datos como Power BI, Power Apps y Azure DevOps facilitará la interacción técnica y ofrecerá mayor capacidad para soluciones integradas. También es deseable contar con buenas habilidades comunicativas para liderar sesiones con clientes nacionales e internacionales, incluyendo la habilidad para traducir requisitos funcionales a los equipos técnicos.

Beneficios

  • Participación en proyectos exigentes y transformadores que impactan diversas industrias, generando un aprendizaje significativo y experiencia profesional de alto nivel.
  • Cultura organizacional enfocada en la innovación, colaboración y el constante desarrollo profesional.
  • Enfoque People First, con oportunidades continuas para capacitaciones, cursos y certificaciones que potencian tu carrera.
  • Cobertura de seguro médico para tu bienestar integral.
  • Espacios de trabajo dinámicos y colaborativos, con equipos de alto rendimiento y profesionales reconocidos en el sector.
En Grupo Mekano valoramos la calidad, la responsabilidad y la mejora continua, ofreciendo un entorno laboral desafiante y estimulante donde podrás crecer y dejar tu huella en soluciones tecnológicas de primer nivel.

APPLY VIA WEB
$$$ Full time
Analista de Procesos (Business Analyst / Process Analyst)
  • CyD Tecnología
Scrum Kanban Jira BPMN
En CyD Tecnología, nos especializamos en soluciones tecnológicas innovadoras con foco en el desarrollo de plataformas web personalizadas. Nuestra misión es impulsar la transformación digital de diversas organizaciones mediante proyectos a medida que cubren necesidades específicas y generan valor en sus procesos internos. El área de procesos abarca la mejora continua, modelado y análisis para asegurar que los desarrollos de software se ajusten a los objetivos estratégicos y optimicen la eficiencia operacional.

Responsabilidades principales

En este rol, serás responsable de analizar, modelar y optimizar los procesos vinculados a los proyectos de desarrollo de software, asegurando que se alineen con los requisitos del negocio y con las mejores prácticas del sector. Trabajarás en estrecha colaboración con equipos multidisciplinarios, incluyendo desarrolladores, gestores de proyecto y stakeholders para identificar mejoras, definir flujos y documentar procedimientos técnicos y funcionales.

Otras funciones incluyen:

  • Levantar procesos actuales (AS-IS) a través de entrevistas, talleres y revisión documental.
  • Diseñar procesos futuros (TO-BE), identificando oportunidades de mejora y digitalización.
  • Documentar procesos usando notación BPMN y otras herramientas visuales.
  • Facilitar la comunicación entre los equipos técnicos y los usuarios finales.
  • Gestionar la trazabilidad de requerimientos y validar que los desarrollos cumplan con los objetivos planteados.
  • Elaborar documentación detallada para facilitar la ejecución y seguimiento de proyectos.
  • Elaborar documentación funcional (flujos, historias de usuario, criterios de aceptación).
  • Apoyar a Product Owners y equipos técnicos en la definición y priorización de requerimientos.

Perfil requerido

Buscamos un profesional con experiencia en análisis y optimización de procesos en entornos de desarrollo de software. Se valoran conocimientos sólidos en metodologías ágiles, modelado de procesos (BPMN o similares) y herramientas de documentación y gestión de proyectos.
El candidato ideal deberá contar con habilidades comunicativas sobresalientes, capacidad analítica y orientación al detalle para garantizar la calidad y coherencia en los entregables. Se requiere un nivel intermedio a avanzado de experiencia (al menos 2 años) en roles similares dentro de proyectos tecnológicos, con enfoque en mejora continua y alineamiento estratégico.
Competencias blandas importantes incluyen pensamiento crítico, resolución de problemas, trabajo en equipo y adaptabilidad al cambio en entornos dinámicos.

Habilidades y conocimientos valorados

Será beneficioso poseer experiencia con herramientas específicas de gestión de procesos y proyectos como Jira, Confluence o similares, así como certificaciones en gestión de procesos o metodologías ágiles (Scrum, Kanban). También se valorará manejo avanzado de software de diagramación como Visio, Bizagi, Lucidchart, Draw.io, etc., y conocimientos básicos de desarrollo de software que faciliten la comunicación con los equipos técnicos.

Conocimientos en análisis de datos para soporte en toma de decisiones e iniciativas de automatización de procesos serán un plus destacado para este puesto.

Conocimientos en UX o diseño centrado en el usuario también se considera un plus.

Beneficios y condiciones

  • Trabajo 100% remoto, ofreciendo máxima flexibilidad para que puedas desarrollar tus tareas desde cualquier lugar.
  • Seguro complementario de salud que cubre necesidades médicas adicionales a las proporcionadas por la seguridad social, cuidando de tu bienestar integral.
  • Seguro de vida para aportar tranquilidad y respaldo económico frente a situaciones inesperadas.

APPLY VIA WEB