We didn't find any results.

Try with another group of words.

If you think this is a problem, please contact us.

Gross salary $3100 - 4500 Full time
Data Engineer
  • Haystack News
  • Lima (Hybrid)
Python Analytics SQL Big Data

Haystack News is the leading local & world news service on Connected TVs reaching millions of users! This is a unique opportunity to work at Haystack News, one of the fastest-growing TV startups in the world. We are already preloaded on 37% of all TVs shipped in the US!

Be part of a Silicon Valley startup and work directly with the founding team. Jumpstart your career by working with Stanford & Carnegie Mellon alumni and faculty who have already been part of other successful startups in Silicon Valley.

You should join us if you're hungry to learn how Silicon Valley startups thrive, you like to ship quickly and often, love to solve challenging problems, and like working in small teams.

See Haystack's feature at this year's Google IO:

Job functions

  • Analyze large data sets to get insights using statistical analysis tools and techniques
  • Collaborate with the Marketing, Editorial and Engineering teams on dataset building, querying and dashboard implementations
  • Support the data tooling improvement efforts and help increase the company data literacy
  • Work with the ML team on feature engineering and A/B testing for model building and improvement
  • Design, test and build highly scalable data management and monitoring systems
  • Build high-performance algorithms, prototypes and predictive models

Qualifications and requirements

  • Strong written and spoken English is a must!
  • Bachelor's degree in Computer Science, Statistics, Math, Economics or related field
  • 2+ years experience doing analytics in a professional setting
  • Advanced SQL skills, including performance troubleshooting
  • Experience with data warehouses (e.g. Snowflake, BigQuery, Redshift)
  • Proficient in Python including familiarity with Jupyter notebooks
  • Strong Math/Stats background with statistical analysis experience on big data sets
  • Strong communication skills, be able to communicate complex concepts effectively.

Conditions

  • Unlimited vacations :)
  • Travel to team's offsite events
  • 100% paid Uber rides to go to the office
  • Learn about multiple technologies

Accessible An infrastructure adequate for people with special mobility needs.
Relocation offered If you are moving in from another country, Haystack News helps you with your relocation.
Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Meals provided Haystack News provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Company retreats Team-building activities outside the premises.
Computer repairs Haystack News covers some computer repair expenses.
Commuting stipend Haystack News offers a stipend to cover some commuting costs.
Computer provided Haystack News provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
APPLY VIA WEB
$$$ Full time
Ingeniero de Operaciones TI
  • Usercode SpA
DevOps Continuous Integration Jenkins CI/CD

Usercode es una empresa tecnológica especializada en el desarrollo de software para instituciones públicas y organizaciones privadas. Nuestro foco son las tecnologías Cloud, la automatización y digitalización de procesos.

Trabajamos 100% remoto, nuestro equipo está en distintas regiones de Chile, México y Perú. Para comunicarnos y trabajar utilizamos Slack, Meet Hangout y Monday.

La necesidad actual:
El volumen del negocio de Usercode está creciendo por la vía de incorporar una mayor cantidad y tipo de proyectos de desarrollo, por un lado, y por otro lado, abriendo líneas de negocio relacionadas, como mantenimiento de infraestructura, y ampliando la cartera de clientes hacia el mercado privado.

Para lograr el éxito en este proceso es clave contar con un equipo de desarrollo capaz, autónomo, responsable, con experiencia, preparado técnicamente, con profundos conocimientos en una serie de herramientas específica, capaz de aprender y adquirir el uso herramientas nuevas.

Funciones del cargo

Configuración de máquinas virtuales en entornos Linux (obligatorio): Habilidad para instalar, configurar y mantener sistemas basados en Linux. Experiencia en la administración de servidores, optimización de rendimiento y seguridad de sistemas Linux.

Configuración de servicios web y de aplicaciones (obligatorio): Experiencia en la configuración y administración de servidores web y aplicaciones como Apache, Nginx, y Tomcat. Capacidad para implementar y gestionar procesos con gestores como PM2 para aplicaciones Node.js.

Seguridad de sistemas y redes (obligatorio): Conocimiento en la implementación de políticas de seguridad, gestión de accesos y configuración de firewalls y otros mecanismos de seguridad en entornos cloud y on-premise.

Monitoreo y logística (obligatorio): Experiencia en la configuración de herramientas de monitoreo y logística para garantizar la visibilidad y el rendimiento operativo, utilizando herramientas como Prometheus, Grafana, ELK Stack, etc.

Requerimientos del cargo

Enfoque decidido hacia la gestión y optimización de servicios en la nube y prácticas DevOps. Esperamos que el candidato ideal tenga experiencia robusta en la implementación y manejo de ambientes cloud, utilizando herramientas modernas de CI/CD como Jenkins, y que posea habilidades sólidas en la configuración y administración de ambientes de desarrollo, prueba y producción.

El rol implica responsabilidades clave como la configuración de bases de datos y la garantía de su rendimiento óptimo, la implementación de soluciones escalables y la administración de infraestructura como código. Es fundamental que el candidato tenga la capacidad de colaborar estrechamente con equipos de desarrollo para facilitar despliegues rápidos y seguros, y asegurar la alta disponibilidad y resiliencia de los sistemas.

Buscamos a alguien que no solo se encargue de mantener la infraestructura existente, sino que también proponga y ejecute mejoras continuas, aplicando las mejores prácticas de seguridad y optimización de costos en entornos cloud.

El candidato ideal debe ser proactivo, trabajar bien en equipo, y manejar habilidades de comunicación efectivas. Se valoran personas con orientación a resultados, autonomía, y un enfoque en la mejora continua.

Experiencia excluyente:

  • Configuración de máquinas virtuales en entornos Linux.
  • Configuración de servicios web y de aplicaciones.
  • Seguridad de sistemas y redes.
  • Monitoreo y logística.

Comportamiento esperado:

Lo que buscamos en ti:

  • Proactividad
  • Trabajo en equipo
  • Autonomía
  • Orientado a objetivos y resultados

Características personales:

  • Autonomía
  • Cumplimiento
  • Buenas habilidades de comunicación oral y escrita incluyendo comprensión lectora
  • Saber escuchar, atención
  • Ser respetuoso
  • Disposición a colaborar con el equipo
  • Responsable de sus tareas proyectos trabajos

Opcionales

Conocimiento en servicios AWS: Experiencia en la configuración y gestión de servicios clave de AWS como EC2, S3, RDS, ECS, Lambda, y VPC. Familiaridad con AWS CloudFormation o Terraform.

Gestión de bases de datos: Sólidos conocimientos en la configuración, optimización y mantenimiento de sistemas de bases de datos como MySQL y SQL Server. Experiencia en tareas como la configuración de replicación, backups automatizados y tuning de rendimiento.

Configuración y manejo de contenedores: Experiencia en el uso de Docker para la creación y gestión de contenedores.

Orquestación con Kubernetes : Capacidad para implementar, configurar y manejar clústeres de Kubernetes, optimizando la automatización y escalabilidad de aplicaciones en producción.

Implementación y configuración de herramientas de CI/CD: Experiencia en la configuración y uso de Jenkins para la integración y entrega continua.

Automatización y scripting: Habilidad en scripting con Bash, Python, o similar.

Beneficios

Este puesto ofrece la flexibilidad de un entorno de trabajo remoto, sin embargo, según las necesidades específicas de nuestros clientes, puede haber ocasiones en las que se requiera tu presencia en un lugar de trabajo presencial.

  • Días extra de vacaciones.
  • Días libres 3x5, día libre por cumpleaños, cambio de domicilio, muerte de mascota
  • Pago de certificaciones seleccionadas
  • Pausa activa colaborativa
  • Aguinaldo

APPLY VIA WEB
Gross salary $1900 - 2300 Full time
Desarrollador Full-Stack Integraciones y QA
  • Sendu
QA Ruby on Rails HTML5 PHP

En Sendu, nos dedicamos a facilitar la última milla través de integraciones efectivas y personalizadas con cualquier canal de venta digital de un negocio eCommerce. Nuestro ambiente laboral es dinámico y joven, lo que promueve la creatividad y el trabajo en equipo. Estamos en búsqueda de un Desarrollador Full Stack que encaje en este enfoque y que pueda liderar la calidad y estabilidad de nuestra plataforma, trabajando de manera remota y eficiente.

Responsabilidades Principales:

  • Desarrollo y mantenimiento de integraciones (plugins): Diseñar y mantener plugins de Sendu para plataformas como WooCommerce, Shopify, Magento y VTEX. Implementar nuevas funcionalidades y optimizar el rendimiento y la seguridad.
  • Integración personalizada con clientes: Coordinar reuniones y configurar integraciones necesarias, ofreciendo soporte técnico en tiempo real y realizando ajustes personalizados.
  • Ingeniería de soporte y QA: Diagnosticar problemas técnicos, realizar debugging y ejecutar pruebas para validar la calidad de nuevas funcionalidades, así como administrar tareas en Jira y Trello.

Requisitos Técnicos:

Desarrollo de Integraciones: Experiencia comprobada en desarrollo de plugins para plataformas eCommerce (WooCommerce, Shopify, Magento, VTEX) y conocimientos en JavaScript, PHP, Ruby on Rails (o equivalente), HTML5 y CSS3. Experiencia con APIs REST y Webhooks.

Soporte y QA: Habilidad para diagnosticar problemas en aplicaciones existentes y experiencia en debugging con herramientas como Selenium, Cypress, Jest o similar. Capacidad para gestionar proyectos en Jira y Trello.

Habilidades Blandas: Excelentes habilidades de comunicación, capacidad para liderar reuniones técnicas y proactividad para identificar y solucionar problemas. Organización efectiva y actitud colaborativa orientada al cliente.

Requisitos Deseables:

Experiencia con Docker y contenedores, familiaridad con AWS y conocimientos en bases de datos relacionales y no relacionales como MySQL, PostgreSQL o MongoDB.

Ofrecemos:

Un entorno de trabajo dinámico y colaborativo con modalidad híbrida/remota, según disponibilidad. Brindamos oportunidades de desarrollo profesional continuo y desafíos técnicos interesantes que te permitirán crecer en tu carrera.

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Líder de Proyecto
  • Agilesoft SpA
  • Santiago (Hybrid)

Agilesoft es una start-up conformada por un equipo joven y apasionado por la tecnología. Nos especializamos en el desarrollo de software, creando plataformas web y aplicaciones móviles para grandes empresas. Nuestro ambiente de trabajo es dinámico, colaborativo y entretenido, donde cada día es una oportunidad para aprender algo nuevo y desafiar nuestras habilidades.

Estamos en la búsqueda de un/a Líder de Proyecto con habilidades de liderazgo, gestión de equipos y experiencia en la entrega de proyectos de tecnología para trabajar con uno de nuestros clientes en modalidad hibrida.

Funciones del Rol

  • Liderar la gestión de proyectos en el ámbito de software, especialmente en sistemas financieros y de gestión empresarial.
  • Coordinar equipos multidisciplinarios y mantener una comunicación fluida con todos los involucrados.
  • Supervisar el desarrollo y mantenimiento de aplicaciones utilizando Genexus y Visual Studio .NET.
  • Optimizar bases de datos en SQL Server y asegurar el buen uso de herramientas de gestión de proyectos como Microsoft Project y Trello.
  • Fomentar la colaboración y documentación utilizando plataformas como SharePoint y Teams.

Descripción del Puesto

  • Mínimo 5 años como Jefe de Proyecto en implementación de software.
  • Experiencia demostrable en proyectos de sistemas financieros o de gestión empresarial.
  • Microsoft Project y Trello o equivalentes
  • Conocimientos en Genexus.
  • Dominio de Visual Studio .NET.
  • Experiencia sólida en SQL Server.
  • Conocimiento en herramientas de colaboración y documentación (SharePoint, Teams).
  • Familiaridad con metodologías ágiles y gestión de proyectos tradicionales.

Además, buscamos habilidades interpersonales fuertes para liderar y motivar equipos, así como una actitud proactiva ante la resolución de problemas en entornos de alta exigencia.

Beneficios de Trabajar con Nosotros

  • Horario de trabajo de lunes a jueves de 09:00 a 18:00 hrs, y viernes de 09:00 a 17:00 hrs.
  • Computador de trabajo proporcionado.
  • Caja de compensación Los Andes
  • Seguro complementario de salud y dental (50%)
  • Contrato indefinido
  • Modalidad híbrida (Miércoles presencial)

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Agilesoft SpA pays or copays health insurance for employees.
Computer provided Agilesoft SpA provides a computer for your work.
APPLY VIA WEB
$$$ Full time
Product Owner
  • ICONSTRUYE
  • Bogotá (Hybrid)
Agile Excel SQL DevOps

En iConstruye, nos posicionamos como la empresa líder en soluciones y servicios tecnológicos innovadores, trabajando con un enfoque en el suministro y la gestión de la construcción, así como en industrias con alta complejidad logística. Nuestro equipo está comprometido a diseñar e implementar soluciones efectivas y escalables, ayudando a nuestros clientes a alcanzar sus objetivos de manera eficiente y con éxito.

Tu misión: Responsable de la construcción del producto, generando valor al desarrollo y velando por la satisfacción de los clientes. Diseña, modela, construye, le da valor, entrega y mejora permanentemente los productos, basándose en las necesidades de nuestros clientes, conectándose con los objetivos de nuestra compañía y siendo partner de las demás áreas de la empresa.

Tus funciones:

  • Participar en el proceso creativo del producto, colaborando con el PM y el CX para diseñar la experiencia de usuario y definir los requisitos comerciales, generando el backlog.
  • Diseñar épicas y redactar historias de usuario.
  • Liderar la célula de trabajo, supervisando el cumplimiento de los puntos de historia asignados.
  • Definir y asegurar el cumplimiento de las fechas de entrega de los productos.
  • Priorizar características a implementar que generen valor al desarrollo.
  • Resolver dudas del equipo con respecto al desarrollo, buscando información de los Stakeholders.
  • Ajustar características y prioridades en cada iteración del producto.
  • Garantizar la calidad del producto entregado.
  • Conocer y comprender los indicadores de éxito del cliente, como NPS y CSAT.

Requerimientos:

  • Experiencia comprobada en metodología Agile; se valora tener certificación de PO (no excluyente).
  • Conocimientos en Excel, tablas dinámicas e idealmente SQL.
  • Dominio de MS Office y Google Docs.
  • Experiencia en herramientas como Whimsical, Notion y plataformas similares a Azure DevOps.
  • Dominio del idioma inglés.
  • Experiencia demostrable en equipos Scrum, así como en la entrega de resultados a través de gráficos de Burn Down y productividad.
  • Experiencia en la industria de la construcción será considerada un plus.
  • Conocimientos sobre sistemas de medición de NPS y CSAT.

Deseable:

Si cuentas con experiencia en la industria de la construcción, sería un gran aporte para nuestro equipo. Además, el conocimiento en sistemas de medición de la satisfacción, como NPS y CSAT, enriquecería tu perfil y contribuiría significativamente al éxito en el rol.

APPLY VIA WEB
$$$ Full time
Analista Funcional
  • BNP Paribas Cardif
  • Santiago (Hybrid)
Java JEE Agile Excel
¿Quieres ser parte de los líderes en la revolución de los seguros?
BNP Paribas Cardif está presente en más de 30 países en América, Europa y Asia, contamos con 25 años de trayectoria en Chile y nuestra misión es hacer los seguros más accesibles, justos y valiosos.
✅ Por nuestro ambiente laboral único, somos una organización centrada en el bienestar de las personas y nuestro espíritu Cardif.
✅ Porque el deporte y sus valores son parte de nuestra cultura: la colaboración, la empatía y el respeto guían nuestro trabajo.
✅ Por la cercanía con nuestros líderes, somos una organización que cree en el talento y damos las oportunidades para desarrollarte y aprender juntos.
✅ Por nuestro modelo de trabajo mixto, teletrabajando tres días a la semana.
✅ Estamos comprometidos con el medio ambiente.
✅ Estamos comprometidos con la diversidad, equidad e inclusión.
✅Nos encontramos entre los top 20 "Mejores lugares para trabajar en Chile" (contamos con certificación de GPTW).

Job functions

Hoy BNP Paribas Cardif busca a un Analista Funcional que se sume a la subgerencia de Desarrollo TI. Donde tú misión será elaborar el análisis funcional de nuevas necesidades para la organización, asegurando una correcta interpretación y entendimiento de parte de todos los involucrados. Serás el responsable por el análisis, desarrollo e implementación de soluciones de software, cumpliendo con los estándares y documentos establecidos. Además, deberás ser el vínculo de unión entre el usuario (negocio) y el área técnica de la empresa (desarrollo/procesos).

¿Cuáles son los principales desafíos del cargo?
  • Analizar, desarrollar e implementar soluciones, conforme a los estándares y documentos establecidos.
  • Proponer mejoras al código ya existente, velando por la reutilización, performance, legibilidad, orden, seguridad.
  • Documentar todas las modificaciones realizadas al código de sistemas, conforme a los estándares establecidos
  • Investigar nuevas tecnologías factibles de aplicar en nuevos sistemas o sistemas ya existentes para mejorar la calidad de los sistemas del área.
  • Realizar y documentar las pruebas unitarias de código.
  • Preparar y elaborar documentación formal de necesidades y requerimientos relevados (especificaciones funcionales, manuales, presentaciones).

Qualifications and requirements

¿Cómo saber si hago match con esta vacante? Buscamos a alguien que:
Requisitos:
- Formación en Ingeniería de Ejecución en Informática, Programación, Análisis de Sistemas, Ingeniería Civil en informática o similar.
- Experiencia mínima de 3 años en Análisis Funcional de proyectos en rubro financiero (seguros, banca) o servicios. Experiencia en levantamiento y especificación de requerimientos funcionales en proyectos de mediano o alta complejidad.
Conocimientos:
• Fuertes conocimientos de UML, Casos de Uso, Metodologías de análisis y diseño de sistemas,
• Conocimientos ambientes Web, integración de sistemas (SOA), Java/J2EE, Bases de Datos.
• Conocimientos de metodologías de gestión de proyectos (PMI).
• Análisis de requerimientos (Experiencia en anteproyectos)
• Manejo de MS Office: Excel, Word, Power Point, Project
• Documentación de especificaciones funcionales, especificaciones de desarrollo, RFP (Request For Proposal), RFI (Request For Information), manuales de usuarios/operaciones/negocios, especificaciones de desarrollo, licitaciones, etc.
• Identificación de Roles y Perfiles.
• Especificaciones de Desarrollos
• Conocimiento en metodologías Agil Scrum
• Conocimiento específico en bases de datos y herramientas de accesos, Oracle, sql server.

Conditions

¿Te sumas a la revolución de la industria del seguro?
Esperamos tu postulación ¡seguro y con todo!
“Todas las contrataciones están sujetas a la ley 21015. En BNP Paribas Cardif creemos en lugares de trabajos inclusivos y diversos, donde todas las personas son bienvenidas. En caso de necesitar adaptaciones para ser parte de nuestro proceso de selección, favor comunicarlo en la sección de preguntas.”

Wellness program BNP Paribas Cardif offers or subsidies mental and/or physical health activities.
Accessible An infrastructure adequate for people with special mobility needs.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage BNP Paribas Cardif pays or copays health insurance for employees.
Computer provided BNP Paribas Cardif provides a computer for your work.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Vacation over legal BNP Paribas Cardif gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Mambu Champion
  • TCIT
Agile REST API SQL Scrum

Una de nuestras misiones en TCIT es descubrir y potenciar a los mejores talentos, por lo que te invitamos a ser parte de nuestro team!

Nuestro propósito es transformar digitalmente a distintas organizaciones a través de soluciones de calidad, sostenibles e innovadoras. Trabajamos con metodologías ágiles, utilizamos tecnologías de última generación y somos expertos en desarrollo de software en tecnologías Cloud.

Algunos de nuestros desarrollos son un sistema de gestión agrícola, un sistema de remates en línea, un sistema de gestión de las causas para los tribunales judiciales, un sistema para monitoreo de certificaciones para trabajadores mineros, un sistema de liquidaciones de sueldo y otras soluciones de gestión de empresas en ámbitos como transporte de carga y bodegaje, entre muchos otros.

Además, trabajamos en países como Canadá en ambiciosos proyectos con nuestros partners tecnológicos.

¡Súmate a la revolución digital TCIT!

¿Qué harás?

  • Liderar la implementación y configuración de Mambu según los requerimientos del negocio.
  • Diseñar soluciones específicas utilizando las capacidades de Mambu, asegurando la escalabilidad y sostenibilidad.
  • Colaborar con las áreas de negocio y tecnología para identificar necesidades y traducirlas en soluciones técnicas.
  • Participar en el levantamiento de requerimientos y diseñar flujos de trabajo adaptados a Mambu.
  • Planificar y coordinar proyectos relacionados con Mambu, asegurando el cumplimiento de plazos, alcance y presupuesto.
  • Monitorear avances y generar reportes para stakeholders.
  • Capacitar a los equipos internos y usuarios clave en el uso de Mambu.
  • Actuar como punto de contacto para consultas y resolución de problemas relacionados con la plataforma.
  • Supervisar la integración de Mambu con otros sistemas y plataformas utilizadas por la organización.
  • Coordinar con equipos de TI para asegurar una conectividad fluida y segura.

¿Cómo nos gustaría que fueras?

  • Título profesional en Ingeniería en Informática, Sistemas, Computación o carrera afín.
  • Experiencia mínima de 3-5 años en la implementación y gestión de Mambu
  • Experiencia en metodologías ágiles de gestión de proyectos (Scrum, Kanban).
  • Conocimientos demostrables en integraciones mediante APIs RESTful.
  • Sólida comprensión de la arquitectura de Mambu y su configuración.
  • Experiencia en herramientas de integración y middleware.
  • Conocimientos de bases de datos SQL y herramientas de monitoreo.
  • Excelentes habilidades de comunicación y liderazgo.
  • Capacidad para gestionar múltiples proyectos simultáneamente.
  • Orientación a resultados y resolución de problemas.
  • Adaptabilidad y capacidad para trabajar en entornos dinámicos.

Te amaríamos más si tuvieras/fueras:

  • Certificaciones relacionadas con Mambu u otras plataformas de core bancario.

Beneficios TCIT

🚇 Trabajarás 100% remoto: puedes trabajar 100% online, pero si quieres conocer a tu team, eres bienvenido en nuestras oficinas ubicadas a pasos del metro
🕒 Flexibilidad que se adapta a ti: Contamos con permisos flexibles para que tengas el equilibrio que necesitas.
🌴 ¡Más días de descanso! Disfruta de más días de vacaciones y recarga energías.
🎁 Beneficios increíbles: Accede a cientos de convenios y oportunidades con Caja de Compensación Los Andes y ACHS.
🎓 ¡Certifícate gratis! Somos Google Partners, y te damos acceso gratuito a certificaciones para que sigas creciendo.
🔧 Equipos y soporte técnico: ¡No te preocupes por las herramientas! Te entregamos un computador y cubrimos cualquier falla técnica.
Recarga energías: Contamos con una estación de cafetería para que siempre estés a gusto.
🎉 ¡Ven a compartir! Los asados y reuniones son parte de nuestra cultura; cualquier excusa es buena para celebrar.

Outdoors The premises have outdoor spaces such as parks or terraces.
Fully remote You can work from anywhere in the world.
Internal talks TCIT offers space for internal talks or presentations during working hours.
Meals provided TCIT provides free lunch and/or other kinds of meals.
Bicycle parking You can park your bicycle for free inside the premises.
Computer repairs TCIT covers some computer repair expenses.
Commuting stipend TCIT offers a stipend to cover some commuting costs.
Computer provided TCIT provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal TCIT gives you paid vacations over the legal minimum.
APPLY VIA WEB
$$$ Full time
Ingeniero/a de Proyectos TI
  • CMPC
  • Santiago (Hybrid)
Agile Excel SQL SAP

MISIÓN DEL CARGO

La misión del cargo es liderar estratégicamente los proyectos de infraestructura TI, tanto en entornos OnPremise como en la nube, abarcando además aspectos clave de ciberseguridad y networking. Su responsabilidad incluye la planificación, ejecución y supervisión de iniciativas dentro de la unidad de Hosting & Cloud, asegurando el cumplimiento de los plazos, la calidad del servicio y la optimización de costos.

Funciones del cargo

  • Definir, revisar, estructurar, presentar, colaborar y planificar proyectos Onpremise y cloud en la unidad de Hosting & Cloud.
  • Asegurar la ejecución del plan de proyectos de la unidad Hosting & Cloud.
  • Actuar de interfaz entre las áreas internas de CMPC, proveedores y clientes internos durante la ejecución de proyectos.
  • Preparar y liderar las pruebas de aceptación de los proyectos y entrega a operaciones.
  • Mantenerse actualizado respecto a las tecnologías de su ámbito de acción.

Requerimientos del cargo

Formación:

  • Ingeniería en informática, industrial, en computación o carreras afines
  • Deseable diplomado en Infraestructura Cloud y/o Gerencia de Proyectos.

Experiencia:

  • 3 años o más el roles similares.

Conocimiento específico:

  • Metodologías ágiles (Scrum, Kanban, otras) y Cascada (PMI) para la gestión de proyectos; requerida: Experiencia, cursos y/o certificaciones. EXCLUYENTE
  • Conocimientos de servicios Cloud: GCP y Azure; experiencia, deseables cursos y/o certificaciones. EXCLUYENTE
  • Conocimientos de Sistemas Operativos: Windows, Unix (Linux,AiX, otros); experiencia, deseable cursos y/o certificaciones. EXCLUYENTE
  • Conocimiento de plataforma SAP; experiencia, deseables cursos y/o certificaciones. DESEABLE
  • Conocimiento de soluciones de virtualización (VMware, Hyper-V, GCE, GCVE, otros) tanto OnPremise como en nube; experiencia, deseable cursos y/o certificaciones. DESEABLE
  • Conocimientos en Motores de Base de Datos tradicionales y Cloud (SQL Server, Oracle, HANA, Cloud SQL, BigQuery, otros); experiencia, deseables cursos y/o certificaciones. DESEABLE
  • Conocimientos en comunicaciones: Switching, routers, Wifi, Firewall, etc. DESEABLE
  • Deseable manejo de productos para automatizar tareas: Ansible, app script, entre otros. DESEABLE

Experiencia:

  • Experiencia en la gestión de proyectos usando metodologías ágiles (Scrum, Kanban, otras) y Cascada (PMI). EXCLUYENTE
  • Experiencia en la gestión de costos, alcance, riesgos y tiempo en proyectos tecnológicos. EXCLUYENTE
  • Experiencia en la gestión de proyectos para la implantación de servicios de operación de infraestructura tecnológica On-Premise y Nube. EXCLUYENTE
  • Experiencia en la gestión de proyectos de infraestructura tecnológica SAP y No SAP, renovación y migración de plataformas On-Premise y Nube; Requerida: Experiencia, cursos y/o certificaciones. DESEABLE
  • Experiencia en la gestión de proyectos de Ciberseguridad, conocimiento de Servicios de Ciberseguridad de Infraestructura y networking, normativas y herramientas; Experiencia, cursos y/o certificaciones.Experiencia en la gestión de proyectos de Networking, conocimiento de Servicios de Networking OnPremise y Cloud; Experiencia, cursos y/o certificaciones. DESEABLE
  • Experiencia gestionando proyectos de implementación de soluciones de respaldos y recuperación, monitoreo, gestión de parches, entre otros. Requerida experiencia. EXCLUYENTE
  • Requerido manejo superior de herramientas ofimáticas y de proyectos: Project, Monday, Google docs, sheets, presentaciones, etc. EXCLUYENTE
  • Conocimiento generales servicios OT. DESEABLE

Conducir: Deseable licencia de conducir clase B al día.

Computación:

  • Manejo superior de herramientas ofimáticas y de proyectos: Project, Monday, Google docs, sheets, presentaciones, office: Word, Excel, PowerPoint, etc.

Condiciones

  • Contrato: Indefinido
  • Ubicación: Edificio Corporativo CMPC Santiago Centro.
  • Modalidad: 4 x1 (4 días presencial en oficina, 1 día online) / Disponibilidad de trabajo en terreno a plantas dentro de Chile y en el extranjero.

APPLY VIA WEB
$$$ Full time
Business Analyst
  • ICONSTRUYE
  • Santiago (Hybrid)
Excel SQL Business Intelligence UML

En ICONSTRUYE, hemos estado a la vanguardia de la tecnología en la construcción durante más de 20 años. Nuestra robusta plataforma tecnológica es un testimonio de nuestra experiencia y compromiso con la industria. Con más de 4,000 clientes en Chile, Colombia y Perú, nos enorgullecemos de proporcionar soluciones integrales que simplifican la cadena de abastecimiento.

Funciones

Tu misión:

  • Serás responsable de comprender las necesidades de la organización e identificar soluciones a los problemas comerciales.
  • Trabajarás como intermediario entre las distintas partes interesadas, como la gerencia, los equipos de TI y los usuarios finales, para garantizar que los objetivos comerciales se alineen con las capacidades técnicas.
Tus funciones principales:

  • Recopilar, analizar y documentar las necesidades del negocio en colaboración con los stakeholders en el formato de requerimientos (historias de usuario, casos de uso, entre otros).
  • Identificar y diagramar procesos de negocio existentes y proponer mejoras o soluciones eficientes.
  • Actuar como puente entre los stakeholders de negocio y el equipo técnico, asegurando la correcta interpretación de los requisitos.
  • Realizar análisis de viabilidad, impacto y costos de posibles soluciones tecnológicas o de procesos.
  • Monitorear y adaptar las especificaciones del proyecto en función de cambios en las prioridades o necesidades del negocio.
  • Diseñar casos de prueba, ejecutar pruebas funcionales y validar que las soluciones entregadas cumplan con los requisitos definidos.
  • Preparar reportes, diagramas y presentaciones que respalden las decisiones estratégicas del equipo y los stakeholders.

Requerimientos:

  • Conocimientos técnicos: Experiencia con herramientas como BPMN, UML o diagramas de flujo para mapear y analizar procesos organizacionales.
  • Dominio en técnicas de recopilación, análisis, documentación y priorización de requisitos funcionales y no funcionales.
  • Experiencia con Notion, Jira, Confluence o similares para gestión de proyectos y documentación de requisitos.
  • Conocimiento en Excel, SQL y herramientas de BI.
  • Deseables: Capacidad para realizar estudios de viabilidad, ROI y análisis financiero en proyectos. Familiaridad con conceptos de arquitectura de sistemas, APIs y desarrollo de software. Capacidad para realizar pruebas funcionales, casos de uso y validación de soluciones frente a los requisitos iniciales.

Beneficios

  • 🌴5 días extras de descanso.
  • 🍔Tarjeta amipass para ser utilizada en restaurant, delivery y supermercados.
  • 👨‍⚕️Seguro complementario de Salud, Dental y de Vida.
  • 🏠Modalidad de trabajo híbrido.
  • 📠Flexibilidad con permisos relacionados con trámites y/o asuntos familiares
  • 👩‍👦En época de vacaciones de invierno y de verano (receso de escolares) los viernes se trabaja medio día.
  • 🎂Tarde libre el día de tu cumpleaños.

Health coverage ICONSTRUYE pays or copays health insurance for employees.
Dental insurance ICONSTRUYE pays or copays dental insurance for employees.
Computer provided ICONSTRUYE provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal ICONSTRUYE gives you paid vacations over the legal minimum.
Beverages and snacks ICONSTRUYE offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
Gross salary $2000 - 2500 Full time
Jefe de Proyecto
  • Genesys Tecnologías de Inform. SpA
Project Manager SQL Server Trello SharePoint

En Genesys Tecnologías de Información SpA, una empresa con más de 30 años de experiencia en el mercado Latinoamericano, ofrecemos soluciones innovadoras en desarrollo de software y servicios TI. Apoyamos la transformación digital de las empresas utilizando tecnologías de última generación como Cloud, Data Analytics, Inteligencia Artificial y Automatización de Procesos.
Buscamos un profesional con sólida experiencia en la gestión de proyectos de implementación de software, deseable con conocimientos en el ámbito financiero. Este líder debe contar con conocimientos técnicos en herramientas de desarrollo y bases de datos, así como habilidades para manejar equipos diversos y coordinar proyectos complejos en entornos de alta exigencia.

Principales Responsabilidades

  • Gestión de Proyectos: Planificar, ejecutar y supervisar todas las fases del proyecto desde la concepción hasta la implementación, asegurando el cumplimiento de objetivos, calidad y tiempos establecidos.
  • Gestión de Equipos: Coordinar y supervisar a los equipos de desarrollo, pruebas y soporte. Garantizar un flujo de comunicación efectivo entre las partes interesadas internas y externas.
  • Supervisión Técnica: Proporcionar soporte y orientación técnica a los equipos de desarrollo, participando en la revisión y validación de arquitecturas y soluciones propuestas.
  • Gestión de Riesgos y Calidad: Identificar riesgos técnicos y operativos, implementando planes de mitigación y asegurando que el software cumpla con los estándares de calidad requeridos.

Descripción del Puesto

Buscamos un profesional con al menos 5 años de experiencia como Jefe de Proyecto en implementación de software, con antecedentes sólidos en proyectos de sistemas financieros o de gestión empresarial. El candidato ideal debe tener un historial de éxito en la entrega de proyectos, cumpliendo plazos y ajustándose a presupuestos. Además, se espera que posea conocimientos técnicos en herramientas de desarrollo y bases de datos, así como habilidades de liderazgo para manejar equipos diversos y coordinar proyectos complejos en entornos de alta exigencia.

Habilidades Deseables

Se valorarán conocimientos en Genexus, incluyendo desarrollo y mantenimiento de aplicaciones; así como experiencia en Visual Studio .NET para supervisar proyectos bajo esta plataforma. También, es deseable una sólida competencia en SQL Server, incluyendo diseño, gestión y optimización de bases de datos relacionales. La familiaridad con metodologías tradicionales de gestión de proyectos y enfoques ágiles es un plus. Por último, la experiencia con herramientas de gestión de proyectos como Microsoft Project, Trello, y conocimientos en plataformas de colaboración como SharePoint y Teams serán considerados.

Se Ofrece

Ofrecemos un tipo de contrato indefinido y la modalidad de trabajo es 100% remoto. Nuestro horario de oficina es de lunes a viernes, de 08:30 a 18:30 horas. Formar parte de Genesys significa ser parte de una organización en crecimiento que valora la innovación y el desarrollo profesional.

Health coverage Genesys Tecnologías de Inform. SpA pays or copays health insurance for employees.
Dental insurance Genesys Tecnologías de Inform. SpA pays or copays dental insurance for employees.
Computer provided Genesys Tecnologías de Inform. SpA provides a computer for your work.
Shopping discounts Genesys Tecnologías de Inform. SpA provides some discounts or deals in certain stores.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
Gross salary $2000 - 2500 Full time
UI Engineer
  • coderslab.io
JavaScript Ruby HTML5 CSS

At CodersLab, we are currently focused on expanding our teams globally with the goal of positioning our products in more countries across Latin America. That’s why we are looking for a UI Engineer—a motivated individual who is goal-oriented and driven to achieve results.

You will join a dynamic and ambitious team eager to transform the market, where your ideas and proposals will be highly valuable to the business.

Apply now and take on this amazing challenge!

Job functions

POSITION OVERVIEW
This role is remote. Chairish Inc. is looking for a UI engineer to work on the team developing
our core commerce platform.
As a member of the core platform engineering team you will participate in all stages of the product
development lifecycle from business analysis, requirements development, and, of course, product
development. As a key driver of the product process, this role presents the opportunity to have a
direct and meaningful impact on the business while working to advance the innovation that drives
the home decor industry online at an ever fast pace.

Responsibilities
● Focus on the development and architecture of Chairish's web UI for both mobile and desktop
devices
● Develop and review technical designs and document them
● Participate in code reviews
● Automated unit test creation and manual testing of your code
● Work closely with product management, logistics, and production staff to manage product
scope and requirements
● Continue to be responsible for your code once it's in production

Qualifications and requirements

● At least 3 years of prior software development experience
● Bachelor's degree in Computer Science or a related field (or equivalent experience)
● You love HTML
● You have a deep understanding of CSS
● Strong Javascript skills
● Excellent verbal and written communication
● Natural problem-solver and troubleshooter
● One or more server side scripting languages (e.g. Python, Ruby, PHP, Javascript). We work
primarily in Python but it's easy enough to learn if you've got related experience.
● Comfortable working in a GNU Linux/Unix environment
● Familiarity with one or more relational databases (e.g. MySQL, Postgres, etc...) and solid
knowledge of SQL

Desirable skills

Bonus but not required
● Experience with LESSCSS
● Experience with jQuery, RequireJS, Webpack, Vue, or React
● Experience optimizing front-end performance

Conditions

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
$$$ Full time
Machine Learning Engineer
  • Haystack News
  • Lima (Hybrid)
Python SQL NoSQL BigQuery

Haystack News is the leader in transitioning younger audiences to a next-generation TV news product. We empower users to watch the news they care about with a personalized headline news channel. Our personalization and big data technology enable a seamless lean-back experience reaching millions of users. In 2020, we streamed billions of minutes of news to users around the globe.

We're available on a variety of TV platforms (Roku, Fire TV, Android TV, Apple TV, Chromecast, Vizio) as well as mobile, tablet, and desktop.

Job functions

We are looking for an outstanding machine learning engineer to join Haystack and help improve the experience of millions of users that rely on Haystack to get the news every day.

Within the team you’ll find many opportunities to work on various aspects of Machine Learning and Data Engineering. The job offers the opportunity of generating a major impact on the product while working with an awesome and talented team, using the latest technologies.

You will:

  • Analyze large data sets to get insights using statistical analysis tools and techniques
  • Build, evaluate and deploy machine learning models
  • Maintain ongoing reliability, performance, and support of the data infrastructure, providing solutions based on application needs and anticipated growth.
  • Work with tools to configure, monitor and orchestrate data infrastructure and pipelines.
  • Run and monitor AB Tests
  • Build and manage APIs

Qualifications and requirements

  • Bachelor's degree in Computer Science, Statistics, Math or related field.
  • 3+ years experience writing software in a professional setting
  • Knowledge of AWS and Python
  • Strong Math/Stats background with statistical analysis experience on big data sets
  • Experience with SQL and NoSQL (e.g. MongoDb or DynamoDB)
  • Big Plus: Experience with data warehouses (e.g. Snowflake, Big Query, Redshift)
  • Exposure to ML/AI libraries such as sklearn, LightGBM and, XGBoost.
  • Travel Visa to the US (desired)

Conditions

Uber rides to come to the office!
Travel to team's offsite events
Learn about multiple technologies

Pet-friendly Pets are welcome at the premises.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Meals provided Haystack News provides free lunch and/or other kinds of meals.
Paid sick days Sick leave is compensated (limits might apply).
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Company retreats Team-building activities outside the premises.
Computer repairs Haystack News covers some computer repair expenses.
Commuting stipend Haystack News offers a stipend to cover some commuting costs.
Computer provided Haystack News provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
Conference stipend Haystack News covers tickets and/or some expenses for conferences related to the position.
Informal dress code No dress code is enforced.
Vacation over legal Haystack News gives you paid vacations over the legal minimum.
Beverages and snacks Haystack News offers beverages and snacks for free consumption.
APPLY VIA WEB
$$$ Full time
Data Engineer Inteligencia Artificial
  • Factor IT
Java Python SQL Web server
FactorIT es un líder en tecnología con presencia en 8 países y se dedica a ofrecer soluciones innovadoras en Data y Analytics, Transformación Digital e Inteligencia Artificial. Estamos buscando un profesional talentoso para unirse a nuestro equipo en el desarrollo de infraestructuras de datos específicas para proyectos de IA, lo que representa una gran oportunidad para participar en iniciativas desafiantes y significativas que tendrán un impacto en múltiples industrias.

Responsabilidades:

En esta función, el candidato será responsable de:
  • Desarrollar y optimizar pipelines de datos para modelos de IA.
  • Colaborar con arquitectos de datos y científicos de datos para construir soluciones escalables y eficientes.
  • Gestionar la integración y almacenamiento de grandes volúmenes de datos utilizando diversas herramientas y plataformas de IA.
  • Mejorar la calidad de los datos garantizando su adecuada preparación para el entrenamiento de modelos de Machine Learning.
  • Implementar procesos automatizados para la recolección y el procesamiento de datos.

Requisitos:

Buscamos a alguien que cumpla con las siguientes calificaciones:
  • Experiencia mínima de 4 años en ingeniería de datos con un énfasis en Inteligencia Artificial.
  • Conocimientos técnicos en herramientas de procesamiento de datos como Apache Spark, Kafka, Hadoop, entre otros.
  • Experiencia trabajando con grandes volúmenes de datos y tecnologías de almacenamiento en la nube.
  • Dominio de lenguajes de programación como Python, SQL y otros orientados a la manipulación de datos.
  • Conocimiento práctico en la implementación de Machine Learning y Deep Learning.

Deseable:

Experiencia en entornos de trabajo ágil y capacidad para gestionar múltiples proyectos simultáneamente. La pasión por la innovación y el deseo de aprendizaje continuo son altamente valorados.

Ofrecemos:

En FactorIT, promovemos un entorno dinámico y de innovación tecnológica. Ofrecemos:
  • Capacitación continua en tecnologías emergentes, especialmente en IA.
  • Flexibilidad y opción de trabajo remoto, permitiendo un mejor balance entre la vida personal y laboral.
  • Oportunidades de crecimiento profesional en un ambiente inclusivo que valora la creatividad y el trabajo en equipo.
¡Si eres un experto en ingeniería de datos con pasión por la Inteligencia Artificial, te estamos esperando! 🚀

Fully remote You can work from anywhere in the world.
Computer provided Factor IT provides a computer for your work.
APPLY VIA WEB
Gross salary $2500 - 3000 Full time
Administrador de Bases de Datos (DBA) Oracle
  • BC Tecnología
  • Santiago (Hybrid)
SQL Oracle Python Virtualization
BC Tecnología es una consultora de TI con personal experto en diferentes áreas de tecnología. Nos dedicamos a administrar portafolio, desarrollar proyectos, realizar outsourcing y selección de profesionales para crear equipos de trabajos ágiles en áreas como Infraestructura Tecnología, Desarrollo de Software y Unidades de Negocio.
En BC Tecnología, diseñamos soluciones acorde a las necesidades de nuestros clientes, especialmente en los sectores de servicios financieros, seguros, retail y gobierno, durante más de 6 años.

Responsabilidades:

  • Mantener la alta disponibilidad y rendimiento de las bases de datos Oracle.
  • Configurar y gestionar entornos de alta disponibilidad utilizando Oracle RAC y Data Guard.
  • Realizar migraciones de bases de datos a Oracle Cloud y otros entornos Cloud (OCI, Azure).
  • Automatizar tareas rutinarias mediante scripts.
  • Ejecutar monitoreo, tuning y optimización de bases de datos.
  • Diseñar e implementar planes de recuperación ante desastres y políticas de backup/restore.
  • Colaborar con equipos de desarrollo y operaciones para garantizar una integración eficiente.
  • Mantenerse actualizado con las nuevas funcionalidades y parches de Oracle, garantizando la seguridad.

Requisitos y Habilidades:

  • Experiencia mínima de 3 años en administración de bases de datos Oracle en entornos críticos y de alto volumen de transacciones.
  • Dominio avanzado de Oracle 19c o superior, Oracle RAC, Data Guard, ASM y Oracle Multitenant.
  • Conocimiento en Oracle Cloud Infrastructure (OCI) y otras nubes públicas (Azure, AWS deseable).
  • Competencia en scripting para automatización de tareas DBA (Bash, Python).
  • Conocimientos en monitoreo y optimización de bases de datos.
  • Familiaridad con sistemas operativos basados en Linux/Unix.
  • Experiencia en seguridad y encriptación de datos en bases de datos.
  • Conocimientos en PL/SQL y optimización de sentencias SQL (tuning).
  • Experiencia con Golden Gate.
  • Conocimientos en políticas de backup y recuperación (RMAN, Data Pump).

Trabajo Hibrido, requiere disponibilidad para turnos 24x7 de una semana al mes (o cada dos meses) según la carga de trabajo.

APPLY VIA WEB
$$$ Full time
Jefe Planning & Actuarial Performance
  • BNP Paribas Cardif
  • Santiago (In-office)
Python Data Analysis Excel SQL

¿Quieres ser parte de los líderes en la revolución de los seguros?

BNP Paribas Cardif está presente en más de 30 países en América, Europa y Asia, contamos con 25 años de trayectoria en Chile y nuestra misión es hacer los seguros más accesibles, justos y valiosos.

✅ Por nuestro ambiente laboral único, somos una organización centrada en el bienestar de las personas y nuestro espíritu Cardif.
✅ Porque el deporte y sus valores son parte de nuestra cultura: la colaboración, la empatía y el respeto guían nuestro trabajo.
✅ Por la cercanía con nuestros líderes, somos una organización que cree en el talento y damos las oportunidades para desarrollarte y aprender juntos.
✅ Por nuestro modelo de trabajo mixto, teletrabajando tres días a la semana.
✅ Estamos comprometidos con el medio ambiente.
✅ Estamos comprometidos con la diversidad, equidad e inclusión.
✅Nos encontramos entre los top 20 "Mejores lugares para trabajar en Chile" (contamos con certificación de GPTW).

Job functions

Hoy en BNP Paribas Cardif buscamos a un Jefe de Planning & Actuarial Perfomance que se sume al equipo de Técnica y Financiera, donde tú misión será ser responsable de desarrollar y mejorar los modelos de evaluación y proyección de resultados de los distintos productos de la compañía, de forma tal que los mismos sean un input no solo para el presupuesto de la compañía sino también para otros estudios y reportes técnicos.

¿Cuáles son los principales desafíos del cargo?

· Desarrollar y mejorar los modelos de evaluación y herramientas de cálculo.

· Analizar la rentabilidad de la cartera de productos con el nivel de detalle requerido a fin de garantizar una adecuada proyección del portafolio.

· Garantizar que la metología utilizada para la proyección refleja el real comportamiento del negocio y que la misma se apega a los estándares actuariales del grupo.

· Explicar y comunicar de forma clara los desvíos entre lo obvervado y lo proyectado.

· Entregar a la alta gerencia las herramientas y los informes necesarios para la toma de decisiones.

· Gestionar y analizar los datos de la compañía con el fin de abordar distintas problemáticas actuariales que permitan apoyar el proceso de transformación.

· Seguimiento, estudio y control de los riesgos que enfrenta cada cartera de productos.

· Participar activamente en proyectos transversales tanto a la gerencia técnica como a nivel compañía, aportando desde el punto de vista técnico y financiero.

· Buscar la mejora continua los procesos y procedimientos del área, buscando la agilidad y perfeccionamiento de las metodologías de cálculo.

¿Cómo saber si hago match con esta vacante?

Buscamos a alguien que:

Formación:

Profesional universitario, título en Actuariado, Estádística, Matemática o afines.

Experiencia Requerida:

Mínimo 5 años de experiencia en áreas de Actuariado o afines, ya sea en cálculo de reservas, tarificación o modelación estadística del riesgo.

Desirable skills

Conocimientos y Habilidades:

  • Manejo de MS Office, nivel avanzado, especialmente Excel
  • Manejo intermedio en bases de datos y de programación en SQL, SAS , PHYTHON y/o R excluyente.
  • Deseable: manejo de software actuarial (desarrollo de siniestros)
  • Manejo de inglés intermedio
  • Alta capacidad de síntesis y análisis
  • Rigurosidad técnica

Conditions

¿Te sumas a la revolución de la industria del seguro?

Esperamos tu postulación ¡seguro y con todo!

“Todas las contrataciones están sujetas a la ley 21015. En BNP Paribas Cardif creemos en lugares de trabajos inclusivos y diversos, donde todas las personas son bienvenidas. En caso de necesitar adaptaciones para ser parte de nuestro proceso de selección, favor comunicarlo en la sección de preguntas.”

Accessible An infrastructure adequate for people with special mobility needs.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Health coverage BNP Paribas Cardif pays or copays health insurance for employees.
Computer provided BNP Paribas Cardif provides a computer for your work.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Vacation over legal BNP Paribas Cardif gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
Parental leave over legal BNP Paribas Cardif offers paid parental leave over the legal minimum.
APPLY VIA WEB
Gross salary $2800 - 3700 Full time
Site Reliability Engineer
  • Buk
Java Ruby on Rails Python PHP

En Buk, estamos en una misión audaz 💪🌎:

¡Transformar los entornos laborales en lugares más felices y productivos! Somos un equipo joven, lleno de energía y pasión por revolucionar la gestión de RRHH en Latinoamérica. La tecnología es nuestra herramienta principal, y nos esforzamos por la excelencia en cada aspecto de nuestra plataforma.

Con presencia en Chile, Colombia, México y Perú y próximos a iniciar operaciones en Brasil ¡estamos listos para atraer mentes brillantes que nos ayuden a seguir alcanzando muchas metas con miras al infinito y más allá! si quieres saber cómo es un día de trabajo con nosotros, no dudes en echar un vistazo al siguiente video: https://www.youtube.com/watch?v=jBxmAcOrMZU

Funciones del cargo

  • Te encargarás de desarrollar módulos y componentes transversales de la infraestructura.
  • Serás responsable de la administración de las plataformas internas.
  • Velarás por su estabilidad, disponibilidad, seguridad y escalabilidad.
  • Participarás en la mejora continua identificando mejoras a desarrollar.
  • Te encargarás de atender incidentes.
  • Participarás en la automatización de procesos.

Requerimientos del cargo

  • Al menos 3 años de experiencia en roles similares
  • Experiencia trabajando con Terraform
  • Conocimientos en AWS
  • Experiencia con Stack de monitoreo Grafana/Prometheus
  • Conocimiento en gitOps
  • Experiencia trabajando con Docker y Kubernetes (INDISPENSABLE)
  • Conocimientos de sistemas operativos Linux

Opcionales

  • Administración de bases de datos PostgreSQL
  • Experiencia en desarrollo de software (PHP, Java, Python, RoR, etc.)

Condiciones

  • ¡El mejor ambiente de trabajo! Nuestra misión es crear lugares de trabajo más felices, y bueno, lideramos con el ejemplo!😀
  • VACACIONES ILIMITADAS! 🌴🏖️☀️ Sí! ¡Leíste bien!
  • Plan de Beneficios personalizado ⭐ podrás elegir muchas opciones, entre Seguro complementario de Salud, aguinaldos, bonos, capacitaciones, clases de inglés, gimnasio, giftcards, asesoría financiera, ayuda psicológica, Netflix, Spotify y muchos más!
  • Postnatal Paternal de 5 semanas 🍼💙
  • Flexibilidad horaria, queremos que la gente se motive y trabaje feliz, cumpliendo objetivos, no que marque tarjeta.
  • Modalidad WFA 🌴🌞(Work From Anywhere) trabaja 100% en la oficina/ híbrido/ full remoto ¡Tú eliges!
  • Increíbles oficinas en Latam, modernas y con áreas recreativas: Máquina de cerveza, Helados, Mesa PingPong, Snacks y Café, Nintendo.🍩🍫🍺🍕🍎
  • ¡Olvídate de las corbatas y de los zapatos!
  • Sueldo: propone, si eres la persona que buscamos, no te quedarás fuera

Fully remote You can work from anywhere in the world.
Equity offered This position includes equity compensation (in the form of stock options or another mechanism).
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Buk pays or copays health insurance for employees.
Computer provided Buk provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Buk gives you paid vacations over the legal minimum.
Beverages and snacks Buk offers beverages and snacks for free consumption.
APPLY VIA WEB
$$$ Full time
Consultor Técnico de CRM
  • JobFinder Spain
  • 🇨🇱 Chile - Remoto 🌎
Full Time Computación Zoho Ingeniero

Ingeniero de Software Especialista en Productos Zoho

Empresa: SMF360

Sobre nosotros:

En SMF360, somos un socio de Zoho con sede en Miami desde 2015. Nos especializamos en ofrecer soluciones CRM innovadoras, con más de 300 clientes satisfechos y más de 650 proyectos exitosos completados. Ahora, buscamos unIngeniero de Software apasionado y experimentado para unirse a nuestro equipo y contribuir al desarrollo e implementación de soluciones basadas en Zoho para nuestros proyectos en 2025-2026.

Responsabilidades principales:

  • Participar en el ciclo completo de desarrollo de software, desde el diseño hasta la implementación y el soporte.
  • Escribir código eficiente, comprobable y bien estructurado utilizando productos Zoho.
  • Analizar y producir especificaciones técnicas, evaluando la viabilidad operativa de los proyectos.
  • Integrar componentes en sistemas completamente funcionales, asegurando un rendimiento óptimo.
  • Diseñar y ejecutar planes de verificación y procedimientos de garantía de calidad.
  • Documentar y mantener la funcionalidad del software para garantizar su escalabilidad y mantenimiento.
  • Implementar y adaptar herramientas, procesos y métricas de software basados en Zoho.
  • Actuar como experto técnico, apoyando al equipo y a los clientes en el uso de soluciones Zoho.
  • Cumplir con los plazos y estándares de la industria en todos los proyectos asignados.
  • Experiencia laboral comprobada como Ingeniero de Software o Desarrollador especializado en productos Zoho.
  • Sólida experiencia en el diseño e implementación de aplicaciones interactivas con herramientas de Zoho.
  • Habilidad para desarrollar software en lenguajes como C, C++, C#, Java, o similares.
  • Conocimientos avanzados en bases de datos relacionales, tecnologías SQL y frameworks ORM (como JPA2 o Hibernate).
  • Experiencia en desarrollo de aplicaciones web utilizando frameworks populares (JSF, Wicket, GWT, Spring MVC).
  • Familiaridad con metodologías de desarrollo ágil y procesos de lanzamiento de software.
  • Experiencia con desarrollo impulsado por pruebas (TDD) y herramientas de ingeniería de software.
  • Capacidad para documentar requisitos, especificaciones y procesos técnicos de manera clara y efectiva.
  • Grado en Ciencias de la Computación, Ingeniería o campo relacionado.
  • Fuertes capacidades de resolución de problemas y pensamiento analítico.
  • Habilidad para trabajar en equipo en un entorno dinámico y multicultural.
  • Excelentes habilidades de comunicación en español e inglés.
  • Colaboración con un equipo altamente experimentado y proyectos desafiantes.
  • Oportunidades de desarrollo profesional y formación en productos Zoho.
  • Trabajo remoto con un enfoque flexible y orientado a resultados.

Si eres apasionado por la tecnología y buscas una oportunidad para marcar la diferencia con soluciones innovadoras de Zoho, ¡nos encantaría conocerte!

¡Postúlate ahora y únete a nuestro equipo!

#J-18808-Ljbffr
APPLY VIA WEB
Gross salary $1800 - 2300 Full time
Data Analyst / Business Intelligence Analyst
  • CyD Tecnología
  • Santiago (Hybrid)
Data Analysis
En CyD Tecnología, trabajamos en el desarrollo de plataformas web personalizadas para diversas industrias. Como Data Analyst / Business Intelligence Analyst, tu función será esencial para optimizar el Control de Gestión en nuestros proyectos. Trabajarás en un entorno dinámico y colaborativo, ayudando a transformar datos en información valiosa que guiará las decisiones estratégicas de nuestros clientes.

Funciones del Puesto

Como parte de nuestro equipo, tus responsabilidades incluirán:
  • Analizar datos empresariales para identificar tendencias y oportunidades de mejora.
  • Desarrollar y mantener informes de gestión que reflejen el rendimiento operativo.
  • Colaborar con diferentes equipos para garantizar que los KPIs se alineen con las estrategias de negocio.
  • Apoyar el desarrollo de soluciones de Business Intelligence que faciliten la toma de decisiones.
  • Participar en las actividades de control de gestión para asegurar un uso eficiente de los recursos.

Descripción del Perfil

Profesional del área de ingeniería informática, ingeniería civil industrial, control de gestión o carrera afín, con sólidos conocimientos en análisis de datos, estructuras de información financiera y desarrollo de tableros de gestión. Capaz de colaborar estrechamente con el área de control de gestión para estructurar, automatizar y analizar información de facturas, ingresos y egresos de una empresa de gran tamaño (USD 120 MM de facturación anual y más de 2500 trabajadores).

Habilidades Deseables

Se considerará un plus tener experiencia previa en análisis de datos o control de gestión, así como conocimientos en herramientas como Excel, SQL, y software de visualización como Looker Studio o Power BI.
Deseable manejo de lenguajes como Python o R para análisis de datos y experiencia trabajando con KPI financieros y operacionales.

Beneficios al Unirte a CyD Tecnología

En CyD Tecnología, fomentamos un ambiente de trabajo que apoya a nuestros empleados y su desarrollo profesional. Ofrecemos:
  • Modalidad Híbrida de trabajo.
  • Seguro complementario y de vida.
  • Un ambiente laboral muy agradable.
  • Un ambiente colaborativo donde la creatividad es valorada y fomentada.
¡Únete a nosotros y forma parte de un equipo apasionado que está a la vanguardia de la tecnología! 🚀

Health coverage CyD Tecnología pays or copays health insurance for employees.
Computer provided CyD Tecnología provides a computer for your work.
APPLY VIA WEB
$$$ Full time
Data Engineer
  • TCIT
  • Santiago (In-office)
SQL Apache Spark Spark Agile
En TCIT, somos líderes en el desarrollo de software en modalidad Cloud, con la misión de transformar digitalmente organizaciones a través de soluciones sostenibles e innovadoras. Nuestro equipo está compuesto por profesionales apasionados y enfocados en generar un impacto positivo. Hemos trabajado en proyectos variados, desde sistemas de gestión agrícola hasta soluciones específicas para la industria judicial. Actualmente colaboramos con importantes partners tecnológicos en ambiciosos proyectos en países como Canadá.

Responsabilidades del Rol

Como Data Engineer, serás responsable del desarrollo y optimización de código asegurándote de mantener las mejores prácticas con tu equipo de trabajo.
Tu trabajo incluirá:
  • Desarrollar código limpio y eficiente siguiendo las mejores prácticas de programación en Pyspark.
  • Entender conceptos de optimización de queries.
  • Colaborar con diseñadores y otros desarrolladores para diseñar e implementar flujos de datos.
  • Integrar flujos de datos a productos internos y disponibilizar data en catálogos..
  • Manejar herramientas como Azure Data Factory y Databricks para realizar los distintos flujos de data e integraciones.
  • Trabajar en un entorno ágil, colaborativo y adaptable, resolviendo problemas de manera efectiva y comunicándose de manera clara y concisa.

Perfil del candidato

Buscamos un profesional altamente calificado con al menos 3 años experiencia demostrable. El candidato ideal posee:
  • Experiencia demostrable en Ingeniería de Datos usando PySpark.
  • Dominio de desarrollo de flujos de datos basados en Spark.
  • Conocimiento sólido optimización de queries y sintaxis de SQL.
  • Experiencia en diseño de flujos de datos óptimos de acuerdo a las necesidades.
  • Capacidad para identificar falencias en queries de datos complejas.
  • Entendimiento de conceptos de orquestación.
  • Familiaridad con metodologías ágiles
Valoramos la adaptabilidad y pasión por aprender nuevas tecnologías y herramientas.

Habilidades Deseables

Es un plus contar con:
  • Experiencia orquestando flujos de data con Terraform
  • Experiencia previa con Databricks
  • Experiencia previa con Azure Data Factory
  • Entendimiento de conceptos como federación de datos
  • Experiencia previa con Snowflake.

Beneficios y Cultura

En TCIT, garantizamos un ambiente laboral enriquecedor con:
  • Oficinas accesibles, a solo pasos del metro, para facilitar tu día a día. 🚇
  • Flexibilidad horaria que se adapta a tu estilo de vida, permitiéndote encontrar el equilibrio perfecto. 🕒
  • Aumento en los días de vacaciones para que puedas recargar energías. 🌴
  • Acceso a beneficios exclusivos y oportunidades con Caja de Compensación Los Andes y ACHS. 🎁
  • Oportunidades para certificaciones gratuitas, siendo Google Partners. 🎓
  • Equipamiento y soporte técnico adecuados, asegurando que tengas todo lo necesario para desempeñar tu trabajo. 🔧
  • Un ambiente de trabajo con áreas de descanso y una estación de cafetería para tus momentos de relax. ☕
  • Reuniones y celebraciones informales para fomentar un buen clima laboral. 🎉
¡Esperamos que te unas a la revolución digital de TCIT y a nuestra apasionada comunidad!

Outdoors The premises have outdoor spaces such as parks or terraces.
Meals provided TCIT provides free lunch and/or other kinds of meals.
Bicycle parking You can park your bicycle for free inside the premises.
Company retreats Team-building activities outside the premises.
Computer repairs TCIT covers some computer repair expenses.
Computer provided TCIT provides a computer for your work.
Personal coaching TCIT offers counseling or personal coaching to employees.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Vacation over legal TCIT gives you paid vacations over the legal minimum.
APPLY VIA WEB
Gross salary $2000 - 3000 Full time
Data Engineer
  • Alegra
NoSQL SQL Python Scala

Si eres una o un desarrollador con pasión por los datos y te emociona construir soluciones robustas para procesar, integrar y escalar información, este rol es para ti. ¡Felicitaciones! Este reto es para ti 👇

Sobre Alegra 💙

Únete a Alegra, el lugar en donde tu talento crece y crea superpoderes. 🚀
En Alegra contamos con un equipo de más de 500 personas en más de 19 países trabajando 100% remoto con una cultura única, innovadora y dinámica que está revolucionando cómo las Pymes gestionan sus finanzas con un ecosistema de soluciones digitales en la nube disponible en más de 10 países en Latam, España y ¡vamos por más! 🚀

Conoce más sobre nuestra cultura en 👉 Alegra Coolture Code 👈

Funciones del cargo

Apoyar en la construcción y optimización de nuestra infraestructura de datos, asegurando que la información fluya de manera eficiente y esté disponible para impulsar decisiones estratégicas en toda la compañía.

Buscamos talentos que no solo escriba código eficiente, sino que también diseñe sistemas escalables y confiables para capturar, transformar y exponer datos en tiempo real.

Lo que harás en el día a día:

  • Construir y optimizar APIs y microservicios para exposición e integración de datos.
  • Diseñar, desarrollar y mantener pipelines de datos escalables.
  • Diseñar arquitecturas de datos eficientes en AWS (Redshift, S3, Glue, Athena, etc.).
  • Trabajar en la ingesta, transformación y orquestación de datos en plataformas como AWS lambda, Airflo o Spark.
  • Integrar datos desde diferentes fuentes y plataformas, asegurando calidad y consistencia.
  • Colaborar con equipos de Operations, Analytics y Producto para habilitar el acceso a datos limpios y estructurados.
  • Implementar mejores prácticas en seguridad, escalabilidad y mantenimiento de infraestructuras de datos.

Requerimientos del cargo

  • Experiencia sólida en desarrollo de software, preferiblemente con Python, Java o Scala.
  • Conocimientos en diseño y construcción de APIs y microservicios.
  • Manejo de bases de datos SQL y NoSQL (PostgreSQL, Redshift, DynamoDB, MongoDB).
  • Experiencia en integraciones con sistemas externos y procesamiento de datos en la nube (AWS, GCP o Azure).
  • Familiaridad con arquitecturas serverless y event-driven (AWS EventBridge, SNS, SQS, Kafka).
  • Experiencia en herramientas de ETL/ELT y procesamiento de datos (Airflow, dbt, Spark, Kafka, etc.)
  • Buenas prácticas en arquitectura, escalabilidad y optimización de queries y sistemas de datos.
  • Curiosidad y ganas de aprender sobre Big Data, Data Lakes y arquitecturas en la nube.
  • Capacidad de trabajar en equipo con analistas, equipos de negocio y desarrolladores.

Conditions

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
$$$ Full time
Data Engineer
  • Factor IT
SQL Python ETL Data Engineer

En FactorIT, somos líderes en el sector de tecnología y ofrecemos soluciones innovadoras en Data y Analytics, Transformación Digital e Inteligencia Artificial. Con presencia en 8 países de Latinoamérica, nos apasiona abordar los desafíos tecnológicos de grandes empresas. Únete a nuestro equipo de ingenieros de datos que están a la vanguardia de la transformación tecnológica. Trabajamos en proyectos de gran impacto, creando soluciones personalizadas que integran tecnologías emergentes y analítica avanzada.

Responsabilidades del Ingeniero de Datos

Como Data Engineer en FactorIT, tu objetivo será diseñar, construir y mantener infraestructuras y sistemas de datos que permitan a nuestros clientes tomar decisiones informadas. Tus responsabilidades incluirán:

  • Desarrollar y mantener pipelines de datos eficientes y escalables.
  • Colaborar con equipos multidisciplinarios para analizar necesidades de datos y proporcionar soluciones efectivas.
  • Implementar y optimizar herramientas de integración de datos.
  • Monitorear la calidad y eficiencia de los sistemas de procesamiento de datos.
  • Participar en la gestión y almacenamiento de datos, asegurando la integridad y confidencialidad.

Tu papel será fundamental para impulsar la transformación digital y potenciar la analítica en nuestras soluciones.

Requisitos del Puesto

Buscamos un Data Engineer con pasión por la tecnología y habilidades tanto técnicas como interpersonales. Las características que valoramos son:

  • Título en Ingeniería Informática, Ciencias de la Computación o campos relacionados.
  • Conocimientos en lenguajes de programación como Python o SQL.
  • Experiencia con herramientas de ETL y plataformas de análisis de datos.
  • Aptitudes analíticas y capacidad para resolver problemas.
  • Habilidades de comunicación efectiva para trabajar en equipo y entender las necesidades del cliente.

Valorizamos un enfoque proactivo y la capacidad de aprender de manera continua.

Habilidades Deseables

Si bien no es obligatorio, será un plus contar con:

  • Experiencia en herramientas de Big Data como Hadoop o Spark.
  • Conocimientos en la implementación y gestión de bases de datos no relacionales (NoSQL).
  • Familiaridad con prácticas de DevOps relacionadas con el manejo de datos.
  • Certificaciones en tecnologías de datos o análisis.

Estas habilidades complementarias serán valoradas en el proceso de selección.

Beneficios de Trabajar en FactorIT

Ofrecemos un entorno de trabajo dinámico y colaborativo, donde podrás trabajar con tecnologías de punta y acceder a un plan de crecimiento profesional. Además, brindamos capacitaciones en IA y automatización. Nuestros beneficios incluyen:

  • Trabajo 100% remoto 🌍 para mantener un equilibrio entre tu vida personal y laboral.
  • Flexibilidad laboral para adaptarte a tus necesidades.
  • Un salario competitivo acorde a tu experiencia.

Únete a nosotros y sé parte de un equipo que está transformando el futuro de la tecnología en la región.

Fully remote You can work from anywhere in the world.
Computer provided Factor IT provides a computer for your work.
APPLY VIA WEB
$$$ Full time
Semi Senior / Senior Data Engineer
  • Devsu
  • Quito, Cuenca or Guayaquil (In-office)
NoSQL Python Scala Virtualization
En Devsu, nos dedicamos a construir productos digitales innovadores que se ajustan a las necesidades de nuestros clientes. Con una trayectoria de más de 10 años, hemos reclutado y formado equipos de tecnología de alto rendimiento para algunas de las marcas más reconocidas del mundo.
Buscamos un Ingeniero de Datos con amplia experiencia en el ciclo completo de desarrollo de soluciones de información, incluyendo análisis, diseño, desarrollo, certificación, despliegue y mantenimiento, en entornos OnPremise y tecnologías Big Data. El candidato ideal debe demostrar sólidos conocimientos en optimización de bases de datos y un enfoque proactivo para superar limitaciones técnicas o de procesos, asegurando soluciones robustas, eficientes y alineadas con las mejores prácticas de desarrollo.

Es una posición presencial en la ciudad de Quito, Ecuador, en donde serás asignado/a a uno de nuestros clientes más importantes en el sector financiero/bancario de Latinoamérica.

Funciones del cargo

  • Diseñar y desarrollar soluciones de datos alineadas con la visión de Arquitectura de Datos.
  • Crear y optimizar ETLs, ELTs y APIs para manejo eficiente de datos.
  • Implementar estrategias de testing para validar calidad funcional y no funcional.
  • Proponer mejoras continuas en procesos y productos de datos.
  • Resolver incidencias técnicas y documentar soluciones conforme a estándares.
  • Mentorizar y apoyar el onboarding de nuevos integrantes del equipo.

Requerimientos del cargo

  • Bases de datos relacionales y NoSQL, diseño de Datawarehouse, Datamarts, Datalakes y Lakehouse.
  • Procesamiento distribuido con Hadoop, Spark y arquitecturas batch/streaming.
  • Desarrollo en Python, Scala o Java, aplicando principios de Clean Code.
  • Construcción de pipelines con herramientas ETL (Azure Data Factory, AWS Glue, SSIS).
  • Estrategias de DataOps/MLOps y despliegue CI/CD.
  • Deseable: Certificaciones en AWS, Azure, o Big Data, y experiencia en arquitecturas modernas como Data Mesh o Data Fabric.

Herramientas

  • Apache Spark, Kafka, Flink, Hadoop, HDFS.
  • Servicios Cloud: AWS, Azure, GCP.
  • Lenguajes: Python, Scala, Java.

Beneficios

Un contrato estable a largo plazo. Entrenamiento contínuo. Seguro de Salud Privado. Trabajarás con algunos de los ingenieros de software más talentosos de América Latina y los EEUU, haciendo un trabajo desafiante y software de clase mundial.

Wellness program Devsu offers or subsidies mental and/or physical health activities.
Internal talks Devsu offers space for internal talks or presentations during working hours.
Digital library Access to digital books or subscriptions.
Health coverage Devsu pays or copays health insurance for employees.
Computer provided Devsu provides a computer for your work.
Education stipend Devsu covers some educational expenses related to the position.
Personal coaching Devsu offers counseling or personal coaching to employees.
APPLY VIA WEB
$$$ Full time
Data Booster
  • 2BRAINS
Web server SQL DevOps Continuous Integration

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

El/la Data Booster de 2Brains

Se encarga de participar en el diseño y desarrollo de los nuevos modelos de información de gestión y las mantenciones evolutivas de los existentes. Participar en las iniciativas de Analítica avanzada del área, apoyando las exploración de modelos de información internos y externos (Data Discovery). Obtener datos históricos desde múltiples fuentes de información interna para apoyar las iniciativas de analítica avanzada del equipo.

Qué harás como Data Booster de 2Brains

  • Identificar oportunidades y definir hipótesis basadas en datos para mejorar procesos y generar impacto en el negocio.
  • Diseñar y ejecutar experimentos que permitan validar soluciones con métricas claras y medibles.
  • Construir modelos analíticos y aplicar IA para transformar datos en insights accionables.
  • Facilitar la co-creación de productos de datos, asegurando que sean escalables y sostenibles.
  • Optimizar el desarrollo y adopción de soluciones según la madurez del squad y las necesidades del negocio.
  • Colaborar con equipos de tecnología, negocio y data science para alinear soluciones con los objetivos estratégicos.
  • Garantizar la calidad y gobernanza de los datos, promoviendo mejores prácticas en el manejo y uso de información.

Qué conocimientos buscamos en/la Data Booster

  • Métodos de análisis estadístico (regresión, pruebas de hipótesis, análisis multivariante).
  • Técnicas de modelado predictivo y prescriptivo.
  • Análisis de series temporales.
  • Algoritmos de machine learning supervisados y no supervisados.
  • Modelos de clasificación, regresión, clustering, y reducción de dimensionalidad.
  • Técnicas de deep learning y redes neuronales.
  • Limpieza, transformación y preprocesamiento de datos (ETL).
  • Manejo de grandes volúmenes de datos y optimización del procesamiento (Big Data).
  • Uso de herramientas de análisis de datos como Pandas, NumPy, Spark.
  • Diseño de experimentos (A/B testing, pruebas de causalidad).
  • Métodos de validación de modelos (cross-validation, métricas de evaluación).
  • Técnicas de evaluación de impacto y pruebas de hipótesis.
  • Creación de dashboards y reportes con herramientas como Tableau, Power BI, Looker.
  • Visualización avanzada con bibliotecas de Python como Matplotlib, Seaborn, Plotly.
  • Python/R para análisis de datos y desarrollo de modelos.
  • SQL para consultas y manipulación de bases de datos.
  • Experiencia con plataformas de nube como AWS, GCP, Azure para almacenamiento y procesamiento de datos.
  • Uso de servicios de data engineering en la nube (como Google BigQuery, Amazon Redshift, Azure Synapse).
  • Prácticas de DevOps aplicadas a proyectos de datos (automatización, integración continua).
  • MLOps para la automatización de la implementación y monitoreo de modelos.
  • Estándares y buenas prácticas en el manejo de datos (calidad, privacidad, seguridad).
  • Herramientas para la gobernanza de datos como Apache Atlas, Collibra.

Que competencias buscamos en/la Data Booster

  • Empatía
  • Buena capacidad de comunicación.
  • Colaboración y trabajo en equipo.
  • Proactividad.
  • Autonomía.
  • Foco en los objetivos de proyectos.

Te ofrecemos

  • Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos
  • Acceso a grandes clientes y proyectos desafiantes
  • Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales
  • Un entorno de trabajo flexible y dinámico
  • Beneficios especiales: día libre para tu cumpleaños, 4 semanas de vacaciones

Wellness program 2BRAINS offers or subsidies mental and/or physical health activities.
Internal talks 2BRAINS offers space for internal talks or presentations during working hours.
Education stipend 2BRAINS covers some educational expenses related to the position.
Informal dress code No dress code is enforced.
Shopping discounts 2BRAINS provides some discounts or deals in certain stores.
Vacation over legal 2BRAINS gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
Gross salary $2000 - 2300 Full time
Data Engineer – Proyecto de 6 Meses
  • BC Tecnología
  • Santiago (Hybrid)
SQL Python Scala CI/CD
En BC Tecnología, somos una consultora de TI comprometida con ofrecer soluciones innovadoras y adaptadas a las necesidades de nuestros clientes. Con más de 6 años de experiencia en el sector, trabajamos con empresas en diferentes industrias, incluyendo servicios financieros, seguros, retail y gobierno. En este proyecto de Data Engineering, tendrás la oportunidad de contribuir al diseño y construcción de pipelines de datos para nuestros clientes, utilizando metodologías ágiles y colaborando con equipos altamente especializados.

Responsabilidades del Rol

  • Diseñar y construir pipelines de datos efectivos para cumplimentar las necesidades analíticas de nuestros clientes.
  • Programar usando lenguajes como Python, Scala o SQL para manipulación y transformación de datos.
  • Implementar y gestionar herramientas de orquestación de pipelines, como Airflow, Mage, NiFi o similares.
  • Colaborar en prácticas de CI/CD, incluidos conocimientos básicos en Git y versionado de código.
  • Integrar arquitecturas de datos, con un enfoque en Datalakes, Datawarehouses o Lakehouse.
  • Participar en modelado de datos utilizando técnicas dimensional, estrella y copo de nieve, si es requerido.

Requisitos y Habilidades

Buscamos candidatos que cuenten con al menos 2 años de experiencia en el área de Data Engineering. Deberán tener competencias en diseño y construcción de pipelines de datos, así como experiencia con lenguajes de programación pertinentes como Python, Scala o SQL.
Es esencial dominar herramientas de orquestación de datos, y tener un conocimiento básico sobre integraciones de CI/CD y flujos de trabajo de versionamiento de código. Adicionalmente, es deseable contar con experiencia en arquitecturas de datos y modelado, incluidos Datalakes y técnicas de modelado específicas.
La modalidad de trabajo es híbrida, lo que permitirá equilibrar la colaboración en persona con flexibilidad laboral.

Habilidades Deseables

Si bien no es un requisito, consideraremos positivamente la experiencia previa con Datalakes y Datawarehouses, así como familiaridad con técnicas de modelado como dimensional, estrella o copo de nieve. Esto contribuirá a un mejor entendimiento del contexto de las soluciones que desarrollaremos.

Beneficios y Condiciones

Ofrecemos un contrato por proyecto de 6 meses, con posibilidad de extensión. Los empleados disfrutarán de un sueldo a convenir, además de beneficios adicionales como:
  • Seguro complementario.
  • Amipass de $4,500 por día laborado.
  • Convenciones, actividades y bonos.
Estamos ubicados en Alto Las Condes, permitiendo un ambiente de trabajo funcional y moderno. ¡Nos encantaría contar contigo en nuestro equipo! 🌟

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB
Gross salary $2000 - 2300 Full time
Data Engineer
  • BC Tecnología
  • Santiago (Hybrid)
SQL Python Scala Git
En BC Tecnología, somos una consultora de TI que cuenta con un equipo experto en diversas áreas tecnológicas. Nuestra misión es brindar soluciones personalizadas que se adapten a las necesidades de nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Actualmente, buscamos incorporar un Data Engineer para diseñar, construir y mantener pipelines de datos, utilizando tecnologías modernas.
Contamos con un enfoque ágil y orientado al cliente, lo que nos permite ofrecer servicios de consultoría, desarrollo de proyectos y administración IT de alta calidad.

✅ Funciones

  • Diseñar y construir pipelines de datos eficientes para mover y transformar datos.
  • Garantizar que los procesos de datos sean consistentes y confiables en el tiempo.
  • Implementar flujos de trabajo de CI/CD para la integración con ambientes de desarrollo y productivos.
  • Colaborar con el equipo para mejorar la calidad y eficiencia de los procesos de datos.
  • Apoyarse en líderes técnicos para lineamientos y mejores prácticas en el desarrollo.

✅ Requerimiento:

Se requiere entre 1 a 2 años de experiencia en diseño y construcción de pipelines de datos. Consideraciones específicas incluyen:
  • Lenguajes de programación: Python, Scala o SQL.
  • Herramientas de orquestación de pipelines: Airflow, Mage, NiFi o similares.
  • CI/CD: Conocimientos básicos en Git y flujos de trabajo de versionamiento de código.

Deseables:

  • Arquitectura de datos: Familiaridad con Datalakes, Datawarehouses o Lakehouse.
  • Modelado de datos: Conocimiento en técnicas como dimensional, estrella, copo de nieve.

✅ Condiciones:

El contrato es por proyecto, estimado en 3 meses, con metodología de trabajo híbrido en Alto las Condes (2 a 3 veces por semana). Los postulantes deben tener disponibilidad de lunes a viernes. Sueldo a convenir y disfrutará de beneficios como seguro complementario, Amipass de $4,500 por día laborado, convenios, actividades y bonos. 🌟

APPLY VIA WEB
$$$ Full time
Administrador de Bases de Datos – AWS Rds Aurora PostgreSQL
  • Leniolabs_
SQL PostgreSQL Virtualization Amazon Web Services
Leniolabs_ que ahora es Improving South America es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España, USA y Canadá.
Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes.
Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.
Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Responsabilidades clave

  • Administración de bases de datos: Gestionar, monitorear y optimizar bases de datos AWS RDS Aurora PostgreSQL para garantizar alta disponibilidad, seguridad y rendimiento.
  • Optimización de rendimiento: Analizar y optimizar consultas SQL, índices y rendimiento general de la base de datos para mejorar tiempos de respuesta y escalabilidad.
  • Seguridad y cumplimiento: Implementar mejores prácticas de seguridad en bases de datos, controles de acceso, cifrado y garantizar el cumplimiento de estándares de la industria y políticas organizacionales.
  • Respaldo y recuperación: Establecer y mantener estrategias de respaldo y recuperación ante desastres para asegurar la integridad de los datos y la continuidad del negocio.
  • Automatización y monitoreo: Utilizar herramientas nativas de AWS y soluciones de terceros para monitoreo proactivo, alertas y automatización de procesos.
  • Documentación: Mantener actualizada la documentación sobre estructuras de bases de datos, políticas de acceso y mejores prácticas.

Requisitos

  • Experiencia: Más de 5 años de experiencia en ingeniería de bases de datos, con al menos 3 años trabajando con PostgreSQL (preferiblemente AWS RDS Aurora PostgreSQL).
  • Experiencia en bases de datos: Amplio dominio de PostgreSQL, incluyendo optimización de consultas, replicación, particionamiento y configuraciones de alta disponibilidad.
  • Nube y AWS: Experiencia práctica con AWS RDS, Aurora, IAM, S3, Lambda y CloudWatch para gestión y automatización de bases de datos.
  • Scripting y automatización: Dominio de SQL, Bash o Terraform AWS CDK para automatización de bases de datos e infraestructura como código.
  • Seguridad y cumplimiento: Conocimiento en cifrado de bases de datos, control de accesos, auditoría y marcos de cumplimiento (GDPR, HIPAA, SOC 2, etc.).
  • Resolución de problemas: Habilidades avanzadas de diagnóstico y solución de problemas en entornos de bases de datos de alta disponibilidad.
  • Nivel de inglés intermedio avanzado o avanzado (B2 -C1)

Requisitos deseados

  • Experiencia con arquitecturas de lago de datos, transmisión en tiempo real o soluciones de almacenamiento de datos.
  • Certificaciones de AWS (ej. AWS Certified Database – Specialty, AWS Solutions Architect – Associate).

Beneficios

  • Seguro complementario de salud Metlife (Chile).
  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Computer provided Leniolabs_ provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
APPLY VIA WEB
Gross salary $1600 - 2500 Full time
Data Engineer
  • Brain Food
  • Ciudad de México (Hybrid)
MySQL SQL Oracle Python

Somos Brain Food, una consultora especializada en analítica, ciencia de datos, y transformación digital.

Trabajamos de la mano con grandes compañías de diversos rubros, nacionales e internacionales, en proyectos de alta complejidad. Contamos con un equipo heterogéneo de profesionales con vasta experiencia en diversas industrias, los cuales tienen distintos intereses y especialidades.

Nuestro objetivo es generar alto impacto en nuestros clientes, trabajando en equipo, con profesionalismo, ética, motivación, preparación y honestidad. Tenemos una cultura diferenciadora, con una propuesta de valor muy atractiva para el equipo y un lugar para trabajar extraordinario.

¿Cuáles serán tus funciones?

Serás parte del equipo de Data Engineers de Brain Food, liderado por el Head of Data Engineering y apoyado por un mentor que te será asignado para guiar y orientar tu desarrollo profesional. Como Data Engineer serás parte de distintos proyectos, para distintos clientes, y tendrás la responsabilidad de desarrollar proyectos de Big Data en los que deberás:

  • Diseñar una arquitectura de datos que cumpla la misión de ser puente entre la estrategia de negocios y la ejecución de la tecnología bajo los lineamientos de data governance de los clientes
  • Diseñar, mantener e implementar estructuras de almacenamiento de datos transaccionales y analíticos.
  • Extraer datos de diferentes fuentes y transferirlos a un entorno de almacén de datos.
  • Trabajar con grandes volúmenes de datos leídos de fuentes dispersas de información en la infraestructura tecnológica de una organización.
  • Procesar datos en ambientes de Big Data y posteriormente traducir los resultados emanantes en buenos diseños técnicos y datos consistentes
  • Revisar la integración consolidada de los datos, ya sea física o virtualmente, y describir cómo la interoperatividad de dichos datos capacitan para que múltiples sistemas se comuniquen

Los clientes en cuestión podrán variar de acuerdo al proyecto al que seas asignado

¿Cuáles son los requerimientos del cargo?

  • Experiencia demostrable con uno o mas servicios de GCP: BigQuery, BigTable, Cloud SQL, Cloud Storage; Cloud Composer, Data Fusion, Dataflow, Dataproc, Dataform; Docker-Kubernetes
  • Experiencia con una o mas de las siguientes bases de datos relacionales: sql server, oracle, postgres, db2, sqlite y/o mysql
  • Conocimientos avanzados de python y/o pyspark
  • Conocimientos de modelado de datos y experiencia en diseño e implementación de data warehouse, data lakes, data lakehouses
  • Experiencia trabajando bajo metodologías ágiles

Requisitos deseables pero no excluyentes

  • Conocimientos y/o experiencia con herramientas de BI como Looker, Power BI, Tableau
  • Conocimientos y/o experiencia con servicios de procesamiento y almacenamiento de datos de Azure o AWS

¿Qué ofrecemos?

  • Alta exposición y experiencia de trabajo: Constante interacción con clientes, alto nivel de exposición con cargos estratégicos de la contraparte, trabajando desde el primer día con grandes empresas en proyectos desafiantes de alta complejidad y muchas de ellas en Latinoamérica.
  • Trabajar no lo es todo: Para promover el descanso, ofrecemos 11 días libres adicionales al año.
  • Nunca se deja de aprender: Para mejorar como profesionales tenemos que estar en constante aprendizaje; contamos con un presupuesto anual por persona destinado a capacitaciones.
  • Plan de participación en el reparto de utilidades después del primer año.
  • Excelente ambiente laboral: Equipo joven y altamente cohesionado, con disposición, centrado en el apoyo entre equipos.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Computer provided Brain Food provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Brain Food gives you paid vacations over the legal minimum.
Beverages and snacks Brain Food offers beverages and snacks for free consumption.
APPLY VIA WEB
$$$ Full time
Microsoft Power BI Developer
  • Leniolabs_
SQL Power BI Azure Big Data

Leniolabs_ es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA.

Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.

Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.

Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Funciones del cargo

En Leniolabs estamos en la búsqueda de un SSR/SR Microsoft Power BI Developer.

El candidato ideal debe contar con un mínimo de 5 años de experiencia. Además de conocimientos y experiencia en informes analíticos, es fundamental que tenga experiencia en SQL, ya que en el proyecto deberá trabajar en reportes, realizar extracción y manejo de datos en SQL.

El rol implica colaborar estrechamente con arquitectos, ingenieros y propietarios de producto para diseñar soluciones técnicas que soporten altos niveles de disponibilidad y consistencia.

Buscamos perfiles con un compromiso claro con la excelencia técnica, la innovación y un interés genuino en las últimas tecnologías, capaces de trabajar en un entorno ágil y de alto rendimiento.

Requerimientos del cargo

  • Contar con aproximadamente 5 años de experiencia como Data Engineer.
  • Manejo de Power BI y SQL (Excluyente).
  • Experiencia con Synapse y Azure Data Factory.
  • Es deseable la experiencia con Data Lake y SAP SCM
  • Habilidad para crear documentación técnica.
  • Inglés avanzado.

Beneficios

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo,

Computer provided Leniolabs_ provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Leniolabs_ gives you paid vacations over the legal minimum.
APPLY VIA WEB
$$$ Full time
Gestor/a de proyecto WEB JUNIOR
  • Digital Talent Agency
  • Remoto 🌎
Full Time Drupal Wordpress Liferay

Detalles de la oferta

En Zemsania buscamos un/a Gestor/a de Proyectos Web Junior para unirse a nuestro equipo en un entorno remoto. Buscamos una persona apasionada por la tecnología web y con ganas de crecer profesionalmente. Si tienes experiencia en herramientas como Drupal, Wordpress, Liferay, y en el desarrollo y gestión de proyectos, esta es tu oportunidad.



RESPONSABILIDADES:


  • Implantación de sistemas (desde la compilación hasta la configuración y administración).
  • Gestión de entornos y herramientas de integración continua (Sonar, Testlink, Jenkins, JMeter, entre otros).
  • Diseño de arquitectura orientada a servicios.
  • Gestión de proyectos web.
  • Toma de requisitos y definición funcional y técnica de sistemas de información.
  • Atención a usuarios y análisis de incidencias.
  • Gestión y administración de bases de datos relacionales (Oracle, MySQL, ...).
  • Uso de herramientas de modelado para diseño de soluciones.
  • Gestión de tecnologías web (Drupal, Wordpress, Liferay o similares).
  • Soporte en plataformas basadas en contenedores Kubernetes, preferentemente RedHat OpenShift.
  • Apoyo en la gestión del desarrollo de software, especialmente en Java versión 11 o superior o PHP versión 5 o superior.
  • Soporte en el uso de aplicaciones web para gestión de proyectos (Redmine o similares).


REQUISITOS:


- Ingeniería Técnica, Diplomatura o Grado en Informática o en las restantes áreas de Ciencias, Tecnologías o Ciencias Sociales (o cualquier otra titulación superior a esa siempre que esté dentro de dichas áreas de conocimiento).

- Experiencia en las tecnologías y herramientas mencionadas.

- Conocimiento de plataformas web como Drupal, Wordpress, Liferay, etc.

- Familiaridad con contenedores y plataformas como Kubernetes (preferiblemente RedHat OpenShift).

- Conocimientos básicos de bases de datos relacionales (Oracle, MySQL, ...).

- Habilidades de gestión de proyectos y toma de requisitos.

- Capacidad para trabajar de forma autónoma y remota.

- Habilidades de comunicación y trabajo en equipo.



SE OFRECE:


  • Contrato estable.
  • Oportunidad de trabajar de forma remota.
  • Crecimiento profesional en un entorno dinámico y tecnológico.
  • Posibilidad de trabajar con herramientas y tecnologías de vanguardia.



Si eres una persona proactiva, con ganas de aprender y crecer, y cumples con los requisitos, ¡esperamos tu contacto!


En Zemsania, creemos en la igualdad de oportunidades y en la diversidad como valores fundamentales para el éxito de nuestra organización. Por ello, garantizamos un proceso de selección basado en el mérito y sin discriminación por motivos de género, edad, discapacidad, orientación sexual, raza, religión o cualquier otra condición personal o social


Salario

27000 - 33000 €/anuales

APPLY VIA WEB
$$$ Full time
Senior Data Engineer
  • Leniolabs_
SQL Python Azure CRM

Leniolabs_ es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA.

Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.

Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.

Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Funciones del cargo

Actualmente buscamos talentos especializados en desarrollo frontend, que quieran unirse al equipo de Leniolabs como Senior Data Engineer especializado en Azure para trabajar con uno de nuestros clientes más importantes que se encuentra ubicado en San Francisco. Buscamos personas con muchas ganas de aprender, de sumar y que tenga manejo de trabajo en equipo.

Se trabajará en el departamento de desarrollo de tecnología de la empresa.
El proyecto es con clientes en USA.

  • Diseño, construcción y optimización de pipelines de datos.
  • Se hablará directamente con el cliente.
  • Trabajo en equipo - liderazgo.
  • Será responsable de avanzar en los diferentes requerimientos del cliente, junto con el equipo.
  • Su trabajo consiste en hacer que las tareas se realicen utilizando todos los recursos disponibles (tangibles e intangibles).

Requerimientos del cargo

  • 6+ años de experiencia laboral en análisis de datos e ingeniería de datos - (indispensable)
  • Nivel de inglés avanzado - B2/C1 - (indispensable)
  • Experiencia en la construcción y mantenimiento de pipelines de datos robustos y eficientes.
  • Gestión de cargas y transformaciones de datos en Microsoft Fabric
  • Manejo de Python.
  • Experiencia en la gestión y optimización del almacenamiento de datos mediante Azure Data Lake Storage, Azure SQL Data Warehouse y Azure Cosmos DB.
  • Diseño e implementación de pipelines de procesamiento de datos escalables.
  • Habilidad para integrar datos y reportes desde otros sistemas como Salesforce.

Condiciones

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Internal talks Leniolabs_ offers space for internal talks or presentations during working hours.
Computer provided Leniolabs_ provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
Gross salary $2500 - 2800 Full time
Data Scientist
  • Niuro
SQL Python API Keras
At Niuro, we are dedicated to connecting cutting-edge projects with elite tech teams, collaborating closely with leading U.S. companies. Our mission revolves around simplifying global talent acquisition through innovative solutions that enhance efficiency and quality. As part of our team, you will engage in dynamic and challenging projects that are pivotal to our clients' success.
By providing autonomous, high-performance tech teams, we empower our professionals through continuous training in both technical and soft skills, along with leadership development. Our structure supports collaborative growth and excellence.

Responsibilities:

  • Design, develop, and evaluate machine learning and statistical models aimed at enhancing various business processes.
  • Analyze large datasets to derive insights and formulate data-driven strategies.
  • Deploy models into production utilizing tools such as TensorFlow, PyTorch, or Scikit-learn.
  • Create dashboards and reports via visualization tools like Tableau, Power BI, or Looker.
  • Collaborate with engineering teams to optimize data pipelines and model infrastructures.
  • Deliver findings and recommendations to non-technical stakeholders in a clear and concise manner.

Requirements:

  • 3-5 years of experience in data science, machine learning, and statistical analysis.
  • Proficiency in Python with solid knowledge of data science libraries including Pandas, Polars, Scikit-learn, TensorFlow, and PyTorch.
  • Experience with SQL and both relational and non-relational databases.
  • Knowledge of feature engineering, model selection, and cross-validation techniques.
  • Experience with Generative AI frameworks and libraries, such as Hugging Face Transformers and LangChain, alongside API usage and prompt engineering skills.
  • Able to visualize data with tools like Matplotlib, Seaborn, and Plotly.
  • Strong communication skills with a knack for data storytelling.
  • Intermediate to advanced English proficiency (written and spoken).

Nice-to-Haves:

  • Experience with cloud computing platforms such as AWS, GCP, or Azure.
  • Familiarity with real-time data processing using tools like Apache Kafka or Spark Streaming.
  • Working knowledge of deep learning frameworks.
  • Understanding of MLOps techniques for deploying models effectively.
  • Curiosity and enthusiasm for exploring the latest trends in Generative AI within the field of data analysis.

Salary & Benefits:

We offer a competitive salary ranging from $2,500 to $2,800 USD per month, depending on your experience. Our organization embraces a fully remote work environment, paired with flexible working hours to enhance your work-life balance.
At Niuro, you will find ample opportunities for professional development, along with access to training in advanced data analysis tools. Join us, and be part of a team that values continuous learning and growth!

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
APPLY VIA WEB
Gross salary $1500 - 2400 Full time
Data Engineer
  • Decision Point LATAM
  • Santiago &nbsp Ciudad de México (Hybrid)
MySQL SQL Python Virtualization

Decision Point offers an entrepreneurial environment and exposure to advanced analytics in the domain of sales and marketing. The team at Decision Point is very young, energetic, and highly skilled. Our team consists of talented business consultants, data scientists and engineers who are passionate about implementing analytics in real world business problems.

A career at Decision Point is rich in global experience and offers opportunities to build lasting relationships.

Job functions

  • Data Infrastructure Development: Design, build, and maintain scalable data infrastructure on Azure / AWS / GCP using PySpark for data processing to support various data initiatives and analytics needs within the organization
  • Data Pipeline Implementation: Design, develop and maintain scalable data pipelines to ingest, transform, and load data from various sources into cloud-based storage and analytics platforms using Python, PySpark, and SQL
  • Performance Optimization: - Optimize data processing workflows and cloud resources for efficiency and cost-effectiveness, leveraging PySpark's capabilities. - Implement data quality checks and monitoring to ensure the reliability and integrity of data pipelines.
  • Build and optimize data warehouse solutions for efficient storage and retrieval of large volumes of structured and unstructured data.

Qualifications and requirements

  • Data Governance and Security: Implement data governance policies and security controls to ensure compliance and protect sensitive information across Azure, AWS and GCP environments.
  • Collaboration and Support: Collaborate with cross-functional teams to understand data requirements and provide technical support for data-related initiatives and projects.
  • +1 year of experience as Data Engineer
  • Strong understanding of data modeling, ETL processes, and data warehousing concepts
  • Experience in SQL language and sound knowledge of Database administration like: Managing MySQL Server, MS SQL Server
  • Proficiency in Python related to Data Science (Pyspark) for developing data pipelines, ETL (Extract, Transform, Load) processes, and automation scripts.
  • English

Desirable skills

  • Proficiency in Microsoft Excel and hands-on experience on Excel VBA
  • Experience working with cloud platforms for deploying and managing scalable data infrastructure is a plus (Azure, GCP, AWS)
  • Experience working with Linux
  • Familiarity with working with numerous large data sets
  • Comfort in a fast-paced environment
  • Strong analytical skills with the ability to collect, organize, analyses, and disseminate significant amounts of information with attention to detail and accuracy
  • Excellent problem-solving skills
  • Strong interpersonal and communication skills for cross-functional teams
  • Proactive approach to continuous learning and skill development

Benefits

  • Hybrid 4x1 in CL and 3x2 in MX from the fourth month (4 days a week in office and 1 from home, in Mexico 3 days a week in office and 2 from home)
  • Lunch and Healthy Snacks (CL)
  • Complementary Health Insurance (CL)
  • 2 Days free per quarter of the year
  • 5 extra days of vacation

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Decision Point LATAM pays or copays health insurance for employees.
Computer provided Decision Point LATAM provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Decision Point LATAM gives you paid vacations over the legal minimum.
Beverages and snacks Decision Point LATAM offers beverages and snacks for free consumption.
APPLY VIA WEB
Gross salary $3000 - 3900 Full time
Senior Data Engineer
  • Apply Digital Latam
SQL Python Virtualization BigQuery
ABOUT APPLY DIGITAL
Apply Digital is a global digital transformation partner for change agents. Leveraging expertise that spans Business Transformation Strategy, Product Design & Development, Commerce, Platform Engineering, Data Intelligence, Change Management, and beyond, we enable our clients to modernize their organizations and deliver meaningful impact to the business and to their customers. Our 650+ team members have helped transform global companies like Kraft Heinz, NFL, Moderna, Lululemon, Games Workshop, Atlassian, and The Very Group. Visit applydigital.com to learn how we can unlock your company’s potential.
If you'd like to learn more about Apply Digital's culture click HERE.
LOCATION: Apply Digital is hybrid/remote-friendly. The preferred candidate should be based in Latin America, preferably working in hours that align to ET (Eastern Timezone) or PT (Pacific Timezone).

Responsibilities:

  • Design, build, and optimize ETL/ELT pipelines using Python and SQL
  • Develop and maintain data warehouse schemas and analytics solutions
  • Implement data models and ensure data quality, consistency, and integrity
  • Leverage cloud data platforms (e.g., AWS Athena, Databricks, Snowflake, Azure Synapse/Fabric, Google BigQuery) for storage, processing, and querying
  • Create and maintain optimal data pipeline architecture.
  • Collaborate with analysts and stakeholders to define requirements and deliver data solutions that meet business needs
  • Communicate with stakeholders to understand data requirements and develop solutions.
  • Design, develop, implement, and maintain data architectures and pipelines.
  • Optimize query performance and ensure efficient data workflowsDocument data pipelines, architectures, and processes
  • Continuously improve and refine existing data infrastructure and solution
  • Develop and implement best practices for data management, security, and privacy.

Requirements:

  • A Bachelor's degree in Computer Science, Information Systems, or a related field.
  • At least 5 years of experience in data engineering or related fields.
  • Strong expertise in SQL, ETL, and data warehousing technologies.
  • Strong working knowledge of Python and PySpark
  • Proven experience with at least one major cloud data platform (AWS Athena, Databricks, Snowflake, Azure Synapse/Fabric, or Google BigQuery)
  • Knowledge of data migration tools and techniques.
  • Good knowledge of databases.
  • Strong background in data warehouse design, ETL/ELT processes, and data modeling, ideally with modern data warehouse and DBT
  • Familiarity with cloud engineering concepts and best practices
  • Experience working with large datasets and optimizing performance
  • Excellent problem-solving skills and attention to detail
  • Outstanding communication skills in English, both written and verbal.

Nice-to-haves:

  • Knowledge of multiple cloud platforms (AWS, Azure, GCP) and their data services
  • Familiarity with data governance and compliance requirements
  • Knowledge of CI/CD practices for data engineering
  • Familiarity with Agile development methodologies
  • Experience with containerization (Docker, Kubernetes)

Conditions

Fully remote You can work from anywhere in the world.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Apply Digital Latam provides a computer for your work.
Vacation over legal Apply Digital Latam gives you paid vacations over the legal minimum.
Beverages and snacks Apply Digital Latam offers beverages and snacks for free consumption.
APPLY VIA WEB
$$$ Full time
▷ Busqueda Urgente: (MX) ANALISTA DE PROYECTOS CXT
  • CEMEX, Inc.
  • México - Remoto 🌎
Full Time Construcción analista SQL

📍 Modalidad: Remoto (México)
🕐 Tiempo completo | Nivel intermedio
📁 Área: Tecnología | Transporte | Gestión de Proyectos

🏢 Sobre la posición

En Cemex, una de las empresas líderes en soluciones de construcción a nivel global, estamos buscando un/a Analista de Proyectos Tecnológicos para sumarse al equipo de Cemex Transporte (CXT). Esta persona será responsable de administrar proyectos vinculados a la Driver App, dispositivos móviles, iniciativas paperless y su análisis operativo, colaborando estrechamente con distintas áreas para tomar decisiones basadas en datos.

🎯 Principales responsabilidades

  • Dar soporte técnico remoto a los equipos celulares del proyecto.
  • Gestionar inventarios de equipos, asegurando disponibilidad por base.
  • Configurar equipos móviles con MDM para uso controlado y seguro.
  • Generar reportes y dashboards a partir de datos de uso e implementación.
  • Desarrollar métricas de eficiencia, adopción y performance junto al CET.
  • Gestionar reposiciones y configuraciones de equipos con trazabilidad.
  • Diseñar imágenes y materiales de comunicación interna para el proyecto.
  • Crear presentaciones ejecutivas para reportes de avance a gerencias.
  • Liderar o participar en nuevas iniciativas tecnológicas y de automatización.

💡 Requisitos

Formación

  • Licenciatura en Ingeniería en Sistemas, Tecnologías de la Información o afín (concluida).

Experiencia

  • 1 a 2 años en gestión de datos o proyectos tecnológicos.

Conocimientos técnicos

  • SQL, Excel avanzado, programación básica.
  • Big Data Management.
  • Herramientas MDM (gestión de dispositivos móviles).

🧠 Competencias clave

  • Enfoque al cliente
  • Toma de decisiones efectiva
  • Habilidad de negociación
  • Resolución de problemas
  • Pensamiento estratégico y analítico
  • Organización y administración de procesos

🤝 Relación con otras áreas

  • Coordinadores Regionales, Jefes de Base y Gerentes Operativos.
  • Soporte Operativo, Administración, Seguridad y Mantenimiento.
  • Proveedores de herramientas digitales.
  • Centro de Eficiencia de Transporte (CET).

🌍 Diversidad e Inclusión en CEMEX

En Cemex valoramos la diversidad y promovemos la inclusión en todos nuestros procesos. Todas nuestras vacantes están abiertas sin distinción de género, edad, religión, orientación sexual, nacionalidad o discapacidad.

¿Te interesa ser parte de una empresa con impacto global y liderar proyectos que mejoran la eficiencia operativa? ¡Postúlate ahora y hacé crecer tu carrera en Cemex!

APPLY VIA WEB
$$$ Full time
Data Engineer SSR
  • Leniolabs_
SQL Azure Big Data Cloud Computing

Leniolabs_ es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA.

Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.

Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.

Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Funciones del cargo

Actualmente estamos en la búsqueda de un Data Engineer SSR, que se quiera unir a Leniolabs. Buscamos personas con muchas ganas de aprender, de sumar y que tenga buen manejo del trabajo en equipo.

Su trabajo consiste en hacer que las tareas se realicen utilizando todos los recursos disponibles (tangibles e intangibles) desarrollando la creación de tendencias de búsqueda en conjuntos de datos a través de la programación de algoritmos, en un proyecto de finanzas con alcance internacional para clientes de USA.

Se trabajará desempeñando un papel fundamental en el diseño e implementación de aplicaciones, se encargará de la integración con bases de datos, identificará y responderá a los problemas de calidad velando por el rendimiento de datos .

El proyecto es con clientes en USA, pero trabajarás con nuestros equipos en Leniolabs en conjunto a los del cliente. Será responsable de avanzar en los diferentes requerimientos del cliente, junto con su equipo.

Requerimientos del cargo

  • Más de 4 años de experiencia como Ingeniero de Datos.
  • Experiencia en Databricks (indispensable).
  • Experiencia en la gestión y optimización del almacenamiento de datos mediante Azure Data Lake Storage, Azure SQL Data Warehouse y Azure Cosmos DB.
  • Capacidad para realizar múltiples tareas, resolver problemas y administrar el tiempo de manera eficiente.
  • Orientado al trabajo en equipo y gran atención a los detalles.
  • Inglés intermedio o avanzado (indispensable).

Beneficios

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo

Internal talks Leniolabs_ offers space for internal talks or presentations during working hours.
Computer provided Leniolabs_ provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Data Engineer Soluciones de Datos
  • Lisit
  • Biobío, Santiago or Temuco (In-office)
SQL Python Scala Virtualization
En *Lisit*, nos dedicamos a crear, desarrollar e implementar servicios de software que ofrecen herramientas de automatización y optimización. Nuestra misión es promover la eficacia en la operatividad de nuestros clientes a través de un soporte consultivo que integra diversas herramientas y prácticas. Buscamos contribuir al éxito de las transformaciones empresariales mediante estrategias integrales de acompañamiento e implementación.

Que estamos buscando

  • Diseñar, desarrollar y mantener infraestructuras y pipelines de datos escalables y confiables.
  • Optimizar el almacenamiento, procesamiento y recuperación de datos para un funcionamiento eficiente e impecable.
  • Colaborar con equipos de diferentes departamentos para recopilar y analizar los requisitos de datos.
  • Garantizar la calidad, integridad y seguridad de los datos durante todo el ciclo de vida de estos.
  • Mantenerse actualizado sobre los últimos avances, desarrollos y enfoques en ingeniería de datos.

¿Qué habilidades y experiencia necesitas?

  • Fuertes habilidades analíticas y de resolución de problemas.
  • Al menos 3 años de experiencia en ingeniería de datos.
  • Experiencia comprobada en el diseño y desarrollo de data pipelines y procesos ETL, preferiblemente con Azure Data Factory.
  • Amplia experiencia en SQL y dominio de al menos un lenguaje de ingeniería de datos, como Python o Scala.
  • Experiencia con Spark, Airflow y tecnologías Big Data relacionadas.
  • Familiaridad con plataformas de datos basadas en la nube como AWS, Azure o GCP.
  • Excelentes habilidades de comunicación y colaboración.

Deseable

Se valorará la experiencia con herramientas de BI como Power BI y Microsoft Fabric. También es deseable contar con alguna de las siguientes certificaciones: DP-203, PL-300, DP-600 y/o DP-700.

Únete a nosotros

En *Lisit* ofrecemos un ambiente de trabajo innovador y colaborativo. Nos aseguramos de que nuestros empleados disfruten de un equilibrio entre trabajo y vida personal, con programas de capacitación y desarrollo continuo. Valoramos tu entusiasmo y pasión por la ingeniería de datos.

Estamos emocionados por conocer a personas con una mentalidad abierta y dispuestas a enfrentar nuevos desafíos. ¡Si estás listo para innovar y crecer con nosotros, te queremos en nuestro equipo!

En el caso de residir en Santiago, debe tener disponibilidad para viajar una o dos semanas a Los Angeles, región del BioBío

APPLY VIA WEB
$$$ Full time
Data Analyst
  • Lisit
  • Santiago or Los Ángeles (In-office)
SQL Oracle BigQuery ETL

En Lisit, nos dedicamos a crear, desarrollar e implementar servicios de software que ofrecen herramientas de automatización y optimización. Nuestra misión es promover la eficacia operativa de nuestros clientes a través de un acompañamiento consultivo, mediante el uso de diversas herramientas y prácticas. Estamos presentes en un sector en constante evolución, donde la innovación y la pasión por los desafíos son fundamentales. En este contexto, buscamos fortalecer nuestro equipo con un perfil especializado que pueda contribuir a un proyecto específico en el ámbito de Business Intelligence.

Funciones del cargo

  • Diseñar e implementar paneles e informes interactivos en Power BI.
  • Desarrollar modelos de datos, medidas y columnas DAX para optimizar los informes.
  • Escribir consultas SQL complejas y procedimientos para procesos ETL y manipulación de datos.
  • Diseñar y mantener flujos de trabajo eficientes para integrar, limpiar y transformar datos de diversas fuentes.
  • Optimizar consultas y asegurar un alto rendimiento en grandes volúmenes de datos.
  • Diseñar soluciones de almacenamiento de datos que respalden los requerimientos de BI.
  • Integrar datos de bases de datos, plataformas en la nube, APIs y archivos planos.
  • Colaborar de manera proactiva con el equipo de proyecto y las áreas de negocio, mostrando disposición y agilidad para alcanzar los objetivos.
  • Supervisar y optimizar el rendimiento de los informes de Power BI y sus modelos de datos.
  • Asegurar la precisión, integridad y confiabilidad de los datos en las plataformas de BI.

Requerimientos del cargo

  • 3 años experiencia en desarrollo de Business intelligence o ingeniería de datos.
  • Experiencia en desarrollar y construir soluciones utilizando Microsoft Power BI.
  • Amplia experiencia en desarrollos de modelos de datos, Power Query y DAX.
  • Experiencia trabajando en plataformas de bases de datos como Oracle, SQL Server o BigQuery.
  • Experiencia con herramientas ETL y procesos (Azure Data factory).
  • Conocimiento en diseño de almacenes de datos (Warehouses - esquemas estrella modelado dimensional).

Opcionales

  • Certificación PL-300
  • Conocimientos en herramientas de versionamiento de código como GIT
  • Conocimientos en Microsoft Fabric

Condiciones

  • No es requisito excluyente residir en Los Ángeles.
  • Puede residir en Santiago en modalidad 3x2 o 3x1 (flexible) que trabaje en las oficinas de Santiago Centro y al menos 1 semana al mes viajar al sur según la necesidad de las oficinas de los Ángeles.

APPLY VIA WEB
$$$ Full time
Consultor Data Analyst
  • Lisit
  • Santiago or Los Ángeles (In-office)
SQL Oracle BigQuery ETL
En Lisit, nos dedicamos a crear, desarrollar e implementar servicios de software que ofrecen herramientas de automatización y optimización. Nuestra misión es promover la eficacia operativa de nuestros clientes a través de un acompañamiento consultivo, mediante el uso de diversas herramientas y prácticas. Estamos presentes en un sector en constante evolución, donde la innovación y la pasión por los desafíos son fundamentales. En este contexto, buscamos fortalecer nuestro equipo con un perfil especializado que pueda contribuir a un proyecto específico en el ámbito de Business Intelligence.

Responsabilidades del Rol

  • Diseñar e implementar paneles e informes interactivos en Power BI.
  • Desarrollar modelos de datos, medidas y columnas DAX para optimizar los informes.
  • Escribir consultas SQL complejas y procedimientos para procesos ETL y manipulación de datos.
  • Diseñar y mantener flujos de trabajo eficientes para integrar, limpiar y transformar datos de diversas fuentes.
  • Optimizar consultas y asegurar un alto rendimiento en grandes volúmenes de datos.
  • Diseñar soluciones de almacenamiento de datos que respalden los requerimientos de BI.
  • Integrar datos de bases de datos, plataformas en la nube, APIs y archivos planos.
  • Colaborar de manera proactiva con el equipo de proyecto y las áreas de negocio para alcanzar los objetivos.
  • Supervisar y optimizar el rendimiento de los informes de Power BI y sus modelos de datos.
  • Asegurar la precisión, integridad y confiabilidad de los datos en las plataformas de BI.

Requisitos del Puesto

Buscamos a alguien con al menos 3 años de experiencia en desarrollo de Business Intelligence o ingeniería de datos, que tenga una sólida experiencia en el desarrollo y construcción de soluciones utilizando Microsoft Power BI. Es esencial poseer una amplia experiencia en el desarrollo de modelos de datos, así como un dominio de herramientas como Power Query y DAX. La experiencia en plataformas de bases de datos como Oracle, SQL Server o BigQuery, junto con conocimientos en herramientas ETL y procesos como Azure Data Factory, será fundamental. Además, se valorará el conocimiento en diseño de almacenes de datos (Warehouses - esquemas estrella con modelación dimensional).

Habilidades Deseables

Se considera un plus contar con la certificación PL-300 y tener experiencia en herramientas de versionamiento de código como GIT. También valoramos el conocimiento en Microsoft Fabric, que puede ser beneficioso para el desarrollo de este puesto.

Modalidad de trabajo

  • No es requisito excluyente residir en Los Ángeles.
  • Puede residir en Santiago en modalidad 3x2 o 3x1 (flexible) que trabaje en las oficinas de Santiago Centro y al menos 1 semana al mes viajar al sur según la necesidad de las oficinas de los Ángeles.

APPLY VIA WEB
Gross salary $1500 - 2500 Full time
Data Engineer
  • Guinea Mobile SAC (Cuy Móvil)
NoSQL Web server SQL Oracle

Guinea Mobile SAC (Guinea) es una startup de tecnología de telecomunicaciones latinoamericana, fundada en 2016 con sede en Lima, Perú. La empresa se basa en crear productos tecnológicos que faciliten la experiencia móvil.

Hoy cuenta con cuatro marcas de Operadores Móviles Virtuales: PeruSIM, Cuy Móvil, Inka Móvil y Wings Mobile, siendo uno de los principales OMVs del mercado.

Nuestra misión se centra en permitir que cualquier negocio o persona pueda tener su propia oferta móvil, democratizando el servicio móvil.

Se encuentra en la búsqueda de Data Engineer para conformar el equipo de TEC.

Funciones del cargo

  1. Diseño de Infraestructura de Datos Escalable: Crear sistemas robustos que soporten petabytes de datos con alta disponibilidad y rendimiento.
  2. Automatización de Procesos de Integración:
    • Diseñar y gestionar pipelines automatizados para integración y limpieza de datos.
  3. Colaboración con Analistas y Científicos de Datos: Proveer datasets limpios, modelados y fácilmente accesibles.
  4. Optimización de : Identificar cuellos de botella en flujos de datos y aplicar soluciones para mejorar tiempos de respuesta.
  5. Monitoreo de Flujos de Datos: Implementar herramientas de monitoreo y alertas para garantizar la calidad y consistencia de los datos en tiempo real.

Requerimientos del cargo

  • Procesamiento de Datos:
    • Experiencia en frameworks como Apache Spark, Hadoop o Google Dataflow para procesamiento en grandes volúmenes de datos.
    • Conocimiento avanzado de batch processing y stream processing.
  • Bases de Datos y Almacenamiento:
    • Manejo de bases de datos relacionales (Oracle, PostgreSQL o SQL Server ) y NoSQL (MongoDB, DynamoDB, Cassandra).
    • Experiencia en la configuración y gestión servicios data warehouses como Snowflake, Redshift o BigQuery.
  • ETL/ELT:
    • Experiencia en la construcción y optimización de pipelines de datos usando herramientas como Apache Airflow, dbt, Talend o Luigi.
  • Programación:
    • Dominio de lenguajes como Python, Scala o Java, enfocados en la manipulación de datos.
    • Habilidades en scripting para automatización y manejo de grandes datasets.
  • Cloud Computing:
    • Familiaridad con servicios de datos en la nube como AWS Glue, Azure Data Factory o Google Cloud Dataflow.
    • Conocimientos en almacenamiento y gestión de datos en la nube: Amazon S3, Google Cloud Storage o Azure Blob Storage.
  • Calidad y Seguridad de Datos:
    • Implementación de procesos de data profiling, limpieza y validación de datos.
    • Experiencia en garantizar el cumplimiento de normativas como GDPR, HIPAA o similares.
  • Optimización de Consultas y Modelado de Datos Dimensionales:
    • Diseño de modelos de datos eficientes para análisis y consumo.
    • Desarrollo y optimización de queries SQL (CTES, Joins, Subqueries, etc) y otras herramientas.
  • Detallista: Capacidad para identificar inconsistencias y garantizar la calidad de los datos.
  • Proactivo/a: Habilidad para anticipar problemas y proponer mejoras.
  • Colaborativo/a: Experiencia trabajando junto a equipos de analistas, desarrolladores o científicos de datos.
  • Enlace a repositorio en GitHub, GitLab o Bitbucket.
  • Certificaciones relevantes como Google Cloud Professional Data Engineer, AWS Certified Data Analytics, o similares.

APPLY VIA WEB
$$$ Full time
Analista Control Operaciones Siniestros Masivos
  • BNP Paribas Cardif
  • Santiago (Hybrid)
Excel SQL Power BI Data Visualization

¿Quieres ser parte de los líderes en la revolución de los seguros?
BNP Paribas Cardif está presente en más de 30 países en América, Europa y Asia, contamos con 25 años de trayectoria en Chile y nuestra misión es hacer los seguros más accesibles, justos y valiosos.

✅ Por nuestro ambiente laboral único, somos una organización centrada en el bienestar de las personas y nuestro espíritu Cardif está presente en la oficina y fuera de ella.
✅ Porque el deporte y sus valores son parte de nuestra cultura: la colaboración, la empatía y el respeto guían nuestro trabajo.
✅ Por la cercanía con nuestros líderes, somos una organización que cree en el talento y damos las oportunidades para desarrollarte y aprender juntos.
✅ Por nuestro modelo de trabajo mixto, teletrabajando tres días a la semana.
✅ Estamos comprometidos con el medio ambiente.
✅ Estamos comprometidos con la diversidad, equidad e inclusión, siendo ésta parte de nuestra cultura y estrategia de la compañía.

Funciones del cargo

Hoy BNP Paribas Cardif busca a unAnalista de Control de Operaciones de Siniestros Masivos que se sume al equipo de Siniestros (Gerencia de Operaciones). Donde tú misión será ser responsable de analizar, registrar y controlar la información de la liquidación tanto interna como externa, del área de Siniestros. Además, como parte de tu rol deberás tener control de los indicadores; cumplimientos SLA, extracción y análisis de datos requeridos para dar cumplimientos normativos. En este cargo responderás a los requerimientos y solicitudes levantadas por los socios designados, siendo así, la cara visible del área de Siniestros.

¿Cuáles son los principales desafíos del cargo?

• Analizar y responder los requerimientos de los socios.

• Generación de reportería e indicadores de socios designados.

• Generar herramientas de soporte al área de digitación-liquidación.

• Liderar comités de siniestros con socios, liquidador externo y clientes internos.

• Generar el control de la liquidación interna/externa (cumplimiento SLA, issues, entre otros).

• Ser expertos en las herramientas de siniestros (BOIS, Beneficios, Portal Liquidadores, entre otros).

• Participar en levantamientos de proyectos relacionadas con siniestros socios.

• Actualización de procedimientos del área.

• Asegurar la correcta configuración de los productos asociados al proceso de siniestros.

• Extracción y análisis base de datos (SQL / PLSQ).

• Apoyo y participación en funciones que sean necesarias de ejecutar, velando por el control y mejora de los procesos de la gerencia de siniestros.

Requerimientos del cargo

¿Cómo saber si hago match con esta vacante? Buscamos a alguien que:

Requisitos:

- Formación en Ingeniero de control de gestión, ingeniero industrial, carreras afín.

- 1 año de experiencia laboral en cargos similiares en rubro de Seguro (no excluyente).

Conocimientos:

- Herramientas Microsoft office, nivel avanzado (Excel, Word, PPT).

- Nivel Intermedio de Power BI y SQL.

¿Te sumas a la revolución de la industria del seguro?

Esperamos tu postulación ¡seguro y con todo!

“Todas las contrataciones están sujetas a la ley 21015. En BNP Paribas Cardif creemos en lugares de trabajos inclusivos y diversos, donde todas las personas son bienvenidas. En caso de necesitar adaptaciones para ser parte de nuestro proceso de selección, favor comunicarlo en la sección de preguntas”.

APPLY VIA WEB
$$$ Full time
Analista de Datos en GCP
  • BC Tecnología
  • Santiago (Hybrid)
SQL BigQuery Big Data Google Cloud Platform
En BC Tecnología, somos una consultora de TI que se especializa en la transformación y análisis de datos. Dentro de un entorno innovador y en constante crecimiento, nuestros equipos de trabajo construyen soluciones avanzadas para clientes de servicios financieros, seguros, retail y gobierno. Contamos con seis años de experiencia diseñando soluciones a medida, basadas en las necesidades de nuestros clientes, utilizando metodologías ágiles y un enfoque en resultados.
Buscamos un profesional que desee ser parte de un equipo donde se valoran el bienestar y el crecimiento profesional. Trabajamos en el diseño y mantenimiento de canalizaciones de datos utilizando herramientas como BigQuery y DBT en Google Cloud Platform.

¿Qué harás en este rol?

  • Diseñar y mantener canalizaciones de datos en BigQuery utilizando DBT, garantizando flujos eficientes y automatizados.
  • Implementar tareas programadas en Google Cloud Platform (GCP) para la ingesta y procesamiento continuo de datos, asegurando procesos ágiles y escalables.
  • Construir y documentar modelos de datos optimizados para análisis, impulsando decisiones basadas en datos de alto impacto.
  • Validar y probar la precisión de los datos transformados para asegurar la calidad y exactitud de la información.
  • Realizar seguimiento de cambios en modelos y transformaciones, manteniendo eficacia y consistencia a lo largo del tiempo.

¿Qué buscamos en ti?

  • Experiencia avanzada con BigQuery y DBT.
  • Conocimiento práctico en Google Cloud Platform (GCP), incluyendo tareas programadas y almacenamiento.
  • Sólidas habilidades en SQL y modelado de datos.
  • Capacidad para documentar de manera clara y eficiente los procesos, así como realizar pruebas rigurosas para garantizar la precisión de los datos.

Ofrecemos

  • Contrato inicial de 3 meses con posibilidades de conversión a indefinido.
  • Modalidad híbrida, que permite trabajo remoto y en oficina de 2 a 3 días a la semana.
  • Beneficios adicionales a convenir para asegurar el bienestar de nuestros empleados. 😊
En BC Tecnología, fomentamos un entorno laboral flexible y colaborativo, promoviendo activamente el desarrollo del talento a través de capacitación continua. ¡Esperamos tu interés y que te unas a nuestro equipo!

Relocation offered If you are moving in from another country, BC Tecnología helps you with your relocation.
Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB
Gross salary $1500 - 2000 Full time
Analista de Datos
  • coderslab.io
  • Santiago (Hybrid)
SQL BigQuery Big Data Data Analysis
En CodersLab actualmente nos encontramos apuntando al crecimiento de nuestros equipos de manera global con el objetivo de posicionarnos con nuestros productos en más países de Latinoamérica, es por ello que estamos en búsqueda de un ANALISTA DE PROCESAMIENTO DE DATOS quien deberá ser una persona motivada y orientada al cumplimiento de objetivos.
Te sumarás a un equipo desafiante y ambicioso con ganas de renovar el mercado, por lo que tus propuestas serán de mucho valor para el negocio.
¡Postula para este tremendo desafío!

Funciones del cargo

  1. Utilización de BigQuery:
    • Realizar análisis de datos, ingesta y procesamiento continuo mediante tareas programadas en GCP utilizando BigQuery.
  2. Transformación de Datos:
    • Aplicar técnicas de transformación de datos utilizando DBT (Data Build Tool) para asegurar que los datos sean precisos y estén listos para su análisis.
  3. Pruebas de Precisión de Datos:
    • Testear la precisión y validez de los datos, asegurando que se cumplan los estándares de calidad antes de su utilización.
  4. Seguimiento de Cambios:
    • Realizar un seguimiento de los cambios en los datos y actualizar la documentación correspondiente para mantener un registro claro y comprensible.
  5. Construcción de Modelos de Datos:
    • Diseñar y construir modelos de datos adecuados que soporten las necesidades del negocio y faciliten el análisis.
  6. Escritura de Código de Transformación:
    • Escribir y validar código para la transformación de datos, garantizando que sea eficiente y escalable.
  7. Implementación y Documentación:
    • Implementar mejoras en los procesos de datos y documentar todos los procedimientos que se lleven a cabo, facilitando la comprensión y el uso por parte de otros equipos.

Requerimientos del cargo

  • BigQuery:
    • Experiencia en el uso de BigQuery para el manejo y análisis de grandes volúmenes de datos.
  • DBT (Data Build Tool):
    • Conocimiento y experiencia en DBT para modelar, transformar y documentar datos.
  • Lenguajes de Programación:
    • Familiaridad con SQL y posiblemente con otros lenguajes relacionados con el procesamiento de datos.
  • Análisis de Datos:
    • Capacidad para analizar datos, identificar patrones y tendencias, y ofrecer recomendaciones basadas en los hallazgos.
  • Atención al Detalle:
    • Fuerte atención al detalle y habilidades analíticas para asegurar la precisión de los datos.
  • Comunicación:
    • Habilidades de comunicación efectivas, tanto escritas como verbales, para colaborar con otros equipos y presentar resultados de manera clara.

Competencias Personales:
  • Habilidad para trabajar en un ambiente dinámico y bajo presión.
  • Capacidad de trabajo en equipo y colaboración interdepartamental.
  • Flexibilidad y adaptabilidad a cambios en proyectos y prioridades.

APPLY VIA WEB
$$$ Full time
Arquitecto de Datos
  • Agrosuper
  • Rancagua (In-office)
SQL Azure Cloud Computing English
En Agrosuper, somos un equipo comprometido con llevar alimentos de la más alta calidad a las mesas de las familias de Chile y del mundo. Con más de 13,000 colaboradores, cada uno de nosotros desempeña un papel crucial en la misión de la empresa. Buscamos un Arquitecto de Datos que esté dispuesto a asumir la responsabilidad de construir y definir arquitecturas de datos dentro de un entorno empresarial. Esta posición es fundamental para implementar capacidades analíticas y permitir decisiones informadas que impacten positivamente en el negocio.

Funciones del Cargo

Como Arquitecto de Datos, tus principales responsabilidades incluirán:
  • Definir y establecer la arquitectura unificada de datos para el negocio.
  • Desarrollar procedimientos y proyectos relacionados con los datos.
  • Colaborar con profesionales de TI, Data Science, y otras áreas para implementar soluciones que optimicen la gestión de datos.
  • Asegurarte de que se cumplan los estándares de calidad y seguridad de los datos, además de garantizar que los procesos asociados sean eficientes.
  • Establecer KPIs claros, como la habilitación de procesos en el Catálogo de datos y la reducción de costos en comparación con el año anterior.

Descripción del Cargo

Buscamos un profesional con los siguientes requisitos y características:
  • Título de Ingeniero Informático o carrera afín.
  • Al menos 2 años de experiencia laboral en roles relacionados con arquitecturas de datos.
  • Dominio de SQL (excluyente) y herramientas como SAP (deseable).
  • Manejo intermedio a avanzado de Azure (excluyente).
  • Inglés a nivel básico/intermedio (excluyente).

Cualidades Deseables

Se valoran habilidades adicionales que podrían diferenciar a los candidatos:
  • Experiencia previa trabajando en transformaciones digitales dentro de empresas grandes.
  • Certificaciones en herramientas de manipulación de datos o arquitectura de datos.
  • Conocimientos sobre la gestión de datos en entornos de nube.

Beneficios de Trabajar en Agrosuper

En Agrosuper, creemos en el crecimiento y desarrollo de nuestro equipo. Por ello, ofrecemos:
  • Planes de crecimiento y desarrollo profesional.
  • Capacitaciones y becas de estudios para impulsar tu formación.
  • Convenios con diversas instituciones y bonificaciones asociadas al rendimiento.
Además, estamos comprometidos con la inclusión, promoviendo un ambiente de trabajo diverso y que abra las puertas a talentos con discapacidad. ¡Ven a ser parte de nuestro equipo y disfruta de los beneficios de trabajar en una empresa que valora y desarrolla a su gente! 🌱

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Meals provided Agrosuper provides free lunch and/or other kinds of meals.
Dental insurance Agrosuper pays or copays dental insurance for employees.
Free car parking You can park your car for free at the premises.
Computer provided Agrosuper provides a computer for your work.
Performance bonus Extra compensation is offered upon meeting performance goals.
APPLY VIA WEB
Gross salary $2200 - 2500 Full time
Data Analyst Business Intelligence
  • Abre Clau
SQL Python Power BI Tableau
En Clau, estamos revolucionando la manera en que se venden y compran casas en México mediante la aplicación de tecnologías y rigurosas investigaciones de datos. Como parte del equipo de Data Science y Analytics en Clau.com, participarás en la construcción y refinamiento de herramientas y técnicas de datos. Tu trabajo como Data Analyst - Business Intelligence será clave para la evolución de organizaciones impulsadas por datos, facilitando procesos que extraen y utilizan esa información de maneras creativas. Disfrutarás al ver tus insights transformarse en productos reales que impulsan el crecimiento y la eficiencia de Clau.com.

Responsabilidades

Como Data Analyst - Business Intelligence, asumirás las siguientes responsabilidades:
  • Desarrollar y gestionar soluciones de Business Intelligence y creación de KPIs.
  • Mantener actualizados los modelos de dbt y adaptarlos a nuevos sistemas y requisitos de negocio.
  • Identificar oportunidades para mejorar procesos y estrategias a través de soluciones tecnológicas.
  • Reconocer necesidades analíticas para optimizar y agilizar operaciones.
  • Diseñar, construir y desplegar soluciones de BI.
  • Colaborar con diferentes áreas de la empresa para crear dashboards, informes, consultas, etc., facilitando una comprensión clara de las métricas pasadas y presentes, y tomando decisiones informadas para la mejora del rendimiento empresarial.
  • Apoyar al equipo de Data Science en el mantenimiento de productos de datos existentes.

Requisitos

Buscamos un candidato con más de 2 años de experiencia en el área de Business Intelligence, que posea un título de licenciatura en Ciencias de la Computación, Estadísticas, Informática, Sistemas de Información u otro campo cuantitativo. Además, el candidato debe tener experiencia con las siguientes herramientas y tecnologías:
  • Comprensión excelente de conceptos estadísticos.
  • Dominio y amplia experiencia en SQL.
  • Proficiencia y experiencia en el uso de dbt.
  • Programación numérica y manipulación de datos con Python.
  • Diseño de dashboards utilizando herramientas como Metabase, Tableau, Power BI, Superset, entre otras.
  • Experiencia en la provisión de insights a diferentes partes interesadas.
  • Experiencia en proyectos reales de Data Science.

Deseable

Aunque no es un requisito, sería ideal que el candidato posea:
  • Excelentes habilidades de comunicación verbal y escrita.
  • Pensamiento creativo y habilidades excepcionales para la resolución de problemas.
  • Experiencia previa en el ecosistema PropTech.
  • Conocimiento o experiencia previa trabajando con datos geográficos.

Beneficios

En Clau, ofrecemos un esquema de trabajo flexible que se adapta a tus necesidades. Disfrutarás de 15 días de vacaciones desde el primer año, así como de permisos familiares. Proporcionamos un entorno de trabajo robusto y un equipo de alto rendimiento. Además, respetamos los feriados de tu país, asegurando que equilibres el trabajo con tus compromisos personales.

APPLY VIA WEB
$$$ Full time
Data Technical Lead
  • BC Tecnología
  • Santiago (Hybrid)
SQL Python Scala Scrum
En BC Tecnología, somos una consultora de TI reconocida por nuestra experiencia en diversas áreas tecnológicas. Nos especializamos en la creación de equipos de trabajo ágiles para el desarrollo de proyectos en infraestructura tecnológica, desarrollo de software, y unidades de negocio, operando principalmente en sectores como servicios financieros, seguros, retail y gobierno.
Desde hace más de seis años, nos dedicamos a diseñar soluciones personalizadas según las necesidades de nuestros clientes, mediante un enfoque claro en el cliente, metodologías ágiles, y un compromiso con el desarrollo de productos que aporten valor. Nuestro portafolio incluye:
  • Consultoría y diseño de soluciones
  • Formación de equipos de trabajo y outsourcing
  • Desarrollo y ejecución de proyectos
  • Servicios de soporte y administración IT
Fomentamos un ambiente laboral colaborativo y flexible, así como el crecimiento profesional continuo.

Funciones del rol

Como Data Technical Lead, su objetivo principal será liderar equipos en la construcción de soluciones de datos sólidas mientras asegura la entrega de proyectos alineados a metodologías ágiles y estándares de calidad. Las responsabilidades incluirán:
  • Diseño y desarrollo de pipelines de datos eficientes.
  • Supervisión de la implementación de herramientas modernas de arquitectura de datos.
  • Fomento del uso de prácticas CI/CD y gestión del versionamiento de código.
  • Liderazgo efectivo de equipos técnicos, asegurando una comunicación clara y una colaboración continua.
  • Implementación de metodologías ágiles como Scrum y Kanban en los equipos.

Descripción del puesto

Buscamos un Data Technical Lead con más de 4 años de experiencia en el diseño y construcción de pipelines de datos. Debe tener un dominio avanzado de Python, Scala y SQL. Se espera que el candidato tenga experiencia con herramientas de arquitecturas de datos modernas como Airflow y Mage, así como conocimientos avanzados en CI/CD. Es vital que el candidato haya liderado equipos técnicos previamente y esté familiarizado con la implementación de metodologías ágiles como Scrum y Kanban.
Además, buscamos a alguien que cuente con habilidades de comunicación eficaz, pensamiento crítico y que esté orientado a la resolución de problemas. La capacidad para trabajar en un entorno cambiante y colaborativo es esencial.

Habilidades deseables

Si bien estamos enfocados en las habilidades mencionadas, será un plus contar con conocimientos adicionales en:
  • Herramientas de visualización de datos (como Tableau o Power BI).
  • Implementación de soluciones de Machine Learning.
  • Conocimientos en seguridad de datos y cumplimiento de normativas.

Beneficios que ofrecemos

En BC Tecnología ofrecemos una modalidad de trabajo híbrida que permite combinar trabajo remoto y en oficina, de 2 a 3 días por semana. El contrato inicial será por un proyecto de 3 meses con posibilidad de extensión a indefinido. Adicionalmente, garantizamos un entorno laboral flexible y colaborativo, fomentando el bienestar de nuestros empleados mediante beneficios acordes a convenir. 😊 Siempre priorizamos el crecimiento profesional y la capacitación continua, por lo que estamos emocionados de recibir tu interés para unirte a nosotros y crecer juntos en esta aventura emocionante.

APPLY VIA WEB
Gross salary $2000 - 2300 Full time
Data Engineer
  • BC Tecnología
  • Santiago (Hybrid)
SQL Python Scala Git
En BC Tecnología, somos una consultora de TI especializada en el desarrollo de soluciones a medida para diferentes sectores, incluyendo servicios financieros, seguros, retail y gobierno. A lo largo de los últimos seis años, hemos creado equipos ágiles para abordar las necesidades de nuestros clientes. Ahora, buscamos un Data Engineer talentoso para diseñar y mantener nuestros pipelines de datos, utilizando tecnologías modernas que transforman, almacenan y procesan grandes volúmenes de información.

Descripción del Rol:

El Data Engineer será fundamental para nuestras operaciones, siendo responsable de:
  • Diseñar y construir pipelines de datos eficientes que faciliten el movimiento y la transformación de datos.
  • Asegurar que los procesos de datos sean consistentes y confiables a lo largo del tiempo.
  • Implementar flujos de trabajo de CI/CD que permitan la incorporación efectiva hacia los entornos de desarrollo y producción.
  • Colaborar con el equipo para mejorar constantemente la calidad y eficiencia de los procesos de datos.
  • Asesorarse con líderes técnicos sobre lineamientos y mejores prácticas en el desarrollo.

Requisitos:

  • 0 a 2 años de experiencia en diseño y construcción de pipelines de datos.
  • Dominio de lenguajes de programación como Python o Scala, así como SQL.
  • Experiencia con herramientas de orquestación de pipelines como Airflow, Mage, NiFi o similares.
  • Conocimientos básicos en CI/CD (Git) y flujos de trabajo de versionamiento de código.
  • Familiaridad con arquitecturas de datos como Datalakes, Datawarehouses o Lakehouse es deseable.
  • Conocimientos en técnicas de modelación de datos (dimensional, estrella, copo de nieve, etc.) son también deseables.

Deseable:

Se valorarán habilidades adicionales que puedan enriquecer nuestro equipo, como experiencia en metodologías ágiles y un enfoque proactivo en la resolución de problemas. Buscamos a alguien que esté entusiasmado por aprender y crecer en un ambiente colaborativo, con ganas de enfrentar nuevos desafíos en el mundo de los datos.

Beneficios:

En BC Tecnología, ofrecemos un entorno laboral flexible y colaborativo que incluye:
  • Contrato inicial de 3 meses con posibilidad de conversión a indefinido.
  • Modalidad híbrida que permite combinar trabajo remoto y en oficina, de 2 a 3 días a la semana.
  • Beneficios adicionales acordes a convenir, garantizando el bienestar de nuestros empleados. 😊
Fomentamos el crecimiento profesional y la capacitación continua, siempre enfocados en el desarrollo del talento. ¡Esperamos tu interés para unirte a nuestra emocionante aventura!

APPLY VIA WEB
Gross salary $1800 - 2000 Full time
Data Engineer GCP
  • BC Tecnología
SQL Scrum Jira Google Cloud Platform
En *BC Tecnología*, somos una consultora de TI que se especializa en servicios innovadores y en la creación de soluciones tecnológicas personalizadas para nuestros clientes. Con más de 6 años de experiencia, trabajamos en diversas áreas, incluyendo el desarrollo de software y la integración de sistemas, principalmente en sectores como finanzas, seguros y retail.
Buscamos expandir nuestro equipo con un Data Engineer apasionado por la tecnología que se una a nuestro departamento dedicado a crear soluciones analíticas y resistentes para nuestros clientes, aprovechando todo el potencial de Google Cloud Platform.

Funciones del Cargo

Como Data Engineer en *BC Tecnología*, serás responsable de:
  • Diseñar e implementar modelos de datos analíticos y relacionales.
  • Integrar software y herramientas necesarias para optimizar procesos de datos.
  • Colaborar con equipos utilizando metodologías ágiles como Scrum y Kanban.
  • Contribuir a la mejora continua de los sistemas y procesos de análisis de datos.
  • Utilizar herramientas de CI/CD para un manejo eficiente del código y la integración de aplicaciones.

Descripción del Cargo

Estamos buscando una persona con pasión por la tecnología y la innovación. Deberás contar con habilidades sólidas en:
  • Modelos de datos analíticos y relacionales.
  • Lenguajes de programación como SQL y PySpark.
  • Desarrollo e integración de software.
  • Manejo de metodologías ágiles (Scrum, Kanban).
  • Experiencia con herramientas de CI/CD, específicamente GitLab.
Además, deberás ser capaz de trabajar con bases de datos basadas en SQL y PySpark, gestionando los progresos a través de JIRA y tener conocimientos avanzados en ofimática.

Habilidades Deseables

Estos son algunos conocimientos que serían un plus para el puesto:
  • Experiencia previa en proyectos de análisis de datos en Google Cloud Platform.
  • Conocimiento en herramientas de visualización de datos.
  • Capacidad de trabajar en entornos dinámicos y adaptarse rápidamente a cambios en los proyectos.

Beneficios de Trabajar con Nosotros

En *BC Tecnología*, ofrecemos un entorno de trabajo innovador y colaborativo, donde se fomenta el crecimiento profesional y el desarrollo de habilidades. Ofrecemos:
  • Oportunidades de capacitación continua y desarrollo profesional.
  • Participación en proyectos interesantes que impactan en grandes sectores.
Estamos emocionados por encontrar a alguien que comparta nuestra visión y se una a nuestro equipo. ¡Esperamos tu interés!

Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB
$2200 - 2300 Full time
Data Engineer (GCP)
  • BC Tecnología
  • Santiago (Hybrid)
SQL Python BigQuery Big Data

En esta posición, te unirás a un equipo de expertos en análisis de datos dentro de BC Tecnología, una consultora de TI que se especializa en la gestión de proyectos y servicios IT para diversos sectores, incluyendo servicios financieros, seguros, retail y gobierno. Nuestro enfoque se centra en brindar soluciones efectivas y de alta calidad a nuestros clientes, utilizando metodologías ágiles para adaptarnos rápidamente a sus necesidades.

El equipo al que te incorporarás trabaja directamente con nuestros clientes del sector bancario para mejorar la toma de decisiones a través del análisis avanzado de datos. Como Data Engineer, tu rol será crucial para optimizar procesos de datos y proporcionar insights que ayuden a impulsar la eficiencia y alcanzar los objetivos estratégicos de nuestros clientes.

Funciones del Rol

Como Data Engineer (GCP), tus principales responsabilidades incluirán:

  • Diseñar e implementar procesos de ingesta y modelamiento de datos en GCP.
  • Desarrollar y optimizar flujos de trabajo de datos (ETLs) utilizando las herramientas de GCP.
  • Mantener y mejorar pipelines de datos en BigQuery.
  • Implementar funciones en Cloud Functions para la automatización de procesos.
  • Gestionar la orquestación de tareas mediante Airflow.
  • Colaborar en proyectos utilizando herramientas de versionamiento como GitLab.
  • Crear y documentar soluciones de modelamiento de datos con herramientas como DBT.
  • Asegurar la calidad y escalabilidad de los modelos y pipelines de datos.

Descripción del Perfil

Buscamos un profesional con la siguiente experiencia y habilidades:

  • Experiencia en GCP: Uso de productos clave como BigQuery, Cloud Functions, Cloud Storage y Airflow.
  • Conocimientos avanzados en SQL y Python: Capacidad para desarrollar consultas complejas y automatizar procesos.
  • Gestión de versionamiento: Experiencia práctica con sistemas de control de versiones como GitLab, Bitbucket o GitHub.

Además, se valorará la habilidad para trabajar en equipo y realizar adaptaciones en un entorno de trabajo en evolución constante.

Habilidades Deseables

Aunque no son requisitos obligatorios, son valoradas las siguientes competencias:

  • Experiencia previa en la implementación de soluciones de almacenamiento de datos en la nube.
  • Capacidades de comunicación efectiva y trabajo colaborativo.
  • Experiencia en entornos ágil y retador.

Beneficios Ofrecidos

Condiciones:

  • -Contrato por proyecto estimado a 3 meses con posibilidad de extensión
  • -Metodología de trabajo: Hibrido a demanda (promedió 2 a 3 días a la semana / Santiago Centro)
  • -Disponibilidad lunes a viernes
  • -Salario a convenir
  • -Beneficios (Seguro Complementario, Amipass $4.500 por día laborado, convenios, actividades, bonos)

APPLY VIA WEB
Gross salary $2300 - 2400 Full time
Data Analyst
  • BC Tecnología
  • Santiago (Hybrid)
SQL Python BigQuery Big Data
En esta posición, te unirás a un equipo de expertos en análisis de datos dentro de BC Tecnología, una consultora de TI que se especializa en la gestión de proyectos y servicios IT para diversos sectores, incluyendo servicios financieros, seguros, retail y gobierno. Nuestro enfoque se centra en brindar soluciones efectivas y de alta calidad a nuestros clientes, utilizando metodologías ágiles para adaptarnos rápidamente a sus necesidades.
El equipo al que te incorporarás trabaja directamente con nuestros clientes del sector bancario para mejorar la toma de decisiones a través del análisis avanzado de datos. Como Data Analyst, tu rol será crucial para optimizar procesos de datos y proporcionar insights que ayuden a impulsar la eficiencia y alcanzar los objetivos estratégicos de nuestros clientes.

Funciones

  • Levantar, analizar y documentar procesos de datos para optimizar flujos y estructuras.
  • Gestionar y modelar datos en Google BigQuery.
  • Implementar funciones automáticas utilizando Google Cloud Functions.
  • Administrar almacenamiento de datos en Google Cloud Storage.
  • Utilizar DBT para transformación de datos y desarrollo de modelos analíticos.
  • Realizar consultas complejas mediante SQL Avanzado.
  • Automatizar tareas y análisis de datos con Python.
  • Trabajar con herramientas de control de versiones como GitLab, Bitbucket o GitHub.

Descripción

Buscamos un Data Analyst con las siguientes habilidades y experiencia:
  • Capacidad para levantar y optimizar procesos de datos.
  • Sólido conocimiento de Google Cloud Platform, especialmente en BigQuery, Cloud Functions y Cloud Storage.
  • Experiencia con DBT para modelos analíticos.
  • Dominio de SQL avanzado y lenguaje Python para automatización.
  • Habilidad para manejar herramientas de versionado de código.

Deseable

Sería ideal contar con experiencia previa en trabajos similares y tener habilidades en la utilización de otras plataformas de análisis de datos.

Beneficios

  • Contrato de proyecto de 4 meses con posibilidad de extensión.
  • Modalidad de trabajo 100% remoto.
  • Disponibilidad requerida a tiempo completo de lunes a viernes.
  • Beneficios adicionales como seguro complementario, Amipass de $4.500 por día laborado, convenios y actividades especiales.

APPLY VIA WEB
$$$ Full time
Data Scientist
  • Brain Food
  • Bogotá &nbsp Ciudad de México &nbsp Lima (Hybrid)
SQL Analytics Python ETL
Somos Brain Food, una consultora especializada en analítica, ciencia de datos, y transformación digital.
Trabajamos de la mano con grandes compañías de diversos rubros, nacionales e internacionales, en proyectos de alta complejidad. Contamos con un equipo heterogéneo de profesionales con vasta experiencia en diversas industrias, los cuales tienen distintos intereses y especialidades.
Nuestro objetivo es generar alto impacto en nuestros clientes, trabajando en equipo, con profesionalismo, ética, motivación, preparación y honestidad. Tenemos una cultura diferenciadora, con una propuesta de valor muy atractiva para el equipo y un lugar para trabajar extraordinario.

Funciones del cargo

Estará a cargo de las siguientes funciones:
  • Análisis de Datos: recolectar, limpiar y organizar grandes volúmenes de datos provenientes de diversas fuentes, como bases de datos, archivos planos, API, entre otros. Aplicar técnicas de análisis exploratorio para comprender la estructura y características de los datos
  • Modelado Predictivo: desarrollar modelos predictivos utilizando técnicas avanzadas de aprendizaje automático y estadística para predecir tendencias, identificar patrones y realizar pronósticos precisos
  • Optimización de Algoritmos: optimizar algoritmos y modelos existentes para mejorar la precisión, eficiencia y escalabilidad, ajustando parámetros y explorando nuevas técnicas
  • Visualización de datos: crear visualizaciones claras y significativas para comunicar los hallazgos y resultados al cliente, de manera efectiva
  • Comunicación: comunicar los resultados efectivamente, contando una historia para facilitar la comprensión de los hallazgos y la toma de decisiones por parte del cliente
  • Desarrollo Herramientas Analíticas: diseñar y desarrollar herramientas analíticas personalizadas y sistemas de soporte para la toma de decisiones basadas en datos, utilizando lenguaje de programación como Python, R o SQL
  • Trabajo colaborativo: colaborar con equipos multidisciplinarios para abordar problemas complejos y proporcionar soluciones integrales al cliente
  • Participar en proyectos asegurando la calidad de los entregables y el cumplimiento de plazos establecidos
  • Investigar y mantenerse actualizado en análisis de datos, inteligencia artificial y metodologías para mejorar las capacidades analíticas, adquiriendo rápidamente conocimientos sobre diversas industrias y herramientas específicas
  • · Apoyar en el desarrollo de propuestas internas para potenciales clientes, aportando con los conocimientos adquiridos en proyectos

Requerimientos del cargo

  • Formación en Ingeniería Civil Industrial/Matemática/Computación, Física, Estadística, carreras afines, o conocimientos demostrables en analítica avanzada
  • Experiencia laboral de 1 a 2 años
  • Manejo de Python, SQL y Git
  • Conocimiento de bases de datos relacionales
  • Conocimiento de:
    • Procesamiento de datos (ETL)
    • Machine Learning
    • Feature engineering, reducción de dimensiones
    • Estadística y analítica avanzada

Deseable

Experiencia con:
  • Herramientas de BI (Power BI o Tableau)
  • Servicios cloud (Azure, AWS, GCP)
  • Conocimiento de bases de datos no relacionales (ej: Mongo DB)
  • Conocimiento de forecasting y costumer analytics
  • Conocimiento en optimización

¿Qué te ofrecemos?

  • Alta exposición y experiencia de trabajo: Constante interacción con clientes, alto nivel de exposición con cargos estratégicos de la contraparte, trabajando desde el primer día con grandes empresas en proyectos desafiantes de alta complejidad y muchas de ellas en Latinoamérica.
  • Flexibilidad en la vestimenta.
  • Flexibilidad en la asistencia a la oficina.
  • Para mejorar como profesionales contamos con un presupuesto anual por persona destinado a capacitaciones.
  • Tenemos un plan de participación en el reparto de utilidades de la empresa después de un determinado tiempo.
  • Excelente ambiente laboral: Equipo joven y altamente cohesionado, centrado en el apoyo entre equipos.

Partially remote You can work from your home some days a week.
Computer provided Brain Food provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Brain Food gives you paid vacations over the legal minimum.
APPLY VIA WEB
$$$ Full time
Collection Analyst
  • Alegra
  • Remoto 🌎
Full Time liderazgo Responsabilidad inglés

✨ ¿Te apasiona la analítica, los dashboards y la optimización de procesos?

¡Este reto en Alegra es para ti!

🧭 Tu misión en Alegra

Serás responsable de asegurar el recaudo eficiente y contribuir a los objetivos de la empresa, garantizando la fiabilidad y disponibilidad de la información. Además, te encargarás de diseñar, auditar y optimizar modelos y reportes que faciliten la toma de decisiones estratégicas.

🚀 Retos que asumirás:

  • Diseñar y optimizar modelos y reportes para conciliación y auditoría.
  • Auditar los procesos de Collection, garantizando su precisión y eficiencia.
  • Mejorar y automatizar dashboards para facilitar la toma de decisiones.
  • Colaborar con el equipo de data para asegurar datos confiables y actualizados.
  • Realizar análisis detallados de calidad para identificar puntos críticos y oportunidades de mejora.
  • Elaborar informes con visión estratégica, comprendiendo el origen e impacto de los datos.

🎓 Lo que buscamos en ti:

  • Profesional en Ingeniería Industrial, Administración o afines.
  • Gran capacidad de monitoreo, auditoría y control de información.
  • Habilidades lógicas, numéricas y matemáticas.
  • Manejo avanzado de G Suite (especialmente Google Sheets).
  • Experiencia con herramientas BI (Quicksight, Power BI, otros).
  • Conocimientos en SQL.

🌟 Sería un plus si:

  • Tienes experiencia en empresas SaaS o entornos digitales.
  • Te interesa y manejás herramientas de automatización y análisis.

🧡 Lo que Alegra tiene para ti:

  • 💻 Trabajo 100% remoto y una relación laboral estable y a largo plazo (¡no freelance!).
  • 📈 Plan de carrera y crecimiento profesional.
  • 📚 Acceso a plataformas educativas, capacitaciones y certificaciones.
  • 🧘‍♀️ Programas de bienestar, clases de yoga, sesiones de coaching y charlas de calidad de vida.
  • 🎉 Medio día libre en tu cumpleaños y cena especial con quienes más querés.
  • 💼 Apoyo económico para mejorar tu espacio de trabajo.
  • 💬 Clases de inglés y espacios para socializar con colegas de toda LATAM y España.

🌍 Diversidad en Alegra

En Alegra valoramos y promovemos la diversidad e inclusión en todas sus formas. Si necesitás ajustes en cualquier etapa del proceso o querés indicarnos tus pronombres, no dudes en hacerlo.

🕒 ¿Cómo es el proceso de selección?

  • Duración estimada: 2 a 4 semanas desde tu primera charla.
  • Recibirás feedback en cada etapa (revisá tu bandeja de entrada, spam o promociones).
  • ¿Problemas durante el proceso? ¡Escribinos! Estamos acá para ayudarte.

💡 Pasa de tener homework a hacer lovework.
¡Vayamos a otro nivel en Alegra! 🙌

APPLY VIA WEB
$$$ Full time
▷ [Urgente] (MX) ANALISTA DE PROYECTOS CXT
  • CEMEX, Inc.
  • CEMEX - Remoto 🌎
Full Time supervisar Programación Tableros

Analista de Proyectos – Cemex Transporte

Ubicación: México (Remoto y/o presencial según proyecto)
Empresa: CEMEX

¿Te apasionan la tecnología, los datos y la mejora continua? ¡Esta posición es para vos! En CEMEX, buscamos un/a Analista de Proyectos CXT para liderar y dar soporte a proyectos tecnológicos dentro del área de Cemex Transporte, como Driver App, paperless y otras soluciones móviles.

🎯 Objetivo del puesto

Administrar y optimizar proyectos tecnológicos del área, gestionando equipos celulares, plataformas MDM, reportes operativos y colaborando con múltiples áreas para la toma de decisiones estratégicas.

🛠️ Responsabilidades clave

  • Brindar soporte técnico remoto a equipos celulares en las bases operativas.
  • Controlar inventarios de equipos móviles y asegurar su disponibilidad.
  • Configurar equipos con plataforma MDM y asegurar buenas prácticas.
  • Generar reportes e indicadores sobre uso, adopción y eficiencia del Driver App.
  • Coordinar reposiciones de equipos y llevar trazabilidad de inventario.
  • Diseñar presentaciones ejecutivas y piezas visuales para comunicación interna.
  • Participar activamente en iniciativas de automatización y mejora continua.

🧩 Requisitos

Formación académica:

  • Licenciatura o Ingeniería en Sistemas o carreras afines (concluida).

Experiencia:

  • 1 a 2 años en análisis de datos o roles similares en tecnología o proyectos.

Conocimientos técnicos:

  • SQL
  • Programación (lenguajes informáticos)
  • Excel avanzado
  • Big Data Management

💡 Habilidades y competencias clave

  • Enfoque al cliente
  • Toma de decisiones oportuna
  • Capacidad de negociación
  • Resolución de problemas
  • Administración de procesos
  • Pensamiento estratégico y astucia comercial

🤝 Relaciones clave

Internas:

  • Coordinadores regionales, jefes de base, gerentes y directores.
  • Soporte operativo, staff de seguridad, administración y mantenimiento.
  • CET (Centro de Eficiencia de Transporte).

Externas:

  • Proveedores de herramientas digitales (evaluación y mejora de plataformas e indicadores operativos).

🌍 Diversidad e Inclusión en CEMEX

En CEMEX promovemos una cultura de equidad, inclusión y respeto. Nos enorgullece ser una empresa donde todos los talentos tienen la oportunidad de crecer sin distinción de género, edad, orientación sexual, cultura, nacionalidad o cualquier otra característica personal.

🟢 Si querés ser parte de una compañía global, innovadora y con impacto real en el negocio y la sociedad, ¡postulate y sumate a CEMEX!

APPLY VIA WEB
$$$ Full time
Business Analytics Specialist
  • Alegra
  • 🇦🇷 Argentina - Remoto 🌎
Full Time Talento R Economía

📍 Ubicación: 100% Remoto
💼 Modalidad: Relación laboral estable (No freelance)
📆 Tipo de Contrato: Tiempo completo
📊 Sector: Análisis de Datos, Estrategia y Business Intelligence

Tu Misión en Alegra 🚀

Serás responsable de impulsar la toma de decisiones estratégicas en Alegra a través del análisis de datos, identificando oportunidades clave y proporcionando insights accionables para los equipos de negocio, producto, ventas y marketing.

Acompañar a los líderes de negocio en la detección de oportunidades estratégicas basadas en datos.
Analizar y modelar métricas clave como churn, retención y cohortes de usuarios para guiar decisiones críticas.
Monitorear tendencias y anomalías para anticiparse a riesgos y oportunidades.
Diseñar y perfeccionar dashboards en herramientas de BI para proporcionar insights relevantes.
Explicar de forma sencilla los hallazgos y recomendaciones en reuniones estratégicas.
Colaborar con equipos de Producto, Ventas y Marketing para definir y alinear métricas de negocio.

¿Qué buscamos en ti?

Profesional en Economía, Ingeniería Industrial, Administración, Estadística, Finanzas o afines.
Mínimo 3 años de experiencia en análisis de negocio.
Dominio avanzado de Excel / Google Sheets.
Conocimientos intermedios de SQL.
Experiencia con herramientas de BI (Looker, Tableau, Power BI, Google Data Studio, Metabase).
Conocimientos básicos de estadística y pruebas A/B.
Nivel de inglés mínimo B2.

🎯 Es un plus si tienes:
✔ Experiencia en Python o R para análisis exploratorio.
✔ Conocimientos en Finanzas y modelos de negocio SaaS.
✔ Experiencia en Growth y estrategias de Marketing Digital.

¿Qué te ofrece Alegra?

🎯 Trabajo 100% remoto. Trabaja desde donde quieras.
📈 Plan de carrera con oportunidades de crecimiento y formación.
🏆 Relación laboral estable y a largo plazo.
🌎 Equipo multicultural con oportunidades de networking global.
📚 Acceso a plataformas de formación, certificaciones y capacitaciones.
🏥 Cobertura en salud y 2 días adicionales de cuidado al año.
💻 Apoyo económico para mejorar tu espacio de trabajo.
🎂 Cena especial y medio día libre por tu cumpleaños.
💡 Charlas de bienestar, coaching y desarrollo personal.

Proceso de Selección 📩

Duración: 2 a 4 semanas.
📩 Si no recibes respuesta, revisa tu bandeja de entrada, spam y promociones.
📆 Si tienes inconvenientes en el proceso, contáctanos.

Si te apasiona el análisis de datos y quieres impactar en la toma de decisiones estratégicas de una empresa en crecimiento, esta es tu oportunidad! ¡Postula ahora y sé parte del equipo Alegra! 🚀

APPLY VIA WEB
$$$ Full time
Seguridad en Redes
  • UBroApps SA de CV
  • México - Remoto 🌎
Full Time datos administración Cisco
Experiencia: 7 años en administración de redes. -Conocimiento de administración e implementación de controles de seguridad de servicios Windows 2012, 2016, 2019 y 2022. -Conocimiento de administración e implementación de controles de seguridad en Windows 10, Windows 11, Mac OSX. -Conocimiento de administración e implementación de controles de seguridad en base de datos SQL Server 2016,2019, 2022. -Conocimiento de administración e implementación de controles de seguridad en VMWare. -Conocimiento de administración e implementación de controles de seguridad Microsoft Active Directory. -Conocimiento de administración e implementación de Microsoft Terminal Server. -Conocimiento en Cortex, WAF, Radware, hacer hardening, Switch Cisco. -Con Experiencia en Directorio Activo. Inglés intermedio Ubicación: Remoto (100%) Salario: $28,000 - $29,000 MXN mensuales
APPLY VIA WEB
$$$ Full time
Consultor Senior Oracle FDI/OTBI -Colaboración porproyecto
  • DaCodes
  • Remoto 🌎
Full Time Analysis UX/UI office

Consultor Senior Oracle FDI/OTBI (Remoto)

📌 Descripción
En DaCodes, somos una firma de expertos en software y transformación digital con más de 10 años de experiencia creando soluciones innovadoras. Nuestro equipo de más de 220 DaCoders incluye desarrolladores, arquitectos, diseñadores UX/UI, PMs y QA testers que trabajan en proyectos para clientes en LATAM y Estados Unidos.

Estamos en búsqueda de un Consultor Senior Oracle FDI/OTBI con experiencia en el desarrollo de dashboards y reportes de inteligencia de negocios.

🎯 Responsabilidades

  • Diseño y desarrollo de dashboards y reportes personalizados utilizando Oracle Fusion Data Intelligence (FDI) y Oracle Business Intelligence (OTBI).
  • Modelado de datos y creación de estructuras dimensionales para optimizar el rendimiento de los reportes.
  • Análisis de requerimientos, trabajando junto al coordinador de FDI para traducir necesidades del negocio en soluciones técnicas.
  • Optimización del rendimiento, identificando y resolviendo cuellos de botella en los reportes.
  • Documentación técnica detallada de las soluciones implementadas.
  • Mentoría y guía a otros miembros del equipo en el uso de herramientas de Oracle BI.

📌 Requisitos

  • Experiencia mínima de 5 años en desarrollo de dashboards y reportes con Oracle FDI y OTBI.
  • Conocimientos avanzados en SQL, ETL, OLAP y modelado dimensional.
  • Experiencia con herramientas de BI como OBIEE, Answers y Analysis.
  • Conocimiento de metodologías ágiles y ciclo de vida del desarrollo de datos.
  • Excelentes habilidades de comunicación y capacidad para trabajar en equipo.

💡 Beneficios

  • Trabajo remoto / Home office.
  • Integración con marcas globales y startups disruptivas.
  • Horario flexible, ajustado a la zona horaria del cliente asignado.
  • Contratación por servicios profesionales.
  • Días festivos oficiales según la célula de trabajo.
  • Vacaciones disponibles después de 6 meses.
  • Día libre en tu cumpleaños.
  • Eventos virtuales de integración y grupos de interés.
  • Meetups con expertos de IT y universidades de prestigio.
  • Feedback y seguimiento de performance.
  • Acceso a cursos, certificaciones y clases de inglés.
  • Oportunidades de crecimiento en diversas líneas de negocio.

🚀 Si cumples con los requisitos y te apasiona la inteligencia de negocios, queremos conocerte!

APPLY VIA WEB
$$$ Full time
Collection Analyst
  • Alegra
  • 🇨🇴 Colombia - Remoto 🌎
Full Time Talento Clases Conciliación

Especialista en Análisis y Gestión de Recaudo | 100% Remoto 📊💡

📍 Ubicación: Remoto
💰 Compensación: A convenir
📆 Modalidad: Tiempo completo

Sobre el Rol

Buscamos un Especialista en Análisis y Gestión de Recaudo con habilidades analíticas y experiencia en monitoreo y auditoría de información financiera. El objetivo principal del rol es asegurar la fiabilidad, disponibilidad y optimización del proceso de recaudo, a través de la generación de dashboards y reportes que faciliten la toma de decisiones estratégicas.

💼 Responsabilidades

📌 Gestión y Auditoría de Información

  • Garantizar la eficiencia en la gestión de recaudo, asegurando la precisión y disponibilidad de la información.
  • Diseñar y optimizar modelos de auditoría, conciliación y análisis de datos.
  • Auditar los procesos de Collection, asegurando su precisión y eficiencia.
  • Identificar y medir puntos críticos, proponiendo mejoras estratégicas para optimizar el revenue de la empresa.

📌 Análisis de Datos y Reportería

  • Desarrollar y mejorar dashboards y reportes automatizados para facilitar el control del proceso de recaudo.
  • Realizar análisis detallados sobre el comportamiento de ingresos y recaudo.
  • Elaborar informes estratégicos que ayuden a la toma de decisiones.

📌 Colaboración Interdepartamental

  • Trabajar en conjunto con el equipo de Data para garantizar la integridad y disponibilidad de la información.
  • Colaborar con diversas áreas para mejorar continuamente los procesos internos.

Requisitos

Profesional en Ingeniería Industrial, Administración o afines.
✅ Experiencia en monitoreo, auditoría y control de datos financieros.
✅ Habilidades lógicas, numéricas y analíticas.
Manejo avanzado de G Suite (especialmente Sheets).
✅ Conocimientos en herramientas BI (Quicksight, PowerBI, entre otros).
✅ Conocimientos en SQL para análisis de datos.

📌 Es un plus si…
➕ Has trabajado en empresas SaaS o entornos digitales.

🎁 Beneficios
100% remoto 🏡
✔ Relación laboral estable y a largo plazo (no freelance).
Plan de carrera para crecimiento profesional.
✔ Espacios de socialización y networking con equipos multiculturales.
✔ Acceso a plataformas educativas, certificaciones y capacitaciones.
Cobertura de salud y dos días de cuidado adicionales a las vacaciones.
Apoyo económico para mejorar tu espacio de trabajo.
Clases de inglés y coaching para potenciar tu crecimiento.
✔ Un ambiente de trabajo inclusivo y diverso 🌍.

Si tienes habilidades analíticas y pasión por la optimización de procesos financieros, ¡esperamos tu postulación! 🚀

APPLY VIA WEB
$$$ Full time
Data Scientist - Fashion Brand
  • LATAM.jobs
  • 📍Colombia - Remoto 🌎
Full Time Machine Learning SQL Python

📢 Data Scientist - Fashion Industry (100% Remoto)


📍 Ubicación: Remoto

💼 Industria: Moda | E-commerce | Data Science

💰 Compensación: Competitiva

Experiencia: +5 años en Data Science o Analítica de Datos


🌍 Sobre la Posición


Buscamos un Data Scientist apasionado por la moda y el e-commerce, capaz de transformar datos en estrategias comerciales impactantes. Serás responsable de gestionar pipelines de datos, desarrollar modelos predictivos y crear visualizaciones dinámicas, impulsando la toma de decisiones basadas en datos en toda la organización.


📋 Responsabilidades


Gestión de pipelines de datos: Liderar la recolección e integración de datos desde bases de datos, APIs y herramientas externas, garantizando su calidad y confiabilidad.

Exploración y análisis profundo: Descubrir patrones predictivos y oportunidades estratégicas a través del análisis exploratorio de datos.

Desarrollo de modelos avanzados: Diseñar y desplegar modelos de Machine Learning y algoritmos predictivos para optimizar procesos y mejorar la toma de decisiones.

Visualización y comunicación: Crear dashboards interactivos y visualizaciones dinámicas en Looker, Tableau o herramientas similares para traducir hallazgos en insights accionables para stakeholders.

Liderazgo en estrategia data-driven: Gestionar proyectos analíticos de principio a fin, proporcionando recomendaciones clave para el crecimiento del negocio.

Colaboración interdisciplinaria: Trabajar de la mano con equipos técnicos y no técnicos para implementar soluciones basadas en datos y alinear estrategias.

Innovación y mejora continua: Investigar y aplicar nuevas metodologías y tecnologías para fortalecer la capacidad analítica de la empresa.


📌 Requisitos


+5 años de experiencia en Data Science, analítica de datos o un campo relacionado.

Dominio de SQL y Python, con experiencia demostrable en la construcción de soluciones y modelos de datos.

Fuerte habilidad en herramientas de visualización de datos (Looker, Tableau, Power BI o similares).

Conocimiento avanzado en estadística, modelado predictivo y aplicaciones de Machine Learning.

Capacidad para gestionar proyectos analíticos complejos desde la conceptualización hasta la implementación.

Habilidades de resolución de problemas y pensamiento estratégico, con capacidad para traducir insights en decisiones comerciales.

Excelentes habilidades de comunicación y presentación, para interactuar con audiencias técnicas y no técnicas.

Pasión por la industria de la moda o el e-commerce (deseable).


🏆 Beneficios


🌍 Trabajo 100% remoto, con total flexibilidad de ubicación.

🚀 Oportunidad de impactar un sector dinámico e innovador en la industria de la moda.

📈 Liderazgo en proyectos estratégicos con impacto real en el negocio.

📚 Cultura de aprendizaje continuo, con acceso a nuevas tecnologías y metodologías analíticas.


📩 Si eres un Data Scientist con pasión por la moda y el análisis de datos, postúlate ahora y únete a este emocionante desafío! 🚀

4o

APPLY VIA WEB
$$$ Full time
Business Intelligence Engineer - 100% Remoto
  • LATAM.jobs
  • Remoto 🌎
Full Time Snowflake BigQuery o Redshift

📍 Ubicación: Remoto


🕒 Horario: 40 horas semanales en horario EST (Eastern Standard Time)

💼 Industria: Retail Security | AI | Business Intelligence

💰 Compensación: Salario competitivo + Beneficios


🌍 Sobre Panoptyc


Panoptyc está revolucionando la prevención de pérdidas en retail con inteligencia visual AI y revisión manual, ayudando a más de 15,000 mercados en EE.UU. a detectar robos. Somos una empresa 100% remota, en crecimiento acelerado, y buscamos a los mejores talentos del mundo para transformar la seguridad en retail.


📋 Descripción del Rol


Buscamos un Business Intelligence Engineer que diseñe, desarrolle y optimice la infraestructura de datos en esta fase de alto crecimiento. Tu misión será construir pipelines de datos escalables, automatizar procesos y optimizar modelos de datos, colaborando con equipos multifuncionales para impulsar iniciativas estratégicas basadas en datos.


🎯 Responsabilidades:


Arquitectar y desarrollar pipelines de datos eficientes.

Implementar y automatizar procesos de ingesta y transformación de datos.

Optimizar modelos de datos y mejorar el rendimiento de consultas a gran escala.

Desarrollar soluciones BI escalables, apoyando la toma de decisiones estratégicas.

Colaborar con equipos técnicos y de negocio para alinear soluciones de datos con objetivos empresariales.

Monitorear y solucionar problemas de calidad de datos en tiempo real.

Evaluar y mejorar infraestructuras de datos existentes, asegurando su escalabilidad.


📌 Requisitos:


+3 años de experiencia en Data Engineering o Business Intelligence Development.

Dominio de Python y SQL para procesamiento de datos.

Experiencia en desarrollo ETL y herramientas de orquestación de pipelines.

Optimización de modelos de datos y consultas a gran escala.

Familiaridad con cloud data warehouses como Snowflake, BigQuery o Redshift.

Conocimientos en modelado dimensional y estrategias de modelado de datos.

Habilidades de resolución de problemas y troubleshooting avanzado.

Capacidad de trabajo autónomo en un entorno remoto y dinámico.

Excelentes habilidades de comunicación en inglés para interactuar con equipos técnicos y no técnicos.

Disponibilidad para trabajar en horario EST (Eastern Standard Time).


🏆 Beneficios:


🌍 Trabajo 100% remoto en un equipo dinámico y global.

💰 Salario competitivo y beneficios.

🚀 Oportunidad de trabajar con tecnologías de vanguardia en data & AI.

📈 Ser parte de una empresa en crecimiento que está redefiniendo la seguridad en retail.


📩 Si eres un experto en datos con habilidades en BI y te apasiona la optimización de infraestructuras de datos, postúlate ahora y únete a Panoptyc! 🚀

APPLY VIA WEB
$$$ Full time
Business Analyst
  • ICONSTRUYE
  • Santiago (Hybrid)
Excel SQL UML Jira

En ICONSTRUYE, hemos estado a la vanguardia de la tecnología en la construcción durante más de 20 años. Nuestra robusta plataforma tecnológica es un testimonio de nuestra experiencia y compromiso con la industria. Con más de 4,000 clientes en Chile, Colombia y Perú, nos enorgullecemos de proporcionar soluciones integrales que simplifican la cadena de abastecimiento.

Funciones

Tu misión:

  • Serás responsable de comprender las necesidades de la organización e identificar soluciones a los problemas comerciales.
  • Trabajarás como intermediario entre las distintas partes interesadas, como la gerencia, los equipos de TI y los usuarios finales, para garantizar que los objetivos comerciales se alineen con las capacidades técnicas.
Tus funciones principales:

  • Recopilar, analizar y documentar las necesidades del negocio en colaboración con los stakeholders en el formato de requerimientos (historias de usuario, casos de uso, entre otros).
  • Identificar y diagramar procesos de negocio existentes y proponer mejoras o soluciones eficientes.
  • Actuar como puente entre los stakeholders de negocio y el equipo técnico, asegurando la correcta interpretación de los requisitos.
  • Realizar análisis de viabilidad, impacto y costos de posibles soluciones tecnológicas o de procesos.
  • Monitorear y adaptar las especificaciones del proyecto en función de cambios en las prioridades o necesidades del negocio.
  • Diseñar casos de prueba, ejecutar pruebas funcionales y validar que las soluciones entregadas cumplan con los requisitos definidos.
  • Preparar reportes, diagramas y presentaciones que respalden las decisiones estratégicas del equipo y los stakeholders.

Requerimientos:

  • Conocimientos técnicos: Experiencia con herramientas como BPMN, UML o diagramas de flujo para mapear y analizar procesos organizacionales.
  • Dominio en técnicas de recopilación, análisis, documentación y priorización de requisitos funcionales y no funcionales.
  • Experiencia con Notion, Jira, Confluence o similares para gestión de proyectos y documentación de requisitos.
  • Conocimiento en Excel, SQL y herramientas de BI.
  • Deseables: Capacidad para realizar estudios de viabilidad, ROI y análisis financiero en proyectos. Familiaridad con conceptos de arquitectura de sistemas, APIs y desarrollo de software. Capacidad para realizar pruebas funcionales, casos de uso y validación de soluciones frente a los requisitos iniciales.

Beneficios

  • 🌴5 días extras de descanso.
  • 🍔Tarjeta amipass para ser utilizada en restaurant, delivery y supermercados.
  • 👨‍⚕️Seguro complementario de Salud, Dental y de Vida.
  • 🏠Modalidad de trabajo híbrido.
  • 📠Flexibilidad con permisos relacionados con trámites y/o asuntos familiares
  • 👩‍👦En época de vacaciones de invierno y de verano (receso de escolares) los viernes se trabaja medio día.
  • 🎂Tarde libre el día de tu cumpleaños.

Health coverage ICONSTRUYE pays or copays health insurance for employees.
Dental insurance ICONSTRUYE pays or copays dental insurance for employees.
Computer provided ICONSTRUYE provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal ICONSTRUYE gives you paid vacations over the legal minimum.
Beverages and snacks ICONSTRUYE offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Practicante de data
  • ManpowerGroup
  • Remoto 🌎
Full Time datos bi SQL

🚀 Join Us as a Data Intern!

Are you a student eager to learn about data automation and how data-driven decisions shape businesses? This is your opportunity! We’re looking for a Data Intern to support data collection, analysis, and optimization.

Your Responsibilities:

✅ Collect and integrate data into databases (Excel/Google Sheets).
✅ Maintain and update dashboards and reports.
✅ Clean and validate data to ensure quality and accuracy.
✅ Identify opportunities for improvement in data management.
✅ Collaborate with different teams to optimize data usage.

What You Need to Apply:

🎓 Student in Mathematics, Statistics, Engineering, Systems, Economics, or related fields.
📊 Intermediate skills in Excel/Google Sheets (formulas, pivot tables).
💾 Basic knowledge of SQL and tools like Tableau, Power BI (preferred).
🐍 Knowledge of Python or R (a plus).
🔍 Strong attention to detail and ability to work with structured data.

What We Offer:

🌎 100% Remote Work.
📚 Continuous learning opportunities in Data Analytics.
🤝 A collaborative and dynamic work environment.
💰 Salary: $5,224.23 - $6,000.00 MXN/month.
🕒 Schedule: Full-time, Monday to Friday (8-hour shifts).

APPLY VIA WEB
$$$ Full time
Collection Analyst
  • Alegra
  • Remoto 🌎
Full Time C disponibilidad Alegra

Analista de Recaudo y Auditoría de Información - 100% Remoto

📌 Ubicación: 100% Remoto
📌 Modalidad: Contrato a largo plazo (no freelance)

¿Eres una persona analítica, curiosa y apasionada por los datos? 🚀

Si disfrutas asegurando la fiabilidad y disponibilidad de la información para optimizar procesos financieros y contribuir a los objetivos de una empresa en crecimiento, ¡este reto es para ti!

Tu misión en Alegra:

Como parte del equipo, serás responsable de:

✔️ Asegurar el correcto recaudo y gestión de la información, garantizando que los datos sean precisos y accesibles.
✔️ Monitorear, auditar y conciliar información, manteniendo un control detallado sobre los procesos financieros.
✔️ Diseñar y optimizar modelos y reportes, proporcionando datos clave para la toma de decisiones estratégicas.
✔️ Auditar procesos de Collection, asegurando su precisión y eficiencia.
✔️ Automatizar reportes y dashboards, mejorando continuamente la visualización de datos.
✔️ Colaborar con el equipo de Data, garantizando la fiabilidad y mejora continua de la información.
✔️ Realizar análisis detallados y de calidad, identificando oportunidades para optimizar el revenue de la empresa.

¿Qué esperamos de ti?

📌 Profesional en Ingeniería Industrial, Administración o afines.
📌 Habilidad para monitorear y auditar información detalladamente.
📌 Sólidas competencias en análisis lógico, numérico y matemático.
📌 Experiencia avanzada en G Suite (principalmente Google Sheets).
📌 Manejo de herramientas BI como Quicksight, Power BI u otras.
📌 Conocimientos en SQL.

✨ Es un plus si…
✅ Tienes experiencia en empresas SaaS o entornos digitales.

Beneficios de ser parte de Alegra:

🎯 Trabajo 100% remoto, haciendo lo que amas desde cualquier lugar.
🚀 Contrato estable y a largo plazo.
📚 Plan de carrera con oportunidades de crecimiento y aprendizaje continuo.
🌍 Equipo multicultural con el que compartirás experiencias y conocimientos.
📖 Acceso a cursos, certificaciones y una biblioteca virtual.
❤️ Cuidado de tu bienestar: Cobertura de salud y dos días adicionales de descanso al año.
🎂 Día libre y cena especial por tu cumpleaños.
🎓 Clases de inglés y coaching para potenciar tu desarrollo profesional.

Sobre Alegra 🌟

Somos una empresa 100% remota con más de 450 personas en nuestro equipo, revolucionando la gestión financiera de las Pymes en 12 países de Latinoamérica y España.

Apostamos por la diversidad e inclusión, creando un entorno donde todas las personas tienen un lugar, sin importar su identidad de género, orientación sexual, origen étnico, religión, edad o discapacidad.

¿Cómo es el proceso de selección?

📅 Duración: 2 a 4 semanas. Nos tomamos el tiempo necesario para conocer bien a cada candidato.
📩 No recibiste respuesta? Revisa tu bandeja de entrada, spam o promociones. Si no tienes novedades, contáctanos.
¿Tienes inconvenientes en alguna etapa del proceso? Escríbenos y con gusto te ayudamos.

¡Únete a Alegra y lleva tu talento al siguiente nivel! 🚀

Postula ahora y sé parte de un equipo que transforma la gestión financiera en LATAM y España. 🎉

APPLY VIA WEB
$$$ Full time
QA Automation
  • 2BRAINS
  • Remoto 🌎
Full Time SysAdmin DevOps QA

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.


En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.


El perfil QA Automation de 2Brains

Buscamos un especialista en automatización, capaz de manejar herramientas que permitan la grabación de casos de prueba y que pueda personalizar estos flujos a través de la programación. No buscamos un analista de pruebas que solo realice pruebas funcionales, buscamos a alguien que domine el desarrollo y pueda contribuir a nuestro equipo automatizando los flujos en diferentes herramientas.


¿Qué conocimientos buscamos en el/la QA Automation?

  • Dominio avanzado: Dominio de herramientas y frameworks de automatización de pruebas: Playwright
  • Conocimientos en consultas de base de datos (SQL)
  • Conocimientos en versionado de código, preferentemente Git.
  • Conocimiento en JavaScript.
  • Experiencia de uso de la IA como acelerador de procesos
  • Buen entendimiento de metodologías Agile y sus ceremonias.
  • Deseable: Experiencia en industria de salud
  • Formación deseable: Título en Informática, Ingeniería de Sistemas o carreras afines.
  • Certificaciones relevantes en QA o testing son un plus (como ISTQB).


¿Qué competencias buscamos en el/la QA Automation?

  • Curiosidad
  • Foco en los objetivos
  • Colaboración y trabajo en equipo (ínter y multidisciplinario)
  • Proactividad
  • Autonomía


Te ofrecemos

  • Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos.
  • Un proyecto con foco en los usuarios, visión de UX e integrada al desarrollo.
  • Acceso a grandes clientes y proyectos desafiantes.
  • Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales.
  • Un entorno de trabajo flexible y dinámico.
  • Beneficios especiales: un día libre de regalo por tu cumpleaños, días de descanso (previa coordinación), convenios para cursos de especialización.


Trabajo 100% remoto

El cargo puede ser desempeñado desde cualquier lugar del mundo.


APPLY VIA WEB
$$$ Full time
Consultor Junior Oracle FDI/OTBI -Colaboración porproyecto
  • DaCodes
  • Remoto 🌎
Full Time supervisión UX UX/UI
¡Trabaja en DaCodes! Somos una firma de expertos ensoftware y transformación digital de alto impacto. Durante 10 añoshemos creado soluciones enfocadas en la tecnología e innovacióngracias a nuestro equipo de +220 talentosos #DaCoders,Desarrolladores, arquitectos, Diseñadores UX/UI, PMs, QA testers ymás, que se integran a nuestros proyectos con clientes en LATAM yEstados Unidos para lograr resultados sobresalientes. Con nosotroslograrás impulsar y acelerar tu desarrollo profesional, colaborandoen diversidad de proyectos, sectores y giros empresariales.Trabajar en DaCodes te permitirá ser versátil y ágil al podertrabajar con diversas tecnologías y colaborar con profesionales dealto nivel. Los DaCoders tienen gran impacto en el éxito de nuestronegocio, así como en el éxito de nuestros clientes. Serás elexperto que participará en nuestros proyectos y tendrás acceso astartups disruptivas y marcas globales; ¿Te pareció interesante?¡Estamos en busca de talento para unirse al equipo, vamos atrabajar juntos! El candidato o candidata ideal tiene unacombinación única de experiencia técnica, curiosidad, mentalidadlógica y analítica, proactividad, ownership, y gusto por el trabajoen equipo Requirements Resumen del Rol: Buscamos un ConsultorJunior con conocimientos básicos-medio en Oracle Fusion DataIntelligence (FDI) y Oracle Business Intelligence (OTBI) paraapoyar al equipo en el desarrollo de dashboards y reportes. Elcandidato ideal será una persona proactiva y con ganas de aprender,que esté dispuesta a colaborar en proyectos desafiantes.Responsabilidades Clave: - Desarrollo de reportes: Colaborar en eldesarrollo de reportes bajo la supervisión del Consultor Senior. -Análisis de datos: Realizar análisis de datos básicos y prepararconjuntos de datos para su visualización. - Soporte técnico:Brindar soporte técnico a los usuarios finales en el uso de losdashboards y reportes. - Aprendizaje continuo: Estar dispuesto aaprender nuevas tecnologías y herramientas relacionadas con lainteligencia de negocios. Habilidades y Experiencia Requeridas: -Conocimientos básicos: Conocimientos básicos de SQL, bases de datosrelacionales y conceptos de BI. - Habilidades técnicas: Interés poraprender y desarrollar habilidades técnicas en el área de BI. -Habilidades blandas: Buena capacidad de comunicación y trabajo enequipo. Benefits - Integración a marcas globales y startupsdisruptivas. - Trabajo remoto/ Home office - Horario ajustado a tucélula de trabajo/proyecto asignado. (Zona horaria del clienteasignado) - Trabajo de Lunes a Viernes - Contratación por serviciosprofesionales - Días festivos oficiales de tu célula detrabajo/proyecto asignado. - Vacaciones *Puedes hacer uso de éstosdías posterior a los 6 meses en la empresa. - Día off en tucumpleaños - Eventos virtuales de integración y grupos de interés.- Meetup con invitados especiales de empresas y profesionales delárea de IT y Universidades de prestigio. - Feedback constante yseguimiento a performance. - Acceso a cursos y certificaciones. -Clases de inglés. - Oportunidades en nuestras diferentes líneas denegocio.
APPLY VIA WEB
$$$ Full time
Analista de Datos - Remoto
  • Bíos
  • 🇦🇷 Argentina - Remoto 🌎
Full Time administración Informes análisis de datos

📊 Analista de Datos de Mercado (REMOTO) 🚀

📍 Ubicación: 100% Remoto (con disponibilidad para inducción y visitas periódicas a planta en Reconquista, Santa Fe).
💼 Modalidad: Remoto, con una semana presencial cada mes y medio.

🔹 Responsabilidades:

  • Recopilar y analizar datos de redes sociales, sitio web, campañas, ventas, clientes y competencia.
  • Generar informes y dashboards con métricas clave y proponer planes de acción para mejoras continuas.
  • Evaluar el posicionamiento de productos en relación con la competencia, precios y tendencias del mercado.
  • Monitorear y gestionar canales digitales para mejorar la experiencia del usuario.
  • Diseñar y dar seguimiento al mapa de experiencia del usuario.
  • Gestionar y monitorear e-commerce, evaluando su rendimiento.
  • Colaborar con el equipo comercial en estrategias basadas en datos para cumplir objetivos.
  • Administrar y optimizar el CRM, segmentar clientes y automatizar campañas.
  • Supervisar la estrategia de redes sociales, trabajando en conjunto con agencias.
  • Gestionar contenido para marketing digital, revisar material y enviarlo a agencias.
  • Monitorear, actualizar y optimizar presupuestos de marketing.
  • Elaborar presentaciones comerciales y mantener actualizados los datos del sitio web.
  • Analizar encuestas de satisfacción de clientes y usuarios.

🎯 Requisitos:

Título universitario en Administración de Empresas, Comercialización, Publicidad, Ingeniería Industrial o carreras afines.
Experiencia en análisis de datos y generación de informes.
✅ Conocimientos avanzados en Power BI, Excel y Google Analytics.
Habilidades analíticas y capacidad para interpretar datos.
✅ Manejo avanzado de Excel y SQL.
✅ Conocimiento en métricas comerciales y experiencia en equipos de ventas o marketing.
Disponibilidad para realizar inducción en planta en Reconquista, Santa Fe, durante 3 semanas.
Disponibilidad para trabajar en planta industrial una semana cada mes y medio.

🔍 Requisitos Deseables:

  • Experiencia en administración y gestión de CRM.
  • Conocimiento en empresas con red de distribuidores, concesionarios o servicio técnico oficial.

🎁 Propuesta y Beneficios:

Modalidad 100% remota, con visitas presenciales programadas.
Plan de salud.

📩 Interesados enviar CV con remuneración pretendida a: cvs@bios-rh.com
(Ref: Analista de Datos de Mercado – 2384).

APPLY VIA WEB
Gross salary $3500 - 4000 Full time
QA Automation Engineer
  • coderslab.io
SQL Node.js QA HTML5

We are looking for a skilled QA Automation Engineer to join our dynamic team. The ideal candidate will have hands-on experience in automation testing, performance testing, and scripting using modern tools and frameworks. You will play a crucial role in ensuring the quality and performance of our web applications through effective test automation strategies.

Job functions

  • Design, develop, and maintain automated test frameworks using Playwright.
  • Develop, support, and extend JMeter scripts for load and performance testing.
  • Collaborate with development and product teams to refine and adapt testing strategies.
  • Write and maintain SQL scripts to support data validation and testing.
  • Identify, document, and track bugs to resolution.
  • Contribute to continuous improvement of testing processes and practices.

Qualifications and requirements

  • 3+ years of experience as a QA Tester, Automation Tester, or similar role.
  • Proven experience creating scripts with Playwright.
  • Solid experience with JMeter for load testing.
  • Strong understanding of TypeScript, Node.js, and web technologies (CSS, HTML).
  • Experience writing SQL scripts.
  • Advanced English communication skills (written and spoken).

Desirable skills

  • Familiarity with Git and GitHub.
  • Experience working in Agile environments (Scrum or Kanban).
  • Knowledge of Test-Driven Development (TDD) principles.
  • Experience writing and executing Test Cases.
  • Understanding of Test Matrix design and maintenance.
  • Experience creating and maintaining test scripts with Cypress.


Conditions

Contractor position
Remote LATAM

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
$$$ Full time
SRE Engineer
  • 2BRAINS
SQL Scrum SRE User Testing

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

El perfil SRE Engineer de 2Brains

Garantizar la confiabilidad, escalabilidad y disponibilidad de los sistemas y servicios de la organización, mediante la implementación de prácticas de Site Reliability Engineering (SRE). Optimizar el rendimiento y la estabilidad de las aplicaciones, alineando la infraestructura con los objetivos del negocio.

¿Qué conocimientos buscamos en el/la SRE Engineer?

  • Implementar y mantener prácticas de observabilidad (métricas, logs, trazas) para mejorar la visibilidad y diagnóstico de sistemas.
  • Definir y gestionar Service Level Indicators (SLIs), Service Level Objectives (SLOs) y Error Budget para garantizar la calidad del servicio.
  • Desarrollar y automatizar procesos de monitoreo, alertas y respuesta a incidentes para minimizar el tiempo de inactividad.
  • Aplicar metodologías de testing automatizado (funcionales, rendimiento, seguridad e integración) para mejorar la confiabilidad del software.
  • Colaborar con equipos de desarrollo para implementar mejoras en la arquitectura y diseño de aplicaciones con un enfoque en escalabilidad.
  • Optimizar el rendimiento y la estabilidad de las aplicaciones web, asegurando tiempos de respuesta eficientes.
  • Aplicar buenas prácticas de seguridad en aplicaciones y desarrollo seguro.
  • Gestionar y mejorar bases de datos relacionales y consultas en SQL para optimizar la eficiencia del acceso a datos.
  • Adoptar y fomentar metodologías ágiles (Scrum, Kanban) en la gestión de proyectos y entrega de software.
  • Participar en la investigación y adopción de nuevas tecnologías para optimizar procesos y mejorar la infraestructura.

¿Qué competencias buscamos en el/la SRE Engineer?

  • Curiosidad
  • Foco en los objetivos
  • Colaboración y trabajo en equipo (ínter y multidisciplinario)
  • Proactividad
  • Autonomía

Te ofrecemos

  • Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos.
  • Un proyecto con foco en los usuarios, visión de UX e integrada al desarrollo.
  • Acceso a grandes clientes y proyectos desafiantes.
  • Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales.
  • Un entorno de trabajo flexible y dinámico.
  • Beneficios especiales: un día libre de regalo por tu cumpleaños, días de descanso (previa coordinación), convenios para cursos de especialización.

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
Gross salary $1800 - 2500 Full time
DevOps Engineer
  • coderslab.io
  • Santiago (Hybrid)
NoSQL SQL DevOps Continuous Integration

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente nos encontramos apuntando al crecimiento de nuestros equipos de manera global con el objetivo de posicionarnos con nuestros productos en más países de Latinoamérica, es por ello que estamos en búsqueda de un DEVOPS para sumarse a nuestro equipo.

Te sumarás a un equipo desafiante y ambicioso con ganas de renovar el mercado, por lo que tus propuestas serán de mucho valor para el negocio.

¡Postula para este tremendo desafío!

Funciones del cargo

  • Apoyar en la implementación y mantenimiento de pipelines de CI/CD para la integración y entrega continua.
  • Colaborar en la migración de aplicaciones hacia entornos basados en Kubernetes y Docker.
  • Asistir en la administración de infraestructura en la nube y on-premise utilizando herramientas de IaC (Infrastructure as Code).
  • Optimizar la configuración y orquestación de contenedores en Kubernetes bajo la supervisión del Ingeniero DevOps Senior.
  • Implementar estrategias de observabilidad, monitoreo y alertamiento utilizando herramientas como Datadog o similares.
  • Apoyar en la resolución de incidentes y en la optimización de tiempos de respuesta.
  • Documentar procedimientos, configuraciones y mejoras implementadas en la infraestructura.

Requerimientos del cargo

  • Experiencia de al menos 2 a 4 años en roles similares de DevOps o SRE.
  • Conocimiento medio/avanzado en Kubernetes y Docker.
  • Experiencia con herramientas de CI/CD (Jenkins, GitLab CI/CD, GitHub Actions, ArgoCD, etc.).
  • Manejo de Infraestructura como Código (Terraform, Ansible, Helm, CloudFormation, etc.).
  • Experiencia en scripting y automatización con Bash, Python, o similares.
  • Conocimiento en monitoreo y logging (Grafana, ELK, Datadog, etc.).
  • Manejo de sistemas operativos Linux (principalmente) y Windows.
  • Conocimiento en redes y seguridad en entornos cloud y on-premise.
  • Familiaridad con bases de datos SQL y NoSQL.

Habilidades Blandas:

  • Capacidad de trabajo en equipo y colaboración con desarrolladores y otras áreas.
  • Proactividad y autonomía para la resolución de problemas.
  • Comunicación efectiva, tanto escrita como verbal.
  • Adaptabilidad a nuevas tecnologías y metodologías.
  • Pensamiento analítico y enfoque en la mejora continua.

APPLY VIA WEB
Gross salary $2500 - 3200 Full time
Ingeniero Database (DBA)
  • Kabeli Selección
  • Santiago (Hybrid)
MySQL NoSQL SQL PostgreSQL

En Kabeli buscamos ser socios estratégicos de nuestros clientes apoyándoles en la implementación de proyectos ágiles y en la transformación digital de sus procesos, con foco en un delivery continuo.

Nuestro objetivo es agregar valor a sus distintos productos y servicios , a través de soluciones tecnológicas innovadoras y fáciles de utilizar.

Funciones del cargo

En Kabeli estamos en búsqueda de un Ingeniero Data Base (DBA) para unirse al área de Datos.

  • Administrar y optimizar bases de datos SQL (PostgreSQL, MySQL, MariaDB) y NoSQL (MongoDB).
  • Gestionar bases de datos en la nube, específicamente en AWS, utilizando servicios como RDS, DynamoDB y Redshift.
  • Implementar y gestionar estrategias de respaldo y recuperación ante desastres.
  • Realizar tareas de monitoreo y ajuste de rendimiento en bases de datos.

Requerimientos del cargo

  • Experiencia en la administración de bases de datos SQL (PostgreSQL, MySQL, MariaDB) y NoSQL (MongoDB).
  • Conocimiento avanzado en la gestión de bases de datos en la nube, especialmente en AWS (RDS, DynamoDB, Redshift).

Condiciones

  • 2 días administrativos anuales.
  • Día libre en tu cumpleaños.
  • Bonos por Fiestas Patrias y Navidad.
  • Formación a través de nuestra plataforma.
  • Seguro complementario de salud, vida y dental.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Kabeli Selección pays or copays health insurance for employees.
Computer provided Kabeli Selección provides a computer for your work.
APPLY VIA WEB
Gross salary $1200 - 1500 Full time
PL/SQL Database Administrator
  • OCUREL
  • Calama (In-office)
SQL Oracle Python Virtualization

Our mission is to revolutionize lead management by creating a seamless process for acquiring, nurturing, qualifying, and routing prospects for the mining industry. You will play a pivotal role in optimizing the data infrastructure that supports OCUREL's lead journey. We provide solutions and staff to different customers in the mining industry in Chile and beyond.

Responsibilities

  1. Database Architecture & Maintenance:
    • Design, implement, and maintain scalable PL/SQL databases to support OCUREL’s lead management system.
    • Optimize database schemas for performance and reliability.
  2. Data Integration & Quality Management:
    • Integrate data from multiple sources, including web forms, CRM tools, and marketing platforms.
    • Ensure data accuracy, consistency, and integrity across systems.
    • Develop processes to clean and standardize incoming data.
  3. Performance Optimization:
    • Monitor database performance and optimize queries, indexes, and configurations.
    • Proactively address bottlenecks and implement solutions to scale systems as data volume grows.
  4. Automation & Scripting:
    • Automate data workflows, including ETL (Extract, Transform, Load) processes.
    • Develop scripts to streamline routine database tasks and reporting.
  5. Security & Compliance:
    • Implement robust data security protocols to protect sensitive lead and customer data.
    • Ensure compliance with GDPR, CCPA, and other relevant data privacy regulations.
  6. Collaboration & Support:
    • Work closely with developers to integrate databases with front-end and back-end applications.
    • Support sales and marketing teams by ensuring they have timely access to accurate data.
    • Provide technical guidance and documentation to team members.

Requirements

Technical Skills:

  • Strong experience with PL/SQL and Oracle databases.
  • Proficiency in SQL and one scripting language (e.g., Python, Bash).
  • Hands-on experience with ETL tools and processes.
  • Familiarity with cloud database solutions (AWS RDS, Azure SQL, Google BigQuery, etc.).
  • Knowledge of performance tuning, query optimization, and database indexing.

Data Security & Compliance:

  • Understanding of data protection best practices.
  • Experience implementing GDPR, CCPA, or similar compliance measures.

Soft Skills:

  • C1 English level or higher
  • Excellent problem-solving skills and attention to detail.
  • Strong communication skills for cross-functional collaboration.
  • Ability to manage multiple tasks and prioritize effectively.

Proved experience working with lead magnets.

Conditions

  • 100% in-person in our offices in downtown Calama
  • Benefits as required by law

Library Access to a library of physical books.
APPLY VIA WEB
$$$ Full time
DevOps Engineer
  • Monetech Servicios
SQL DevOps Python Virtualization

Somos una startup pionera en préstamos, especializada en ofrecer financiamiento accesible para poblaciones desatendidas. Nuestra misión es revolucionar el apoyo financiero para personas sin acceso a servicios bancarios tradicionales, centrándonos en áreas urbanas y semiurbanas para cubrir necesidades financieras inmediatas y a largo plazo.

📌 Dado que somos una startup con miembros de varios países, enviar tu CV en inglés ayudará a agilizar el proceso de selección.

Tu día a día

  • Colaborar estrechamente con los equipos de negocio, desarrolladores e ingenieros DevOps para diseñar e implementar soluciones para funciones empresariales.
  • Contribuir al diseño de la arquitectura de infraestructura para los objetivos comerciales a mediano plazo, asegurando su alineación con estrategias de crecimiento a largo plazo.
  • Automatizar la configuración y el mantenimiento de la infraestructura, implementando las mejores prácticas de monitoreo y alertas para reducir el tiempo de resolución de problemas y mejorar la satisfacción del cliente.
  • Mantenerse actualizado sobre las últimas características de la plataforma AWS y adaptarlas a los objetivos de la empresa y las necesidades del equipo.
  • Desarrollar continuamente sus propias habilidades mientras orienta y apoya el crecimiento de los miembros del equipo.

Habilidades Indispensables

  • Experiencia como Ingeniero DevOps o en un rol similar de ingeniería de software.
  • Experiencia práctica con AWS u otros proveedores de nube, incluyendo diseño e implementación de infraestructura (redes, autoescalado, registro de logs, monitoreo, etc.).
  • Experiencia en la implementación de prácticas de seguridad a nivel de infraestructura en la nube y aplicaciones (por ejemplo, PCI DSS, protección de datos, ISO 27001).
  • Dominio de Git y flujos de trabajo con GitHub.
  • Sólidos conocimientos de scripting en Bash y Python.
  • Conocimientos de bases de datos (estructuradas/no estructuradas) y SQL.
  • Nivel de inglés B1 para comunicarse eficazmente con equipos internacionales.
  • Mentalidad resolutiva y espíritu de trabajo en equipo.
  • Título universitario (o equivalente) en Informática, Ingeniería o un campo relevante.
  • Experiencia en el desarrollo o ingeniería de aplicaciones tanto para startups como para empresas de gran escala.

¿Qué Distingue a los Mejores Candidatos?

  • Certificación en AWS (gran ventaja).
  • Experiencia en diseño de arquitectura de infraestructura en una empresa de tamaño medio o grande.
    Habilidad para mentorear y desarrollar miembros del equipo en prácticas de DevOps y cultura empresarial.
  • Fuertes habilidades de comunicación para diseñar y articular principios de infraestructura a largo plazo y patrones de arquitectura que respalden los requisitos empresariales funcionales y no funcionales con una perspectiva de más de 3 años.

¿Por Qué Unirse a Nosotros?

  • Forma parte de una empresa fintech en rápido crecimiento, impulsando la innovación en soluciones de préstamos accesibles.
  • Oportunidad de trabajar en proyectos de alto impacto en un entorno dinámico e innovador.
  • Colabora con un equipo apasionado y comprometido con la inclusión financiera.

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
Gross salary $1500 - 1800 Full time
DevOps Engineer
  • ZiYU
  • Santiago (Hybrid)
Excel SQL DevOps Python
El DevOps será responsable de la gestión integral de proyectos, desde la planificación , implementación y entrega final. Trabajará en estrecha colaboración con los equipos de desarrollo, ventas y soporte para garantizar que los proyectos se completen a tiempo, dentro del presupuesto y cumpliendo con los estándares de calidad establecidos.

Funciones del cargo

  1. Integrarse al equipo de trabajo con el objetivo de dar visibilidad y gestionar las iniciativas y proyectos de evolución y/o mantenimiento de las plataformas.
  2. Preparar y presentar informes de avance sobre los proyectos en curso, informando oportunamente cualquier desviación.
  3. Actuar como la contraparte técnica entre el cliente y el equipo de desarrollo.
  4. Realizar seguimiento a los compromisos y acuerdos establecidos.
  5. Supervisar y gestionar las puestas en producción, asegurando el cumplimiento de los compromisos con los clientes y la adopción de las nuevas funcionalidades entregadas.
  6. Gestionar riesgos y elaborar planes de mitigación ante posibles desviaciones en la planificación.
  7. Administrar los recursos del proyecto y coordinar los equipos de trabajo para garantizar una ejecución eficiente de las tareas.
  8. Especificar los requerimientos del cliente, asegurando su alineación con los lineamientos de los productos.
  9. Diseñar, construir e implementar KPIs de seguimiento y operación para evaluar el desempeño de los productos.

Requerimientos del cargo

  1. Profesionales de las carreras Ing. Civil Industrial , Ing. Comercial o similar.
  2. Experiencia mínima de 2-5 años como Dev.Ops , preferentemente en el sector SaaS.
  3. Conocimiento en metodologías ágiles (Scrum, Kanban, etc.)
  4. Python Basico.
  5. SQL Nivel Medio.
  6. Conocimiento herramientas de gestión de proyectos Jira.
  7. Microsoft Avanzado (Power Point , Excel y Word)

Opcionales

1. Conocimiento en Herramientas de BI ( Power BI o Metabase)
2. Experiencia en diseño de productos.
3. Experiencia en herramientas de diseño de mock up.

Condiciones

- 💻 Computador para que puedas trabajar
- 🗓? Trabajo en modalidad híbrida
- 📈 Oportunidades de crecimiento y desarrollo profesional
- 🎂 Día libre en tu cumpleaños y GiftCard !
- 🎂 GiftCard para Fiestas Patrias y Navidad !
- Becas de Estudio!
¡Te invitamos a formar parte de este gran equipo! 🚀

APPLY VIA WEB
Gross salary $2000 - 2200 Full time
Analista QA Automatizador
  • BC Tecnología
  • Santiago (Hybrid)
QA
En BC Tecnología, somos una consultora de TI con un fuerte enfoque en la creación de soluciones personalizadas que se alinean perfectamente con las necesidades de nuestros clientes. Trabajamos con un diverso portafolio en sectores como servicios financieros, seguros, retail y gobierno. En nuestro proyecto actual, requerimos un Analista QA Automatizador por un periodo de 12 meses, donde el candidato será parte de un equipo ágil, encargado de asegurar la calidad de nuestros desarrollos mediante metodologías de testing avanzadas.

Responsabilidades del Analista QA Automatizador

  • Implementar y ejecutar pruebas automatizadas utilizando Selenium WebDriver en Python u otros lenguajes de programación orientados a objetos.
  • Realizar testing de APIs, asegurando la funcionalidad solicitada y la integridad de los microservicios.
  • Manejar repositorios y versiones de software mediante Git y plataformas como GitHub, GitLab o Bitbucket.
  • Interactuar con bases de datos; realizar consultas y pruebas en PostgreSQL como parte del proceso de verificación.
  • Gestionar actividades del equipo y seguimiento de tareas a través de Jira, asegurando el cumplimiento de cronogramas establecidos.
  • Configurar pipelines de CI/CD para facilitar la integración continua y entrega de software fluida.

Requisitos y habilidades del candidato

Buscamos un profesional que posea al menos 3 años de experiencia comprobable en roles similares, con un sólido entendimiento de las prácticas de aseguramiento de calidad. El candidato debe ser capaz de trabajar de manera colaborativa en un ambiente ágil, adoptar metodologías de desarrollo modernas y comunicarse efectivamente con diferentes áreas del equipo. Se valora la proactividad y un enfoque orientado a resultados.

Habilidades deseables

Sería un plus contar con certificaciones relacionadas a testing o metodologías ágiles, así como experiencia en la gestión de pruebas dentro de equipos multidisciplinarios. La experiencia con herramientas adicionales de automatización o conocimientos en lenguajes de programación adicionales también serán considerados positivamente.

Beneficios que ofrecemos

En BC Tecnología, valoramos a nuestro personal y fomentamos un ambiente laboral positivo y colaborativo. Ofrecemos un contrato a plazo fijo que tiene la posibilidad de convertirse en indefinido. Nuestro esquema de trabajo es híbrido, permitiendo así flexibilidad en la modalidad. Además, contamos con beneficios tales como seguro complementario de salud, aguinaldo por fiestas patrias y navidad, y tarjeta de alimentación. 🌟

Health coverage BC Tecnología pays or copays health insurance for employees.
Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB
Gross salary $2800 - 3700 Full time
Site Reliability Engineer
  • Buk
Virtualization Docker Amazon Web Services Kubernetes

En Buk, estamos en una misión audaz 💪🌎:

¡Transformar los entornos laborales en lugares más felices y productivos! Somos un equipo joven, lleno de energía y pasión por revolucionar la gestión de RRHH en Latinoamérica. La tecnología es nuestra herramienta principal, y nos esforzamos por la excelencia en cada aspecto de nuestra plataforma.

Con presencia en Chile, Colombia, México y Perú y próximos a iniciar operaciones en Brasil ¡estamos listos para atraer mentes brillantes que nos ayuden a seguir alcanzando muchas metas con miras al infinito y más allá! si quieres saber cómo es un día de trabajo con nosotros, no dudes en echar un vistazo al siguiente video: https://www.youtube.com/watch?v=jBxmAcOrMZU

Funciones del cargo

  • Te encargarás de desarrollar módulos y componentes transversales de la infraestructura.
  • Serás responsable de la administración de las plataformas internas.
  • Velarás por su estabilidad, disponibilidad, seguridad y escalabilidad.
  • Participarás en la mejora continua identificando mejoras a desarrollar.
  • Te encargarás de atender incidentes.
  • Participarás en la automatización de procesos.

Requerimientos del cargo

  • Al menos 3 años de experiencia en roles similares
  • Experiencia trabajando con Terraform
  • Conocimientos en AWS
  • Experiencia con Stack de monitoreo Grafana/Prometheus
  • Conocimiento en gitOps
  • Experiencia trabajando con Docker y Kubernetes (INDISPENSABLE)
  • Conocimientos de sistemas operativos Linux

Opcionales

  • Administración de bases de datos PostgreSQL
  • Experiencia en desarrollo de software (PHP, Java, Python, RoR, etc.)

Condiciones

  • ¡El mejor ambiente de trabajo! Nuestra misión es crear lugares de trabajo más felices, y bueno, lideramos con el ejemplo!😀
  • VACACIONES ILIMITADAS! 🌴🏖️☀️ Sí! ¡Leíste bien!
  • Plan de Beneficios personalizado ⭐ podrás elegir muchas opciones, entre Seguro complementario de Salud, aguinaldos, bonos, capacitaciones, clases de inglés, gimnasio, giftcards, asesoría financiera, ayuda psicológica, Netflix, Spotify y muchos más!
  • Postnatal Paternal de 5 semanas 🍼💙
  • Flexibilidad horaria, queremos que la gente se motive y trabaje feliz, cumpliendo objetivos, no que marque tarjeta.
  • Modalidad WFA 🌴🌞(Work From Anywhere) trabaja 100% en la oficina/ híbrido/ full remoto ¡Tú eliges!
  • Increíbles oficinas en Latam, modernas y con áreas recreativas: Máquina de cerveza, Helados, Mesa PingPong, Snacks y Café, Nintendo.🍩🍫🍺🍕🍎
  • ¡Olvídate de las corbatas y de los zapatos!
  • Sueldo: propone, si eres la persona que buscamos, no te quedarás fuera

Fully remote You can work from anywhere in the world.
Equity offered This position includes equity compensation (in the form of stock options or another mechanism).
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Buk pays or copays health insurance for employees.
Computer provided Buk provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Buk gives you paid vacations over the legal minimum.
Beverages and snacks Buk offers beverages and snacks for free consumption.
APPLY VIA WEB
Gross salary $2200 - 2700 Full time
QA Automation
  • coderslab.io
MySQL QA Python PostgreSQL

En CodersLab, actualmente estamos enfocados en el crecimiento global de nuestros equipos con el objetivo de posicionar nuestros productos en más países de Latinoamérica. Por esta razón, estamos buscando un QA AUTOMATION motivado y orientado a objetivos.

Te unirás a un equipo desafiante y ambicioso con ganas de innovar en el mercado, haciendo que tus propuestas sean altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Funciones del cargo

Responsabilidades Principales:

1. Desarrollo de Automatización de Pruebas:

o Diseñar e implementar scripts automatizados para pruebas de aplicaciones web, móviles y

APIs utilizando herramientas como Robot Framework y Appium (Android/iOS).

o Garantizar la cobertura de pruebas para servicios REST y GraphQL.

o Usar Python para desarrollar soluciones personalizadas y mejorar los frameworks de prueba existentes.

2. Pruebas de Bases de Datos:

o Realizar pruebas y validaciones en bases de datos relacionales (e.g., MySQL, PostgreSQL) y no relacionales (e.g., DynamoDB).

3. Gestión y Colaboración:

o Documentar procesos, resultados y estrategias de prueba en herramientas como Confluence.

o Trabajar en estrecha colaboración con desarrolladores y partes interesadas del negocio para garantizar que los requisitos de calidad se cumplan.

o Gestionar tareas, estimaciones de esfuerzo y prioridades en Jira.

4. Gestión de Infraestructura:

o Configurar pipelines de integración y despliegue continuo (CI/CD) utilizando GitHub Actions.

o Colaborar en entornos basados en la nube, como AWS, para la ejecución y el mantenimiento de pruebas automatizadas.

5. Capacitación y Transferencia de Conocimiento:

o Capacitar a los miembros del equipo en herramientas, procesos y mejores prácticas de automatización.

o Promover una cultura de mejora continua mediante la transferencia de conocimiento y la mentoría.

Requerimientos del cargo

• Experiencia mínima de 5 años en QAA.

• Experiencia sólida en automatización de pruebas utilizando Robot Framework y Appium (Android/iOS).

• Conocimiento avanzado en Python para desarrollo de scripts y frameworks.

• Experiencia en diseño y ejecución de pruebas de APIs (REST y GraphQL).

• Familiaridad con bases de datos relacionales y no relacionales (MySQL, PostgreSQL, DynamoDB).

• Conocimiento de herramientas de CI/CD como GitHub Actions.

• Experiencia trabajando con AWS.

• Manejo de herramientas de gestión como Jira y Confluence.

• Habilidades en documentación y colaboración con equipos técnicos y de negocio.

• Experiencia en entornos ágiles (Scrum)

• Capacidad para liderar iniciativas de automatización y fomentar un entorno de aprendizaje continuo.

• Excelentes habilidades de comunicación y proactividad

• Autonomía y capacidad para gestionar múltiples tareas simultáneamente.

Conditions

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
$$$ Full time
Arquitecto y Administrador Cloud Senior (AWS/GCP)
  • Factor IT
NoSQL SQL Continuous Integration Virtualization
En FactorIT, somos líderes en tecnología y soluciones en Data y Analytics, Transformación Digital e Inteligencia Artificial. Con presencia en 8 países en Latinoamérica, brindamos la oportunidad de trabajar en proyectos regionales que transforman grandes empresas. Buscamos incorporar a un Arquitecto y Administrador Cloud Senior que juegue un rol clave en nuestros proyectos de infraestructura multi-nube, especialmente en AWS y GCP, asegurando soluciones de alta disponibilidad y optimización de costos.

Responsabilidades Principales:

  • Diseñar y desarrollar arquitecturas cloud escalables siguiendo mejores prácticas y patrones de diseño.
  • Implementar y mantener infraestructura como código (IaC) utilizando Terraform, CloudFormation o herramientas similares.
  • Gestionar y optimizar servicios cloud en AWS y GCP.
  • Desarrollar estrategias de seguridad, cumplimiento y gobernanza dentro de la nube.
  • Liderar la automatización de procesos de infraestructura y despliegue.
  • Supervisar costos y optimizar recursos cloud para garantizar eficiencia.

Requisitos Técnicos:

  • Certificaciones requeridas: AWS: Solutions Architect Professional o Advanced, GCP: Professional Cloud Architect.
  • Experiencia comprobable (2+ años) en: AWS (EC2, S3, RDS, Lambda, VPC, EKS) y GCP (Compute Engine, Cloud Storage, Cloud SQL, Cloud Functions, GKE).
  • Contenedores y orquestación: Docker, Kubernetes.
  • IaC y automatización: Terraform, Ansible, CloudFormation.
  • CI/CD: Jenkins, GitLab CI, GitHub Actions.
Habilidades Adicionales:
  • Sólida comprensión de redes, seguridad y protocolos de comunicación.
  • Experiencia en microservicios y arquitecturas distribuidas.
  • Conocimientos de bases de datos SQL y NoSQL.
  • Capacidad para estimar costos y optimizar gastos en la nube.
  • Inglés avanzado (lectura y escritura).
Competencias Blandas:
  • Excelentes habilidades de comunicación y documentación.
  • Capacidad de liderazgo técnico y mentoría.
  • Pensamiento analítico y resolución de problemas complejos.
  • Habilidad para trabajar con múltiples equipos y stakeholders.

Experiencia Deseable:

  • Participación en proyectos de migración a la nube a gran escala.
  • Experiencia en implementación de soluciones híbridas.
  • Conocimientos de metodologías ágiles.
  • Experiencia en arquitecturas serverless y event-driven.

Beneficios:

En FactorIT, promovemos un ambiente laboral colaborativo y orientado al aprendizaje continuo. Además de un contrato indefinido, brindamos flexibilidad laboral con opciones de trabajo remoto, híbrido o presencial. Valoramos el equilibrio entre la vida personal y laboral, ofreciendo oportunidades de crecimiento profesional en un entorno inclusivo y diverso. Únete a nuestro equipo y transforma el futuro de la tecnología con nosotros 🚀!

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Factor IT provides a computer for your work.
APPLY VIA WEB
Gross salary $1500 - 1800 Full time
Business Analyst
  • coderslab.io
  • Santiago (Hybrid)
Excel SQL UML Power BI

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente nos encontramos apuntando al crecimiento de nuestros equipos de manera global con el objetivo de posicionarnos con nuestros productos en más países de Latinoamérica, es por ello que estamos en búsqueda de un Business Analyst para sumarse a nuestro equipo.

Te sumarás a un equipo desafiante y ambicioso con ganas de renovar el mercado, por lo que tus propuestas serán de mucho valor para el negocio.

¡Postula para este tremendo desafío!

Funciones del cargo

Entre tus funciones estarán:

  • Analisis de datos
  • Gestion de dependencias
  • Generación de procesos (Diagramas)
  • Generación de documentación técnica y funcional,

Requerimientos del cargo

  • Licenciatura en Administración, Ingeniería, Economía, Tecnología de la Información o campos afines.
  • Experiencia mínima de [5] años en análisis de negocio o puestos similares, deseable contar con experiencia en bancos.
  • Conocimientos en metodologías ágiles (Scrum, Kanban) y tradicionales.
  • Habilidad en herramientas de análisis de datos (Excel avanzado, SQL, Power BI, Tableau, etc.).
  • Experiencia en modelado de procesos (BPMN, UML).
  • Habilidades de comunicación y presentación efectiva.
  • Capacidad para trabajar en equipo y gestionar múltiples proyectos simultáneamente.

Condiciones

Modalidad de contratación: Plazo fijo.
Duración: Inicialmente 6 meses con posibilidad de extensión.

APPLY VIA WEB
Gross salary $3000 - 3500 Full time
Data Engineer (on Premise)
  • coderslab.io
SQL C# DevOps C
CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente nos encontramos apuntando al crecimiento de nuestros equipos de manera global con el objetivo de posicionarnos con nuestros productos en más países de Latinoamérica, es por ello que estamos en búsqueda de un Data Engineer para sumarse a nuestro equipo.
Te sumarás a un equipo desafiante y ambicioso con ganas de renovar el mercado, por lo que tus propuestas serán de mucho valor para el negocio.
¡Postula para este tremendo desafío!

Funciones del cargo

-Desarrollar ETL para réplica de Extracción y tratamiento de información de base de datos SQL Server.
-Programación de flujos y transformación de datos para carga de Datawarehouse.
-Analizar requerimientos del usuario para el diseño de las especificaciones técnicas.
-Elaboración de manuales técnicos.
-Trabajar como desarrollador en el marco de trabajo Scrum.
-Desarrolla de scripts/procesos.
-Desarrollar ETL bajo herramientas de Microsoft.
-Desarrollar según las especificaciones y políticas establecidas por BAC Regional.

Requerimientos del cargo

-Microsoft SQL Server.
-Microsoft Visual Studio 2022.
-Microsoft Integration Services.
-Dominio de T-SQL.
-Dominio en C# / VB.
-Dominio de mitologías de Modelo ETL y Data Warehousing.
-Conocimiento básico con Power BI.
-Azure DevOps (básico)
-Metodologías Agiles (Scrum)
-Herramientas de versionamiento de código fuente.

Condiciones

Horario de trabajo: Costa Rica.
Modalidad de contratación: Contractor.

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
Gross salary $1800 - 2500 Full time
Data Engineer Semisenior o Senior
  • Lisit
  • Santiago (Hybrid)
SQL Python BigQuery ETL
Lisit es una empresa comprometida con la creación, desarrollo e implementación de soluciones de software que faciliten la automatización y optimización para nuestros clientes. Nuestra visión se centra en brindar servicios que no solo cumplan con las necesidades del mercado, sino que también transformen la operatividad de las organizaciones. Tu función como Ingeniero de Datos será fundamental para lograr un acompañamiento consultivo integral en sus procesos de transformación.

Responsabilidades del puesto

Como Ingeniero de Datos Semi-senior o Senior en Lisit, serás una pieza clave en el diseño y desarrollo de soluciones de datos que optimicen nuestros servicios y herramientas. Tus tareas incluirán:
  • Generar pipelines de datos eficientes y resolver integraciones entre diversos sistemas.
  • Modelar datos para garantizar que nuestras plataformas sean útiles y escalables.
  • Colaborar en la implementación de herramientas de infraestructura como código (IaC) y gestionar el versionamiento a través de GitHub o GitLab.
  • Desarrollar y ejecutar procesos ETL/ELT utilizando Azure Data Factory, asegurando la calidad y accesibilidad de los datos.

Descripción del puesto

Buscamos un Ingeniero de Datos altamente motivado, con un mínimo de 3 años de experiencia en el tratamiento de datos. Tu destreza con lenguajes de programación como Python y Spark te permitirá desempeñarte con solidez en el equipo. Se requiere un conocimiento intermedio-avanzado de herramientas de IaC (Terraform) y manejo de versionamiento de código (GitHub/GitLab), así como una sólida comprensión del lenguaje SQL y bases de datos.
Es esencial que tengas experiencia con plataformas en la nube como Google Cloud Platform (GCP) o Azure, y herramientas como Airflow, Cloud Run, Cloud Composer y BigQuery. Además, el dominio de Azure Data Factory para procesos ETL-ELT es un requisito excluyente. Las certificaciones en Ingeniería de Datos son valoradas, tales como Azure DP-700, AZ-203, DP-600 y Google Cloud Digital Leader.

Habilidades deseables

Si cuentas con conocimientos en Microsoft Power BI o Fabric, sería un gran plus para tu perfil. Queremos personas que no solo cumplan con los requisitos, sino que también aporten un enfoque innovador y colaborativo a nuestro equipo.

Beneficios de trabajar con nosotros

En Lisit, fomentamos un ambiente de trabajo excepcional, donde la innovación y la pasión por el aprendizaje son clave. Te ofrecemos:
  • Acceso a oportunidades continuas de desarrollo profesional en tecnologías emergentes.
  • Un equipo motivado y apasionado que valora tu entusiasmo y contribuciones.
Aquí, tendrás la oportunidad de crecer y alcanzar tus objetivos profesionales mientras colaboras en proyectos desafiantes y de alto impacto.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
APPLY VIA WEB
Gross salary $2300 - 2800 Full time
Semi Senior Data Analyst
  • 23people
SQL Python BigQuery Power BI
Únete a Equifax Chile como Semi senior Data Analyst Somos líderes en soluciones de información y tecnología, operando globalmente para transformar el uso de la información con transparencia y seguridad. Estamos en un proyecto de migración clave que requiere revisión de pipelines de datos, creación de queries, diseño de flujos de procesos, análisis de sistemas legados y documentación técnica y de negocio. Valoramos la innovación, la colaboración y el conocimiento técnico. Si tienes habilidades analíticas excepcionales y pasión por la tecnología, ¡aplica hoy y sé parte de nuestra transformación digital!

Funciones del cargo

Profesional con fuerte capacidad para analizar datos, extraer información y generar insights útiles para la toma de decisiones para un proyecto que se encuentra hoy en marcha, requiere también habilidades en visualización de datos.

Requerimientos del cargo

Requisitos técnicos (Formación en programación y foco en desarrollo):
✔️ Python (imprescindible formación en programación)
✔️ BigQuery / SQL
✔️ Looker Studio / Power BI / Data Studio
✔️ Perfil analítico y habilidades en visualización de datos

Además, es esencial que tengas:

Habilidades personales:

  • Capacidad de autogestión: Ser proactivo y manejar múltiples tareas de forma efectiva.
  • Buenos skills de comunicación: Expresar ideas y hallazgos con claridad.
  • Fortaleza en trabajo en equipo: Colaborar para alcanzar objetivos comunes.
  • Adaptación al cambio: Flexibilidad para ajustarte a diferentes entornos.

Habilidades deseables

Además de los requisitos mencionados, se valorarán conocimientos en:
  • GitHub para la gestión de código y colaboración en proyectos.
  • Airflow/Composer para la orquestación de flujos de trabajo.
  • Pyspark para el procesamiento de datos a gran escala.

Beneficios

Algunos de nuestros beneficios:
  • Seguro complementario: Seguro de salud, vida y dental
  • Curso de inglés: En nuestro programa de formación en idioma inglés, ofrecemos dos modalidades para adaptarnos a tus necesidades y objetivos.
  • Reembolso de certificaciones internacionales: Apoyamos el crecimiento profesional, por lo que te reembolsamos el costo de un examen de certificación internacional que quieras realizar.
  • Bono de vacaciones: Por cada semana que te tomes de vacaciones te otorgamos una compensación.
  • Aguinaldos en fiestas patrias y navidad: Queremos que en fechas tan especiales la pases bien junto a tu familia, por lo que te entregamos un bono en septiembre y diciembre
  • Día libre de cumpleaños: Puedes optar por tomar tu día libre, el día previo a tu cumpleaños, el mismo día de tu cumpleaños o el día posterior.
¡Si te apasiona la tecnología y quieres crecer con nosotros, no dudes en aplicar! 🧡

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Life insurance Equifax pays or copays life insurance for employees.
Dental insurance Equifax pays or copays dental insurance for employees.
Computer provided Equifax provides a computer for your work.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
Gross salary $2200 - 2600 Full time
Data Analytics Residente Uruguay
  • BC Tecnología
SQL Analytics Python Power BI
En BC Tecnología, somos una consultora de TI especializada en diversas áreas tecnológicas, con más de seis años de experiencia diseñando soluciones adecuadas a las necesidades de nuestros clientes en sectores como servicios financieros, seguros, retail y gobierno. Nuestro enfoque incluye consultoría y diseño de soluciones, formación de equipos, desarrollo de proyectos y servicios de soporte y administración IT.

Responsabilidades principales:

  • Extraer y procesar datos desde diversas fuentes mediante SQL y Python (PySpark).
  • Diseñar y optimizar modelos de datos en Power BI para reportes avanzados.
  • Implementar y mejorar flujos ETL para la integración de datos.
  • Colaborar con áreas de negocio para entender necesidades analíticas y generar soluciones BI.
  • Asegurar la calidad y disponibilidad de los datos en los reportes.

Requisitos:

  • SQL Avanzado: Creación, optimización y modelado de datos.
  • Python (PySpark): Procesamiento y transformación de datos en entornos Big Data.
  • Power BI: Nivel medio-alto en creación de reportes y dashboards interactivos.
  • Databricks: Deseable, con experiencia en plataformas de datos en la nube.
  • Experiencia mínima de 3 años en roles de BI, Data Analytics o similares.
  • Habilidades de comunicación y trabajo en equipo para traducir necesidades de negocio en soluciones BI.

Deseable:

  • Experiencia con Databricks sería un plus, mostrando la capacidad de trabajar con plataformas de datos en la nube.

Condiciones

  • Trabajo 100% remoto.
  • El cargo puede ser desempeñado desde cualquier lugar del mundo.
En BC Tecnología, fomentamos un entorno laboral flexible que impulsa el crecimiento profesional. Si te consideras una mente analítica que quiere marcar la diferencia, ¡te invitamos a ser parte de nuestro equipo y a impulsar la transformación organizacional! 🚀✨

APPLY VIA WEB
Gross salary $1500 - 1800 Full time
Data Engineer Junior
  • Lisit
  • Santiago (Hybrid)
SQL Python Power BI Azure
En Lisit, nos dedicamos a crear, desarrollar e implementar herramientas y servicios de software que automatizan y optimizan procesos, siempre con un fuerte enfoque en la innovación y los desafíos que se presentan. Nuestro objetivo es fomentar la eficacia operativa de nuestros clientes, ayudándoles a alcanzar sus metas de transformación mediante un acompañamiento consultivo integral. Actualmente, estamos en búsqueda de un Data Engineer Junior que se una a nuestro equipo apasionado por la tecnología y el aprendizaje continuo.

Funciones del Rol

Como Data Engineer Junior, serás parte esencial del equipo encargado de manejar y optimizar el flujo de datos de la organización. Tus principales responsabilidades incluirán:
  • Colaborar en la recopilación y procesamiento de datos relacionales y no relacionales.
  • Trabajar con lenguajes de programación, especialmente Python, para crear soluciones de datos efectivas.
  • Implementar y mantener los procesos de integración en ambientes cloud como GCP o Azure.
  • Realizar consultas y manipulación de bases de datos utilizando SQL.
  • Aprender y adaptarte a nuevas tecnologías y herramientas en el entorno de la nube.

Descripción del Perfil

Buscamos un perfil proactivo, con conocimientos intermedios en Python y disposición para aprender sobre nuevas tecnologías. El candidato ideal deberá tener:
  • Experiencia básica a intermedia en programación Python.
  • Habilidades en el uso y tratamiento de datos en ambientes tanto relacionales como no relacionales.
  • Conocimientos fundamentales en tecnologías de nube, incluyendo GCP o Azure.
  • Experiencia en el uso del lenguaje SQL.
  • Bajo es requisito pero se valorará el conocimiento en Power BI.

Habilidades Deseables

Sería excelente contar con conocimientos adicionales en herramientas de visualización de datos como Power BI. Además, habilidad para trabajar en equipo y una mentalidad orientada al aprendizaje continuo son altamente valoradas.

Beneficios de Trabajar con Nosotros

En Lisit, promovemos un ambiente de trabajo excepcional:
  • Acceso a oportunidades de desarrollo profesional continuo en tecnologías emergentes.
  • Un equipo apasionado por la innovación y el aprendizaje, donde tu entusiasmo será bienvenido.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
APPLY VIA WEB
$$$ Full time
Data Engineer
  • NeuralWorks
  • Santiago (Hybrid)
SQL C Python Virtualization

NeuralWorks es una compañía de alto crecimiento fundada hace 3 años. Estamos trabajando a toda máquina en cosas que darán que hablar.
Somos un equipo donde se unen la creatividad, curiosidad y la pasión por hacer las cosas bien. Nos arriesgamos a explorar fronteras donde otros no llegan: un modelo predictor basado en monte carlo, una red convolucional para detección de caras, un sensor de posición bluetooth, la recreación de un espacio acústico usando finite impulse response.
Estos son solo algunos de los desafíos, donde aprendemos, exploramos y nos complementamos como equipo para lograr cosas impensadas.
Trabajamos en proyectos propios y apoyamos a corporaciones en partnerships donde codo a codo combinamos conocimiento con creatividad, donde imaginamos, diseñamos y creamos productos digitales capaces de cautivar y crear impacto.

👉 Conoce más sobre nosotros

Descripción del trabajo

El equipo de Data y Analytics trabaja en diferentes proyectos que combinan volúmenes de datos enormes e IA, como detectar y predecir fallas antes que ocurran, optimizar pricing, personalizar la experiencia del cliente, optimizar uso de combustible, detectar caras y objetos usando visión por computador.
Dentro del equipo multidisciplinario con Data Scientist, Translators, DevOps, Data Architect, tu rol será clave en construir y proveer los sistemas e infraestructura que permiten el desarrollo de estos servicios, formando los cimientos sobre los cuales se construyen los modelos que permiten generar impacto, con servicios que deben escalar, con altísima disponibilidad y tolerantes a fallas, en otras palabras, que funcionen. Además, mantendrás tu mirada en los indicadores de capacidad y performance de los sistemas.

En cualquier proyecto que trabajes, esperamos que tengas un gran espíritu de colaboración, pasión por la innovación y el código y una mentalidad de automatización antes que procesos manuales.

Como Data Engineer, tu trabajo consistirá en:

  • Participar activamente durante el ciclo de vida del software, desde inception, diseño, deploy, operación y mejora.
  • Apoyar a los equipos de desarrollo en actividades de diseño y consultoría, desarrollando software, frameworks y capacity planning.
  • Desarrollar y mantener arquitecturas de datos, pipelines, templates y estándares.
  • Conectarse a través de API a otros sistemas (Python)
  • Manejar y monitorear el desempeño de infraestructura y aplicaciones.
  • Asegurar la escalabilidad y resiliencia.

Calificaciones clave

  • Estudios de Ingeniería Civil en Computación o similar.
  • Experiencia práctica de al menos 3 años en entornos de trabajo como Data Engineer, Software Engineer entre otros.
  • Experiencia con Python.
    Entendimiento de estructuras de datos con habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados, conocimiento avanzado de SQL, incluida optimización de consultas.
  • Pasión en problemáticas de procesamiento de datos.
  • Experiencia con servidores cloud (GCP, AWS o Azure), especialmente el conjunto de servicios de procesamiento de datos.
  • Buen manejo de inglés, sobre todo en lectura donde debes ser capaz de leer un paper, artículos o documentación de forma constante.
  • Habilidades de comunicación y trabajo colaborativo.

¡En NeuralWorks nos importa la diversidad! Creemos firmemente en la creación de un ambiente laboral inclusivo, diverso y equitativo. Reconocemos y celebramos la diversidad en todas sus formas y estamos comprometidos a ofrecer igualdad de oportunidades para todos los candidatos.

“Los hombres postulan a un cargo cuando cumplen el 60% de las calificaciones, pero las mujeres sólo si cumplen el 100%.” D. Gaucher , J. Friesen and A. C. Kay, Journal of Personality and Social Psychology, 2011.

Te invitamos a postular aunque no cumplas con todos los requisitos.

Nice to have

  • Agilidad para visualizar posibles mejoras, problemas y soluciones en Arquitecturas.
  • Experiencia en Infrastructure as code, observabilidad y monitoreo.
  • Experiencia en la construcción y optimización de data pipelines, colas de mensajes y arquitecturas big data altamente escalables.
  • Experiencia en procesamiento distribuido utilizando servicios cloud.

Beneficios

  • MacBook Air M2 o similar (con opción de compra hiper conveniente)
  • Bono por desempeño
  • Bono de almuerzo mensual y almuerzo de equipo los viernes
  • Seguro complementario de salud y dental
  • Horario flexible
  • Flexibilidad entre oficina y home office
  • Medio día libre el día de tu cumpleaños
  • Financiamiento de certificaciones
  • Inscripción en Coursera con plan de entrenamiento a medida
  • Estacionamiento de bicicletas
  • Vestimenta informal
  • Programa de referidos
  • Salida de “teambuilding” mensual

Library Access to a library of physical books.
Outdoors The premises have outdoor spaces such as parks or terraces.
Accessible An infrastructure adequate for people with special mobility needs.
Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Internal talks NeuralWorks offers space for internal talks or presentations during working hours.
Life insurance NeuralWorks pays or copays life insurance for employees.
Meals provided NeuralWorks provides free lunch and/or other kinds of meals.
Partially remote You can work from your home some days a week.
Bicycle parking You can park your bicycle for free inside the premises.
Digital library Access to digital books or subscriptions.
Health coverage NeuralWorks pays or copays health insurance for employees.
Computer repairs NeuralWorks covers some computer repair expenses.
Dental insurance NeuralWorks pays or copays dental insurance for employees.
Computer provided NeuralWorks provides a computer for your work.
Education stipend NeuralWorks covers some educational expenses related to the position.
Performance bonus Extra compensation is offered upon meeting performance goals.
Informal dress code No dress code is enforced.
Recreational areas Space for games or sports.
Shopping discounts NeuralWorks provides some discounts or deals in certain stores.
Beverages and snacks NeuralWorks offers beverages and snacks for free consumption.
Vacation on birthday Your birthday counts as an extra day of vacation.
Time for side projects NeuralWorks allows employees to work in side-projects during work hours.
APPLY VIA WEB
$1700 - 2300 Full time
Business Analyst
  • ARKHO
  • Santiago (Hybrid)
SQL QA Continuous Integration Python

ARKHO es una consultora experta en tecnologías de la información, que ofrece servicios expertos de TI en el marco de modernización de aplicaciones, analítica de datos y migración a la nube. Nuestro trabajo facilita y acelera la adopción de la cloud en múltiples industrias.

Nos destacamos por ser Partner Advanced de Amazon Web Services con foco estratégico en la generación de soluciones usando tecnología en la nube, somos obsesionados por lograr los objetivos propuestos y tenemos especial énfasis en el grupo humano que compone ARKHO (nuestros Archers), reconociendo a nuestro equipo como un componente vital para el logro de los resultados.

¿Te motivas? ¡Te esperamos!

Funciones del cargo

Buscamos un nuevo integrante para incorporarse al equipo como Analista de Nogocio que pueda combinar análisis de negocio y aseguramiento de calidad en proyectos de tecnología y datos . Buscamos a alguien dinámico, proactivo, con capacidad de autogestión y por sobre todo con muchas ganas de aprender en uno de los segmentos más importantes de los últimos años, la tecnología. Este perfil debe tener excelentes habilidades de comunicación y trabajo en equipo. Buscamos personas que les guste aprender siempre y se sientan responsables de su crecimiento profesional.

Principales funciones:

  • Recopilar y analizar casos de negocio.
  • Elaborar diagramas de procesos usando herramientas como Bizagi o Draw.io.
  • Crear diagramas de flujo para visualizar procesos.
  • Colaborar con stakeholders para establecer criterios claros y medibles.
  • Diseñar y ejecutar pruebas exploratorias.
  • Implementar pruebas automatizadas.
  • Documentar requisitos, procesos y resultados de pruebas.
  • Asegurar que los entregables cumplan con los estándares de calidad establecidos.

Requerimientos del cargo

En nuestra compañía valoramos a las personas auto-gestionadas, proactivas e innovadoras. Debes ser capaz de organizar tu propia carga de trabajo, tomar decisiones, cumpliendo sus plazos y objetivos. Buscamos personas con:

¿Cuáles son los requerimientos del cargo?

  • Título en Ingeniería en Sistemas, Informática, Administración de Empresas, o disciplinas afines.
  • Al menos 3 años de experiencia en roles similares (QA, Analista de Negocio, Consultor TI).
  • Experiencia con herramientas como Bizagi, Draw.io o Visio para la creación de diagramas de procesos y flujos.
  • Dominio en diseño y ejecución de pruebas exploratorias.
  • Experiencia con herramientas de pruebas automatizadas como Selenium, JUnit, TestNG, o similares.
  • Familiaridad con frameworks de pruebas y CI/CD (Jenkins, GitLab CI/CD).
  • Capacidad para desglosar y analizar requisitos funcionales y no funcionales.
  • Experiencia en la redacción de especificaciones técnicas y criterios de aceptación.
  • Capacidad para realizar consultas SQL y análisis de datos básicos.
  • Familiaridad con lenguajes de scripting (Python, JavaScript) para soporte en pruebas automatizadas.
  • Conocimiento de metodologías ágiles (Scrum, Kanban).

Competencias opcionales

  • Certificaciones en QA, análisis de negocio (CBAP), o metodologías ágiles (Scrum Master, Product Owner) son un plus.
  • Conocimiento de UML (Unified Modeling Language) y BPMN (Business Process Model and Notation).
  • Dominio intermedio de Inglés

Beneficios del Archer

  • Día administrativo semestral hasta los 12 meses
  • Week off: 5 días de vacaciones extra
  • ¡Celebra tu cumpleaños!
  • Path de entrenamiento
  • Certificaciones AWS
  • Aguinaldos Fiestas Patrias y Navidad
  • Seguro complementario
  • Flexibilidad (trabajo híbrido o remoto)
  • Regalo por casamiento + 5 días hábiles libres
  • Regalo por nacimiento de hijos
  • Kit escolar
  • Beneficio paternidad
  • Bonda

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage ARKHO pays or copays health insurance for employees.
Computer provided ARKHO provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal ARKHO gives you paid vacations over the legal minimum.
APPLY VIA WEB
Gross salary $2000 - 2500 Full time
Data Scientist
  • ARKHO
SQL Python Virtualization Deep Learning
ARKHO es una consultora experta en tecnologías de la información, que ofrece servicios expertos de TI en el marco de modernización de aplicaciones, analítica de datos y migración a la nube. Nuestro trabajo facilita y acelera la adopción de la cloud en múltiples industrias.
Nos destacamos por ser Partner Advanced de Amazon Web Services con foco estratégico en la generación de soluciones usando tecnología en la nube, somos obsesionados por lograr los objetivos propuestos y tenemos especial énfasis en el grupo humano que compone ARKHO (nuestros Archers), reconociendo a nuestro equipo como un componente vital para el logro de los resultados.
¿Te motivas? ¡Te esperamos!

Funciones

Estamos en busqueda de un Data Scientist con por lo menos dos años de experiencia, para incorporarse a nuestro equipo ágil para diversos proyectos Data Analytics. Será el encargado de velar por soluciones integrales para las problemáticas de cada uno de los clientes y proyectos en los cuales se desenvuelva junto al equipo.
Dentro de sus actividades principales se encuentran:
  • Comprender el contexto de negocio del cliente, desde la bajada comercial, indicadores claves que se busca potenciar, fuentes de datos y cómo sacar el mayor provecho de esta data para potenciar los resultados.
  • Analizar datos de alta complejidad utilizando técnicas de análisis estadístico, aprendizaje automático.
  • Acompañar y orientar al cliente respecto a diversas alternativas de solución.
  • Todos nuestros proyectos nos desafían a desplegar productos y servicios más rápidos, seguros, escalables y robustos en la nube.
Nos gusta conformar equipos colaborativos y auto-gestionados, por lo que las habilidades de comunicación y responsabilidad son muy importantes. ¡Buscamos profesionales de excelencia e íntegros dentro y fuera de la cancha!

Perfil del rol

En nuestra compañía valoramos a las personas autosuficientes, proactivas e innovadoras. Debes ser capaz de organizar tu propia carga de trabajo, tomar decisiones, cumpliendo los plazos y objetivos.
En tu carrera profesional deberías contar al menos con:
  • Experiencia mínima de 3 años en roles similares.
  • Técnicas de machine learning (Clustering, PCA, regresión logística, etc) y Deep Learning.
  • Desarrollo e implementación de modelos de IA utilizando embeddings y Large Language Models (LLMs)
  • Dominio de lenguajes de programación: Structured Query Language (SQL) y Python.
  • Experiencia con AWS cloud (SageMaker, S3, Lambda, bedrock).
  • Manejo de librerías: Pandas, Sklearn, Numpy, Matplotlib.
  • Ser graduado de Ingeniería de sistemas, Ingeniería matemática o afín.

Habilidades opcionales

  • Idioma inglés nivel intermedio

Beneficios del Archer

  • Día administrativo semestral hasta los 12 meses
  • Week off: 5 días de vacaciones extra
  • ¡Celebra tu cumpleaños!
  • Path de entrenamiento
  • Certificaciones AWS
  • Aguinaldos Fiestas Patrias y Navidad
  • Seguro complementario (sólo para Chile)
  • Flexibilidad (trabajo híbrido o remoto)
  • Regalo por casamiento + 5 días hábiles libres
  • Regalo por nacimiento de hijos
  • Kit escolar
  • Beneficio paternidad + 10 días (5 días adicionales a la Ley Chilena)
  • Bonda (Workshops de temáticas diversas, Wellness y descuentos en locales comerciales)

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Informal dress code No dress code is enforced.
Vacation over legal ARKHO gives you paid vacations over the legal minimum.
APPLY VIA WEB
Gross salary $2000 - 2700 Full time
Data Science Senior
  • coderslab.io
  • Santiago (Hybrid)
SQL Python BigQuery Big Data

CodersLab es una empresa dedicada al desarrollo de soluciones en el sector IT. Actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina. Por eso, estamos buscando un Data scientist Senior para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Job functions

  • Diseñar y desarrollar modelos de aprendizaje automático utilizando herramientas de Vertex AI (AutoML, Pipelines, Feature Store, etc.).
  • Implementar flujos de trabajo de datos en GCP, utilizando servicios como BigQuery, Dataflow, Pub/Sub y Cloud Storage.
  • Desplegar y gestionar modelos de ML en producción, asegurando rendimiento, escalabilidad y monitoreo continuo.
  • Crear y optimizar pipelines de MLOps para el desarrollo ágil de modelos y su mantenimiento.
  • Colaborar con ingenieros de datos, analistas y DevOps para integrar los modelos en sistemas productivos.
  • Analizar grandes volúmenes de datos y generar insights accionables que respondan a las necesidades del negocio.
  • Comunicar resultados técnicos y hallazgos analíticos a audiencias técnicas y no técnicas.
  • Mantenerse actualizado sobre las últimas innovaciones en GCP, Vertex AI y aprendizaje automático.

Qualifications and requirements

  • Experiencia mínima de 3 años trabajando como Data Scientist o en roles similares.
  • Conocimiento avanzado de Google Cloud Platform (GCP), incluyendo:
    • BigQuery
    • Dataflow
    • Cloud Storage
    • Pub/Sub
    • Cloud Composer
  • Experiencia en el uso de Vertex AI para el desarrollo y despliegue de modelos de aprendizaje automático.
  • Dominio de lenguajes como Python y SQL.
  • Conocimiento de frameworks de aprendizaje automático como TensorFlow, PyTorch o scikit-learn.
  • Experiencia en construcción de pipelines de datos y MLOps.
  • Familiaridad con herramientas de visualización como Looker, Tableau o Data Studio.

Conditions

Hibrido en Santiago de Chile
Renta en pesos Chilenos

APPLY VIA WEB
Gross salary $1000 - 1300 Full time
Data Scientist Junior
  • coderslab.io
  • Santiago (Hybrid)
SQL Python BigQuery Big Data

CodersLab es una empresa dedicada al desarrollo de soluciones en el sector IT. Actualmente, nos enfocamos en expandir nuestros equipos a nivel global para posicionar nuestros productos en más países de América Latina. Por eso, estamos buscando un Data scientist Junior para unirse a nuestro equipo.

Formarás parte de un equipo desafiante y ambicioso, con ganas de innovar en el mercado, donde tus ideas y contribuciones serán altamente valiosas para el negocio.

¡Postúlate ahora para este increíble desafío!

Job functions

  • Diseñar y desarrollar modelos de aprendizaje automático utilizando herramientas de Vertex AI (AutoML, Pipelines, Feature Store, etc.).
  • Implementar flujos de trabajo de datos en GCP, utilizando servicios como BigQuery, Dataflow, Pub/Sub y Cloud Storage.
  • Desplegar y gestionar modelos de ML en producción, asegurando rendimiento, escalabilidad y monitoreo continuo.
  • Crear y optimizar pipelines de MLOps para el desarrollo ágil de modelos y su mantenimiento.
  • Colaborar con ingenieros de datos, analistas y DevOps para integrar los modelos en sistemas productivos.
  • Analizar grandes volúmenes de datos y generar insights accionables que respondan a las necesidades del negocio.
  • Comunicar resultados técnicos y hallazgos analíticos a audiencias técnicas y no técnicas.
  • Mantenerse actualizado sobre las últimas innovaciones en GCP, Vertex AI y aprendizaje automático.

Qualifications and requirements

  • Experiencia mínima de 3 años trabajando como Data Scientist o en roles similares.
  • Conocimiento avanzado de Google Cloud Platform (GCP), incluyendo:
    • BigQuery
    • Dataflow
    • Cloud Storage
    • Pub/Sub
    • Cloud Composer
  • Experiencia en el uso de Vertex AI para el desarrollo y despliegue de modelos de aprendizaje automático.
  • Dominio de lenguajes como Python y SQL.
  • Conocimiento de frameworks de aprendizaje automático como TensorFlow, PyTorch o scikit-learn.
  • Experiencia en construcción de pipelines de datos y MLOps.
  • Familiaridad con herramientas de visualización como Looker, Tableau o Data Studio.

Conditions

Hibrido en Santigo de Chile
Renta en pesos Chilenos

APPLY VIA WEB
$$$ Full time
Data Scientist
  • 2BRAINS
NoSQL SQL Python R

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

El Data Scientist de 2Brains

Es responsable de analizar y extraer conocimiento a partir de datos mediante técnicas de Machine Learning, estadística y análisis avanzado, con el fin de optimizar la toma de decisiones y generar impacto en el negocio. Trabaja en conjunto con el equipo digital para desarrollar productos de datos, asegurando su calidad, documentación y correcta implementación. Además, mide el impacto de sus soluciones mediante estándares de experimentación, contribuyendo a la mejora continua y eficiencia operativa.

El Data Scientist de 2Brains deberá

  • Analizar grandes volúmenes de datos para identificar patrones, tendencias y oportunidades de mejora.
  • Diseñar, desarrollar e implementar modelos de Machine Learning y técnicas estadísticas para resolver problemas de negocio.
  • Desarrollar productos de datos en colaboración con el equipo digital, asegurando calidad, mantenimiento y escalabilidad.
  • Aplicar métodos de experimentación y validación (A/B testing, causal inference, etc.) para medir el impacto de las soluciones implementadas.
  • Garantizar la correcta documentación de los modelos, algoritmos y procesos desarrollados.
  • Optimizar y mejorar continuamente los modelos en producción en función de su desempeño y nuevos datos.
  • Colaborar con equipos de negocio y tecnología para alinear soluciones de datos con objetivos estratégicos.
  • Explorar nuevas herramientas y tecnologías para potenciar el uso de datos dentro de la organización.

¿Qué conocimientos buscamos en el/la Data Scientist?

  • Python/R, SQL y Spark. Para programar modelos de machine learning, realizar análisis estadístico y manipular datos, además de procesar grandes volúmenes de datos en paralelo y a gran escala.
  • Machine Learning, métricas de evaluación de modelos.
  • Pruebas A/B.
  • Deployment de modelos
  • Análisis estadístico
  • Desarrollo de productos de datos.
  • Deseables:
  • NoSQL, Bayesian Statistics, MLOps avanzado.
  • Herramientas de visualización como Streamlit.

¿Qué competencias buscamos en el/la Data Scientist?

  • Curiosidad
  • Foco en los objetivos
  • Colaboración y trabajo en equipo (ínter y multidisciplinario)
  • Proactividad
  • Autonomía

Te ofrecemos

  • Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos.
  • Un proyecto con foco en los usuarios, visión de UX e integrada al desarrollo.
  • Acceso a grandes clientes y proyectos desafiantes.
  • Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales.
  • Un entorno de trabajo flexible y dinámico.
  • Beneficios especiales: un día libre de regalo por tu cumpleaños, días de descanso (previa coordinación), convenios para cursos de especialización.

Wellness program 2BRAINS offers or subsidies mental and/or physical health activities.
Internal talks 2BRAINS offers space for internal talks or presentations during working hours.
Informal dress code No dress code is enforced.
Shopping discounts 2BRAINS provides some discounts or deals in certain stores.
Vacation over legal 2BRAINS gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Business Analyst
  • 2BRAINS
Excel SQL UML Power BI

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

El/la Business Analyst de 2Brains debe:

Analizar, documentar y traducir los requisitos del negocio en especificaciones técnicas para optimizar procesos y apoyar la toma de decisiones estratégicas, contribuyendo a la eficiencia operativa y al éxito de los proyectos. Va a apoyar al PO, debe tener entendimiento de agilidad y propiciar el mejoramiento continuo; debe ser agnóstico con respecto al producto y enfocarse en la ejecución de tareas clave.

Las principales responsabilidades del/la Business Analyst de 2Brains:

  • Analizar y documentar los requisitos del negocio.
  • Colaborar con equipos de desarrollo y partes interesadas.
  • Realizar análisis de datos para la toma de decisiones.
  • Diseñar y mejorar procesos de negocio.
  • Proporcionar soporte en la implementación de nuevas soluciones.
  • Definir y dar seguimiento de OKRs.
  • Realizar Benchmarks.
  • Creación y seguimiento del Roadmap Funcional.
  • Preparar el Sprint Review.
  • Gestionar a los Stakeholders.
  • Colaborar con áreas de negocio, operativas, QA, atención al cliente, BI y la Oficina de Proyectos para el levantamiento de requerimientos, optimización de procesos, calidad de entregables y generación de reportes.
  • Coordinar con proveedores de tecnología, soporte AMS y células de desarrollo para la implementación de proyectos y gestión de incidencias.

¿Qué conocimientos buscamos en el/la Business Analyst?

  • Idioma: Inglés intermedio.
  • Conocimiento de Excel (tablas dinámicas, análisis de datos).
  • Herramientas de modelado: UML, BPMN.
  • Experiencia en roles similares de 2 a 3 años.
  • Conocimientos en técnicas de modelado de procesos, análisis de requisitos, herramientas analíticas y estadísticas.
  • SQL y bases de datos
  • Herramientas de Business Intelligence (BI): como Power BI, Tableau o Google Data Studio para visualización y análisis de datos.
  • Metodologías ágiles: Scrum, Kanban y herramientas como Jira o Trello.
  • APIs y web services: Comprensión básica de REST y SOAP para integración de sistemas.

¿Qué competencias buscamos en el/la Business Analyst?

  • Curiosidad
  • Foco en los objetivos y orientación a resultados
  • Colaboración y trabajo en equipo (ínter y multidisciplinario)
  • Proactividad
  • Autonomía
  • Tolerancia a la frustración
  • Liderazgo y toma de decisiones

Te ofrecemos

  • Trabajar con un gran equipo de alto rendimiento, aprendemos y nos desarrollamos juntos.
  • Un proyecto con foco en los usuarios, visión de UX e integrada al desarrollo.
  • Acceso a grandes clientes y proyectos desafiantes.
  • Aprendizaje y crecimiento permanente, generamos meetups, capacitaciones y charlas internas.
  • Un entorno de trabajo flexible y dinámico.
  • Día libre de regalo por tu cumpleaños
  • Convenios para cursos de especialización.
  • Programas de bienestar.
  • Espacios para charlas internas.
  • Días de descanso a convenir.

Internal talks 2BRAINS offers space for internal talks or presentations during working hours.
Informal dress code No dress code is enforced.
Shopping discounts 2BRAINS provides some discounts or deals in certain stores.
Vacation over legal 2BRAINS gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Data Engineer
  • 2BRAINS
NoSQL Web server SQL Continuous Integration

2Brains es una empresa dedicada a construir y desarrollar el Futuro Digital de nuestros clientes, con una visión excepcional que radica en la integración sinérgica de estrategia, diseño y tecnología, un tríptico poderoso que impulsa el crecimiento de empresas y disruptores tecnológicos.

Contamos con un nutrido equipo de más de 200 profesionales, verdaderos artífices de la innovación digital. En el corazón de nuestra labor, destacamos como líderes indiscutibles, canalizando años de experiencia hacia la creación de plataformas tecnológicas adaptables y productos digitales de clase mundial.

En 2Brains, no solo somos consultores, somos arquitectos de experiencias digitales. Aspiramos a ir más allá de las expectativas, estableciendo nuevos estándares en la industria. Descubre cómo damos vida a la innovación, cómo convertimos ideas en resultados tangibles y cómo, junto a nosotros, puedes forjar un futuro digital brillante.

El/la Data Engineer de 2Brains

Se encarga de participar en el diseño y desarrollo de los nuevos modelos de información de gestión y las mantenciones evolutivas de los existentes. Participar en las iniciativas de Analítica avanzada del área, apoyando las exploración de modelos de información internos y externos (Data Discovery). Obtener datos históricos desde múltiples fuentes de información interna para apoyar las iniciativas de analítica avanzada del equipo.

El/la Data Engineer de 2Brains debe

  • Construir y optimizar pipelines de datos para la ingesta, transformación y carga eficiente de información.
  • Manejar infraestructuras en la nube (AWS, GCP, Azure), asegurando escalabilidad y eficiencia en costos.
  • Automatizar y monitorear procesos mediante herramientas de DevOps como Airflow, Terraform o Kubernetes.
  • Implementar controles de calidad y gobernanza para garantizar la integridad y disponibilidad de los datos.
  • Colaborar con equipos de Data Science, Producto y Desarrollo para diseñar soluciones alineadas con las necesidades del negocio.

Qué conocimientos buscamos en/la Data Engineer

  • Excluyente Experiencia trabajando con tecnologías de BI
  • Experiencia en la construcción/operación de sistemas distribuidos de extracción, ingestión y procesamiento de grandes conjuntos de datos de gran disponibilidad.
  • Capacidad demostrable en modelado de datos, desarrollo de ETL y almacenamiento de datos.
  • Experiencia en el uso de herramientas de informes de inteligencia empresarial (Power BI)
  • Excluyente conocimiento en consumo de microservicios de APIs Rest
  • Excluyente conocimiento en Git , Bitbucket, Docker,Jenkins,Webhooks
  • Programación con Python y bases sólidas de ingeniería de software.
  • Automatización y scripting.
  • Uso de librerías de Python para manipulación y análisis de datos y Apache Spark.
  • Conocimientos en bases de datos SQL y NoSQL.
  • Conocimiento en CI/CD, Dataflow
  • Conocimiento en S3, Redshift y Glue AWS

Que competencias buscamos en/la Data Engineer

  • Empatía
  • Buena capacidad de comunicación.
  • Colaboración y trabajo en equipo.
  • Proactividad.
  • Autonomía.
  • Foco en los objetivos de proyectos.

Condiciones

Trabajar con un equipo de alto rendimiento, aprendemos y nos desarrollamos juntos

Acceso a grandes clientes y proyectos desafiantes

Aprendizaje y crecimiento permanente, organizamos meetups, capacitaciones y actividades culturales

Un entorno de trabajo flexible y dinámico

Beneficios especiales: día libre para tu cumpleaños, días de descanso a convenir.

Informal dress code No dress code is enforced.
Vacation over legal 2BRAINS gives you paid vacations over the legal minimum.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
Gross salary $2000 - 2500 Full time
Analista de BI Latam
  • BC Tecnología
SQL Analytics Python Power BI

En BC Tecnología, somos una consultora de TI especializada en diversas áreas tecnológicas, ofreciendo un entorno de trabajo colaborativo donde se valora el compromiso y el desarrollo profesional. Trabajamos con clientes en los sectores de servicios financieros, seguros, retail y gobierno, diseñando soluciones adecuadas a sus necesidades desde hace más de seis años. Nuestro enfoque incluye consultoría y diseño de soluciones, formación de equipos, desarrollo de proyectos, y servicios de soporte y administración IT.

Responsabilidades principales:

  • Extraer y procesar datos desde diversas fuentes mediante SQL y Python (PySpark).
  • Diseñar y optimizar modelos de datos en Power BI para reportes avanzados.
  • Implementar y mejorar flujos ETL para la integración de datos.
  • Colaborar con áreas de negocio para entender necesidades analíticas y generar soluciones BI.
  • Asegurar la calidad y disponibilidad de los datos en los reportes.

Requisitos:

  • SQL Avanzado – Creación, optimización y modelado de datos.
  • Python (PySpark) – Procesamiento y transformación de datos en entornos Big Data.
  • Power BI (Nivel medio-alto) – Creación de reportes y dashboards interactivos.
  • Databricks (Deseable) – Experiencia en plataformas de datos en la nube.
  • Experiencia mínima de 3 años en roles de BI, Data Analytics o similares.
  • Habilidades de comunicación y trabajo en equipo para traducir necesidades de negocio en soluciones BI.

Deseable:

Experiencia con Databricks sería un plus, mostrando la capacidad de trabajar con plataformas de datos en la nube.

Conditions

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
$$$ Full time
Data Engineer Azure
  • Factor IT
  • Santiago (Hybrid)
NoSQL SQL Python Scala
En FactorIT, buscamos un Ingeniero de Datos con experiencia en banca y entidades financieras para liderar y ejecutar proyectos de Data & Analytics. Te unirás a un equipo innovador en el que tu trabajo impactará directamente en la transformación digital de importantes instituciones en el sector financiero.
Este rol es clave para potenciar el uso de datos dentro de la banca, asegurando que la infraestructura y los procesos estén alineados con los objetivos estratégicos del negocio. Tendrás la oportunidad de trabajar con tecnologías de vanguardia, incluyendo Azure Databricks y otros servicios en la nube, asegurando soluciones escalables y seguras que optimicen la toma de decisiones.

Responsabilidades:

  • Diseñar y desarrollar soluciones de ingestión, transformación y modelado de datos en Azure Databricks y otras tecnologías relacionadas.
  • Optimizar procesos de ETL/ELT, asegurando calidad, integridad y eficiencia en el procesamiento de datos.
  • Colaborar con equipos de negocio para entender sus necesidades, identificar oportunidades y proponer soluciones basadas en datos.
  • Implementar arquitecturas de datos escalables que soporten analítica avanzada, machine learning e inteligencia de negocio.
  • Garantizar la seguridad y el cumplimiento normativo en el manejo de datos, siguiendo estándares bancarios y regulatorios.
  • Desarrollar y optimizar pipelines de datos para la explotación en entornos analíticos y de reportes.
  • Documentar procesos, arquitecturas y modelos de datos, asegurando buenas prácticas de gobernanza.
  • Trabajar en conjunto con equipos de Data Science, BI y Tecnología para garantizar la disponibilidad y calidad de los datos.

Requisitos Técnicos y Habilidades:

Buscamos un profesional con un mínimo de 3 años de experiencia en ingeniería de datos, idealmente en el sector financiero. Debe poseer un conocimiento avanzado en:
  • Azure Databricks, Spark y servicios de datos en la nube como Azure Data Factory, Azure Synapse y Data Lake.
  • Modelado de datos, optimización de consultas y bases de datos en SQL y NoSQL.
  • Programación en Python y/o Scala para el desarrollo de pipelines y procesamiento de datos.
  • Arquitecturas de datos escalables y distribuidas.
  • Principios de seguridad y cumplimiento normativo en banca (ej. GDPR, PCI-DSS, BCBS 239).
  • Herramientas de orquestación y automatización de flujos de datos.
Además, necesitaremos que cuentes con habilidades blandas como excelente comunicación, pensamiento analítico, proactividad y capacidad de trabajo en equipo en entornos ágiles y dinámicos.

Habilidades Deseables:

Sería un plus contar con experiencia previa en proyectos de transformación digital en el sector bancario, así como familiaridad con herramientas de visualización de datos y reportes. La capacidad para adaptarse rápidamente a nuevas tecnologías y seguir aprendiendo continuamente es muy valorada dentro de nuestra cultura.

Beneficios:

En FactorIT, brindamos un entorno de trabajo dinámico y colaborativo donde puedes trabajar con tecnologías de punta. Ofrecemos un plan de crecimiento profesional, capacitaciones en IA y automatización, y un salario competitivo acorde a tu experiencia.
Promovemos el equilibrio entre la vida personal y laboral mediante trabajo 100% remoto 🌍 y flexibilidad laboral. Únete a nosotros y sé parte de un equipo que está transformando el futuro de la tecnología en la región.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Computer provided Factor IT provides a computer for your work.
APPLY VIA WEB
$$$ Full time
Data Engineer
  • Leniolabs_
SQL Virtualization ETL Power BI
Leniolabs_ que ahora es Improving South America es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España, USA y Canadá.
Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes.
Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.
Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Responsabilidades del Ingeniero de Datos

  • Descubrimiento de Fuentes Legacy: Utilizar SQL avanzado y scripting (Python/PowerShell) para automatizar procesos y documentar sistemas heredados.
  • Análisis de Calidad de Datos: Ejecutar perfiles de datos, identificar problemas de calidad y generar métricas clave de calidad (KPIs).
  • Limpieza Inicial de Datos: Aplicar herramientas ETL/ELT (Informatica, Talend, dbt) y realizar limpieza de datos en base a las comunicaciones con expertos.
  • Definición de Estrategias de Archivo vs. Migración: Diseñar modelos de datos y evaluar soluciones de almacenamiento equilibrando cumplimiento y costos.
  • Mapping a la Plataforma del Proveedor: Desarrollar procesos de mapeo y transformación para garantizar la correcta transferencia de datos.
  • Análisis de Necesidades Actuales de BI/Reportes: Colaborar con usuarios para optimizar consultas SQL y estructurar datos para reportes.
  • Tareas Adicionales: Orquestación de pipelines (Airflow), CI/CD, contenedorización (Docker, Kubernetes) y automatización en la nube (AWS).

Requisitos Técnicos y Habilidades Deseadas

Buscamos un profesional con el siguiente perfil:

  • Dominio en SQL avanzado, así como experiencia en herramientas ETL/ELT como Informatica, Talend y dbt. Conocimientos en sistemas de almacenamiento en la nube (AWS S3, Redshift)
  • Habilidades en orquestación de pipelines (Airflow, Docker, Kubernetes)
  • Familiaridad con herramientas de BI como Power BI o Tableau.
  • Nivel de inglés intermedio/avanzado o avanzado.
  • A nivel de habilidades blandas, esperamos que los candidatos tengan un fuerte pensamiento crítico, atención al detalle y la capacidad de comunicar hallazgos técnicos a diferentes públicos.

Habilidades Deseables

Si bien no son imprescindibles, se valorarán conocimientos adicionales en el trabajo con big data y experiencia en entornos ágiles. La capacidad de adaptarse rápidamente a nuevas herramientas y requisitos será muy apreciada, al igual que la iniciativa para proponer mejoras a nuestros procesos actuales.

¿Qué Ofrecemos?

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Computer provided Leniolabs_ provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation on birthday Your birthday counts as an extra day of vacation.
APPLY VIA WEB
$$$ Full time
Senior Data Engineer
  • OpenLoop
  • Lima (Hybrid)
Redis SQL C# C

OpenLoop is a fast-growing health tech company with a mission to transform the healthcare industry through innovative technology solutions. We service all 42,000 zip codes nationwide, connecting certified clinicians with digital health companies to expand access to quality care.

Our OpenLoop Peru team is seeking a Senior Data Engineer that will lead quality designs, implement smart data storage solutions, and ensure our data is accessible, reliable and usable for valuable analysis and decision making.

Note: This is a full time position with a hybrid schedule, working hours of 9:00am - 6:00pm. Tuesdays and Thursdays, employees are required in the office.

Responsibilities

  • Software Development and Architecture:
    • Write production-ready data pipelines, going towards self-documenting code that is aligned with the overall data architecture. Utilizes abstractions and code isolation effectively. Works in a specific stack. Implements detailed software design.
  • Project Impact and Responsibility:
    • Participate in the design of data architecture in one project and deployment. Create and modify useful views to improve existing reports.
  • Stakeholder Collaboration:
    • Utilize your knowledge to partner with Senior Engineers, Leaders and/or stakeholders communicating any decision making that may have security implications.
  • Technical Leadership:
    • Provide guidance and mentorship to junior level Data Engineers, promoting best practices in cloud architecture and development.
  • Continuous Improvement and Operations:
    • Proactively Identify and refactor data pipelines or projects.
  • Other duties as assigned.

Required Skills & Experience

  • Bachelor's degree in an Engineering field (desired).
  • 4 years of experience as a Data Engineer
    • startup or healthcare background is a plus
  • 3 years of experience with Typescript, Python or C#
  • 3 years of experience with relational and non-relational databases
  • 3 years of experience working with a Cloud provider (preferably AWS using services such as S3, Lambdas, Step)
  • Functions experience: SNS, SQS, DynamoDB, Kinesis, Redis, etc).
  • 3 years of experience working with version control systems such as Github.
  • Strong knowledge of SQL queries.
  • Technical expertise regarding data models, database design development, data mining and segmentation techniques.
  • Experience with a CDK is a plus.
  • Successful candidates will have proven career experience with being an agile team player, self-driven, autonomous, and solution focused.
  • This role will consistently work with our OpenLoop teams in the United States. Candidates must be able to speak, understand, read and write English at an advanced level. We do require resumes to be submitted in English. Our interview process will include a conversation in English to verify level of fluency and understanding.

Our Benefits

At OpenLoop, we prioritize employee well-being with a competitive benefits package, including:
  • Contracting under a Peruvian company ID ('Planilla') with all legal benefits in Peruvian soles.
  • Hybrid work schedule (Tuesday & Thursday in office), hours of 9 am - 6 pm.
  • Unlimited vacation days to promote a healthy work-life balance.
  • 100% coverage of EPS healthcare with RIMAC, because you deserve great healthcare.
  • AFP retirement plan for future savings.
  • Provision of a computer and access to a vibrant co-working space in Lima – Miraflores with fantastic amenities.

Join us in shaping the future of tele-health and make a meaningful difference. We’d love to meet you! 🚀

Partially remote You can work from your home some days a week.
Health coverage OpenLoop pays or copays health insurance for employees.
Computer provided OpenLoop provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal OpenLoop gives you paid vacations over the legal minimum.
APPLY VIA WEB
$$$ Full time
Data Engineer
  • ICONSTRUYE
  • Santiago (Hybrid)
NoSQL SQL Python Go
En ICONSTRUYE, hemos estado a la vanguardia de la tecnología en la construcción durante más de 20 años. Nuestra robusta plataforma tecnológica es un testimonio de nuestra experiencia y compromiso con la industria. Con más de 4,000 clientes en Chile, Colombia y Perú, nos enorgullecemos de proporcionar soluciones integrales que simplifican la cadena de abastecimiento. Buscamos un Ingeniero de Datos que se una a nosotros en la transformación de la industria de la construcción, siendo el puente entre los datos brutos y aquellos que toman decisiones críticas.

Tus funciones principales:

Tu misión: Ser el puente entre los datos brutos y quienes necesitan realizar análisis y/o tomar decisiones con esos datos.

  • Garantizar la calidad, integridad y seguridad de los datos.
  • Colaborar con diversos stakeholders para comprender sus necesidades de datos.
  • Desarrollar procesos de extracción, transformación y carga (ETL) de datos para nuestro data lake, proporcionando información valiosa para el análisis y toma de decisiones.
  • Implementar nuevas bases de datos y/o data warehouses para satisfacer las necesidades de la empresa.
  • Contribuir a la definición de políticas de gobernanza de datos.
  • Ser una autoridad en la creación, implementación y operación de soluciones escalables y de bajo costo, facilitando el flujo de datos desde sistemas de producción hasta el data lake.

Requerimientos técnicos:

  • Dominio de Python o Go.
  • Dominio de SQL.
  • Conocimiento de base de datos relacionales y no relacionales (NoSQL).
  • Conocimiento de AirFlow, Luigi, Dagster.
  • Conocimientos de Kafka y/o RabbitMQ.
  • Conocimiento en Docker y Kubernetes.

Beneficios que ofrecemos:

  • 🌴 5 días extras de descanso al año.
  • 🍔 Tarjeta amipass para utilizar en restaurantes, delivery y supermercados.
  • 👨‍⚕️ Seguro complementario de salud, dental y de vida.
  • 🏠 Modalidad de trabajo híbrido.
  • 📠 Flexibilidad con permisos para trámites y asuntos familiares.
  • 👩‍👦 Jornada reducida en días de vacaciones escolares (viernes medio día).
  • 🎂 Tarde libre en tu cumpleaños.
¡Únete a nosotros y sé parte de nuestra misión de transformar la industria de la construcción!

Health coverage ICONSTRUYE pays or copays health insurance for employees.
Computer provided ICONSTRUYE provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal ICONSTRUYE gives you paid vacations over the legal minimum.
Beverages and snacks ICONSTRUYE offers beverages and snacks for free consumption.
APPLY VIA WEB
Gross salary $2500 - 3000 Full time
Data Science
  • coderslab.io
SQL Python Virtualization Amazon Web Services

CodersLab es una empresa dedica al desarrollo de soluciones dentro del rubro IT y actualmente nos encontramos apuntando al crecimiento de nuestros equipos de manera global con el objetivo de posicionarnos con nuestros productos en más países de Latinoamérica, es por ello que estamos en búsqueda de un Data Science Semi-Senior para sumarse a nuestro equipo.

Te sumarás a un equipo desafiante y ambicioso con ganas de renovar el mercado, por lo que tus propuestas serán de mucho valor para el negocio.

¡Postula para este tremendo desafío!

Job functions

Responsabilidades

  • Análisis y modelado de datos: Utilizar habilidades analíticas para identificar patrones, tendencias e insights en grandes conjuntos de datos.
  • Desarrollo y validación de modelos: Aplicar técnicas estándar de la industria para crear características, limpiar conjuntos de datos y desarrollar pipelines para entrenar y servir modelos, principalmente enfocados en clasificación.
  • Evaluación de riesgo crediticio: Analizar el riesgo crediticio de posibles prestatarios mediante los modelos desarrollados, asignando puntajes de crédito o probabilidades de incumplimiento. Se valora el uso de datos alternativos y enfoques innovadores.
  • Ingeniería de características: Identificar y crear características relevantes que mejoren la capacidad predictiva de los modelos y reflejen la solvencia crediticia de los individuos.
  • Colaboración interdisciplinaria: Trabajar con otros equipos para proporcionar información, desarrollar modelos y participar en la toma de decisiones técnicas.
  • Monitoreo y evaluación de desempeño: Realizar un seguimiento continuo del rendimiento de los modelos desplegados, evaluar métricas y ajustarlos según sea necesario en respuesta a cambios en el comportamiento, condiciones del mercado o regulaciones.
  • Investigación e innovación: Mantenerse actualizado con los últimos avances en ciencia de datos y aprendizaje automático, experimentando con nuevos enfoques para la evaluación del riesgo crediticio.

Qualifications and requirements

Obligatorios (MUST)

  • 1-2 años de experiencia en Ciencia de Datos, Análisis de Datos o Análisis de Negocios (con conocimientos en Machine Learning).
  • Más de 2 años de experiencia con Python y SQL.
  • Perfil con habilidades para la resolución creativa de problemas, capaz de analizar datos, extraer insights y convertirlos en decisiones accionables.
  • Conocimientos en servicios de AWS.
  • 1-2 años de experiencia en Machine Learning aplicado al riesgo financiero.

Conditions

Remoto LATAM

Fully remote You can work from anywhere in the world.
APPLY VIA WEB
$$$ Full time
Senior Business Analyst
  • Decision Point LATAM
  • Santiago (Hybrid)
Excel SQL English Data Analysis
Decision Point offers an entrepreneurial environment and exposure to advanced analytics in the domain of sales and marketing. The team at Decision Point is very young, energetic, and highly skilled. Our team consists of talented business consultants, data scientists and engineers who are passionate about implementing analytics in real world business problems.
A career at Decision Point is rich in global experience and offers opportunities to build lasting relationships.

Job functions

  • Design and develop analytical solutions to address a spectrum of business challenges, focusing on user acquisition and engagement for state-of-the-art digital offerings.
  • Translate business requirements into actionable analyses and effectively communicate complex data-driven findings to a diverse audience through compelling visuals and presentations.
  • Perform cohort studies and event impact assessments to analyze outcomes of event interventions using statistical methods.
  • Manage large datasets using most recent technologies
  • Continuously improve processes with focus on automation and partner with different teams to develop system capability
  • Partner with consultants /project leads to understand business briefs and execute analyses ensuring high quality, on-time delivery
  • Communicate effectively with the client to understand their changing requirements & business landscape or present insights (need driven)
  • Deliver informative and well-organized deliverables.
  • Evaluate new data sources, conduct research to assist in solving business problems
  • Multi country / companies’ interactions with team and the Client is daily
  • Take responsibility for technical skill-building within the organization (training, process definition, research of new tools and techniques etc.)
  • Take part in organizational development activities to take our organization to the next level

Qualifications and requirements

  • 3 years of experience as Business Analyst
  • Experience in FMCG or Retail field is mandatory
  • Strong experience executing Data analysis in Excel (Mandatory)
  • Advanced English is mandatory
  • Proficiency in data pull and preparation in SQL
  • Strong experience building storytelling and showing insights in PPT (Mandatory)

Desirable skills

  • Strong experience in PowerBI (is a plus)
  • Experience working in the analytics field is a plus
  • Excellent analytical skills and should be a problem solver
  • Strong interpersonal and communication skills
  • Self-motivated, disciplined with a “can do” attitude and to follow up on obtaining data, information, or validations from the client.
  • Multi country / companies’ interactions with Decision Point team and the Client is daily
  • Experience in exploratory Data Analysis for Modelling and Business Analysis using Python is a plus

Benefits

  • Hybrid 4x1 in CL and 3x2 in MX from the fourth month (4 days a week in office and 1 from home, in Mexico 3 days a week in office and 2 from home)
  • Lunch and Healthy Snacks (CL)
  • Complementary Health Insurance (CL)
  • 2 Days free per quarter of the year
  • 5 extra days of vacation

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Partially remote You can work from your home some days a week.
Health coverage Decision Point LATAM pays or copays health insurance for employees.
Computer provided Decision Point LATAM provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Decision Point LATAM gives you paid vacations over the legal minimum.
Beverages and snacks Decision Point LATAM offers beverages and snacks for free consumption.
APPLY VIA WEB
$$$ Full time
Database Engineer
  • Leniolabs_
Web server SQL Python PostgreSQL

Leniolabs_ que ahora es Improving South America es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España, USA y Canadá.

Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes.

Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.

Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Funciones del cargo

En Leniolabs/Improving South America estamos en la búsqueda de un Database Engineer (DBE) SSR/SR.

El candidato ideal va a gestionar, monitorear y mejorar el rendimiento de bases de datos con PostgreSQL en AWS RDS Aurora, asegurando alta disponibilidad, seguridad y eficiencia.

Colaborará con el diseño e implementar canales ETL para facilitar un flujo de datos sin inconvenientes entre la base de datos centralizada y varios sistemas internos.

Optimización del rendimiento: analizar y optimizar consultas SQL, índices y diseños de esquemas para mejorar la eficiencia y la escalabilidad.

Colaboración: trabajar en estrecha colaboración con ingenieros de datos, desarrolladores de aplicaciones y equipos de DevOps para facilitar conexiones directas a bases de datos y soluciones de integración.

Automatización y monitoreo: utilizar herramientas nativas de AWS y soluciones de terceros para el monitoreo, las alertas y la automatización proactivos de bases de datos.

Diseña estrategias de respaldo y recuperación ante desastres para proteger la integridad de los datos y garantizar la continuidad del negocio.

Buscamos perfiles con un compromiso claro con la excelencia técnica, la innovación y un interés genuino en las últimas tecnologías, capaces de trabajar en un entorno ágil y de alto rendimiento.

Requerimientos del cargo

  • Contar con más de 5 años de experiencia en bases de datos.
  • Al menos 3 años trabajando con PostgreSQL: diseño de esquemas, optimización de consultas y estrategias de indexación.
  • Conocimientos en AWS: manejo de RDS, Aurora, IAM, S3, Lambda, Glue y CloudWatch.
  • Experiencia en ETL y canalizaciones de datos, utilizando herramientas como AWS Glue, Apache Airflow o scripts personalizados.
  • Habilidad en scripting y automatización con SQL, Python o AWS CDK.
  • Excelentes habilidades de resolución de problemas en entornos de bases de datos a gran escala.
  • Contar con inglés intermedio/avanzado (B2/C1).

Beneficios

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Computer provided Leniolabs_ provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Leniolabs_ gives you paid vacations over the legal minimum.
APPLY VIA WEB
Gross salary $2500 - 3000 Full time
Sr. Data Scientist
  • Betterfly
  • Santiago (Hybrid)
SQL Analytics Python Virtualization

Betterfly es una Plataforma Digital única en su género que permite a las empresas ofrecer beneficios a sus colaboradores de manera flexible. Promovemos hábitos saludables que se transforman en donaciones sociales, impactando positivamente al mundo. Por ello, estamos buscando a un(a) Sr. Data Scientist que se encargará de desarrollar e implementar modelos de Machine Learning y AI Generativa para personalizar la experiencia en nuestra plataforma de Healthcare.

¿Qué tareas esperamos de ti?

Como parte de nuestro equipo, tendrás las siguientes responsabilidades:

  • Diseñar, entrenar y desplegar modelos de Machine Learning para personalización, segmentación y predicción.
  • Monitorear y evaluar agentes de IA y modelos predictivos.
  • Colaborar con Data Engineers para asegurar pipelines de datos escalables y eficientes.
  • Procesar y limpiar datos estructurados y no estructurados para mejorar la calidad del entrenamiento de modelos.
  • Diseñar, implementar y medir experimentos en colaboración con los equipos de Producto.
  • Trabajar con equipos de Tecnología para llevar a producción las soluciones de datos.
  • Interactuar con la organización para generar modelos predictivos y medir su impacto en problemas de negocio.

¿Qué buscamos en ti?

Buscamos que el candidato tenga un sólido conocimiento y experiencia en:

  • Programación: Python (Pandas, NumPy, Scikit-Learn, TensorFlow, PyTorch), SQL.
  • Machine Learning & AI Generativa: Experiencia y estudios en modelos predictivos, deep learning, NLP y LLM.
  • MLOps & Cloud Computing: Experiencia con MLflow, AWS SageMaker y despliegue de modelos en AWS y GCP (BigQuery, S3, Redshift).
  • Gestión de código: Manejo efectivo de GitHub y flujos de desarrollo colaborativo.
  • Seguridad y calidad de datos: Conocimiento en gobernanza de datos y auditoría de calidad.
  • Experimentación y estadísticas: Diseño de experimentos A/B, pruebas de hipótesis y análisis de impacto.

Además, se requiere un título o experiencia relevante en Ciencias de la Computación, Ingeniería Civil (eléctrica, matemática, industrial) o área afín, así como más de 2 años de experiencia en implementación y monitoreo de modelos predictivos. La familiaridad con herramientas de visualización y monitoreo (Power BI, Mixpanel) es un plus, al igual que la experiencia en seguros o salud.

¿Por qué elegir Betterfly?

En Betterfly, tendrás la oportunidad de trabajar en una organización en constante crecimiento que te desafía a lograr tu mejor versión, enfocándose en generar un impacto positivo en la vida de las personas. Nuestras iniciativas radican en transformar hábitos saludables y fomentar un cambio significativo, centrando todo lo que hacemos en el bienestar de nuestros usuarios y el mundo.

¿Qué te ofrecemos?

Accederás a una variedad de beneficios diseñados para ti:

  • Acceso a nuestra plataforma de Betterfly.
  • Health - ¡Seguro de vida, seguro complementario médico y dental!
  • Bono Betterfly FlexBen.
  • No hay dress code - ¡Dejamos las corbatas a un lado!
  • ¡Beneficio sala cuna para madres y padres Betterflyers!
  • ¡Your Day! - Cumpleaños libre.
  • Festivity Time - ¡Semana de navidad o año nuevo totalmente libre!
  • Flexibilidad horaria - Trabajo híbrido.
  • Voluntariados.
  • Ambiente multicultural y focus en innovación continua.

Flexible hours Flexible schedule and freedom for attending family needs or personal errands.
Health coverage Betterfly pays or copays health insurance for employees.
Computer provided Betterfly provides a computer for your work.
Informal dress code No dress code is enforced.
APPLY VIA WEB
$$$ Full time
Power BI Analyst Sr
  • Leniolabs_
SQL BigQuery ETL Power BI
Leniolabs_ es una empresa internacional de desarrollo de software con miembros de equipos en Argentina, Chile, España y USA.
Colaboramos en el desarrollo de software de nuestros clientes, sumándonos con nuestros equipos y estructura, trabajando directamente con los clientes los cuales se encuentran mayoritariamente en San Francisco.
Trabajamos con equipos distribuidos, de manera remota y colaborativa, utilizando herramientas como Slack, Zoom, HO, Jira, etc. Nuestra experiencia se basa fuertemente en frontend development (React, JS, Angular 4+). También trabajamos en desarrollo backend con Ruby on Rails, Python (classifiers y big data structures) y NodeJS.

Valoramos a los desarrolladores dinámicos en el aprendizaje de nuevas tecnologías para utilizarlas en los proyectos.

Funciones del cargo

En Leniolabs estamos en la búsqueda de un SR Power BI Analyst.

El candidato ideal debe contar con un mínimo de 6 años de experiencia, el equipo está buscando recursos para ayudar a satisfacer las necesidades de sus clientes internos de EE. UU. Los miembros de nuestro equipo recibirán tickets de solución de ServiceNow y ejecutarán informes/consultas centrados en los datos de uso del cliente, la validación de datos, etc.

El objetivo es crear un equipo de mejora. Este grupo quiere familiarizarse y sentirse cómodo con la mejora.

El rol implica colaborar estrechamente con arquitectos, ingenieros y propietarios de producto para diseñar soluciones técnicas que soporten altos niveles de disponibilidad y consistencia.

Buscamos perfiles con un compromiso claro con la excelencia técnica, la innovación y un interés genuino en las últimas tecnologías, capaces de trabajar en un entorno ágil y de alto rendimiento.

Requerimientos del cargo

  • Contar con mínimo 6 años de experiencia trabajando con Power BI y SQL.
  • Manejo de Google Cloud Platform (GCP) y BigQuery.
  • Experiencia en ETL (idealmente con Talend) y capacidad para trabajar con grandes volúmenes de datos (terabytes).
  • Sólidas habilidades de redacción y comunicación, además de iniciativa.
  • Nivel de inglés intermedio-avanzado (B2/C1).

Beneficios

  • Salario dolarizado (Argentina).
  • 100% Remoto.
  • Posibilidad de recibir 2 bonos al año.
  • 2 revisiones salariales al año.
  • Clases de inglés.
  • Equipamiento Apple.
  • Cursos UDEMY.
  • Budget para compra de libros.
  • Budget para compra de materiales de trabajo.

Internal talks Leniolabs_ offers space for internal talks or presentations during working hours.
Computer provided Leniolabs_ provides a computer for your work.
Informal dress code No dress code is enforced.
Vacation over legal Leniolabs_ gives you paid vacations over the legal minimum.
APPLY VIA WEB
Gross salary $3000 - 3200 Full time
Data Engineer
  • BC Tecnología
  • Santiago (Hybrid)
Excel SQL Python BigQuery

Data Engineer Senior en Banco Falabella tiene la misión de gestionar, desarrollar e implementar el ciclo de vida de iniciativas dentro de la Gerencia de Operaciones. Desde el levantamiento de la situación actual hasta su desarrollo, implementación y mantenimiento continuo. Además, será responsable de la automatización de procesos, integración continua, monitoreo y seguridad, asegurando que las soluciones sean escalables, confiables y eficientes.

Funciones del cargo

  • Automatización de procesos y recopilación de datos: Implementar procesos automatizados para garantizar que los datos utilizados para el análisis sean completos y estén actualizados.
  • Generación y automatización de visualizaciones de datos: Crear dashboards dinámicos que faciliten la comprensión de la información para su uso estratégico.
  • Colaboración interdisciplinaria: Integrarse continuamente con otros equipos para asegurar un trabajo colaborativo eficaz y sin interrupciones.
  • Presentación de informes y recomendaciones: Proporcionar informes claros con recomendaciones fundamentadas para la toma de decisiones.

Requerimientos del cargo

  • Análisis de datos y estadística.
  • Manejo de bases de datos (SQL, BIGQUERY, entre otras).
  • Conocimientos avanzados en lenguajes de programación (Python, SQL).
  • Herramientas de análisis y visualización (Excel, Power BI, Tableau, Data Studio).
  • Experiencia en el manejo de grandes volúmenes de datos (Big Data, Google Big Query).
  • Levantamiento de procesos.

Condiciones

  • Contrato Proyecto de 12 meses
  • Modalidad trabajo: Hibrido
  • Beneficios de la empresa

Computer provided BC Tecnología provides a computer for your work.
APPLY VIA WEB