Devoteam

Data Engineer Spark Scala Senior | Devoteam Maroc Nearshore

Streaming AWS Elasticsearch Spark Azure Docker Kubernetes Kafka Java Ansible API Python Microservices Scala SQL Hadoop GCP
Description

Description de l'entreprise

Chez Devoteam, nous sommes des « Digital Transformakers ». Le respect, la franchise et la passion animent chaque jour notre tribu. 

Ensemble, nous aidons nos clients à remporter la bataille du Digital : du conseil à la mise en Ɠuvre de technologies innovantes, jusqu’à l’adoption des usages.

Cloud, Cybersecurity, Data, DevOps, Fullstack Dev, Low Code, RPA n’ont plus aucun secret pour notre tribu ! 

Nos 10 000+ collaborateurs sont certifiés, formés et accompagnés au quotidien pour relever de nouveaux challenges innovants.

Leader du Cloud, de la CybersĂ©curitĂ© et de la Data en EMEA, le Groupe Devoteam a rĂ©alisĂ© en 2022 un chiffre d’affaires de 1,036 milliard d’euros et se donne pour ambition de le doubler dans les 5 annĂ©es Ă  venir.

Devoteam Maroc, acteur de rĂ©fĂ©rence dans les expertises IT depuis plus de 30 ans  (350+ consultants) accĂ©lĂšre sa croissance en dĂ©veloppant ses activitĂ©s d’expertise en nearshore pour rĂ©pondre aux besoins de nos clients français, europĂ©ens et moyen orientaux.

Es-tu prĂȘt(e) Ă  nous rejoindre et relever ensemble ce dĂ©fi ?

Description du poste

Data Engineer Spark Scala Senior @ Devoteam Data Driven.

Dans un monde oĂč les sources de donnĂ©es sont en constante Ă©volution, Devoteam Data Driven aide ses clients Ă  transformer leurs donnĂ©es en informations exploitables et les rendre ainsi impactantes pour plus de valeur business.

Data Driven adresse les 3 grandes dimensions suivantes : Data Strategy, Data for Business et Data Foundation en appui d’expertise chez ses clients pour les rendre encore plus performants et compĂ©titifs au quotidien.

Au sein des Ă©quipes Nearshore de Devoteam Maroc, tu rejoindras les Ă©quipes de la tribu Data Foundation : une Ă©quipe enthousiaste de Data Engineers, de Data Ops, de Tech lead architectes et de chefs de projets travaillant sur les plateformes et l’écosystĂšme Data : designer, construire et moderniser les plateformes et solutions Data, concevoir les data pipelines en mettant l’accent sur l’agilitĂ© et le DevOps appliquĂ© Ă  la Data. 

Tu seras le maillon essentiel pour fournir les donnĂ©es fiables et valorisĂ©es aux mĂ©tiers leur permettant de crĂ©er leurs nouveaux produits et services et tu appuieras aussi les Ă©quipes Data Science en leur fournissant les environnements de donnĂ©es “datalab” nĂ©cessaires pour mener Ă  bien leurs dĂ©marches exploratoires dans l’élaboration et l’industrialisation de leurs modĂšles, Ă  savoir :

  • Concevoir, dĂ©velopper et maintenir des pipelines de donnĂ©es efficaces pour extraire, transformer et charger les donnĂ©es de diffĂ©rentes sources vers des systĂšmes de stockage de donnĂ©es de type Lakehouse (datalake, datawarehouse)
  • Écrire du code Scala, souvent associĂ© Ă  Apache Spark pour ses fonctionnalitĂ©s concises et expressives, afin de rĂ©aliser des transformations complexes sur de grands volumes de donnĂ©es
  • S’appuyer sur les fonctionnalitĂ©s offertes par Apache Spark, telles que les transformations et les actions distribuĂ©es, pour traiter les donnĂ©es Ă  grande Ă©chelle de maniĂšre rapide et efficace
  • Identifier et rĂ©soudre les problĂšmes de performance dans les pipelines de donnĂ©es, en optimisant les requĂȘtes Spark, en ajustant la configuration de Spark et en mettant en Ɠuvre les meilleures pratiques.
  • Collaborer avec d'autres Ă©quipes pour intĂ©grer les pipelines de donnĂ©es avec des bases de donnĂ©es SQL, noSQL, du streaming Kafka, des systĂšmes de fichiers de type buckets 

  • Si besoin, concevoir et mettre en Ɠuvre des pipelines de traitement des donnĂ©es en temps rĂ©el en utilisant les fonctionnalitĂ©s de streaming de Spark
  • Mettre en Ɠuvre les mĂ©canismes de sĂ©curitĂ© pour protĂ©ger les donnĂ©es sensibles en utilisant les fonctionnalitĂ©s d'authentification, d'autorisation RBAC/ABAC, de chiffrement, d'anonymisation des donnĂ©es
  • Documenter le code, les pipelines de donnĂ©es, les schĂ©mas de donnĂ©es et les dĂ©cisions de conception pour assurer leur comprĂ©hension et maintenabilitĂ©
  • Mettre en place les tests unitaires et d'intĂ©gration pour assurer la qualitĂ© du code et dĂ©boguer les problĂšmes Ă©ventuels dans les pipelines de donnĂ©es

Tu donneras ta pleine mesure par la maßtrise de tes fondamentaux techniques, ta connaissance sur le bout des doigts des données que tu traites et que tu manipules et surtout en affirmant ta volonté à comprendre les besoins et le métier pour lequel tu travailleras.

Ton terrain de jeu : la distribution, l’énergie, la finance, l’industrie, la santĂ© et les transports avec plein de cas d’usage et de nouveaux dĂ©fis Data Ă  relever ensemble notamment la Data dans le Cloud.

Ce qu’on attend de toi.

  • Que tu aies foi dans la Data 
  • Que tu aides ton collĂšgue
  • Que tu sois gentil avec tes RHs
  • Que tu t’éclates dans ta mission
  • Et que les Codingame ne te fassent pas peur (tu ne seras pas seul : on t’aidera)

Et plus sérieusement :

  • Que tu maĂźtrises les fondamentaux de la Data : les technologies Hadoop, Spark, les data pipelines : l’ingestion, le traitement, la valorisation et l’exposition des donnĂ©es 
  • Que tu souhaites t’investir sur les nouveaux paradigmes de la Data : Cloud, DaaS, SaaS, DataOps, AutoML et que tu t’engages Ă  nos cĂŽtĂ©s dans cette aventure
  • Que tu aimes travailler en mode agile
  • Que tu rĂ©alises des pipelines data performants
  • Que tu entretiennes cette double compĂ©tence Dev & Infra
  • Que tu sois proche des mĂ©tiers, que tu les accompagnes dans la dĂ©finition de leurs besoins, leurs nouveaux produits & services : dans des ateliers, en dĂ©finissant les user stories et en Ă©prouvant au travers de POC
  • Et coder est ta passion : tu travailles ton code, tu commit en Open Source, tu fais un peu de compĂ©tition alors rejoins nous

Ce qu’on t’apportera.

  • Un manager Ă  tes cĂŽtĂ©s en toute circonstance
  • Une communautĂ© Data oĂč tu y trouveras ta place : Ideation Lab, Hackathon, Meetup ...
  • Un parcours de formation et de certification via “myDevoteam Academy” sur les technologies du moment et Ă  venir : Databricks, Spark, Azure Data, Elastic.io, Kafka, Snowflake, GCP BigQuery, dbt, Ansible, Docker, k8s 

  • Un renfort de ton expertise dans le domaine de la Data pour devenir un Tech Lead Cloud (Azure, AWS, GCP 
), un architecte des futures plateformes Data, un expert DataOps au service des mĂ©tiers (Data as a Service) et de la Data Science (AutoML), un Data Office Manager en pilotage des projets Data Product, bref plein de nouveaux jobs en perspective 

  • La possibilitĂ© de t’investir personnellement : ĂȘtre formateur interne, leader de communautĂ©, participer aux entretiens candidats, aider Ă  dĂ©velopper nos offres et pourquoi pas manager ta propre Ă©quipe ...

Quelques exemples de missions.

  • La conception, la mise en place et le support des pipelines data
  • Le dĂ©ploiement de solutions data dans une dĂ©marche Agile et DevOps
  • Le dĂ©veloppement d’API REST pour exposer les donnĂ©es
  • Le support et l’expertise sur les technologies Data et les solutions dĂ©ployĂ©es : Hadoop, Spark, Kafka, Elasticsearch, Snowflake, BigQuery, Azure, AWS ...

Qualifications

Quels atouts pour rejoindre l’équipe ?

  • DiplĂŽme d'ingĂ©nieur ou Ă©quivalent
  • Expert dans le domaine de la Data : 3 Ă  5 ans d’expĂ©rience post diplĂŽme
  • MaĂźtrise et pratique avĂ©rĂ©e de Apache Spark
  • MaĂźtrise et pratique avĂ©rĂ©e de Scala
  • Pratique de Python et pySpark
  • Connaissance et pratique des outils d’orchestration tels Apache Oozie, Apache Airflow, Databricks Jobs
  • Des certifications seront un plus spĂ©cialement sur Spark, Databricks, Azure, GCP
  • MaĂźtrise des principes ETL/ELT
  • Pratique des outils ETL/ELT tels Talend Data Integration, Apache Nifi, dbt sont un plus 
  • Pratique de Kafka et Spark Streaming sont un plus aussi
  • Une double compĂ©tence dĂ©v (java, scala, python) infra (linux, ansible, k8s)
  • Une bonne connaissance des API Rest et microservices
  • MaĂźtrise des outils d'intĂ©gration CI/CD (Jenkins, Gitlab) et du travail en mode agile 
  • Un excellent relationnel, tu aimes travailler en Ă©quipe
  • Un sens prononcĂ© du service et engagĂ© dans tes activitĂ©s
  • Savoir communiquer et Ă©couter en toutes circonstances et Ă©crire sans fautes 

  • and you are fluent in english, indeed !

Informations supplémentaires

Informations additionnelles.

  • Poste basĂ© au Maroc dans nos locaux de Rabat et/ou Casablanca et ouvert uniquement en CDI
  • Poste hybride avec possibilitĂ© de tĂ©lĂ©travail
  • En rejoignant Devoteam, vous aurez la possibilitĂ© d’échanger avec vos pairs, de partager leur expĂ©rience et de dĂ©velopper vos compĂ©tences en rejoignant la communautĂ© Data Driven rassemblant les consultants des 18 pays du Groupe

Restons connectés :

  • https://www.linkedin.com/company/devoteam
  • https://twitter.com/devoteam
  • https://www.facebook.com/devoteam
Devoteam
Devoteam
Cloud Management Consulting Information Technology Security

0 applies

15 views

There are more than 50,000 engineering jobs:

Subscribe to membership and unlock all jobs

Engineering Jobs

60,000+ jobs from 4,500+ well-funded companies

Updated Daily

New jobs are added every day as companies post them

Refined Search

Use filters like skill, location, etc to narrow results

Become a member

đŸ„łđŸ„łđŸ„ł 401 happy customers and counting...

Overall, over 80% of customers chose to renew their subscriptions after the initial sign-up.

To try it out

For active job seekers

For those who are passive looking

Cancel anytime

Frequently Asked Questions

  • We prioritize job seekers as our customers, unlike bigger job sites, by charging a small fee to provide them with curated access to the best companies and up-to-date jobs. This focus allows us to deliver a more personalized and effective job search experience.
  • We've got about 70,000 jobs from 5,000 vetted companies. No fake or sleazy jobs here!
  • We aggregate jobs from 5,000+ companies' career pages, so you can be sure that you're getting the most up-to-date and relevant jobs.
  • We're the only job board *for* software engineers, *by* software engineers
 in case you needed a reminder! We add thousands of new jobs daily and offer powerful search filters just for you. đŸ› ïž
  • Every single hour! We add 2,000-3,000 new jobs daily, so you'll always have fresh opportunities. 🚀
  • Typically, job searches take 3-6 months. EchoJobs helps you spend more time applying and less time hunting. 🎯
  • Check daily! We're always updating with new jobs. Set up job alerts for even quicker access. 📅

What Fellow Engineers Say