Description de l'entreprise
Chez Devoteam, nous sommes des « Digital Transformakers ». Le respect, la franchise et la passion animent chaque jour notre tribu.
Ensemble, nous aidons nos clients Ă remporter la bataille du Digital : du conseil Ă la mise en Ćuvre de technologies innovantes, jusquâĂ lâadoption des usages.
Cloud, Cybersecurity, Data, DevOps, Fullstack Dev, Low Code, RPA nâont plus aucun secret pour notre tribu !
Nos 10 000+ collaborateurs sont certifiés, formés et accompagnés au quotidien pour relever de nouveaux challenges innovants.
Leader du Cloud, de la CybersĂ©curitĂ© et de la Data en EMEA, le Groupe Devoteam a rĂ©alisĂ© en 2022 un chiffre dâaffaires de 1,036 milliard dâeuros et se donne pour ambition de le doubler dans les 5 annĂ©es Ă venir.
Devoteam Maroc, acteur de rĂ©fĂ©rence dans les expertises IT depuis plus de 30 ans (350+ consultants) accĂ©lĂšre sa croissance en dĂ©veloppant ses activitĂ©s dâexpertise en nearshore pour rĂ©pondre aux besoins de nos clients français, europĂ©ens et moyen orientaux.
Es-tu prĂȘt(e) Ă nous rejoindre et relever ensemble ce dĂ©fi ?
Description du poste
Data Engineer Spark Scala Senior @ Devoteam Data Driven.
Dans un monde oĂč les sources de donnĂ©es sont en constante Ă©volution, Devoteam Data Driven aide ses clients Ă transformer leurs donnĂ©es en informations exploitables et les rendre ainsi impactantes pour plus de valeur business.
Data Driven adresse les 3 grandes dimensions suivantes : Data Strategy, Data for Business et Data Foundation en appui dâexpertise chez ses clients pour les rendre encore plus performants et compĂ©titifs au quotidien.
Au sein des Ă©quipes Nearshore de Devoteam Maroc, tu rejoindras les Ă©quipes de la tribu Data Foundation : une Ă©quipe enthousiaste de Data Engineers, de Data Ops, de Tech lead architectes et de chefs de projets travaillant sur les plateformes et lâĂ©cosystĂšme Data : designer, construire et moderniser les plateformes et solutions Data, concevoir les data pipelines en mettant lâaccent sur lâagilitĂ© et le DevOps appliquĂ© Ă la Data.
Tu seras le maillon essentiel pour fournir les donnĂ©es fiables et valorisĂ©es aux mĂ©tiers leur permettant de crĂ©er leurs nouveaux produits et services et tu appuieras aussi les Ă©quipes Data Science en leur fournissant les environnements de donnĂ©es âdatalabâ nĂ©cessaires pour mener Ă bien leurs dĂ©marches exploratoires dans lâĂ©laboration et lâindustrialisation de leurs modĂšles, Ă savoir :
- Concevoir, développer et maintenir des pipelines de données efficaces pour extraire, transformer et charger les données de différentes sources vers des systÚmes de stockage de données de type Lakehouse (datalake, datawarehouse)
- Ăcrire du code Scala, souvent associĂ© Ă Apache Spark pour ses fonctionnalitĂ©s concises et expressives, afin de rĂ©aliser des transformations complexes sur de grands volumes de donnĂ©es
- Sâappuyer sur les fonctionnalitĂ©s offertes par Apache Spark, telles que les transformations et les actions distribuĂ©es, pour traiter les donnĂ©es Ă grande Ă©chelle de maniĂšre rapide et efficace
- Identifier et rĂ©soudre les problĂšmes de performance dans les pipelines de donnĂ©es, en optimisant les requĂȘtes Spark, en ajustant la configuration de Spark et en mettant en Ćuvre les meilleures pratiques.
- Collaborer avec d'autres Ă©quipes pour intĂ©grer les pipelines de donnĂ©es avec des bases de donnĂ©es SQL, noSQL, du streaming Kafka, des systĂšmes de fichiers de type buckets âŠ
- Si besoin, concevoir et mettre en Ćuvre des pipelines de traitement des donnĂ©es en temps rĂ©el en utilisant les fonctionnalitĂ©s de streaming de Spark
- Mettre en Ćuvre les mĂ©canismes de sĂ©curitĂ© pour protĂ©ger les donnĂ©es sensibles en utilisant les fonctionnalitĂ©s d'authentification, d'autorisation RBAC/ABAC, de chiffrement, d'anonymisation des donnĂ©es
- Documenter le code, les pipelines de données, les schémas de données et les décisions de conception pour assurer leur compréhension et maintenabilité
- Mettre en place les tests unitaires et d'intégration pour assurer la qualité du code et déboguer les problÚmes éventuels dans les pipelines de données
Tu donneras ta pleine mesure par la maßtrise de tes fondamentaux techniques, ta connaissance sur le bout des doigts des données que tu traites et que tu manipules et surtout en affirmant ta volonté à comprendre les besoins et le métier pour lequel tu travailleras.
Ton terrain de jeu : la distribution, lâĂ©nergie, la finance, lâindustrie, la santĂ© et les transports avec plein de cas dâusage et de nouveaux dĂ©fis Data Ă relever ensemble notamment la Data dans le Cloud.
Ce quâon attend de toi.
- Que tu aies foi dans la Data
- Que tu aides ton collĂšgue
- Que tu sois gentil avec tes RHs
- Que tu tâĂ©clates dans ta mission
- Et que les Codingame ne te fassent pas peur (tu ne seras pas seul : on tâaidera)
Et plus sérieusement :
- Que tu maĂźtrises les fondamentaux de la Data : les technologies Hadoop, Spark, les data pipelines : lâingestion, le traitement, la valorisation et lâexposition des donnĂ©es
- Que tu souhaites tâinvestir sur les nouveaux paradigmes de la Data : Cloud, DaaS, SaaS, DataOps, AutoML et que tu tâengages Ă nos cĂŽtĂ©s dans cette aventure
- Que tu aimes travailler en mode agile
- Que tu réalises des pipelines data performants
- Que tu entretiennes cette double compétence Dev & Infra
- Que tu sois proche des métiers, que tu les accompagnes dans la définition de leurs besoins, leurs nouveaux produits & services : dans des ateliers, en définissant les user stories et en éprouvant au travers de POC
- Et coder est ta passion : tu travailles ton code, tu commit en Open Source, tu fais un peu de compétition alors rejoins nous
Ce quâon tâapportera.
- Un manager à tes cÎtés en toute circonstance
- Une communautĂ© Data oĂč tu y trouveras ta place : Ideation Lab, Hackathon, Meetup ...
- Un parcours de formation et de certification via âmyDevoteam Academyâ sur les technologies du moment et Ă venir : Databricks, Spark, Azure Data, Elastic.io, Kafka, Snowflake, GCP BigQuery, dbt, Ansible, Docker, k8s âŠ
- Un renfort de ton expertise dans le domaine de la Data pour devenir un Tech Lead Cloud (Azure, AWS, GCP âŠ), un architecte des futures plateformes Data, un expert DataOps au service des mĂ©tiers (Data as a Service) et de la Data Science (AutoML), un Data Office Manager en pilotage des projets Data Product, bref plein de nouveaux jobs en perspective âŠ
- La possibilitĂ© de tâinvestir personnellement : ĂȘtre formateur interne, leader de communautĂ©, participer aux entretiens candidats, aider Ă dĂ©velopper nos offres et pourquoi pas manager ta propre Ă©quipe ...
Quelques exemples de missions.
- La conception, la mise en place et le support des pipelines data
- Le déploiement de solutions data dans une démarche Agile et DevOps
- Le dĂ©veloppement dâAPI REST pour exposer les donnĂ©es
- Le support et lâexpertise sur les technologies Data et les solutions dĂ©ployĂ©es : Hadoop, Spark, Kafka, Elasticsearch, Snowflake, BigQuery, Azure, AWS ...
Qualifications
Quels atouts pour rejoindre lâĂ©quipe ?
- DiplÎme d'ingénieur ou équivalent
- Expert dans le domaine de la Data : 3 Ă 5 ans dâexpĂ©rience post diplĂŽme
- Maßtrise et pratique avérée de Apache Spark
- Maßtrise et pratique avérée de Scala
- Pratique de Python et pySpark
- Connaissance et pratique des outils dâorchestration tels Apache Oozie, Apache Airflow, Databricks Jobs
- Des certifications seront un plus spécialement sur Spark, Databricks, Azure, GCP
- MaĂźtrise des principes ETL/ELT
- Pratique des outils ETL/ELT tels Talend Data Integration, Apache Nifi, dbt sont un plus
- Pratique de Kafka et Spark Streaming sont un plus aussi
- Une double compétence dév (java, scala, python) infra (linux, ansible, k8s)
- Une bonne connaissance des API Rest et microservices
- Maßtrise des outils d'intégration CI/CD (Jenkins, Gitlab) et du travail en mode agile
- Un excellent relationnel, tu aimes travailler en Ă©quipe
- Un sens prononcé du service et engagé dans tes activités
- Savoir communiquer et Ă©couter en toutes circonstances et Ă©crire sans fautes âŠ
- and you are fluent in english, indeed !
Informations supplémentaires
Informations additionnelles.
- Poste basé au Maroc dans nos locaux de Rabat et/ou Casablanca et ouvert uniquement en CDI
- Poste hybride avec possibilité de télétravail
- En rejoignant Devoteam, vous aurez la possibilitĂ© dâĂ©changer avec vos pairs, de partager leur expĂ©rience et de dĂ©velopper vos compĂ©tences en rejoignant la communautĂ© Data Driven rassemblant les consultants des 18 pays du Groupe
Restons connectés :
- https://www.linkedin.com/company/devoteam
- https://twitter.com/devoteam
- https://www.facebook.com/devoteam
Other Jobs from Devoteam
Cyber Security Engineer
Data Driven | AI Software Engineer
Data Driven | MLOps Engineer
Business Consulting | Project Manager
Telecommunications Sector| Project Manager
Similar Jobs
There are more than 50,000 engineering jobs:
Subscribe to membership and unlock all jobs
Engineering Jobs
60,000+ jobs from 4,500+ well-funded companies
Updated Daily
New jobs are added every day as companies post them
Refined Search
Use filters like skill, location, etc to narrow results
Become a member
đ„łđ„łđ„ł 401 happy customers and counting...
Overall, over 80% of customers chose to renew their subscriptions after the initial sign-up.
To try it out
For active job seekers
For those who are passive looking
Cancel anytime
Frequently Asked Questions
- We prioritize job seekers as our customers, unlike bigger job sites, by charging a small fee to provide them with curated access to the best companies and up-to-date jobs. This focus allows us to deliver a more personalized and effective job search experience.
- We've got about 70,000 jobs from 5,000 vetted companies. No fake or sleazy jobs here!
- We aggregate jobs from 5,000+ companies' career pages, so you can be sure that you're getting the most up-to-date and relevant jobs.
- We're the only job board *for* software engineers, *by* software engineers⊠in case you needed a reminder! We add thousands of new jobs daily and offer powerful search filters just for you. đ ïž
- Every single hour! We add 2,000-3,000 new jobs daily, so you'll always have fresh opportunities. đ
- Typically, job searches take 3-6 months. EchoJobs helps you spend more time applying and less time hunting. đŻ
- Check daily! We're always updating with new jobs. Set up job alerts for even quicker access. đ
What Fellow Engineers Say