Pure-player de la data depuis sa création en 2006, Smartpoint est une société de conseil et d’ingénierie en forte croissance alors que les projets Data s’accélèrent au sein des entreprises. Pour renforcer ces équipes du pôle Big Data, Smartpoint recrute de nombreux Data Engineers.
Le saviez-vous ? Sans Data Engineers, il n’y a pas d’exploitation possible de la data car c’est sur eux que repose la conception et la construction de l’architecture technique nécessaire au traitement des Big Data.
Smartpoint a une expertise reconnue en modélisation de données. Ses équipes maîtrisent plusieurs langages de programmation et connaissent les différentes solutions big data possibles, en réponse aux enjeux spécifiques des entreprises et leurs contraintes en termes de systèmes data Legacy. Smartpoint, c’est un également un vivier d’experts en architectures de données. C’est d’ailleurs pour ces compétences que de nombreuses entreprises lui font confiance pour prendre en charge leurs projets data, de la conception des pipelines de données au déploiement des infrastructures nécessaires.
Smartpoint a donc adopté un plan de recrutement d’envergure pour attirer des data engineers qui viendront, par leurs expériences, enrichir sa Practice Big Data.
Vous êtes passionnés par l’ingénierie de la data ? Rejoignez une équipe qui vous ressemble et qui saura vous faire progresser dans un monde technologique qui évolue à un rythme effréné !
Qᴜᴇʟ ᴇsᴛ ʟᴇ ᴘᴀʀᴄᴏᴜʀs ᴛʏᴘᴇ ᴅ’ᴜɴ ᴅᴀᴛᴀ ᴇɴɢɪɴᴇᴇʀ ᴄʜᴇᴢ Sᴍᴀʀᴛᴘᴏɪɴᴛ ?
- Après une formation supérieure universitaire ou école Bac + 5, il a à minima une expérience opérationnelle de 3 ans.
- Il connait différents types d’architectures dont le Data Lake pour stocker, traiter et sécuriser des données issues de sources multiples, brutes, structurées et non structurées, sur de larges volumes.
- Il sait comprendre et modéliser les données. Il sait concevoir des schémas de base de données et des structures de données.
- Il est familier avec au moins une solution big data comme Hadoop, Spark, Hive ou Storm, ce qui lui permet d’être force de proposition.
- En termes de langages de programmation, il maîtrise Spark ou Scala pour développer des scripts ou des requêtes pour extraire les données ; et améliorer les performances du traitement temps réel. Il utilise également Python pour le nettoyage, l’analyse et la visualisation des données.
- Pour lui, la qualité des données et leur gouvernance est une priorité pour répondre aux normes et aux réglementations en vigueur … mais aussi par ce qu’il n’y aura jamais de sens, ni d’intelligence, ni de valeur créée pour l’entreprise si les données en sont pas correctes, cohérentes et à jour.