Nous recrutons un

Ingénieur Cloud Confirmé

Contrat :
CDI

Département :
Technique

Date début :
09/2021

Adresse :
12 avenue des Saules, 69600 Oullins

Mission et Activités du poste

L’ingénieur cloud est responsable de la création, de l’intégration & de l’administration de l’infrastructure cloud ainsi que du stockage et de la gestion des données sur des serveurs situés sur des plateformes informatiques et de traitements distants, à la demande et mutualisés.

Il gère la mise en place des nouvelles solutions de stockage des données et leur intégration dans l’architecture système de l’entreprise. Pour cela, il réalise des tests techniques et fonctionnels. Il est responsable de la relation entreprise/fournisseur, et doit s’assurer de la sécurisation des données et de leur accès possible à tout moment depuis tous les types d’appareils : smartphones, tablettes, postes de travail, etc.

Il assure le transfert des compétences en réalisant de la documentation et des formations spécifiques à l’usage des utilisateurs. Il s’occupe également de l’amélioration et de la maintenance du système, de l’optimisation des performances.

En outre, de solides connaissances en systèmes / architecture logiciels et une maîtrise des environnements Windows et Linux sont attendues de l’ingénieur Cloud. Il dispose également de compétences en virtualisation, en stockage et maîtrise les cloud publics comme Microsoft Azure.

Enfin il intègre notre systèmes Informations avec les SI de nos partenaires grâce à des API dont il est responsable de créer et de faire évoluer.

Concevoir et administrer l’infrastructure SI

  • Designer et implémenter une architecture cloud à haute disponibilité (Microsoft Azure, Scaleway ThingsBoard etc…).
  • Maintenir et monitorer une architecture cloud évolutives.
  • S’assurer de la scalabilité de la plateforme.

Concevoir l’architecture de données

  • Étude, analyse et cadrage des besoins métiers
  • Définir l’architecture et les solutions Data à mettre en œuvre
  • Définir la stratégie de traitement des données (identification, structuration, modélisation, transformation, stockage, sauvegarde, nettoyage, archivage)
  • Rédiger les dossiers d’architecture et des spécifications techniques
  • Définir les méthodologies de déploiement et plans de migration

Construire l’architecture de données

  • Mettre en place un système de données résilients et sécurisés (data warehouse, data lake)
  • Collecter, nettoyer, organiser et consolider les données en provenance des capteurs IoT, d’application mobile ou d’autres sources de données.
  • Créer les flux et modéliser les données
  • Créer la politique de gouvernance des données avec le DPO
  • Structurer les données pour qu’elles puissent être utilisées dans des applications analytiques
  • Assurer la migration des données vers les nouveaux environnements
  • Construire des modèles de stockage performants.
  • Créer les services pour exposer les données (API)
  • Rédiger le cahier de tests fonctionnels et effectuer la validation

Maintenir en condition opérationnelle le système de données

  • Responsable de la collecte, le stockage et l’exploitation des données.
  • Responsable de la mise en œuvre de la politique de gouvernance et d’exploitation de la donnée
  • Construire et déployer les pipelines de données (ETL)
  • Automatisation des processus métiers
  • Industrialiser, optimiser et monitorer au quotidien les pipelines data.
  • Construire les KPI associé
  • Créer les outils de reporting pour le suivi des performances opérationnels
  • Mettre en place les processus d’industrialisation

Accompagner et former

  • Assurer une veille technologique continue sur les solutions cloud.
  • Accompagner et former les équipes interne aux méthodes et concepts du cloud.
  • Traiter les demandes d’évolution
  • Connaissances des solutions de plateforme IoT
  • Maîtrise d’internet et des bases de données
  • Connaissance des cadriciels (Hadoop, Spark, Hive, Scala, API, Docker, Cassandra…)
  • Usage des langages suivants : JavaScript, Python, JS, Node JS.
  • Conception de pipeline d’ingestion de données sur des frameworks de calcul distribués (Spark, Akka, Flink, etc.) temps réel (Kafka, Storm, Spark Streaming).
  • Choix de la persistance des données à adopter selon les use cases à traiter (HDFS, Hive, Hbase, MongoDB, Cassandra, ElasticSearch, Neo4j etc.).
  • Intervention sur des environnements containérisés (Docker, Kubernetes, Mesos, etc.)
  • Usage de stacks d’outils d’aide au développement collaboratif et à l’intégration continue (JIRA, Github, GitLab etc…)

© 2021 ARTIFEEL • Mentions légales