Chargement...
Partager cette offre d’emploi

Alternance - Big Data / Data Virtualization - H/F

Date: 16 févr. 2021

Lieu: Lyon - 69, Rhône-Alpes, FR

Entreprise: Atos

À propos d’Atos

 

Atos est un leader international de la transformation digitale avec 110 000 collaborateurs dans 73 pays et un chiffre d’affaires annuel de 12 milliards d’euros. Numéro un européen du Cloud, de la cybersécurité et des supercalculateurs, le Groupe fournit des solutions intégrées de Cloud Hybride Orchestré, Big Data, Applications Métiers et Environnement de Travail Connecté. Partenaire informatique mondial des Jeux Olympiques et Paralympiques, le Groupe exerce ses activités sous les marques Atos, Atos|Syntel, et Unify. Atos est une SE (Société Européenne) cotée sur Euronext Paris et fait partie de l’indice CAC 40.
 
La raison d’être d’Atos est de contribuer à façonner l’espace informationnel. Avec ses compétences et ses services, le Groupe supporte le développement de la connaissance, de l’éducation et de la recherche dans une approche pluriculturelle et contribue au développement de l’excellence scientifique et technologique. Partout dans le monde, Atos permet à ses clients et à ses collaborateurs, et plus généralement au plus grand nombre, de vivre, travailler et progresser durablement et en toute confiance dans l’espace informationnel.

 

 

 

Notre offre

Les grands acteurs du marché lyonnais font appel à ATOS pour l’implémentation, au sein de leurs architectures Big Data, de solutions basées autour des API ou de solutions Cloud.

Au sein d’une équipe dynamique et disposant d’une forte expertise technique dans le domaine du Big Data (Hadoop/Spark, Datalake, noSQL, moteur de recherche, Analytics, Datascience, etc.).

Dans le cadre de notre DataLab, nous souhaitons développer des Usescases (Cas d’usage) pour nous permettre de mettre en place des plateformes Big-data et/ou des algorithmes de Data-science pour nos clients, voir des outils d’analyse pour les Data-analystes.

 

Exemple de Usecase : dans le contexte des transports aériens, nous allons chercher via le Big-data / data-science à optimiser les trajets piétons à l’intérieur ou extérieur des aéroports.

Un autre Usecase se focalisera sur la rotation des avions au sol pour optimiser leur ronde, prédire les retards de vols, identifier les root causes pour chaque vol, etc.

 

Démarche pédagogique :

 

- Vous travaillerez en équipe sur des Usescases

- Encadré par nos experts, le projet sera mené en suivant la méthode Agile (daily meeting, scrum master, sprint, etc.).

 

Au fur et à mesure de votre avancée sur les différents sujets nous définirons de nouveaux UseCase à prendre en charge.

 

Travail à effectuer :

 

- Monter en compétence sur le DataLab

- Pris en main de la stack Hadoop + No sql (Mongo DB, Cassandra, ElasticSearch), Spark, Hive, HDFS

- Développement Python, Scala, Java, R

- Récupérer des données d’open-data (données récoltées et disponible de manière libre sur le net)

- Création de processus d’ingestion et de transformation de données massives (Open Data, ESB Tibco…)

- Proposition d’un type algorithme (ML/DL) à implémenter à partir des données disponibles relatives à notre Use Case

- Implémentation de l’algorithme (avec utilisation de librairies)

- Evaluation à réaliser sur le volume de données massive à partir de différentes sources de données disponibles + Présentation via des outils de DataViz (Grafana, KIbana, Tableau)

- Construction et l’industrialisation de plateformes Big Data s’appuyant sur la démarche DevOps et les solutions Cloud (AWS/GCP)

- Mise en place d’un Framework SPARK : Guide développeur, bonnes pratiques, arborescence, génération automatique de flux

- Developpement et déploiement par les technologies de conteneurs (Docker) et d’orchestration via Kubernetes

- Deep Learning / Machine Learning :

« Notebook » (exploitation d’algorithme existant) 

« Produit » (création de nouveaux algorithmes)

 

De plus, dans le cadre de notre DataLab, nous avons pu mettre en place la brique technique relative à la Data Virtualisation dont nous avons un partenariat Denodo.

 

Nous souhaitons conforter nos connaissances sur ce domaine par la mise en place d’un framework à proposer à nos clients à partir de nos connaissances et par la comparaison avec d’autres outils du marché (Tibco DV) :

• Implémentation de use cases sur notre plateforme DataLab

• Comparatif et documentation sur les produits du marché

• Possibilité de travailler sur des projets clients ou activités d’avant-vente

 

Profil recherché

Étudiant(e) en dernière année de cursus diplômant en Informatique générale, Big-data.

Vous disposez d’une base scientifique, d’un esprit synthétique et d'une capacité de travail en groupe.

Vous faites preuve d’autonomie dans vos recherches documentaires ainsi que dans vos implémentations.

Vous avez une bonne communication et êtes à l’aise autant à l’écrit qu’à l’oral. 

 

 

 

INFORMATIONS ADDITIONNELLES :

Chez Atos, nous voulons que nos employés se sentent valorisés, appréciés et libres d'être eux-mêmes au travail. Nos process RH sont conçus pour prévenir la discrimination envers l'identité ou l'orientation sexuelle, la religion, l’origine ethnique, l'âge, la neurodiversité, le handicap, la citoyenneté ou tout autre aspect qui rend nos collaborateurs uniques. Partout dans le monde, nous avons créé plusieurs programmes pour soutenir la culture inclusive d'Atos, et nous travaillons pour nous assurer que tous nos collaborateurs aient une chance égale de sentir qu'ils sont exactement là où ils doivent être.