top of page

Le stockage de données mutualisé en “scale-out”


Le stockage de données mutualisé en

Depuis le printemps 2019, les universités Paris-Descartes, Paris-Diderot et l’Institut de Physique du Globe de Paris (IPGP) se regroupent pour constituer “L’Université de Paris”. Au total, la nouvelle organisation comptera 63 000 étudiants, 4 500 enseignants-chercheurs et 3 000 membres du personnel administratif et technique.


Cette consolidation administrative n’implique pas immédiatement de déménagement de locaux, ni de modifications des campus existants. « En conséquence, le système d’information du nouvel ensemble s’est trouvé dispersé », observe David Grassart, directeur du Numérique de l’université Paris-Descartes.

Une première disposition a été prise cet été : construire une plateforme unique de stockage capacitif distribué et de sauvegarde pour protéger le Système d’Information et l’ensemble des données tout en mutualisant les ressources.


publicité

“Nous avons décidé de construire notre propre Cloud”

« Nous avions déjà commencé à évaluer, positivement, la solution Scality et à tester son utilisation pour plusieurs applications, avant même que HPE ne s’en rapproche par un accord stratégique », précise David Grassart. « Nous avons maintenu notre choix de cette technologie de stockage de données en “scale out”, telle que proposée par HPE sur un serveur Apollo supportant le logiciel Scality.

« Et nous avons décidé de construire notre propre Cloud, ce qui nous permet, entre autres avantages pour nos programmes de formation en ligne, de respecter la réglementation RGPD sur les données personnelles. Nous travaillons en effet avec des unités d’enseignement à distance et opérons la télédiffusion de certains programmes ».

Capacités de stockage en mode “fichier” et “objet”

« Nous sommes le premier pôle européen de formation en matière de santé. En conséquence, nous avions besoin de capacités de stockage en mode “fichier” et “objet” pour les documents de recherche, de formation, mais également pour l’administration. Et l’ensemble se devait de constituer une solution durable et agnostique, performante et très dense. D’où le choix de machines et de la solution logicielle qui s’est confirmée être très “scalable”. Nous avons vérifié que nous pourrions aller jusqu’à 700 tera-octets par nœud », ajoute-t-il.

Une première tranche de financement a permis d’acquérir six nœuds HPE Apollo 4510 et une deuxième tranche identique était en cours en fin 2019. « Nous voulons parvenir à une parité nominale dans le nombre de nœuds afin de consolider l’architecture Scality nœud à nœud, et obtenir ainsi un ratio qui augmente encore la résilience et la capacité de l’ensemble. »

Aujourd’hui opérée par un service réseau RAP/RENATER, l’interconnexion des trois principaux centres de datas grâce un réseau de fibre noire exploité en propre, et assurant de très hauts débits, sera opérationnelle en 2020. La protection globale des données, ainsi mutualisée, a déjà été rendue possible à plus de 5 km de distance à vol d’oiseau en mode synchrone.

0 vue0 commentaire

Comments


bottom of page