Une brève histoire des Data Centers
Dans un monde aux innombrables interactions numériques, il est facile de tenir pour acquis une connectivité transparente entre les personnes, les lieux et les objets. Pourtant, c'est le data center qui rend notre monde moderne possible en permettant toute la connectivité, le traitement et le stockage dont nous dépendons au quotidien.
Bien entendu, les data centers n’ont pas toujours été les installations élégantes et efficaces que nous connaissons et aimons. Gardant cela à l’esprit, examinons où les data centers ont commencé, comment ils ont évolué et où ils se dirigent ensuite.
L'aube des données
Dans les années 1950 et 1960, les data centers étaient bien loin de leurs cousins modernes. En fait, on ne les appelait même pas des data centers, mais des mainframes.
Le CDC 6600, de Control Donnée Corporation, est souvent considéré comme le premier supercalculateur et affichait une vitesse de traitement impressionnante de 40 MHz. Coûtant très cher et construits sur mesure pour des usages professionnels spécifiques, ces ordinateurs « Big Iron » étaient rares, inconstants et exigeants en main-d'œuvre ; les garder opérationnels pendant des jours pairs était en quelque sorte une réussite.
Sans connectivité réseau, ces premiers ordinateurs centraux étaient des îlots de puissance de calcul dans un monde de stylo et de papier. Voici comment Pitt Turner, directeur exécutif de l'Uptime Institute, se souvient de l'ordinateur central voisin d'une grande banque régionale : « Le soir, tous ces camions arrivaient… transportant du papier. Durant la nuit, le papier serait traité, les données seraient analysées, de nouveaux imprimés seraient créés, puis ils renverraient les documents aux succursales bancaires pour qu'elles puissent ouvrir le matin ».
Tout au long des années 1970 et 1980, la loi de Moore a continué à s'appliquer : la puissance de calcul a augmenté de plus en plus et les ordinateurs de bureau sont devenus monnaie courante. Pourtant, l'évolution des mainframes à cette époque ne concernait pas principalement la puissance et l'efficacité du traitement, mais plutôt la fiabilité. La capacité à garantir la pureté des données et à éviter la corruption s'est progressivement accrue, mais la puissance de calcul est restée coûteuse à gérer, ce qui a amené de nombreuses organisations à externaliser leurs besoins plutôt que de maintenir des « salles de machines » internes.
Est-ce qu'on vous sert?
Dans les années 1990, tout change. Une véritable tempête a emporté les mainframes traditionnels alors que le monde assistait au boom des microprocesseurs, à la naissance d’Internet et au développement de modèles informatiques client-serveur.
Soudainement, l'informatique est devenue agile : les retards et la bureaucratie ont cédé la place à la possibilité de provisionner et d'installer des applications métier beaucoup plus rapidement sur du matériel relativement peu coûteux. Les anciennes salles mainframe remplies d'ordinateurs à microprocesseur agissant comme serveurs, jetant les bases des premiers data centers internes. Peu à peu, cette infrastructure s'est standardisée, tant dans sa conception que dans son fonctionnement, et les racks modulaires que nous connaissons aujourd'hui sont nés.
Les choses changeaient également en dehors de l’entreprise. Alors qu'une présence permanente sur Internet est devenue essentielle, la connectivité réseau et les services de colocation sont devenus soudainement critiques pour l'entreprise. Les fournisseurs d’accès Internet et les sociétés d’hébergement ont commencé à construire de grandes installations externes pour fournir leurs services, déclenchant une frénésie d’adoption des data center .
Boom et récession
À mesure qu’Internet grandissait au début des années 2000, les data centers occupaient une place centrale. Les investissements informatiques ont grimpé en flèche et de nouvelles installations ont vu le jour partout dans le monde alors que tout le monde cherchait à tirer profit du boom des dotcom.
Lorsque la bulle a finalement éclaté, le secteur des data center a été décimé : 17 des 27 acteurs paneuropéens ont fait faillite. Cependant, le ralentissement économique a également déclenché une révolution plus discrète : la virtualisation.
En ces temps difficiles, l'utilisation du matériel, l'alimentation, le refroidissement et la rentabilité étaient à l'ordre du jour, permettant aux organisations de réduire l'empreinte de leur data center et de réduire à la fois les dépenses d'investissement et d'exploitation. L'impact de la virtualisation a été considérable : en fin de compte, la réduction des besoins en énergie, en espace et en refroidissement du data center d'environ 80 %.
Avec la crise financière de 2008, la volonté de réduire les dépenses informatiques, d’externaliser les besoins et d’exploiter le potentiel des économies d’échelle a renforcé son emprise. Le marché de la colocation a connu un succès fulgurant, qui se poursuit encore aujourd'hui.
Dans l'attente de l'avenir
Des tendances florissantes telles que le cloud computing , l'Internet des objets et le domaine émergent des systèmes cyberphysiques (également appelés intelligence artificielle) continueront de placer les data center au cœur de l'économie numérique.
Pour répondre aux exigences strictes en matière de performances, de fiabilité et de sécurité , les organisations choisissent de plus en plus d'abandonner les stratégies de data center sur site au profit de la colocation. Les installations de colocation d'aujourd'hui exploitent toute la connectivité, la durabilité , l'efficacité, la résilience et l'expertise qui ont été si durement acquises au cours du dernier demi-siècle. Il n'est donc pas surprenant que les affaires soient en plein essor ; selon Research and Markets, le secteur de la colocation s'accélère pour atteindre une valeur totale de 55,31 milliards de dollars américains d'ici la fin de 2021.
Bien entendu, de nouveaux changements sont inévitables. Personne Non sait ce que l’avenir nous réserve, mais les installations de colocation de pointe offrent aux organisations les meilleures chances de s’y préparer.