Image de couverture de l'article Le meilleur cloud est celui qui n'existe pas encore !
Retour aux articles

L'agence

WanadevStudio

Le meilleur cloud est celui qui n'existe pas encore !

Ce n'est plus à démontrer, le monde actuel fonctionne en grande partie grâce à internet. En coulisses, de nombreux acteurs techniques fourmillent pour proposer des solutions adaptées à la forte croissance du marché et aux nouveaux usages. Entre eux, la concurrence fait rage et le cloud est le nouvel eldorado. Côté consommateur, l'offre paraît complexe et suscite souvent plus de questions que de réponses.

L’histoire de l'hosting : du matériel au service

Passons rapidement les premiers pas du web créé par des chercheurs du CERN à la fin des années 80. En 1991, le World Wide Web était toujours « officiellement » une technologie exclusivement dédiée aux chercheurs et c’est en 1993 que l’invention fut mise dans le domaine public. Cela marqua, par la même occasion, les débuts de l’ère moderne et l’invention fut mise dans le domaine public. Cela marqua, par la même occasion, les débuts de l’ère moderne de l’informatique.

À ses débuts, les offres d’hébergements étaient succinctes et basées sur le principe de la mutualisation. On pouvait accéder à un espace d’hébergement limité et statique.

D’un point de vue technique, on retrouvait des logiciels maison ou des solutions du type cPanel (1996) et Webmin (1997) qui permettaient de cloisonner les ressources d'un serveur par utilisateur via une couche logicielle.

Ces solutions de « web hosting control panel » étaient pratiques mais triviales dans leur fonctionnement et l’objet de fréquents piratages. Trop complexes à gérer par la majorité des personnes, des services d’hébergement se sont donc rapidement créés.

C’était l’avènement des hébergements type Geocities, Lycos, Infomaniak, Free, chez.com, Multimania, GoDaddy... et l’essor du protocole FTP. Malgré leur succès, les possibilités de création étaient sommaires et limitées par des technologies encore balbutiantes, des connexions internet bas débit et des langages de programmation web rudimentaires.

La toile de l’époque était, dans une très grande majorité, un ensemble de sites web statiques (HTML / CSS). Le langage de programmation PHP (offrant du dynamisme et des traitements de données) est arrivé lui en 1994 suivi par le framework ASP en 1996.

Bien plus tard, c’est l’offre serveur dédié qui s’est développée. Il s’agissait ni plus ni moins que de louer une machine physique, pratiquement identique à celle que l’on pouvait avoir chez soi, mais qui bénéficiait d’une connexion réseau bien meilleure. Les pionniers dans ce domaine ont souvent commencé leurs activités d’une manière triviale (pas loin du mythe des ordinateurs dans le garage).

Côté client, ce type d’hébergement demandait une bonne connaissance technique car il fallait gérer seul son serveur : l’installation, le paramétrage, la sécurisation et la sauvegarde. De par son public visé, ses coûts élevés et les outils d’administration complexes, les offres de serveurs dédiés ont mis du temps à trouver leur marché.

À l’époque, face à cette situation, les entreprises se tournaient souvent vers l’autohébergement, plus sûr et mieux maîtrisé. Ainsi, dans beaucoup d’entreprises ont fleuri des salles serveurs plus ou moins bien conçues.

Dans les années 2000, VMware commença à populariser la virtualisation, une technologie qui permet de s’affranchir des contraintes matérielles, en séparant la puissance de calcul des données. Auparavant, des essais avaient été opérés dès les années 80 mais la première avancée significative sera réalisée en 2001 avec la sortie de son produit VMware GSX Server. En parallèle de nombreuses solutions open source ont vu le jour comme Xen (utilisé par Amazon) et KVM (présent dans Linux).

La virtualisation permet de rationaliser l’utilisation des ressources de son infrastructure : exécuter plusieurs types de systèmes d’exploitation (Linux, Mac OS, Windows...), faire évoluer le matériel facilement, et enfin accélérer le déploiement d’une nouvelle machine (à partir d’images de VM prêtes à l’emploi).

En 2004, Amazon s’appuiera sur la virtualisation pour lancer SQS, qui sera suivi de S3 et d’EC2 (Elastic Cloud). Ce sont les premiers jalons sérieux du cloud moderne. Bien plus tard, en 2010, Microsoft se lancera dans cette aventure via Azure, puis Google suivra en 2011 avec GCP (Google Cloud Platform).

2013 marque un tournant majeur dans l’industrie avec l’arrivée de Docker, créé par Solomon Hykes, qui va démocratiser la technologie container déjà existante LXC, en simplifiant son utilisation via un système d’API. Le projet étant open source, il bénéficie rapidement d’une grosse communauté qui va développer de nombreux outils, rapidement suivi par les gros acteurs du secteur tel que Google qui créa, en 2014, une solution de gestion d’infrastructure sous Docker : Kubernetes.

Author: JoachimKohlerBremen

@ À la différence de la virtualisation qui contient son propre système d’exploitation, un container n’embarque pas d’OS, ce qui le rend plus léger et encore plus facile à déplacer d’une machine à une autre ou d’un cloud à un autre.

Il est aussi plus rapide car il utilise directement les ressources de la machine sans passer par la couche de l’hyperviseur (contrairement à la virtualisation). Docker propose nativement de nombreux composants pour interconnecter des containers entre eux, gérer le stockage partagé, le réseau... le tout complété par des orchestrateurs qui étendent les possibilités et propose une gestion complète d’une infrastructure sous Docker.

Docker a permis par sa simplicité et son écosystème à offrir en quelques années, les technologies nécessaires à l’explosion du cloud.

@ En résumé, les containers permettent des performances similaires à celles d’un serveur dédié, une très grande portabilité, une plus grande granularité et une plus grande flexibilité avec le découpage des services par container et une meilleure vitesse de déploiement et de manipulation que les VM.

Du service, rien que du service

Aujourd’hui, le cloud est le fer de lance des activités informatiques dans le monde. Sur le papier, il permet de s’affranchir du matériel, du réseau et quasiment de la localisation des données afin de proposer uniquement du service. Très liés à la tendance des architectures microservices, les cloud providers proposent de nombreux produits managés et interopérables.

@ Rien que pour AWS (Amazon Web Services), c’est environ 50 services différents que vous pouvez utiliser, allant de la base de données, au service d’envoi d’e-mail en passant par des systèmes de cache, de big data, de stockage à froid ou encore de rendu graphique.

Si hier, vous pouviez être contraint(e)s par les ressources de votre hébergement physique, aujourd’hui, votre plateforme va exploiter une série de services répartis sur plusieurs points dans le monde, évoluant en fonction du trafic et le tout sans maintenance de votre part.

Ces services offrent de la flexibilité, de la stabilité, des ressources qui s’adaptent à la charge de votre projet et un écosystème technique complet. Le nirvana des DSI.

Author:dronepicr

L’explosion du cloud concerne tous les secteurs d’activité et accompagne parfaitement la vague de dématérialisation et de consommation à l’abonnement que l’on voit fleurir partout. Objets connectés, clients légers, streaming, vidéo à la demande, musique à la demande... le monde a besoin du cloud et les providers le savent !

Sur ce terrain-là, c’est le quartet américain composé de Google, Amazon, Microsoft et IBM qui monopolise une bonne partie du marché suivi par Alibaba Cloud sur le marché asiatique.

@ La convergence de ces entreprises sur l’activité cloud n’est pas un hasard car c’est le grand challenge technologique de ces 10 prochaines années, qui va permettre de disrupter de nombreux secteurs économiques.

Dernier exemple en date : le marché du jeu vidéo, qui traverse une période mouvementée avec l’arrivée de nouvelles plateformes de distribution, et de la dématérialisation des consoles via le streaming actif (Google Stadia, Shadow, Playstation Now,...) qui pourrait, à terme, marquer un tournant décisif du marché. La console qui trônait depuis des années dans le salon vit surement sa dernière décennie. Dans cette révolution annoncée les mastodontes historiques (Sony, Nintendo...) se préparent en multipliant les partenariats avec les plus grands acteurs du cloud.

@ Le cloud, c’est donc une offre pléthorique de services prêts à l’emploi qui s’appuie sur un puissant réseau mondial et qui peut bouleverser n’importe quel secteur.

Pour suivre cette croissance et garantir la meilleure qualité de service possible, ces fournisseurs sont obligés de maîtriser aussi les « tuyaux » qui font transiter les données entre leurs datacenters et les utilisateurs. Ils ont depuis des années investi lourdement dans les liaisons intercontinentales et les infrastructures réseau. Cette maîtrise leur permet d’être indépendants et de proposer un très haut niveau de fiabilité dans leurs services.

Étant devenus incontournables sur toute la chaîne, la majorité des plus importants sites dans le monde exploitent ces solutions. Car aussi gros soient-ils, la gestion de telles infrastructures demande tellement de ressources financières et d’expertises qu’elles ne peuvent être rentables qu’à très grande échelle.

@ Même une société aussi grosse qu’Apple, utilise par exemple AWS pour son service iCloud, au même titre que Facebook ou encore Airbnb.

La promesse du cloud est, en filigrane, une invitation à se détacher de toute considération technique et matérielle pour se concentrer sur le service : on utilise ce que l’on veut, quand on veut et en payant uniquement ce que l’on consomme.

Garder le contrôle

^ En déportant toute votre infrastructure, mais aussi vos données, dans une solution cloud, vous perdez encore un plus le contrôle de celles-ci. On connaît aujourd’hui la valeur de la « data », de son importance pour les entreprises et de l’aspect sensible de celle-ci lorsqu’elle contient des données personnelles ou des informations confidentielles.

La protection des données est donc un sujet important qui nous interroge légitimement sur les législations et les sécurités en place. Sans tomber dans la paranoïa, il est nécessaire de bien maîtriser ces sujets et de comprendre la politique de chaque provider sur ces sujets, même si la plupart affichent une neutralité toute relative.

En pratique, il faut bien vérifier la juridiction qui s’applique en fonction de la zone de déploiement de vos services (là où la loi des pays s’applique). En effet, la législation peut varier et est souvent un mille-feuille de directives et de textes de loi pas toujours évident à comprendre.

@ Dans certains pays par exemple, l’ouverture du marché national à votre projet est conditionnée au stockage des données dans ce même pays (ex : Chine, Russie...). Pour le cas des États-Unis, le Cloud Act donne la possibilité au gouvernement américain d’accéder à vos données même si elles sont stockées en dehors des États-Unis.

Cloud et data

Du point de vue de la sécurité, les providers font un gros travail de sécurisation de leurs systèmes. Mais sur ce sujet, on sait que le risque zéro n’existe pas ! Toutefois, il y a de fortes chances que le point de faiblesse soit situé du côté de votre application !

Enfin, n’oubliez pas que les services cloud ne fournissent pas d’infogérance complète de votre infrastructure ; vous devrez ainsi obligatoirement vous faire accompagner par un infogérant spécialisé pour assurer le paramétrage, la mise en place des sauvegardes et surtout de l’astreinte pour intervenir en cas d’un incident. Pas d’économie sur ce point. 😉️

Le (vrai) coût du cloud

Le cloud c’est bien, mais combien ça coûte ? Il est difficile de comparer l’offre cloud avec les offres traditionnelles tant les grilles tarifaires sont complexes et fluctuantes. Il n’est pas rare de devoir payer à la fois le service, mais aussi toute une série de coûts supplémentaires comme la bande passante, la taille du stockage, la puissance utilisée, etc.

Ce qu’il ressort de plusieurs études sur le sujet est la difficulté à anticiper les coûts du cloud. C’est un peu la surprise en fin de mois, et de plus en plus de DSI s’inquiètent de cette incapacité à prévoir le budget de leur infrastructure cloud. Il ne faut pas oublier que la facturation est indexée sur sa consommation et est donc très dépendante de votre charge serveur.

Il est donc important de fixer des seuils de consommation et des alertes pour ne pas avoir de mauvaises surprises.

Le cloud, un désastre écologique ?

^ L’activité numérique dans le monde représente 4.2 % de l’énergie primaire mondiale et 5.5 % de l’électricité mondiale. On pourrait penser que le cloud, qui offre un ajustement des ressources en fonction de la charge réelle, serait moins énergivore... Mais qu'en est-il vraiment ?

Premier point noir : le surprovisionnement. En effet, les providers ont tendance à prévoir leur infrastructure plus large que l’utilisation courante pour pallier aux pics de charge qui ne sont pas forcément faciles à prévoir. C’est la politique du 60 % (60 % max d’utilisation de l’ensemble des serveurs).

Autre point noir : le besoin de haute disponibilité. Pour cela, leurs réseaux sont surprotégés avec du matériel au minimum doublé pour faire face aux possibles défaillances.

Enfin, consommer du cloud c’est aussi indirectement consommer d’autres outils moins visibles mais tout aussi consommateurs tels que les systèmes de backup, de réplication, de monitoring ou encore les systèmes de facturation.

Alors oui, le cloud n’est pas une solution d’hébergement verte, mais sur certains points elle réalise des efforts importants, comme l’optimisation des méthodes de refroidissement des datacenters ou encore l’utilisation de ressources inutilisées (serveurs préemptibles), qui peuvent être récupérées par le fournisseur à tout moment. Une étude réalisée par Anders Andrea estime que le cloud consommera jusqu’à 33 % de l’électricité d’ici 2025.

Europe, où es-tu ?

Il est clair que le secteur fait face à l’une des plus grosses mutations de son histoire. Les solutions physiques perdent du terrain face aux solutions cloud et Internet est devenu un marché tellement global que tout projet ambitieux doit être conçu pour le cloud.

La question de la souveraineté des données est un enjeu qui mobilise de plus en plus les acteurs institutionnels pour proposer des alternatives aux solutions commerciales et privées. Les administrations sont toutes en pleine transition numérique et le choix du provider utilisé est important pour des raisons de liberté et d’indépendance démocratique.

L’Europe n’existe pratiquement pas sur le grand échiquier des fournisseurs de cloud mondiaux et ses deux forces en présence : les Américains et les Chinois.

Malgré tout, un seul acteur essaye de se positionner face à ses concurrents, il s’agit d’OVH, et de ses 2 % de part de marché mondial (65 % en France). OVH est une entreprise avec beaucoup d’ambitions et qui a les moyens de s’étendre à l’international. Elle dispose d’ailleurs déjà d’un réseau important hors de France. Si son offre est riche aujourd’hui, l’entreprise a mis un peu de temps à la réorienter vers le cloud. Ses ambitions et sa qualité de service (qui s’est grandement améliorée) sont telles qu’elles méritent toute votre attention !

Author: Web Summit

Octave Kabla, son fondateur, le dit lui-même : il veut créer un véritable engouement et fédérer les sociétés européennes pour proposer des offres performantes et cohérentes à l’international. Et sur ce point, il faut continuer à les soutenir, car c’est aussi pour toutes les entreprises européennes la capacité à rester indépendantes. Pour OVH, l’année 2020 sera surement une année charnière, comme le confirme déjà son changement de nom en cette fin d’année : OVH est devenu OVH Cloud !

Le cloud, pour qui ?

Le cloud n’est pas une tendance mais une mutation naturelle, qui dans le temps, prendra la place de l’hébergement traditionnel. Même si la majorité des sites web dans le monde s’appuient toujours sur des serveurs dédiés, les avantages du cloud sont tellement importants que le marché basculera tôt ou tard.

Toutefois, cela ne nous empêche pas d’être vigilants sur les coûts, les garanties en termes de protections des données et enfin de notre dépendance technique que produit l’utilisation de ces solutions dans la conception des projets.

Prenez le temps de décortiquer les offres en fonction de vos contraintes et de votre tolérance à l’ingérence. Le plus important est de prévoir une porte de sortie vers d’autres providers, au cas où... En nous détachant de la technique, le cloud peut vite devenir une jolie cage dorée.

Sources :

Commentaires

Il n'y a actuellement aucun commentaire. Soyez le premier !