Menu
Blog Web & Mobile

Évolution d’Internet : des origines à nos jours et perspectives futures

Internet est passé en quelques décennies d’un réseau expérimental à un pilier incontournable de nos vies, de nos société, de nos entreprises. Son histoire se divise en plusieurs étapes marquantes, depuis la création des premières infrastructures jusqu’à l’essor du mobile et aujourd’hui des agents intelligents basés sur l’IA.

Et demain quelles seront les évolutions ? Notre agence de communication digitale a été créé à Nantes en … 1995. La préhistoire du web, comme le symbolise notre bison, animal totem de notre agence.

Profondément ancré sur notre territoire, nous avons depuis 30 ans été témoins et acteurs de ces évolutions, au service de nos clients. Certains nous sont fidèles depuis notre création et nous les remercions !

L’article qui suit retrace cette évolution, celle de notre agence au travers de quelques faits marquants et anecdotes, ainsi que les tendances actuelles et les perspectives d’évolution pour les 5 à 10 prochaines années. 

Notre agence web fêtera cette année ses 30 ans et nous avions envie de partager avec vous, l’histoire d’internet, de sa création à nos jours, et au travers de cette histoire, celle de notre agence.



Pour les plus pressés, écoutez cet épisode sur votre plateforme de Podcast préférée (Apple Podcast, Deezer, Amazon Podcast, Spotify, …) !

 

 



Création d’Internet : ARPANET, TCP/IP et naissance du World Wide Web

Internet trouve son origine dans les recherches menées dans les années 1960 pour interconnecter des ordinateurs à distance. Aux États-Unis, l’agence ARPA du département de la Défense finance en 1969 le réseau ARPANET, reliant quatre universités (UCLA, Stanford, UCSB et Utah) via des lignes téléphoniques​.

ARPANET utilise la commutation de paquets, une technique révolutionnaire permettant d’envoyer des données en petits blocs sur le réseau. Le 29 octobre 1969, le premier message est transmis sur ARPANET (le mot “LOGIN”), inaugurant l’ère des réseaux informatiques interconnectés​.

Durant les années 1970, ce réseau s’agrandit et de nouveaux protocoles sont développés : en particulier, TCP/IP, la suite de protocoles qui deviendra la colonne vertébrale d’Internet. Mis au point par Vint Cerf et Bob Kahn, TCP/IP est adopté officiellement par ARPANET le 1er janvier 1983​


Cette transition cruciale transforme ARPANET en un réseau de réseaux interconnectés, jettant les bases du véritable “Internet” tel qu’on le connaît​ aujourd’hui !

 

 

À la fin des années 1980, des fournisseurs d’accès Internet commerciaux , comme AOL par exemple, apparaissent et la connexion s’étend au grand public.Parallèlement, la fin des années 1980 voit naître une innovation qui va populariser Internet : le World Wide WebVous savez, les trois “www” que vous utilisez pour accéder à un site, sans même peut-être le savoir !



En 1989, au CERN (laboratoire de recherche en Suisse), le chercheur Tim Berners-Lee propose un système hypertexte distribué pour mieux partager les informations entre scientifiques​.

Il crée en 1990 le premier logiciel serveur web (CERN httpd) et le premier navigateur web (appelé WorldWideWeb), ainsi que le langage de formatage HTML et le protocole HTTP​, utilisé pour accéder à un site internet.

Le Web permet de publier et de consulter facilement des documents enrichis de liens hypertexte, accessibles depuis n’importe quel ordinateur connecté à Internet.

Le premier site web de l’histoire est mis en ligne en décembre 1990 sur l’ordinateur NeXT de Berners-Lee au CERN. Le site info.cern.ch décrit le projet World Wide Web lui-même et explique comment utiliser un serveur web​.Voici à quoi ressemblait unisse internet au tout début !

Nous sommes encore loin des tendances du  web design que nous connaissons aujourd’hui ! Tout en sobriété nous direz vous ! 


Berners-Lee choisit de laisser la technologie du Web libre de droits, ce qui permettra son adoption massive.

En avril 1993, le CERN rend les technologies du Web disponibles librement, accélérant encore son expansion : on compte déjà plus de 500 serveurs web à la fin 1993​.



Les premiers sites web : caractéristiques et technologies initiales

Les tout premiers sites web, au début des années 1990, étaient très rudimentaires par rapport à ceux d’aujourd’hui. Le site inaugural du CERN créé par Tim Berners-Lee en 1990 contenait uniquement du texte et des hyperliens vers d’autres documents, sans aucune mise en forme élaborée ni image​.

De manière générale, les sites web des années 90 (ère dite du Web 1.0) étaient statiques, composés de pages HTML simples éditées manuellement. Ils affichaient principalement du texte, éventuellement quelques images bitmap, et proposaient des liens vers d’autres pages.


Le code HTML utilisé était basique, sans feuilles de style CSS (celles-ci n’apparaîtront qu’à la fin des années 90).

La présentation visuelle était donc limitée : arrière-plans unis ou en mosaïque, texte monochrome ou en couleur par défaut du navigateur, et mise en page souvent structurée à l’aide de tableaux HTML​.

Les éléments visuels étaient réduits au minimum en raison de la lenteur des connexions afin de garantir un temps de chargement acceptable​. Et oui, les modems téléphoniques faisaient à l’époque un bruit étrange et qui autorisait des débits de 9800 kbits par secondes… Nous étions encore très loin de la 5G et de la fibre optique ! 

Par exemple, la copie de 1993 du tout premier site web montre une page au fond blanc, avec des paragraphes de texte noir soulignés de liens hypertextes bleus​. Quelques illustrations rudimentaires pouvaient être intégrées, mais restaient rares.

Malgré leur simplicité, ces sites pionniers posaient les bases du fonctionnement du Web. Chaque page était identifiée par une URL unique, et les internautes naviguaient de lien en lien pour parcourir le web.

Les premières pages web notables incluent des répertoires de ressources et des pages personnelles de chercheurs.

En 1993, on compte déjà plus de 2000 sites web, notamment avec l’arrivée de sites emblématiques de la première génération : le portail Yahoo! en 1994, le site d’e-commerce Amazon en 1995, ou le site d’enchères eBay en 1995​. 

Néanmoins, ces sites initiaux restaient peu interactifs : l’utilisateur se limitait à consulter les informations affichées et à naviguer, sans possibilité d’interagir ou de personnaliser le contenu.



Introduction des images et de Flash : vers un web plus multimédia et interactif

Un tournant majeur du web des années 90 a été l’ajout des images dans les pages web, qui a grandement amélioré l’expérience utilisateur. À l’origine, le premier navigateur de Berners-Lee affichait uniquement du texte.

Ce n’est qu’avec le navigateur NCSA Mosaic (sorti en 1993) que l’on a pu voir apparaître des images intégrées directement au sein des pages, et non plus dans des fenêtres à part. Mosaic fut le premier navigateur à afficher automatiquement les images aux côtés du texte, offrant une mise en page évoquant un magazine illustré​.

Cette avancée a rendu le web beaucoup plus attrayant pour le grand public : « la prolifération de jolies images a transformé le Web, qui est passé du domaine des scientifiques et hackers à un phénomène culturel captivant les masses »​.

En effet, la présence de photographies, graphiques et icônes a enrichi les pages web et permis de créer des interfaces plus conviviales.

Dès le milieu des années 90, les sites web intègrent largement des images (souvent au format GIF ou JPEG), des logos, et des éléments graphiques pour la navigation (boutons, barres, etc.). Le web devient ainsi plus “multimédia“, combinant texte et visuels. C’est le terme à l’époque “Multimédia” !

 

 

C’est à cette période, en 1995, que Thomas Georgelin et Olivier Robé on l’idée un peu folle à l’époque de créer notre agence web, alors que le concept même n’existait pas ! 

 




Peu après les images, un autre ingrédient a rendu le web plus vivant : la technologie Flash. Une véritable révolution pour les Webdesigners de l’époque ! 

Lancé en 1996 par la société Macromedia, Flash (initialement basé sur FutureSplash) a introduit la possibilité d’ajouter des animations vectorielles, des effets sonores et des mini-applications interactives au sein des pages web​.

Contrairement au HTML de l’époque, très limité en termes d’animations, Flash permettait de créer des contenus riches : jeux en ligne, bannières animées, visualisations interactives, lecteurs audio/vidéo, etc.

Son principe reposait sur un plugin(le Flash Player) que l’utilisateur installait dans son navigateur pour exécuter ces animations.

Flash connut un immense succès à la fin des années 90 et début 2000 : de nombreux sites arboraient des intros animées “Flash”, des menus interactifs complexes, ou même étaient entièrement conçus en Flash.

Cette technologie propriétaire, facile à prendre en main pour les designers de l’époque, a véritablement contribué à l’explosion de la créativité visuelle sur le web​. Grâce à Flash, le web est passé d’un médium principalement textuel à un espace pouvant rivaliser avec la télévision ou le CD-ROM en matière d’interactivité et d’animation.

 

Flash permettait en effet quasiment tout sur le plan graphique – seules les limitations de bande passante freinaient son usage​.



Les premières versions des sites web et leurs fonctionnalités limitées

Les sites web de la première génération (Web 1.0, années 90) se distinguent fortement de ceux d’aujourd’hui par leurs fonctionnalités réduites et leur interactivité quasi nulle. 

La navigation s’y fait de page en page via des liens hypertexte ou de simples menus. Les formats de contenu supportés sont limités : essentiellement du texte, des images statiques et parfois des téléchargements de fichiers. 

L’interactivité offerte à l’utilisateur est minimale. Par exemple, un site des années 90 peut proposer un formulaire très basique (formulaire de contact ou de recherche), mais en coulisses cela déclenche un programme sur le serveur (CGI) renvoyant une nouvelle page – pas de mise à jour instantanée ni de personnalisation.

Les pages ne changent pas selon l’utilisateur : pas de compte personnel, pas de commentaires, pas de fil d’actualité dynamique.

En somme, le Web 1.0 est souvent qualifié de web “à sens unique” : l’internaute reçoit l’information publiquement disponible, sans pouvoir interagir ou contribuer​.

Techniquement, ces premiers sites reposent sur des pages HTML statiques, codées à la main par des développeurs ou webmestres. Chaque mise à jour nécessite de modifier le code source HTML du fichier correspondant, ce qui est laborieux.

Nous développions durant cette période des sites statiques “dans le code”, recevions les textes de nos clients par fax !

 

Il n’existe pas encore de feuilles de style : la présentation est directement codée dans le HTML (titres, listes, tableaux…). De même, JavaScript n’apparaît qu’en 1995 et reste très sommaire à ses débuts – la plupart des sites n’en utilisent pas.

Les seules formes d’interactivité populaires vers 1996-1999 seront les applets Java (petits programmes intégrés écrits en Java, souvent lourds et peu utilisés) et les contenus Flash mentionnés précédemment.

Ainsi, les sites web 1.0 offrent principalement de la lecture et de la navigation, avec une expérience utilisateur peu interactive comparée à aujourd’hui.

Pour mieux saisir l’écart entre le web des années 90 et le web actuel, le tableau ci-dessous compare quelques caractéristiques :


CaractéristiquesWeb des années 90 (Web 1.0)Web actuel (années 2020)
Nature du contenuStatique – pages HTML principalement textuelles, mises à jour manuellement par des webmasters​legarsdweb.com.Dynamique et riche – contenu mis à jour fréquemment (articles, vidéos, posts), souvent alimenté par les utilisateurs (blogs, réseaux sociaux) et personnalisé selon le contexte.
Technologies de designHTML basique (très peu de CSS), mise en page par tableaux, images limitées; interactivité via formulaires CGI ou scripts simples.HTML5/CSS3 moderne, JavaScript omniprésent (AJAX, frameworks SPA), design adaptatif (responsive) pour mobile, applications web complexes proches des apps natives.
Rôle de l’utilisateurLecteur passif – consultation unidirectionnelle de l’information, pas de contribution ni de profil utilisateur​ideematic.com.Acteur participatif – l’utilisateur peut interagir (commenter, évaluer), créer du contenu (publications, vidéos), et voit ses données utilisées pour personnaliser son expérience (Web social).​ideematic.com



Comme on le voit, le fossé est immense entre les sites web 1.0 et les sites modernes. Ce basculement s’est opéré progressivement durant les années 2000 avec l’avènement du Web 2.0 (apparition des blogs, des wikis, des forums et des réseaux sociaux permettant aux internautes d’être contributeurs).


Désormais, l’accent est mis sur l’expérience utilisateur et l’interaction en temps réel, là où les premières versions du web n’étaient qu’un espace de publication statique.



Les vitesses de connexion : de la lenteur du modem 56k au très haut débit (ADSL, fibre, 5G)

L’évolution d’Internet est intimement liée aux progrès des modes de connexion et de la bande passante disponible pour les usagers.

À ses débuts grand public dans les années 1990, se connecter à Internet signifiait utiliser un modem analogique branché sur la ligne téléphonique (accès dial-up). Ces modems ont vu leur débit plafonner à 56 kb/s vers la fin des années 90 – au mieux 56 kilobits par seconde, soit à peine 0,056 Mb/s en débit utile​.

En pratique, télécharger un fichier de 1 Mo prenait plus de 2 minutes à 56 kb/s. De plus, la connexion occupait la ligne téléphonique (on ne pouvait pas téléphoner en même temps) et la qualité variait selon le bruit sur la ligne.

Pour de nombreux internautes des années 90, le sifflement strident du modem et la lenteur du chargement d’images étaient le quotidien du web. Un saut technologique survient au tournant des années 2000 avec l’arrivée de l’ADSL (Asymmetric Digital Subscriber Line).

L’ADSL utilise la ligne téléphonique en la divisant en fréquences, permettant un flux de données numérique à haut débit sans bloquer le téléphone. En France, l’ADSL se démocratise à partir de 1999-2000. Les premiers accès ADSL offrent un débit théorique jusqu’à 8 Mb/s en téléchargement (soit ~140 fois plus rapide qu’un modem 56k)​.

Dans la pratique, les débits initiaux sont souvent moindres (quelques mégabits) car dépendant de la distance à la centrale téléphonique, mais le gain par rapport au modem est énorme. Surtout, la connexion devient permanente (on reste connecté sans composer un numéro à chaque fois) et forfaitaire (plus de facturation à la minute), ce qui change radicalement les usages.

L’ADSL inaugure l’ère du haut débit fixe : consultation plus fluide du web, apparition de la musique en ligne, début de la vidéo en streaming naissante, etc. Au fil des années 2000, les technologies xDSL progressent (ADSL2+, VDSL) et multiplient les débits, tandis que le câble coaxial offre aussi des accès Internet comparables.

La décennie 2010 voit l’essor de la fibre optique jusqu’au domicile (FTTH), qui marque l’entrée dans le très haut débit. La fibre, dont le déploiement commence dans les grandes villes dans les années 2000, utilise des brins de verre pour transmettre des données via la lumière, ce qui autorise des débits bien supérieurs aux fils de cuivre.

Initialement, les offres fibre grand public proposaient autour de 100 Mb/s descendants, soit déjà plus de 10x l’ADSL​.

 


Mais très vite, les capacités augmentent : aujourd’hui (années 2020), les abonnements fibre courants fournissent du 1 Gb/s (1000 Mb/s) et même davantage dans certaines régions (2, 5 voire 8 Gb/s).

Avec de telles vitesses, des usages naguère impossibles sont banalisés : streaming vidéo HD/4K, jeux vidéo en ligne sans latence notable, visioconférences en haute définition, cloud computing intensif, etc.

En 2023, plus de 60% des foyers français sont raccordés à la fibre optique, reflétant une démocratisation du très haut débit​ !



Parallèlement aux connexions fixes, les connexions mobiles ont également explosé en vitesse. Les réseaux de téléphonie mobile sont passés de la 2G (années 90, data quasi nulle) à la 3G (années 2000, internet mobile de l’ordre de 384 kb/s à quelques Mb/s) puis à la 4G (années 2010).

La 4G a permis pour la première fois un internet mobile haut débit, avec un débit théorique maximal d’environ 100 Mb/s​. Désormais, la 5G (déployée à partir de 2020) promet des vitesses encore bien supérieures – au-delà de 1 Gb/s en théorie​.

En conditions réelles, la 5G offre fréquemment plusieurs centaines de Mb/s, soit l’équivalent d’une bonne connexion fibre, mais sur un smartphone en mobilité.

Ces avancées mobiles contribuent à rendre Internet accessible partout et tout le temps, et ouvrent la voie à de nouveaux usages (véhicules connectés, objets communicants, streaming vidéo 4K sur mobile, etc.).



Le tableau suivant résume l’évolution des principales technologies d’accès à Internet et leurs débits typiques :

Technologie de connexionPériode d’essorDébit descendant maximum théorique
Modem RTC analogique (dial-up 56k)Années 1990~56 kb/s (0,056 Mb/s)​ladsl.com
ADSL (haut débit sur cuivre)Début 2000s~8 Mb/s (ADSL première génération)​ladsl.com
Fibre optique (très haut débit fixe)Fin 2000s – 2010s~100 Mb/s au lancement, jusqu’à >1 Gb/s ensuite​ladsl.com
Réseau mobile 3GAnnées 2000~2 Mb/s (3G), jusqu’à 42 Mb/s (3G+ HSPA+)
Réseau mobile 4GAnnées 2010~150 Mb/s (théorique catégorie 4)​sfrbusiness.fr
Réseau mobile 5GAnnées 2020>1 Gb/s (théorique, avec ondes millimétriques)​sfrbusiness.fr



NB : Les valeurs ci-dessus sont des plafonds théoriques. Les débits pratiques varient selon les conditions (ligne, couverture, etc.). Néanmoins, la tendance générale est un saut d’environ x10 à chaque génération, entraînant à chaque fois de nouveaux usages rendus possibles.



Les premiers annuaires et moteurs de recherche : Nomade, Yahoo!, Altavista, Lycos…

Dès que le Web a commencé à s’étendre, s’est posée la question de retrouver l’information pertinente dans cette multitude de sites. Avant l’algorithme de Google, les internautes des années 90 s’appuyaient sur des annuaires et des moteurs de recherche naissants.

Les annuaires web furent les premiers guides : il s’agissait de répertoires de sites classés par catégories, souvent remplis manuellement.

En France, le pionnier en la matière est Nomade.fr, lancé à l’été 1996. Nomade est considéré comme le premier annuaire et moteur de recherche français, né de l’initiative de deux entrepreneurs français souhaitant référencer les sites francophones alors que tous les outils existants étaient américains​.

Mis en ligne en juillet 1996, Nomade précède de justesse l’arrivée de Yahoo! France (octobre 1996) et rencontre un certain succès dans l’Hexagone​.

Son principe : une page d’accueil où l’on peut soit parcourir un classement thématique de sites web, soit saisir des mots-clés pour rechercher des sites indexés. Nomade comportait une base de sites ajoutés éditorialement (quelques milliers à l’époque).

Nous sommes très loins des moteurs de recherche dopés à l’IA et des moteurs de recherches conversationnels !



De son côté, Yahoo! est à l’origine (en 1994) un annuaire web fondé aux États-Unis par Jerry Yang et David Filo. Yahoo! Directory a été le premier annuaire web populaire à l’échelle mondiale​.

Yahoo a très vite enrichi son offre en devenant un portail généraliste (actualités, mail, météo, etc.) mais son cœur restait un annuaire où chaque site soumis était revu et classé par des éditeurs humains.

Durant les années 1995-1998, Yahoo! domine la recherche d’information sur le Web grâce à son annuaire exhaustif et sa notoriété.

En parallèle des annuaires, des moteurs de recherche automatisés apparaissent dès 1993-1994. Contrairement aux annuaires, les moteurs utilisent des robots logiciels (spiders) pour parcourir le web et indexer le contenu des pages, permettant une recherche par mots-clés plus fine. L’un des premiers moteurs de recherche fut Lycos, lancé en juillet 1994 à l’université Carnegie Mellon​.

Lycos utilisait un index automatisé de pages et a rapidement gagné en popularité, tout comme ses contemporains InfoseekExcite ou AltaVistaAltaVista, lancé en décembre 1995 par Digital Equipment Corp, a marqué une étape importante : ce moteur innovant indexait un nombre sans précédent de pages et offrait des fonctionnalités avancées (recherches par phrases naturelles, inclusion/exclusion de termes)​.

AltaVista a impressionné par sa rapidité et la pertinence de ses résultats, attirant des centaines de milliers de requêtes par jour dès ses débuts​ !




En 1996-1997, AltaVista, Lycos, Excite et Yahoo (qui entre-temps proposait aussi un moteur en plus de l’annuaire) se disputaient la première place dans les habitudes des internautes​.

En France, des initiatives comme Voila.fr (1996, par France Télécom) et Ecila (1995) ont tenté de concurrencer Nomade en combinant annuaire et moteur.

Cependant, les résultats de ces premiers moteurs restaient parfois approximatifs, car basés principalement sur la fréquence des mots-clés dans les pages. La hiérarchie manuelle de Yahoo! conservait donc son attrait pour trouver les sites “de référence”.

Cette situation va changer radicalement à la fin des années 90 avec l’arrivée d’un nouvel acteur : Google. Ce nom vous dit quelque chose ?



Les premiers CMS : faciliter la création de sites web

Nous le disions plus haut, au début du Web, créer un site nécessitait de tout coder « à la main » en HTML et autres langages – une tâche complexe pour les non-initiés.

C’est pourquoi, dès la fin des années 1990, sont apparus les premiers CMS (Content Management Systems ou systèmes de gestion de contenu) dans le but de simplifier la création et la mise à jour de sites web.

 

Notre agence à créé l’un des tout premier CMS, il s’appelait IC Publishing ! Certains de nos clients fidèles s’en souviennent encore ! Nous étions loin des fonctionnalités de WordPress, mais cela rendait nos clients autonomes dans la gestion de leur contenu. Une vraie révolution ! 



Un CMS permet de séparer le contenu (texte, images) de la présentation et de la logique technique, offrant une interface d’administration où l’on peut publier des pages sans écrire directement du code HTML.


Par exemple, en 1999, la plateforme Blogger est lancée par la startup Pyra Labs, offrant un outil en ligne pour tenir facilement un “weblog” (journal personnel en ligne) sans connaissances techniques​.

Cela inaugure la vague des blogs, où chacun peut devenir auteur sur Internet en quelques clics. Presque au même moment, en 2000, un étudiant nommé Dries Buytaert diffuse la première version de Drupal, un CMS open-source initialement conçu pour un petit forum étudiant​.

Drupal deviendra l’un des CMS les plus puissants pour bâtir des sites communautaires. D’autres systèmes de gestion de contenu émergent dans ces années-là, tels que PHP-Nuke (1999) pour créer des portails, ou Mambo (2001) qui évoluera en Joomla.

Le véritable envol des CMS est marqué par l’apparition de WordPress en 2003. Le CMS de référence le plus utilisé dans le monde aujourd’hui ! Initialement un moteur de blog dérivé du logiciel b2, WordPress est lancé en mai 2003 par Matt Mullenweg et Mike Little​.

Gratuit et open-source, WordPress séduit rapidement par sa facilité d’installation et son écosystème (thèmes graphiques, extensions). Au fil des années, il s’enrichit de fonctionnalités pour ne plus servir uniquement aux blogs mais à tout type de site.

Cette accessibilité des CMS a eu un impact majeur : elle a permis à des millions de personnes non développeuses de créer leur site web (blog personnel, site vitrine, magazine en ligne, etc.) sans écrire de code.

Dans les années 2010, WordPress s’impose comme la solution dominante – à tel point qu’aujourd’hui WordPress propulse environ 43% de tous les sites web dans le monde​.

D’autres CMS populaires incluent Joomla (né en 2005 de la scission de Mambo) et Drupal, qui restent largement utilisés pour des sites d’entreprise, institutionnels ou communautaires.

Parallèlement, on voit aussi émerger des constructeurs de site en ligne (website builders) comme Wix, Weebly ou Squarespace qui, sans être des CMS au sens classique, poursuivent la même logique de démocratisation de la création de sites via des interfaces graphiques.

En résumé, les premiers CMS ont transformé la production de contenu web en la rendant beaucoup plus accessible. De la publication d’un billet de blog à la gestion d’un portail complet, ils ont ouvert l’ère du Web participatif où chacun peut aisément devenir créateur de contenu en ligne.



L’arrivée de Google : un nouvel ordre dans la recherche d’informations

En 1998, un nouveau moteur de recherche fait son apparition et va bouleverser l’organisation du Web : Google. Fondé par deux doctorants de Stanford, Larry Page et Sergey Brin, Google apporte une innovation clé dans la recherche d’informations : l’algorithme PageRank.

Au lieu de se fier uniquement aux mots-clés, PageRank évalue la pertinence d’une page en analysant les liens hypertexte qui pointent vers elle, interprétés comme des votes ou recommandations d’autres pages​


Cette idée – considérer les hyperliens comme des citations – permet de classer les résultats de recherche de façon bien plus pertinente que les moteurs précédents.

Très vite, Google se distingue par la qualité de ses résultats : dès 1998, la presse salue la capacité “presque surnaturelle” de Google à fournir ce que l’on cherche​.

 




L’interface épurée du site (simple logo et barre de recherche, sans portail encombré) séduit également les utilisateurs par sa rapidité et sa simplicité. L’impact de Google sur la recherche d’info est immense. En quelques années, Google surpasse des concurrents pourtant bien établis comme AltaVista, Excite ou Lycos​.

Au début des années 2000, “googler” devient un verbe : le réflexe par défaut de tout internaute pour trouver une information est de la chercher sur Google.

L’algorithme PageRank, constamment amélioré, impose un nouvel ordre de pertinence sur le web – incitant les créateurs de sites à optimiser leur référencement (ainsi naît le SEO). Google structure le web en faisant émerger les pages les plus fiables/populaires en haut des résultats, ce qui change le trafic : être sur Google devient crucial pour être visité.

Par ailleurs, Google a su innover en permanence : enrichissement de la recherche (images, actualités, cartes…), vitesse d’indexation, adaptation aux mobiles, etc.

Les algorithmes de Google incorporent de plus en plus de critères (qualité du contenu, fraîcheur, localisation de l’utilisateur, et depuis 2015 l’apprentissage automatique avec RankBrain pour mieux comprendre l’intention des requêtes)​.

Aujourd’hui, Google écrase littéralement le marché de la recherche en ligne avec près de 89% de part de marché mondiale début 2025​.Cela signifie que l’essentiel de l’organisation de l’information en ligne passe par ses algorithmes.

Seule peut-être l’arrivée des moteurs de recherche basés sur l’IA conversationnelles comme Chat GPT Search pourraient peut-être remettre en cause sa domination. À suivre ! 

Le classement des résultats par Google influence quels sites prospèrent ou non. On peut donc dire que Google a réorganisé l’accès au savoir en ligne, en rendant l’information plus accessible (une simple requête fournit en milli-secondes des réponses pertinentes) mais aussi en centralisant ce pouvoir de tri.

Néanmoins, face à ce quasi-monopole, des alternatives existent (Bing, DuckDuckGo, Qwant, etc.) sans atteindre l’impact de Google. Après plus de 20 ans, Google reste pour des milliards d’utilisateurs la porte d’entrée du Web.



L’essor du mobile avec l’iPhone : un Internet dans la poche

Le 9 janvier 2007, Apple dévoile l’iPhone, premier smartphone grand public à l’écran tactile multipoint, et enclenche une révolution dans notre façon d’accéder à Internet.

Si l’Internet mobile existait avant (WAP sur téléphones 2G, sites “mobiles” simplifiés), l’iPhone (suivi par Android en 2008) va réellement populariser un web mobile complet : pour la première fois, on peut naviguer sur de vrais sites web depuis son téléphone presque aussi confortablement que sur un ordinateur.

Olivier Robé, co-dirigeant fondateur de notre agence raconte parfois que lorsqu’il a évoqué en 1999 lors d’une conférence qu’il animait l’idée que peut être on pourrait se connecter, voire des films et acheter enlisent sur son téléphone, que la salle avait éclaté de rire. Les choses ont bien changées, non ? 

 



Le smartphone devient un terminal Internet personnel que l’on a en permanence sur soi. Cette mobilité change tout : les usages Internet s’émancipent du PC de bureau pour accompagner l’utilisateur dans tous les moments de la vie quotidienne (transports, voyage, domicile…).

En quelques années, le trafic Internet bascule massivement vers le mobile. En 2016, le trafic web mondial sur mobile dépasse pour la première fois celui sur desktop (48,25% vs 46,93%)​, un basculement symbolique qui confirme l’importance primordiale du mobile.

 

Nous avons développé l’une des premières applications mobiles enFrance à cette période !



Aujourd’hui, environ 60% du trafic Internet global provient d’appareils mobiles​.

Dans certaines régions le smartphone est l’unique moyen d’accès à Internet pour les utilisateurs. Cette tendance a profondément influencé le développement web : les créateurs de sites doivent désormais adopter une approche “mobile-first”.

Cela signifie concevoir d’abord l’ergonomie pour les petits écrans tactiles, assurer une compatibilité multi-appareils (responsive design), et optimiser la performance pour les réseaux mobiles (qui, bien que rapides en 4G/5G, peuvent varier).

Par exemple, Google a instauré l’indexation mobile-first en 2018, ce qui implique qu’il considère la version mobile d’un site comme la référence pour son index – un signe que le mobile est devenu la norme.

Le triomphe du mobile a aussi provoqué la fin de certaines technologies inadaptées. Un cas notable : Flash, omniprésent dans les années 2000, n’a jamais été supporté par l’iPhone (Steve Jobs ayant refusé Flash sur iOS).

Cela a accéléré le déclin de Flash et la transition vers HTML5 pour la vidéo et les animations interactives, mieux pris en charge sur mobile.

De plus, l’iPhone a inauguré l’ère des applications mobiles : au lieu de passer par le navigateur, de nombreux services proposent des apps dédiées, offrant une expérience optimisée. Néanmoins, web mobile et apps cohabitent, et les sites web se sont perfectionnés (avec les Progressive Web Apps, le web push, etc.) pour rester compétitifs face aux apps.

En somme, l’essor des smartphones a rendu Internet ubiquitaire. La conséquence est un changement de nos habitudes : on consulte les réseaux sociaux, on regarde des vidéos, on communique, on achète, le tout majoritairement depuis nos terminaux mobiles.

Le développement web s’est adapté en conséquence pour délivrer un Internet nomade, rapide, ergonomique et intégré aux fonctionnalités des téléphones (géolocalisation, notifications, capteurs divers).

Le web est ainsi entré dans notre vie quotidienne d’une manière beaucoup plus intime grâce au mobile.



État actuel d’Internet : technologies dominantes, usages et tendances (algorithmes, CMS, IA…)

En 2025, Internet est un écosystème arrivé à maturité, dominé par quelques technologies et plateformes clés, tout en étant en évolution constante. 

Techniquement, les standards ouverts comme HTML5 et CSS3 sont pleinement établis, offrant un socle commun à tous les sites modernes (multimédia, graphiques, interactivité sans plugin).

Le JavaScript est devenu incontournable côté client, avec une multitude de cadres (frameworks) tels que React, Angular ou Vue qui permettent de construire de véritables applications web (web apps) s’exécutant dans le navigateur.

 

 

 

Si vous êtes curieux, notre blog, régulièrement mis à jour est riche en information sur les usages et les tendances actuelles.




Ces applications offrent des expériences riches, souvent monopages (SPA) ou en temps réel, rapprochant le web de la fluidité des applications de bureau.

Côté serveur, l’architecture du web s’appuie massivement sur des infrastructures de cloud computing (fournies par AWS, Azure, Google Cloud…), rendant les sites et services hautement disponibles et évolutifs.

Notre agence héberge les sites internet de ses clients depuis sa création à Nantes en 1995. Nous hébergeons aujourd’hui bien entendu sur le Cloud.

On observe également la montée du “headless” et des API : de nombreux sites ne sont plus monolithiques mais consomment des données via des API web, ce qui offre plus de modularité (ex: un même contenu peut alimenter un site web et une appli mobile).

Du point de vue des usages, Internet est aujourd’hui omniprésent dans la vie de milliards de personnes, avec des usages variés : les réseaux sociaux (Facebook, YouTube, Instagram, TikTok, Twitter…) occupent une place prédominante dans le temps passé en ligne, permettant le partage de contenus personnels et l’information en continu. 

Le streaming vidéo est un autre usage majeur – des plateformes comme YouTube (propriété de Google) et Netflix distribuent des milliards d’heures de vidéos chaque mois. Le commerce en ligne est devenu courant (Amazon et Alibaba figurent parmi les géants du Web). 

La communication s’effectue via la VoIP, la visioconférence, la messagerie instantanée, souvent via des applications reliées à Internet (WhatsApp, Zoom, Slack, etc.). On peut également noter la place de plus en plus importante des jeux en ligne et des environnements virtuels connectés.

Les algorithmes sont partout pour personnaliser l’expérience : fil d’actualité trié sur mesure, recommandations de vidéos ou de produits, etc. L’économie des données est devenue centrale, soulevant des enjeux de vie privée et de régulation.


Les algorithmes de recherche ont, quant à eux, gagné en complexité et en “intelligence”. Google, toujours leader, a intégré des techniques d’intelligence artificielle pour mieux comprendre les requêtes et le contenu des pages.

Par exemple, son algorithme RankBrain (introduit en 2015) utilise le machine learning pour interpréter les requêtes inédites et deviner l’intention de l’utilisateur, améliorant ainsi la pertinence des résultats​.

D’autres mises à jour comme BERT (2019) permettent à Google de saisir le contexte linguistique des mots dans une phrase, ce qui affine encore la qualité des réponses.

En pratique, les moteurs de recherche actuels cherchent à comprendre le langage naturel presque comme un humain, plutôt que de simplement faire correspondre des mots-clés. De plus, la recherche ne se limite plus au texte : la recherche vocale s’est démocratisée (via les assistants personnels type Alexa, Google Assistant, Siri), tout comme la recherche d’images ou de vidéos par contenu.

Les pages de résultats se sont enrichies (extraits optimisés, réponses directes, cartes, avis, etc.), transformant l’expérience de recherche en un guide complet et personnalisé.

Du côté des CMS et de la gestion de contenu, on assiste à la fois à une concentration et à une diversification. WordPress s’est affirmé comme la plateforme dominante pour la création de sites web de contenu, alimentant près de la moitié des sites dans le monde​.

Cette hégémonie s’explique par sa flexibilité (innombrables extensions et thèmes) et sa grande communauté. En parallèle, des plateformes spécialisées ont émergé : par exemple Shopify pour le commerce en ligne, Wix et Squarespace pour la création simplifiée de sites vitrines, ou encore Medium pour le blogging.

On voit aussi l’essor de la démarche Headless CMS (Contentful, Strapi…) où le CMS ne gère que le contenu via une API, laissant aux développeurs le soin de créer le front-end, ce qui répond aux besoins multi-supports (web, appli mobile, objets connectés).

Les entreprises, quant à elles, adoptent des solutions CMS robustes (Drupal reste prisé pour les sites institutionnels, tout comme des solutions .NET ou Java pour certains grands comptes).

Il n’a jamais été aussi aisé de mettre en ligne du contenu et de le maintenir à jour, que ce soit via un CMS classique ou des constructeurs de sites en ligne.

Enfin, l’intelligence artificielle (IA) joue un rôle de plus en plus important sur l’Internet. Fidèle à sa baseline “Technologies créatives”, noter agence digitale est très enjointe sur ces sujets ! 




Bien souvent de manière invisible, elle alimente les algorithmes de recommandation (par ex. le moteur de Netflix ou l’algorithme de classement du fil Facebook utilisent du machine learning pour prédire ce qui vous plaira).

Elle est aussi au cœur des assistants virtuels et chatbots qui répondent aux questions des usagers sur les sites marchands ou les services clients.

Depuis récemment, les IA capables de générer du contenu ont fait irruption : des modèles comme GPT-3 (et ChatGPT) peuvent produire automatiquement des articles, du code ou des images, ce qui commence à être exploré pour créer de nouveaux services en ligne.

L’IA aide également à la cybersécurité (détection d’anomalies, anti-spam), à l’accessibilité (par ex. génération automatique de sous-titres ou de descriptions d’images pour les malvoyants), ou encore à l’optimisation réseau.

Internet est de plus en plus piloté par les données et l’IA : c’est à la fois un facteur d’amélioration (expériences plus personnalisées, automatisation des tâches complexes) et un sujet de vigilance (biais des algorithmes, utilisation éthique de l’IA, etc.).



Perspectives d’évolution à 5–10 ans : Web3, IA omniprésente, IoT, réalité augmentée…

Internet n’a cessé d’évoluer, et les 5 à 10 prochaines années s’annoncent riches en innovations disruptives. Parmi les tendances émergentes majeures, on peut citer :

1995 – 2025 : notre agence vous accompagne depuis 30 ans 

Internet a constamment évolué en intégrant les avancées technologiques et en transformant nos usages. Des premiers nœuds d’ARPANET aux futures infrastructures décentralisées du Web3, du texte statique aux expériences immersives de réalité virtuelle, le chemin parcouru est impressionnant.

Les 5 à 10 prochaines années verront sans doute se réaliser des choses encore impensables aujourd’hui, mais guidées par une même dynamique : rendre le réseau plus rapide, plus intelligent, plus intégré à nos vies, tout en relevant les défis de sécurité, de durabilité et d’accessibilité qui se présenteront.

Internet, en perpétuelle mutation, reste fidèle à sa vocation initiale de connecter les personnes et les connaissances à l’échelle mondiale.

Notre agence accompagne ses évolutions et vous accompagne depuis 3 décennies. Rencontrons nous