Jean-Michel Planche, Witbe – « Il existe des solutions pour avoir un internet qui fonctionne. Il faut les utiliser. »

Cerner le rôle et les enjeux de la Qualité de Service sur l’Internet n’a jamais été simple ; pourtant, il est aujourd’hui fondamental, pour l’avenir de l’Internet de s’en préoccuper. C’est la raison pour laquelle Jean-Michel Planche, de Witbe, et Pascale Dalençon d’Alcatel, avaient proposé la création d’un groupe de travail sur cette question au sein de la FING. Jean-Michel Planche, également fondateur d’Oléane, suit ces questions de près depuis longtemps. Et aujourd’hui, il tient un véritable rôle d’évangélisateur dans le domaine. Son objectif : sensibiliser l’ensemble des acteurs de l’Internet à l’importance de la Qualité de Service, sans laquelle Internet risque simplement, de ne plus fonctionner.
Interview.
http://www.witbe.net
A consulter également, la présentation du groupe de travail sur la Qualité de Service, par Pascale Dalençon, d’Alcatel et Jean-Michel Panche, lors de la journée FING du 28 juin dernier.

Le fiche d’information sur la Qualité de Service

Tout d’abord, qu’est-ce que la qualité de service ?

Il existe un axe très « opérateur télécom » pour définir la qualité de service : on contrôle un service et on le délivre au client à travers une infrastructure. Dans ce cadre, le poste client est relativement esclave. Le meilleur exemple dans le domaine c’est le téléphone.
Mais dans ce domaine également, l’Internet est une grosse révolution. Il demande une tout autre approche de la qualité de service, due à la structure même de l’Internet. La vapeur est renversée. L’intelligence n’est plus au centre. Elle est sur la périphérie, chez l’utilisateur. Elle se trouve sur le poste client, et c’est au poste client de régler ce problème de qualité de service avec, en face de lui, une sorte de réseau qui l’écoute. Ce n’est ni évident, ni simple. On se rend compte que tout ce qui existait, avant, pour contrôler la qualité de service était fait pour les opérateurs télécom autour d’une intelligence centralisée. Il suffisait de se mettre au centre pour observer.
Pour parler de qualité de service sur Internet il a fallu réinventer complètement des systèmes, des méthodologies, des méthodes. Strictement rien n’existait sur le marché pour la mesurer. Il y avait des bouts de logiciels, mais pas d’approche globale.
Pourtant quand on regarde de grands phénomènes comme l’évolution des prix, la qualité de l’air, le taux de chômage ; tous ont un système pour mesurer leur évolution. Et rien n’existe pour l’Internet, comme si ce n’était pas un phénomène important, et qui évolue.
C’est la raison pour laquelle nous avons d’abord voulu créer un observatoire de la qualité de service, en développant une nouvelle technologie qui nous permette de l’appréhender.

Pourquoi n’y avait-il rien dans ce domaine ? Parce que personne ne voulait s’en préoccuper ? Parce que l’Internet est trop jeune ?

C’est tout ça à la fois. Il est vrai, d’une part, que l’Internet, dans un environnement professionnel, ne date que de 1994-1995 et que son véritable démarrage date, lui, de 1996-1997. Qu’on ne veuille pas s’en préoccuper, c’est à peu près évident.
Aujourd’hui, 80 % des gens qui vendent des services Internet, en réalité, ne font qu’acheter un service en gros pour le revendre au détail. Ils ne fabriquent rien. Au moment de la ruée vers l’or, ils ont eu intérêt à brouiller le message, à tenir aux utilisateurs un discours flou du genre : « ben l’Internet c’est un truc globalement comme de l’eau. On sait qu’un litre d’eau ça pèse à peu près 1 kilo et que ça désaltère. » Sans leur montrer qu’on était capable de faire des Internets avec différentes qualité de service. Chez Oléane, nous avions mis en place une technologie mixte entre les télécoms et l’Internet qui nous permettait de déployer un véritable réseau livrant de multiples qualités de service. Cela nous permettait, sur la même boucle locale, de faire soit de l’intranet, avec une qualité de service très élevée, soit de l’Internet, avec une qualité de service moins élevée, donc moins chère. Parallèlement à cette démarche, vous aviez les marchands du temple, qui achetaient une 256 kilos et revendaient 50 fois 64 kilos. Ils n’avaient pas vraiment intérêt à parler de qualité de service…
Dernier aspect : les gens n’étaient pas sensibilisés à ce genre de métier. La qualité de service, ça ne passionne généralement pas grand monde. Dans le téléphone on sait : on décroche et ça fonctionne, généralement. Dans un réseau de données, on a l’habitude qu’a priori ça fonctionne ; et si ça ne fonctionne pas bien, on s’adresse à son opérateur, sans essayer de bien comprendre ce qu’il se passe.

L’émergence de la question est liée aux enjeux critiques de l’Internet. Il y a 7-8 ans, c’était un gadget. On faisait du courrier électronique, un peu de news. Internet tombait en panne régulièrement, mais ce n’était pas très gênant. A la limite, on n’avait pas besoin d’un accès permanent. On pouvait très bien utiliser l’Internet en se connectant, par une ligne téléphonique, toutes les quatres heures pour récupérer ses mails. Ce n’était ni fabuleux, ni fantastiquement compliqué.
Quelques années plus tard, le courrier électronique a pris de plus en plus d’ampleur et d’importance. Les usagers se sont rendu compte qu’il fallait peut-être appeler plus souvent ou que, tout au moins, ça tombe moins en panne.
Puis le web est arrivé.
Au départ, les grandes entreprises, les entreprises de médias et de contenus n’avaient pas encore conscience qu’ils pouvaient fournir de l’information. On a franchi une nouvelle étape dans l’enjeu critique, vers les années 1996-1997, lorsque ces entreprises d’information, de commerce se sont véritablement installées sur le web. Soudain, il ne faut plus que la connexion ou l’access tombe en panne.
Puis, on va encore plus loin : le web à la limite, s’il tombe en panne durant 1/2 heure, c’est gênant mais pas fondamental. En revanche, à partir du moment où vous arrivez à passer des communications de type téléphoniques, à faire de la retransmission audio et vidéo, là on est en présence de protocoles qui nécessitent une bien meilleure stabilité dans le réseau. Avec le web vous pouvez très bien arriver à des temps de réponse de deux ou trois secondes par morceau de page, ça fonctionne toujours. Mais avec la voix, dès que vous avez une variation, dans ce qui est envoyé, qui devient trop importante, vous avez de l’écho et vous n’entendez plus rien.
Il va donc falloir que ceux qui veulent déployer des solutions de voix sur IP, de retransmission audio et vidéo se rendent compte si ce que leur est fourni par leur prestataire est bon ou non, si la voix est bien passée ou non.
Aujourd’hui le seul moyen de le savoir c’est de questionner l’interlocuteur à l’autre bout. Ce qui devient de plus en plus inadmissible : votre client ou votre prospect devient votre propre vérificateur ! C’est pour cela que Witbe a développé sa méthodologie : pour que le fournisseur de service soit prévenu que quelque chose ne va pas avant que le client ne râle.

Ça semble formidablement complexe de mesurer la qualité de service. On parle de différents protocoles, de différents acteurs.Comment fait Witbe ?

Nous avons mis en place une méthodologie capable de mesurer la partie réseau, qu’elle soit aussi bien niveau 1, niveau 2, c’est à dire l’infrastructure et le niveau IP, mais nous allons le coreller avec le niveau applicatif. Qui sait ? Peut-être que demain il existera un nouveau protocole qui va supplanter le web, le mail et tout ce qu’on peut imaginer.
Donc notre objectif était d’abord d’appréhender globalement cette qualité de service, et pas uniquement une qualité de service télécom ou une qualité de service applicative.
La qualité de service télécom c’est : « voilà votre réseau répond en 3 millisecondes… » On s’en fout. L’utilisateur n’a pas besoin de savoir si c’est trois millisecondes ou 5 millisecondes. Il ne sait pas si c’est bien ou non. Il a besoin d’autres indicateurs.
De l’autre coté, vous pouvez simplement mesurer le niveau applicatif, c’est à dire indiquer qu’une page web se charge en 15 secondes. On ne sait pas non plus si c’est bien ou non. Est-ce que c’est à cause du DNS qui est planté ou d’autre chose ? On ne sait pas.
Nous avons donc mis en place une méthodologie qui nous permet de mesurer le réseau, l’applicatif et, au lieu de le faire depuis chez nous vers des services, nous avons déployé une galaxie de serveurs partout dans le monde, dans les endroit stratégiques (Washington, San José, Londres, Amsterdam, Francfort) depuis lesquels nous observons les différents services Internet avec nos protocoles.
Des galaxies et non pas des robots de mesure. Un robot de mesure c’est bête, c’est esclave. Ça fait une mesure et ça vous la renvoie. Mais on ne sait pas si elle est pertinente ou pas. Notre galaxie est, elle, constituée de systèmes intelligents qui ont conscience de l’existence des uns et des autres ; qu’il existe un Internet, un réseau. Ce sont des machines qui se synchronisent et sont capables de se rendre compte si elles dérivent. Comme un bateau sur l’eau : il a une vitesse par rapport à l’eau, mais également par rapport au sol. Si vous ne mesurez que la vitesse par rapport à l’eau et que vous avez des courants, vous ne savez plus où vous êtes.

Donc à chaque fois que vous avez un résultat de mesure , il faut se poser la question de sa pertinence ?

Oui. Est ce qu’il est pertinent mais aussi comment peut-on le corriger ? Comment le calibrer pour qu’il soit bon ?
Reprenons l’exemple du bateau.
Avant, pour tracer une route, vous faisiez le point à l’aide de règles à calcul, du nord magnétique, etc… Vous vous débrouilliez sans trop savoir exactement où vous êtiez, mais vous aviez un ordre de grandeur.
Aujourd’hui, pour connaître votre position, vous avez les satellites. C’est bien mais ce n’est pas suffisant. Vous savez à peu près mieux où votre bâteau est, mais avec une certaine marge d’erreur, malgré tout, de 200 ou 300 mètres. Ce que les constructeurs ont fait, dans le domaine du satellite c’est de synchroniser les GPS sur une autre source : les DGPS, GPS différentiels, qui envoient un signal radio. Grâce aux deux sources, ils arrivent à se synchroniser et vous donnent un résultat précis à 30 mètres !
Le satellite c’est notre galaxie, sans calibrage. Dans notre domaine, la marge d’erreur de 200 ou 300 mètres, se traduit en milisecondes. Sans calibrage, à 10 ou vingt millisecondes nous ne saurons pas, non plus, où nous en sommes, côté qualité de service.
Alors, nous avons fait exactement pareil que pour les sattelites et la navigation.
Notre galaxie est tournée vers des observatoires extérieurs qui nous permettent de nous rendre compte si elle dérive ou pas. De savoir si, par exemple nos hébergeurs ne sont pas en train de nous fausser les mesures.
Si nous annonçons que le serveur d’un grand portail est en train de baisser en qualité, est-ce que c’est pas nous, notre propre qualité de service, qui est en train de baisser ?
Cette méthodologie nous permet de pondérer, en plus ou en moins, les résultats de mesure que l’on pourrait avoir. Et nous sommes capables de resynchroniser notre galaxie en regardant non pas nous même, mais d’autres sites

Vous avez proposé la création d’un groupe de travail, au sein de la FING, sur la qualité de service. Pour quelles raisons ?

Le premier enjeu est un problème de prise de conscience. Il y a tout un travail de sensibilisation à faire sur cette question. Il faut absolument que les gens prennent en conscience que « la confiance n’exclut pas le contrôle » ; comme dirait l’un de nos actionnaires, Jacques Séguéla.
Il va falloir effectivement qu’il y ait des gens qui puissent dire à d’autres, qui offrent des services, que non tout n’est pas identique. On investit des dizaines de millions sur des sites, des centaines de millions sur de la promotion et derrière on ne se pose pas la question de savoir comment c’est branché, comment ça fonctionne. C’est quand même fabuleux  !

Si on ne parvient pas à comprendre comment on fait de la qualité de service aujourd’hui, je vois deux dérives :
La première c’est que rien ne marchera. Ce sera en panne. Si vous saviez le nombre de sites qui sont critiques, qui ont des taux de disponibilité inférieurs à 98 %, c’est spectaculaire. Derrière, les usagers ne comprendront pas pourquoi ils n’arrivent pas à se connecter ; ils auront de mauvais temps de réponse quand ils passeront leurs ordres en bourse et ne pourront pas les passer à l’heure de clôture. Quand vous êtes un 30 décembre à 4 heures, que vous devez absolument passer vos ordres de bourse et que ça ne fonctionne pas parce-que, derrière il faut 6 minutes pour les traiter… Le risque c’est que les gens soient dégoûtés par l’Internet, parce qu’il ne marche pas suffisamment bien ou suffisamment vite.
La deuxième, c’est la crainte de ce que les Américains proposent. Niveau qualité de service, leur discours est : « Il n’y pas de problèmes. Il suffit que vous achetiez plus de bande passante , un fibre plus importante, un machin, un truc, et il n’y a plus de problème. » Or, je fais partie de ceux qui disent que ce n’est pas vrai. On ne peut pas acheter n’importe quoi. A un moment il va falloir faire des priorité dans les flux qu’on fait passer dans un tuyau. Il y a peut être des choses qui sont très prioritaires et sur lesquelles on a envie de payer cher pour ça se passe bien, et d’autres dont on n’a strictement rien à faire que ça passe bien et vite. On peut très bien arriver à des niveaux de priorité qui feront qu’on traitera des protocoles de façon plus ou moins prioritaires. Les Américains, face à ça, ils ne s’embêtent pas. C’est  » Do it yourself. On vous vend un tuyau et inch Allah, ça fonctionnera bien et à la limite ça se développera. » Vous me direz c’est un peu la philosophie d’Internet. Oui et non.
Mais, il va quand même falloir que le réseau des opérateurs s’ouvre à ces couches de qualité de service. Vous pouvez essayer de développer une intelligence magnifique en périphérie. Si cette intelligence n’est pas capable de dialoguer avec une autre intelligence parce que l’opérateur au milieu a coupé tout ce qu’il faut, on n’arrivera à rien.
Il est donc fondamental de sensibiliser les gens, de faire comprendre que c’est important et ne pas confier tout ça à des marchands du temple qui vont faire n’importe quoi. C’est une vraie évangélisation. On ne fera pas un Internet de bonne qualité si on ne contrôle pas les fondamentaux.

Aujourd’hui on fait soit n’importe quoi. On met tout dans les tuyaux et le jour où ça ne passe pas, on prend un tuyau plus gros. C’est une démarche qui aura une fin. Quand les gens n’auront plus assez de budget, ce type de démarche arrivera à son terme. En plus, comme les clients râlent un peu, ils font pression sur les prix, donc l’opérateur offre des services moins chers. Mais là encore, cette démarche a un terme. Il arrive un moment où l’opérateur ne peut pas faire moins cher sans dégrader sa qualité de service. C’est un cercle sans fin. Alors peut-être que la démarche qui consiste à expliquer au client qu’il vaut mieux qu’il ait 3 megabits de bande passante utile sur 45 et qu’il peut en utiliser un peu plus si on a de la bande passante disponible est mieux que de vendre 45 méga à prix bradé, sur lesquels le client n’aura même pas un méga d’utile. Quand vous expliquez cette démarche, le client comprend. Il est donc nécessaire d’expliquer et d’expliquer encore, que derrière tout ça il y a de la technologie de la technique et qu’on ne fabrique pas de la bande passante comme ça.

La plupart des gens pensent qu’on branche et que ça fonctionne. D’autant plus qu’aujourd’hui l’offre est complètement déstructurée. Quand je dis déstructuré, c’est que l’internet peut passer sur n’importe quel support : câble, adsl, téléphone, numéris. Face à cela, que doit choisir l’usager ? Il n’en sait rien. Donc il prendra le moins cher. Et sur le moins cher, il aura un service de mauvaise qualité, ou de moins bonne qualité. Dès lors, peu importe que le service soit gratuit. Si l’usager a un service de mauvaise qualité, il ne pourra pas consommer les services qu’on lui proposera. Et peut-être que, au pire, certains diront aux usagers : « Ecoutez il ne faut pas aller sur Internet. Il faut aller sur mon réseau privé. »A la limite on pourrait très bien avoir un opérateur de télévision par câble qui duplique du contenu sur son réseau. Un contenu qui n’est pas mis à jour en temps réel et finalement les utilisateurs consultent un truc dans des caches qui n’est pas la réalité de ce qui est proposé sur Internet. C’est un Internet à plusieurs vitesses. Tant dans le contenu que dans la vitesse. Et demain, on vous conseillera d’être sur un réseau câblé pour consulter un film et le voisin qui, lui, sera sur le réseau ADSL ne pourra pas avoir accès à ce film.

Ce serait la négation totale de ce qu’internet a pu apporter. Or, aujourd’hui, il existe des solutions pour avoir un internet qui fonctionne. Il faut les utiliser.

HAUT

À lire aussi sur internetactu.net