Document original : anglais, traductions disponibles : Tchèque | Japonais | Espagnol


Pourquoi utiliser les logiciels ouverts et les Logiciels Libres ? Examinons les chiffres!

David A. Wheeler

[email protected]

Document du 7 mai 2003

Pour la traduction française : Marie-Claude Boitelle - SIL-CETRIL

[email protected]

Cette étude expose des données quantitatives relatives au  open source software / free software. L'analyse de diverses mesures est la meilleure façon de quantifier ses atouts. Le but de cet article est de montrer que vous pouvez vous considérer utilisateur d'un Logiciel en Source Ouverte (OSS - Open Source Software) ou d'un Logiciel Libre (FS - Free Software) dès que vous vous portez acquéreur d' un logiciel.

Cet article analyse la les parts de marché , la  fiabilité , la  performance, l' adaptabilité, la  sécurité, et le coût total de propriété. Vous trouverez aussi des articles sur les  aspects non quantifiables, les  craintes non fondées,  un Compte-rendus d'utilisation, d' autres sites traitant du sujet, et quelques conclusions. Une annexe  propose plus d'information générales sur les OSS/FS (définitions, motivations des développeurs, historique,types de licenses et “forking”). Vous pouvez consulter cet article en format HTML à l'adresse suivante : http://www.dwheeler.com/oss_fs_why.html . Les utilisateurs de Palm PDA peuvent le consulter en format Plucker  (vous aurez besoin de Plucker pour le lire). Un résumé de cet article est disponible en format PDF et en format Open Office Impress  (pour ce dernier, utiliser Open Office Impress). Des copies d'archives et une liste des  modifications sont aussi disponibles.

 

1. Introduction

Les Open Source Software / Free Software (OSS/FS) ont acquis une grande notoriété. Brièvement, les programmes OSS/FS sont des logiciels dont les licences donnent aux utilisateurs la possibilité de les exécuter librement quel qu'en soit leur usage, de les étudier, de les modifier, de redistribuer des copies du logiciel original ou de sa version modifiée (sans avoir à rétribuer le développeur d'origine).

Le but de cet article est de montrer, en se basant sur des mesures quantitatives, que vous devriez considérer l'utilisation d'OSS/FS lorsque vous recherchez un nouveau logiciel. Certains sites encouragent l'utilisation d'OSS/FS mais pour beaucoup d'utilisateurs, cela ne se justifie pas. l'utili A partir de données quantitatives (telles que les études de marché et les expériences), cet article tente de prouver qu'utiliser un OSS/FS est judicieux. Bien que je préfère de beaucoup les OSS/FS, je ne suis pas sectaire. J'utilise aussi bien les logiciels propriétaires que les OSS/FS. Les vendeurs de logiciels propriétaires travaillent dur pour promouvoir leurs produits. Cette étude fournit un antidote utile pour comparer les produits propriétaires et les OSS/FS, au moyen de chiffres significatifs.

Le but n'est pas de prouver que tous les OSS/FS sont meilleurs que les logiciels propriétaires. Beaucoup d'utilisateurs le croient d'un point de vue éthique, moral et social. Cependant, aucun chiffre ne pourrait prouver leur suprématie. Je vais donc simplement comparer des OSS/FS courants à des logiciels propriétaires courants de façon à prouver que dans certains cas, certains OSS/FS sont aussi performants, voire meilleurs, que des logiciels propriétaires. Bien sûr, il existe de mauvais logiciels OSS/FS sur le plan technique comme il y a de mauvais logiciels propriétaires, et même de très bons programmes peuvent ne pas répondre à vos besoins. Bien que beaucoup de gens comprennent la nécessité de comparer des produits propriétaires avant de les acheter, beaucoup d'entre eux ne considèrent pas les produits OSS/FS. Cet article tente d'expliquer aux acquéreurs potentiels l'utilité de tenir compte des OSS/FS.

Cet article n'étudie pas le passage aux OSS/FS mais il faut noter que les organismes peuvent passer aux OSS/FS en partie ou par étape , ce qui est une approche plus pragmatique.

Je m'attarderai sur le système d'exploitation (OS - Operating System) connu sous le nom de GNU/Linux (souvent nommé “Linux”) et sur le serveur Web Apache, les deux projets OSS/FS les plus répandus. Je comparerai tout d'abord les OSS/FS aux produits Microsoft (tels que Windows et IIS) puisque Windows détient une part significative du marché et que Microsoft propose la plupart des logiciels propriétaires. Je mentionnerai les systèmes Unix au passage puisque la situation au regard de cet OS est plus complexe : les systèmes Unix comprennent beaucoup de composants OSS/FS ou des logiciels issus de composants OSS/FS. A partir de ce constat, la comparaison des systèmes Unix propriétaires aux systèmes OSS/FS ne peut être précise. J'utilise le terme "de type Unix" pour qualifier des systèmes intentionnellement similaires à Unix. Unix et GNU/Linux sont des sytèmes "Unix-like". Le plus récent OS de Apple Macintosh (Mac OS OS X) présente le même problème : les anciennes versions du Mac OS étaient entièrement propriétaires, mais l'OS d'Apple a été reconçu pour être basé sur un système Unix et utilise beaucoup les OSS/FS. De ce fait, Apple encourage ouvertement la collaboration avec les développeurs d'OSS/FS . L'étude des chiffres s'étale sur plusieurs années, et non sur l'année précédente uniquement. Toutes les données significatives, même les plus anciennes, doivent être prises en compte dans une décision. D'ailleurs, ces dernières révèlent que le OSS/FS a une histoire positive sous divers aspects.

Vous obtiendrez plus de précisions sur les termes "logiciel ouvert" et "logiciel libre" en consultant l'appendice et ma liste de références sur les OSS/FS à l'adresse  http://www.dwheeler.com/oss_fs_refs.html . Notez que celui qui utilise les terme  “logiciel ouvert - Open Source Software” tendent à mettre l'accent sur leurs avantages techniques (meilleures fiabilité et sécurité). Par contre, ceux qui utilisent le terme “Logiciel Libre - Free Software”  mettent en avant  la notion de liberté de contrôle du logiciel et/ou son aspect éthique. Le contraire de OSS/FS est logiciel "fermé" ou "propriétaire". Les logiciels dont le code source peut être lu mais non modifié et qui peuvent être redistribués sans restrictions ( par exemple : "source visible", logiciel "open box", "source partagée" et "sous licence de communauté") ne sont pas considérés ici. Ils ne correspondent pas à la définition du OSS/FS. Beaucoup d'OSS/FS sont des programmes commerciaux. Il ne faut donc pas penser qu'ils sont "non-commerciaux" ou gratuits. Presque aucun OSS/FS n'est dans le "domaine public" (terme qui a un sens légal spécifique). Il faut donc éviter ce qualificatif. D'autres termes sont utilisés pour les OSS/FS : "libre software", "free-libre" et "open source software" (FLOS software ou FLOSS), open source/Free Software (OS/FS), free/open source software (FOSS), open-source software (open-source étant un adjectif), "free software" et même "public service software" (dans la mesure où ces projects sont destinés à un large public). Un OSS/FS n'est pas un "freeware" (logiciel gratuit). Un "freeware" est souvent un logiciel propriétaire diffusé gratuitement et ne donne pas le droit de l'étudier, de le modifier ou de le redistribuer. La license OSS/FS la plus connues est la General Public License (GPL). Tous les logiciels inscrit sous GPL sont des OSS/FS, mais tous les OSS/FS n'ont pas la GPL. Cependant, certains utilisent de façon abusive le terme de "logiciel GPL" lorqu'ils parlent de OSS/FS.

Voici un tableau des abréviations les plus utilisées dans cet article :

Abréviation   

Signification

 

GNU

GNU’s Not Unix (Un système d'exploitation OSS/FS)

 

GPL

General Public License (la license OSS/FS la plus courante)

 

OS, OSes

Operating System (Système d'exploitation), Systèmes d'Exploitation

 

OSS/FS

Open Source Software/Free Software - Logiciel Ouvert/Logiciel Libre

 

2. Parts de marché

 

On pense souvent qu'un produit est un succès s'il détient une grande part de marché. Ceci est évident et il y a des raisons pour pour cela : des produits qui occupent de large parts de marché attirent des utilisateurs qualifiés et sont appelés à se développer, ce qui réduit les risques futurs. Certains accusent le OSS/FS ou GNU/Linux de ne pas être au premier plan. Cette idée est obsolète au vu de la large utilisation qui en est faite. Il est évident que le OSS/FS détient une large part de marché dans différents domaines :

1.      Le serveur Web le plus répandu a toujours été un OSS/FS depuis que l'on recense de telles informations. Par exemple, Apache est actuellement le serveur Web numéro 1. Il détient plus de deux fois la part de marché de son concurrent immédiat.  Les statistiques de Netcraft relatives aux serveurs web      ont toujours montré la domination d'Apache (un serveur Web OSS/FS) sur le marché public des serveurs web Internet depuis son accession à la première place en avril 1996. Avant cette date, le serveur web du NCSA (l'ancêtre d'Apache) dominait le monde du web d'août 1995 à mars 1996. C'est aussi un OSS/FS.

Depuis 2000, Netcraft a essayé de recenser séparément les sites web "actifs". Le problème est que beaucoup de sites ont été créés et ne sont en réalité que des sites "passifs" (leur nom de domaine a été réservé mais ils ne sont pas utilisés). Le choix de décompter seulement les sites actifs est plus révélateur que de décompter tous les sites web, dans la mesure où le choix du serveur web a été effectué par ceux qui développent réellement un site web. En ne tenant compte que des sites actifs, en septembre 2000, Apache couvrait 66.04% du marché des serveurs web, Microsoft en détenait 24.18%, iPlanet,1.57% et Zeus, 1.34%.

Répartition des parts de marché des serveurs web actifs de juin 2000 à septembre 2002

Serveurs across all domains, June 2000 - September 2002

L'enquête de Netcraft datée de septembre 2002 comptabilisait les sites web identifiés par leur adresse IP au lieu d'un nom d'hôte. Cela a eu pour effet de ne pas tenir compte des ordinateurs destinés à servir divers sites et les sites à plusieurs noms. En comptant avec les adresses IP, Apache passa de 51% début 2001 à 54% alors que Microsoft restait inchangé à 35% des parts de marché.

Cette même enquête interrogea par nom d'hôte tous les sites web possible (au total 35 456 436 sites) , actifs ou non, et montra qu' Apache détenait 59.91% du marché, Microsoft, 29.18, iPlanet, 2.08% et Zeus, 1.36%.

La domination d'Apache a été démontrée de façon indépendante par E-soft . Leur étude du marché du serveur web publiée le premier octobre 2002 interrogeait 9 045 027 serveurs web en septembre 2002. Apache détenait 66.75% des parts de marché,  Microsoft IIS, 21.83%. E-soft a fait un rapport spécifique sur les serveurs sécurisés (serveurs qui supportent SSL/TLS tels que les sites de e-commerce). Même dans ce domaine, Apache détient 51.26% du marché, Microsoft, 34.85%, Netscape/iPlanet, 5.68% et Stronghold 2.71%. Comme Stronghold est une distribution parallèle d'Apache, la part de marché réelle d'Apache est au moins de 53.97% .

Evidemment, ces chiffres évoluent mensuellement. Vous pouvez vous référer à Netcraft ou à E-soft pour consulter les toutes dernières évaluations.

2.      GNU/Linux est en deuxième OS serveur dans le domaine de l'Internet publique (si l'on compte les machines physiques) selon une étude de Netcraft effectuée de mars à juin 2001. Certaines des études de Netcraft ont tenu compte des données relatives aux Systèmes d'Exploitation. Deux enquêtes (effectuées en juin 2001 et en Septembre 2001) montrent que GNU/Linux est le Système d'Exploitation numéro 2 pour les serveurs web si l'on compte les machines physiques (et a constamment gagné des parts de marché depuis février 1999). Comme Netcraft le précise,  l'enquête sur les serveurs web exposée plus haut dénombre les serveurs web par leur nom d'hôte plutôt que par machine physique. Elle ne mesure donc pas la base matérielle installée. Des entreprises peuvent faire fonctionner plusieurs milliers de sites web sur un ordinateur et la plupart des site web du monde sont situés chez un hébergeur. De ce fait, Netcraft a développé une technique qui indique le nombre d'ordinateurs utilisés en tant que serveur web ainsi que l'OS et le logiciel serveur utilisé (en demandant à plusieurs adresses IP de répondre à Netcraft simultanément et en analysant les réponses). Netcraft a donc développé une technique qui dénombre les machines serveurs Web utilisant un OS et un logiciel serveur web (en analysant les réponses simultanées de beaucoup d'adresses IP). C'est une approche statistique, donc plusieurs visites du site sont faites sur un mois pour acquérir une certitude suffisante. Dans certains cas, le SE détecté est celui d'un périphérique “de façade” plutôt que le serveur web qui exécute réellement la tâche. Cependant, Netcraft pense que la marge d'erreur est de plus ou moins 10% et c'est en tout cas, l'information disponible la plus fiable.

Avant de présenter les données, il est important d'expliquer le système de datage de Netcraft. Cet organisme date ses informations au moment du recensement sur le serveur (et non au moment de la plublication) et utilise les résumés des sondages relatifs aux OS des mois précédents. Par exemple, l'enquête datée de Juin 2001 a été publiée en juillet et recence les résultats de l'enquête sur les OS de mars 2001 alors que l'enquête datée de septembre 2001 a été publiée en octobre 2001 et inclut les résultats du sondage sur les OS de juin 2001.

Voici un résumé des résultats de l'étude de Netcraft :

groupe d'OS

Pourcentage (Mars)

Pourcentage (Juin)

Composition

Windows

49.2%

49.6%

Windows 2000, NT4, NT3, Windows 95, Windows 98

[GNU/]Linux

28.5%

29.6%

[GNU/]Linux

Solaris

7.6%

7.1%

Solaris 2, Solaris 7, Solaris 8

BSD

6.3%

6.1%

BSDI BSD/OS, FreeBSD, NetBSD, OpenBSD

Autre Unix

2.4%

2.2%

AIX, Compaq Tru64, HP-UX, IRIX, SCO Unix, SunOS 4 et autres

Autre non-Unix

2.5%

2.4%

MacOS, NetWare, propriétaire IBM OSs

Inconnu

3.6%

3.0%

non identifié par le détecteur d'OS de Netcraft 

Tout dépend de ce que vous voulez mesurer. Plusieurs des BSDs (FreeBSD, NetBSD, et OpenBSD) sont aussi des OSS/FS,ce qui fait qu'une part des 6.1% de BSD devraient être ajouté aux 29.6% de GNU/Linux pour déterminer le pourcentage des systèmes d'eploitation OSS/FS utilisés comme serveur web. Ce qui permet de dire qu'à peu près 1/3 des ordinateurs serveurs utilisent des systèmes d'exploitation OSS/FS. Il faut noter quelques différences régionales. Par exemple, GNU/Linux supplante Windows en Allemagne, Hongrie, République Tchèque et Pologne.

Des sites connus tels que Google (GNU/Linux) et  Yahoo (FreeBSD) utilisent des OSS/FS.

Dans cette étude, vous trouverez également  la situation du marché des serveurs web "Unix contre Windows". Tous les différents OSes Windows sont référencés sous un même numéro (même Windows 95/98 et Windows 2000/NT4/NT3 sont regroupés, alors qu'ils sont fondamentalement différents). De même, si l'on regroupe tous les systèmes "Unix-like", on trouve un total de 44.8% contre 49.2% pour Windows en mars 2001.

Ces chiffres seraient sûrement bien différents si l'on dénombrait les adresses web au lieu des ordinateurs physiques. Dans ce cas, une grande majorité des sites sont hébergés sur des systèmes "Unix-like". "Puisqu'Apache, installé sur divers systèmes Unix,  gère plus de sites que Windows, il s'est largement imposé auprès des hébergeurs et des fournisseurs d'accès Internet qui tendent à gérer un maximum de sites afin de baisser leurs coûts" précise Netcraft.

 

3.      GNU/Linux est l'OS serveur numéro 1 de l'Internet public (dénombré par nom de domaine) selon une enquête auprès des sites éducatifs et Européens effectuée en 1999.   

La  première étude relative à la pénétration du marché par GNU/Linux a été effectuée par Zoebelein en avril 1999. Elle mit en évidence qu'en 1999, l'OS le plus utilisé était GNU/Linux (28.5%) sur les serveurs http, ftp et sur les serveurs de news d'Internet . Il faut noter que cette étude était la première qui me permettait d'essayer de répondre à la question des parts de marché, en utilisant des bases de données serveurs existantes dans le domaine éducatif (.edu) et la base de données RIPE (qui couvre l'Europe, le CEntre-Est, une partie de l'Asie et de l'Afrique). Cependant elle ne reflète qu'une partie de la situation puisqu'elle omit les domaines ".com" et ".net". Le dénombrement s'est effectué par nom de domaine ce qui explique la différence avec l'étude relative aux OSes de Netcraft, datée de juin 2001. Cette analyse a aussi tenu compte des serveurs de news et des serveurs ftp et pas seulement les serveurs http.

Voici comment les différents OSes se répartissent dans l'étude :

 

Système d'exploitation

Part de marché

Composition

GNU/Linux

28.5%

GNU/Linux

Windows

24.4%

Tous les Windows(y compris 95, 98, NT)

Sun

17.7%

Sun Solaris ou SunOS

BSD

15.0%

Famille BSD (FreeBSD, NetBSD, OpenBSD, BSDI, ...)

IRIX

5.3%

SGI IRIX

Une part de la famille BSD étant aussi OSS/FS, la part totale des OSes OSS/FS est donc supérieure.  En effet,  si plus des 2/3 des BSDs sont des OSS/FS, alors le pourcentage total tournerait autour de 40%. Les défenseurs des systèmes "Unix-like" remarqueront que la majorité des Oses OSS/FS (plus ou moins 66%) étaient installés sur lesdits systèmes alors que 24% utilisaient une variante de Microsoft Windows.

4.      GNU/Linux était  le deuxième OS serveur le plus vendu en  1999, 2000, et 2001. Selon une étude d' IDC effecutée en juin 2000  sur les licences 1999, 24% des serveurs (Internet et Intranet) installés en 1999, utilisent GNU/Linux. Windows NT vient en premier avec 36%  et tous les Unix totalisent 15%. De même, puisque certains Unix sont des systèmes OSS/FS (FreeBSD, OpenBSD, et NetBSD), le nombre de systèmes OSS/FS est en fait supérieur à celui de GNU/Linux. Mais tout cela dépend de ce que l'on souhaite dénombrer. Dans cette enquête, 39% de tous les serveurs installés étaient "Unix-like", ce qui donne 24%+15%. Les serveurs "Unix-like" étaient en fait les numéros un sur le marché dès lors que l'on compte GNU/Linux et Unix ensemble.

IDC réalisa une étude similaire le 17 janvier 2001,  "Les systèmes d'exploitation serveurs en 2000". Les nouveaux OSes serveur vendus se répartissent ainsi : Windows, 41% avec une progression de 20%, GNU/Linux , 27% avec une progression de 24% et les autres "Unix", 13%.

Le rapport d'IDC, en 2002, trouva que Linux stagnait avec 25% des parts de marché.  Tout ceci est particulièrement étrange puisque GNU/Linux détenait 0.5% du marché en 1995 selon une étude de Forbes d'IDC . De tels chiffres (et le coût utilisateur étudié plus loin) ont inspiré un des directeurs d'IT en novembre 2001 : "Linux pour le bureau n'est pas encore mûr mais pous le serveur, il est incontournable ."

Ces mesures ne tiennent pas compte de tous les systèmes installés cette année-là. Certains systèmes Windows sont piratés et des OSes OSS/FS tels que GNU/Linux et BSD sont souvent téléchargés et légalement installés sur plusieurs systèmes.

Enfin, une étude publiée en octobre 2002 par un analyste IT de la société Butler Group, conclut qu'en 2009 ou avant, Linux et Microsoft  auront complètement pénétré le marché de l'OS serveur depuis le serveur de fichiers et d'édition jusqu'à l'ordinateur central.

5.      GNU/Linux et les systèmes Windows (combinaison de Windows CE et XP)  dominent principalement le secteur du développement des futurs projets embarqués , selon l'Evans Data Corporation (EDC).    L'enquête d'Evans Data Corp relative aux développeurs pour systèmes embarqués, datée de juillet 2002 posait aux développeurs la question suivante : "Pour chaque OS, indiquez si vous utilisez l'OS pour votre projet en cours ou si vous l'utiliserez pour votre prochain projet". 444 développeurs furent interrogés. 30.2% des développeurs utilisent ou souhaitent utiliser Linux alors que 16.2% affirment qu'ils utiliseront Windows CE et 14.4% utiliseront Windows XP Embarqué. Si l'on combine les deux systèmes Windows, ce dernier dépasse de peu Linux Embarqué (30.6% contre 30.2%). Cependant, Linux Embarqué a presque doublé son taux de croissance et combiner deux systèmes Windows différents dans une seule valeur est trompeur. Le système embarqué VxWorks de Wind River, l'encombrant leader du marché des logiciels embarqués, “est légèrement à la traîne de Linux Embarqué concernant l'utilisation dans les projets en cours, et par sa modeste croissance de seulement 2,9% pour l'avenir. Il est relégué en troisième place avec seulement la moitié du taux d'utilisation des deux leaders pour les futurs projets qui sont au coude à coude (Windows Embarqué et Linux Embarqué)”.

6.      Une étude d' Evans Data publiée en novembre 2001 établit que 48.1% des développeurs internationaux et 39.6% des développeurs Américains ont pour objectif de transférer la plupart de leurs applications sur GNU/Linux. En octobre 2002, 59% des développeurs prévoyaient de programmer sous Linux dans l'année à venir . ( November 2001 edition of the Evans Data International Developer Survey Series). C'est surprenant car, il y a à peine un an, moins d'un tiers des développeurs du monde entier écrivait des applications pour GNU/Linux. Cette étude montra aussi que 37.8% des développeurs internationaux et 33.7% des développeurs américains ont déjà programmé sous Linux et plus de la moitié d'entre eux l'utilisent en toute confiance pour des applications pointues. 

Evans Data enquêta en Octobre 2002. Cette enquête montrait que “Linux continuait à accroître sa base d'utilisateurs. 59% des sondés s'attendent à écrire des applications Linux l'année suivante.” De plus le Japonais Linux white paper 2003 établit que 49.3% des solutions IT  vendues au Japon supportent Linux.

7.      Une étude japonaise mit en évidence la  large utilisation de GNU/Linux et le grand nombre de supports pour GNU/Linux. Le taux d'utilisation de GNU/Linux passa de 35.5% en 2001 à 64.3% en 2002  dans les entreprises japonaises et GNU/Linux était la plateforme la plus répandue pour les petits projets. Le livre Linux White Paper 2003 (publié par Impress Corporation) étudie l'utilisation de GNU/Linux au Japon . Il est écrit en Japonais. En voici un bref résumé :

L'enquête est divisée en deux parties : La première, "Entreprise utilisatrice", relative à 729 entreprises qui utilisent un serveur. La seconde, "Entreprise vendeuse", qui interroge 276 vendeurs d'ordinateurs serveurs, d'intégrateurs de systèmes, de développeurs,  des fournisseurs de service, et des revendeurs de matériel. Les résultats les plus intéressants se trouvent dans le taux d'utilisation de Linux dans les entreprises, le taux de serveurs Linux vendus, et le taux d'utilisation d'un serveur Linux dans les projets d'intégration de système.

 L'utilisation de serveurs Linux dans les entreprises :

Système

2002

2001

Linux server

64.3%

35.5%

Windows 2000 Server

59.9%

37.0%

Windows NT Server

64.3%

74.2%

Commercial Unix server

37.7%

31.2%

Utilisation moyenne en 2002 :

Système

Ave. units

# samples

Linux server

13.4

N=429 (5.3 in 2001)

Windows 2000 Server

24.6

N=380

Windows NT Server

4.5

N=413

Commercial Unix server

6.9

N=233

La catégorie des serveurs Linux est celle qui a le plus augmenté depuis l'an dernier. La moyenne des unités serveur par entreprise a été multipliée par 2.5 pour passer de 5.3 à13.4 unités.

Ci-dessous le taux de serveurs GNU/Linux vendus en 2002 :

System

Year 2002 Support

Windows NT/2000 Server

66.7%

Linux server

49.3%

Commercial Unix server

38.0%

Ceci est le taux relatifs aux détaillants qui développent ou vendent des produits supportant le serveur Linux. Linux est déjà bien placé par rapport à ses concurrents. Les raisons d'utiliser un serveur Linux ont aussi été étudiées mais elles sont différentes d'un pays à l'autre. Pour comparer, vous pouvez voir le European FLOSS report.

Evolution future

44.1%

Demande des clients

41.2%

OS le plus important sur le marché

38.2%

Libre de license

37.5%

OS le plus adapté au projet

36.0%

Source Ouverte

34.6%

Fiabilité

27.2%

Ci-dessous, les chiffres relatifs à l'adoption d'un serveur Linux dans les projets d'intégration de systeme

Taille du projet (Million Yen)

Linux

Win2000

Unix

 

2002

2001

2002

2002

0-3

62.7%

65.7%

53.8%

15.4%

3-10

51.5%

53.7%

56.3%

37.1%

10-50

38.3%

48.9%

55.8%

55.8%

50-100

39.0%

20.0%

45.8%

74.6%

100+

24.4%

9.1%

51.1%

80.0%

1 million de Yen = 8 000$ US. Les serveurs GNU/Linux sont les plus utilisés (62.5%) dans les petits projets (moins de 3 millions de Yens ou 24 000$). Leur utilisation est passée de 20% à 39%  dans des projets plus importants (plus de 400 000$). Dans les projets de plus de 800 000$, Linux détient 24.4% du marché (principalement en remplacement des systèmes Unix propriétaire) . Sachant que beaucoup de projets (spécialement les projets importants) utilisent simultanément de multiples plateformes, les chiffres ne font pas un total de 100.

8.      L'étude Européenne des Logiciels Ouverts et Libres révèle l'utilité des OSS/FS . (Free/Libre and Open Source Software (FLOSS): Survey and Study) . Ce rapport complet, publié en juin 2002, étudie beaucoup de paramètres, et en particulier l'utilisation des OSS/FS. Elle met en évidence la variabilité du taux d'utilisation des OSS/FS. En effet, 43.7% des établissement Allemands utilisent des OSS/FS, contre 31.5% pour les Anglais et 17.7% pour les Suédois. Il précise aussi que les OSS sont plus utilisés dans les grands établissements que dans les petits. Enfin, le taux d'utilisation des OSS dans le secteur public est supérieur à la moyenne.

9.      Microsoft finance sa propre enquête pour "démontrer" que GNU/Linux n'est pas si largement utilisé, mais il a été prouvé que cette enquête n'était pas rigoureuse. Microsoft finança le Gartner Dataquest report stipulant que seulement 8.6% des serveurs vendus aux USA durant le troisième trimestre 200 étaient "basés-Linux". Cependant, on peut supposer que Microsoft (qui a payé cette enquête) a volontairement revu ces chiffres à la baisse car ils sont largement différents de ceux d'IDC. Kusnetzky de chez IDC déclara que l'explication la plus simple était que Gartner utilisait la définition de "vendu" de façon très limitée. Il pensait que le chiffre était raisonnable si l'on s'en tient aux nouveaux serveurs munis de Linux."Mais nos recherches ont montré que ce n'est pas ainsi que la plupart des utilisateurs se portent acquéreurs de Linux. Nous avons établi que 10 à 15% des acquisitions de Linux proviennent de machines pré-installées. Pour chaque Linux acheté, il peut y avoir 15 copies gratuites. " . Il est difficile d'acheter un ordinateur x86 sans un OS Microsoft (les contrats Microsoft-fabricants le prouvent) et cela ne veut pas dire que l'OS est utilisé. Gartner répliqua qu'il utilisait des questionnaires pour évaluer ce problème mais le résultat final de son enquête , comparé aux faits connus, laissent penser que Gartner n'a pas pris en compte ce paramètre. Par exemple, Gartner affirma que le nombre des ventes sans le domaine des super-ordinateurs était quasiment nul.  En fait, Linux est largement utilisé dans le domaine scientifique ainsi que dans des domaines très pointus. Beaucoup de ces systèmes ont été assemblés en interne , ce qui montre que sa question fait que l'on ne tient pas compte des installations opérationnelles. L'article du Register   “Personne n'utilise Linux” (couplé à “90% Windows..” ) en parlent plus largement. En bref, l'enquête auto-financée rapporte des chiffres très bas qui n'en restent pas moins suspects. 

10.  Les entreprises prévoient d'augmenter l'usage de GNU/Linux. Une étude de Zona Research révèle que plus de la moitié des grandes entreprises attendent une augmentation de plus de 25% des utilisateurs de GNU/Linux et près de 20% s'attendent à une augmentation de plus de 50%. Un tiers des responsables de petites entreprises s'attendent à une augmentation de plus de 50%. Les facteurs primodiaux de cette tendance sont la fiabilité, le coût moindre, la vitesse d'exécution des applications et l'adaptabilité. Voici quelques chiffres :

Usage attendu de GNU/Linux

Petites Entreprises

Moyennes Entreprises

Grandes Entreprises

Total

50% d'augmentation

21.0%

16%

19.0%

19%

10-25% d'augmentation

30.5%

42%

56.5%

44%

Pas d'augmentation

45.5%

42%

24.5%

36%

Baisse

3.0%

0%

0%

1%

11.  Vous trouverez plus d'informations sur le sujet en consultant  “La nouvelle religion : Linux et le source ouvert” (ZDNet) l' InfoWorld du 5 Février 2001 ( article : “Linux lights up enterprise: But concerns loom about OS vendor profitability.”)

12.  Les 1000 premiers fournisseurs de services Internet s'attendent à une augmentation de l'utilisation de Linux de 154%, selon l'étude d'Idaya, effectuée de juin à mars 2001.  Une  étude effectuée par Idaya auprès des 1000 premiers fournisseurs de services Internet montre que ces derniers s'attendent à une augmentation de GNU/Linux de plus de 154% en 2001. De plus, les 2/3 (64%)  des fournisseurs de services estiment que les logiciels ouverts ont  atteint un niveau comparable aux logiciels propriétaires. Il faut cependant tenir compte du fait qu'Idaya produit des OSS/FS.

13.   Une étude européenne menée en 2002 montre que 49% les Directeurs de Systèmes d'Information (CIO-Chief Information Officer) des secteurs de la finance, de la vente au détail et du secteur public s'attendent à utiliser des OSS/FS. OpenForum Europe a publié en 2002 une étude intitulée  Analyse de l'avenir des OSS/FS sur le marché. Les CIOs des secteurs financiers, de la distribution et du public ont été interrogés pendant plus de trois mois. Il en résulte que 37% des CIOs utilisent déjà des OSS/FS et 49% pensent les utiliser. Plus d'entreprises utilisent des OSS/FS mais leur CIOs n'en sont pas conscients. Les points forts des OSS/FS mentionnés sont la baisse des coûts (54% des sondés), le plus faible coût des licences (24%), un meilleur contrôle sur le développement (22%) et une sécurité accrue (22%).

14.   IBM a mis en évidence une augmentation de 30% du nombre d'applications destinées aux entreprises utilisant GNU/Linux durant le premier semestre 2001. Il fut un temps où l'on disait que "trop peu d'applications destinées aux entreprises s'appuient sur Linux". Pourtant, IBM prouva que plus de 2300 applications GNU/Linux (une augmentation de 30% sur 6 mois) sont disponibles auprès d'IBM et des vendeurs de logiciels indépendants. Un Rapport spécial de Network Computing sur Linux en entreprise a étudié les points forts et les faiblesses de GNU/Linux et mit en évidence un bon nombre d'avantages à utiliser GNU/Linux dans des applications en entreprise.

15.   Morgan Stanley a mis en évidence une augmentation significative de l'utilisation de GNU/Linux dans son enquête menée auprès de 225 Directeurs des Systèmes d'Information (CIO) en aout 2002. (Morgan Stanley surveyed 225 CIOs on August 2002.) Parmi les sondés, 29% affirment qu'ils possèdent des serveurs Linux, 8% en feront l'acquisition et 17% assurent s'intéresser aux serveurs GNU/Linux bien qu'ils ne l'utilisent pas officiellement. Les autres (46%) précisent qu'ils n'utilisent pas et ne s'intéressent pas à GNU/Linux. Pour ceux qui viennent d'acquérir des serveurs GNU/Linux, 31% voulaient augmenter les capacités du système, 31% remplacer des systèmes Windows, 24% remplacer d'autres OSes. Il est plus simple de passer de Unix à GNU/Linux que de Windows à GNU/Linux. Aussi, il est essentiel de noter que Windows a été plus souvent remplacé que Unix.  CNet analyse cette étude et commente le source ouvert vs Windows.

16.  Les revenus issus de la vente des systèmes serveurs basés GNU/Linux ont augmenté de 90% entre le 4ième trimestre 2001 et le premier trimestre 2002. Cette donnée a été révélée par Gartner Dataquest et reprise dans C|Net.

Les ventes de serveurs GNU/Linux ont augmenté de 63% entre 2001 et 2002. Selon Gartner, les ventes sont passées de 1.3 milliard de $ à 2 milliard de $.

17.  Une étude menée en 2001 a montré que 46.6% des professionnels du traitement de l'information étaient assurés que leur organisme d'affiliation supporterait GNU/Linux ; Un chiffre bien supérieur aux autres OS excepté Windows.  Une étude de TechRepublic Research intitulée " Références, Tendances et Prévisions : Le Rapport Linux"  révèle que les professionnels du traitement de l'information croient fortement en Linux lorsqu'on leur demande de citer les différents OSes que pourraient supporter leur entreprise. Etant donné la domination du marché des ordinateurs par Windows, il n'était pas surprenant que la plupart des sondés étaient confiants dans la façon dont leurs systèmes supporteraient plusieurs versions de Windows (90.6% pour Windows NT, 81.6% pour Windows 2000). Cependant, GNU/Linux, venait en troisième position avec 46.4%. En effet, près de la moitié des sondés affirmèrent qu'ils étaient déjà confiants dans la façon dont leur système supporteraient GNU/Linux. Cela est particulièrement remarquable parceque GNU/Linux surpasse d'autres produits très connus et anciens tels que Unix (42.1%), Novell Netware (42.1%), Sun Solaris (39.5%) et Apple (13.6%). TechRepublic émet quelques hypothèses pour expliquer ce résultat :

o        GNU/Linux est considéré comme une technologie qui se développe. Beaucoup de professionnels du traitement de l'information l'étudient et apprennent à l'utiliser, considérant qu'il sera incontournable dans un futur proche.

o        Beaucoup de professionnels utilisent déjà GNU/Linux dans le privé, la meilleure façon de l'intégrer au monde professionnel.

o        Puisque que GNU/Linux est similaire à Unix, les professionnels maîtrisant Unix peuvent facilement aborder GNU/Linux.

TechRepublic suggère que les cadres informaticiens évaluent les connaissances de leurs équipes car leurs systèmes peuvent déjà supporter Linux à moins qu'ils ne l'utilisent déjà.

18.  Sendmail, un programme OSS/FS est le premier serveur e-mail . Une  étude réalisée entre le 27/09/2001 et le 03/10/2001 par D.J Bernstein auprès d'1 million d'adresses IP choisies au hasard  a permis la connection à 958 serveurs SMTP (aussi appelés MTAs). Il en résulte que Unix Sendmail détient la plus grande part du marché (42% des serveurs e-mail), suivi de Windows Microsoft Exchange (18%), Unix qmail (17%), Windows Ipswitch IMail (6%), Unix smap (2%), Unix Postfix (VMailer, 2%) et Unix Exim (1%). Notez que Bernstein développe un des concurrents de Sendmail (qmail). Il n'a pas d'intérêt à reconnaître que Sendmail a la plus grande part de marché. Qmail n'est pas un OSS/FS car on ne peut pas redistribuer librement des programmes dérivés de Qmail . On a accès au code source de Qmail ce qui fait croire à certaines personnes que Qmail est OSS/FS. En revanche, Sendmail, Postfix et Exim sont tous OSS/FS. Non seulement Sendmail est OSS/FS mais il est installé deux fois plus que son concurrent direct.

19.  Une étude menée au second trimestre 2000 mit en évidence que 95% des serveurs de nom de domaine (DNS) utilisent Bind, un produit OSS/FS. Internet est composé d'éléments pour la plupart invisibles tels que les serveurs DNS qui affectent une adresse numérique à un nom de machine. Les machines accessibles au public effectuent généralement les “résolutions inverses" en convertissant les adresses en nom. Pour des raisons historiques, cette conversion est effectuée en utilisant le domaine caché "in-addr.arpa" . En interrogeant le domaine "in-addr" on peut étudier la façon dont tout Internet est organisé. Bill Manning a étudié ce domaine "in-addr" a établi que 95% des serveurs de nom (2ième trimestre 2000) offrant ce service utilisent une version de "bind", y compris tous les DNS root servers qui sont essentiels pour le fonctionnement d'Ineternet. Bind est un programme OSS/FS.

20.  PHP est le numéro 1 des langages de script côté serveur sur le web. PHP, (ou Hypertext Preprocessor) est u langage de script côté serveur de source ouverte. Il a été conçu pour créer des pages Web dynamiques . Un article du 3 juin 2002 précise que PHP a récemment surpassé l'ASP de Microsoft et tend à devenir LE langage de script le plus utilisé sur le web (plus de 24% des sites). Sur 37.6 million de sites recensés, PHP est utilisé sur plus de 9 millions de sites. De plus, depuis 2 ans, l'utilisation de PHP augmente de 6.5% par mois.

21.  OpenSSH est numéro 1 pour l'implémentation du protocole de sécurité SSH sur l'Internet. Le protocole Secure Shell (SSH) est largement employé pour sécuriser les connections et pour les contrôler à distance (en utilisant soit une interface en mode texte, soit une interface graphique sous X-Window). En avril 2002, un sondage effectué auprès de 2.4 millions d'adresses IP montra que OpenSSH, une implémentation OSS/FS de SSH, occupait la première place avec 66.8% du marché. En effet, le “SSH” propriétaire en détenait 28.1%, Cisco 0.4% et les autres totalisaient 4.7%. Vous pouvez consulter le site  informations générales sur l'étude ou les statistiques SSH pour Avril 2002. Il est interessant de noter que OpenSSH détenait moins de 5% du marché au troisième trimestre 2000 mais que son utilisation n'a cessée de croître : au quatrième trimestre 2001, plus de la moitié des utilisateurs de protocole SSH utilisaient OpenSSH et ses parts de marché ne cessent de croitre.

22.  GNU/Linux est peu représenté dans le monde des ordinateurs de bureau et des portables. Mais beaucoup de raisons laissent croire que son implantation sera plus large dans le futur. Beaucoup d'utilisateurs ont acquis leur expérience sur des ordinateurs de bureau ou sur des portables en faisant fonctionner des "applications clientes de base" tels que les navigateurs, les lecteurs de courrier électronique, les traitements de texte, les tableurs et les logiciels de présentation (les trois derniers étant regroupés sous le terme de "suite bureautique"). Ces outils sont souvent utilisés avec des applications clientes additionnelles et doivent comporter une interface graphique, sur fond d'environnement graphique. De tels ordinateurs sont appelés "clients" (même s'ils ne suivent pas le modèle client-serveur). Les systèmes OSS/FS tels que GNU/Linux proposent une large gamme d'applications pour développeurs et serveurs et commencent seulement à s'imposer sur le marché des OS clients. Quelques chiffres illustrent ce propos.

Selon une étude d'IDC effectuée en juin 2000 basée sur 1999 licenses GNU/Linux était presque aussi bien implanté que le MacOS d'Apple (5.0% pour MacOS et 4.1% pour GNU/Linux). Un sondage plus récent révèlerait que le taux de GNU/Linux est de 1.7% sur le marché de l'OS Client. Evidemment, alors que ces chiffres confirment le nombre élevé d'utilisateurs (car il y a beaucoup de systèmes clients) le taux reste encore très faible comparé au monopole évident de Microsoft sur le marché des OS clients. IDC rapporte que les systèmes Windows totalisent 92% des OS clients vendus.

Mais ceci n'est pas surprenant parce qu'avant 2002, les systèmes OSS/FS tels que GNU/Linux n'étaient pas adaptés aux systèmes clients. Les utilisateurs ne pouvaient imaginer acheter un système sans applications clientes répondant à leurs besoins fondamentaux. Un système client doit être compatible avec le produit le plus répandu du marché ( La suite office doit pouvoir lire et écrire des documents sous format Microsoft Office) et les produits disponibles avant 2002 ne pouvaient le faire. Enfin, pour qu'un système GNU/Linux puisse être concurrentiel, les applications clientes de base et l'environnement doivent être aussi OSS/FS et cela n'est pas souvent bien compris. Il y a eu des applications clientes de base propriétaires pour GNU/Linux pendant plusieurs années mais elles n'ont pas réellement aidé GNU/Linux. En effet, un système GNU/Linux combinés avec des applications propriétaires remet en cause la notion de liberté et de coût réduit des systèmes purement OSS/FS. De plus , de tels systèmes entrent en concurrence avec d'autres systèmes propriétaires bien implantés qui disposent de beaucoup plus d'applications. Cela ne veut pas dire que GNU/Linux ne peut supporter de programmes propriétaires. Certains achèteront des applications clientes de base propriétaires et beaucoup sont décidés à acheter d'autres types d'applications propriétaires pour les installer sur un système GNU/Linux. Cependant, peu d'utilisateurs trouveront qu'un système GNU/Linux doté d'applications propriétaires sera meilleur que ses concurrents. Après tout, le résultat est toujours "propriétaire" et comme il y a moins d'applications GNU/Linux pour les ordinateurs de bureau, beaucoup d'avantages sont perdus, en terme de coût et de possibilités.

Heureusement, la situation change de façon radicale grâce à trois facteurs : Des OSS/FS clients de base sont disponibles, Microsoft augmente ses coûts et les gouvernements veulent des systèmes ouverts :

1.   Des OSS/FS clients de base sont disponibles. En 1997 je prévoyais que GNU/Linux serait prêt pour l'ordinateur de bureau en 2002-2003, soit 5 ans plus tard. Et je ne me suis pas trompé. En effet, les applications OSS/FS et les environnements ont mûri et sont finalement compétitif sur le marché du système client. En 2002, Mozilla présentait enfin la version 1.0 de sa suite (constituée d'un navigateur, d'un lecteur de courrier et d'autres outils) ainsi qu'une  première version raisonnablement utilisable d'Open Office (une suite de bureau). Les environnements de bureau ont aussi mûris. En effet, en 2002, les projets GNOME et KDE se révélèrent compétitifs. De plus, le produit WINE (qui permet aux systèmes OSS/FS de faire fonctionner des programmes Windows) était capable de supporter Microsoft Office 97. Cependant, bien qu'étant immature WINE est suffisant pour exécuter des applications Windows développées en interne par quelques entreprises.

Il existe d'autres applications clientes telles que Evolution (un excellent lecteur de courrier), Abiword (un traitement de texte simplifié), Gnumeric (un tableur) et KOffice (une suite de bureau).

Cependant, je m'interesserai essentiellement à Mozilla et Open Office pour deux raisons . Tout d'abord, ils fonctionnent aussi sous Microsoft Windows ce qui permet aux utilisateurs de migrer depuis leurs concurrents par étape. De plus, ils sont complets, y compris au niveau de leur compatibilité avec des produits Microsoft. Cela évite aux utilisateurs de passer d'un programme à l'autre pour atteindre une fonctionnalité. En bref, il semble que maintenant, plusieurs produits OSS/FS ont commencé à rivaliser avec leurs homologues propriétaires au niveau des fonctionnalités et de l'aisance d'utilisation.

2.   Microsoft augmente ses prix.  Microsoft change sa politique. Il en résulte une augmentation de coût pour ses clients. Il a changé le mode de fonctionnement des licences si bien qu'une copie de Windows ne peut être utilisée à la maison et au bureau, ce qui accroît les coûts pour ses clients. Microsoft a amené ses clients à accepter une approche basée sur la souscription (License 6), ce qui augmente largement les coûts. L' Etude de la licence des logiciels Microsoft effectuée par TIC/Sunbelt en mars 2002 met en évidence l'impact de ce nouveau schéma des licences sur les clients. 80% des sondés sont mécontents du nouveau coût de l'assurance sur les logiciels (25% pour les serveurs et 29% pour les clients), réputé le plus élevé du monde industriel. Parmi ceux qui ont analysé les coûts, 90% affirment qu'ils augmenteront s'ils migrent vers la version 6.0 et 76% affirment qu'ils augmenteraient de 20% à 300% s'ils migraient de la version 4.0 et 5.0 à la version 6.0 en suivant la politique des licences. De ce fait, 38% des sondés étudient d'autres alternatives aux produits Microsoft. La politique du Licensing 6.0 peut amener certaines firmes à tenter de céder une part de leur activité. Le programme impose le paiement accéléré de la maintenance des logiciels quand les ordinateurs couverts par la licence sont vendus. Mais Microsoft n'est pas tenu de continuer la maintenance même si les contrats ont été totalement acquités.

La revue de StarOffice par Gartner (La version Sun de Star Office) a mis en évidence que les licences de Microsoft feraient fuir ses clients. Gartner affirme : "Cette nouvelle politique a engendré beaucoup de mécontentement auprès des clients Microsoft qui s'informent sur les alternatives à la suite bureautique de Microsoft. Les entreprises se rendent compte que la majorité des utilisateurs n'ont pas besoin de toutes les fonctionnalités avancées de chaque version d'Office... Si Microsoft ne fait pas  de concessions significatives sur sa politique de licence, StarOffice de Sun gagnera au moins 10% de part de marché aux dépens de Microsoft Office, fin 2004 (probabilité de 0.6)." . Il précise aussi : "A cause de cette nouvelle politique de licence, plus de 50% des entreprises auront une stratégie officielle qui mélange les versions de produits bureautiques avant fin 2003 – c'est à dire entre plusieurs versions d'Office de Microsoft ou d'autres venseurs (avec une probabilité de 0,7)”.

3.   Les Gouvernements veulent des systèmes ouverts. Un article du New York Time a noté que "plus de 24 pays en Asie, Europe et Amérique Latine, y compris la Chine et l'Allemagne encouragent leurs services gouvernementaux à utiliser des logiciels ouverts, développés par des communautés de programmeurs qui distribuent le code gratuitement et qui en permettent la correction et la modification dans le but d'améliorer le produit."

Les avantages des OSS/FS sont évidents pour les gouvernements et en particulier pour les non-Américains. Aucun d'entre eux ne souhaite voir son infrastructure informatique contrôlée par une seule entreprise, qui plus est, étrangère. Jiang Guangzhi, directeur du centre de développement du logiciel à Shangai, insiste sur le fait que le gouvernement Chinois ne souhaitait pas voir une seule entreprise "manipuler et dominer le marché Chinois". IBM a signé un accord sur Linux avec l'Allemagne . Otto Schilly, ministre de l'intérieur Allemand, dit que cette tendance devrait faire baisser les coûts, améliorer la sécurité des réseaux nationaux et assurer une certaine indépendance vis à vis du fournisseur. Ralph Nader’s Consumer Project on Technology  démontre au gouvernement US l'intérêt d'encourager les OSS/FS. Beaucoup de pays favorisent les OSS/FS tels que le Perou, le Royaume Uni et Taiwan. CNet a publié une étude dans ce sens en 2001.

Le gouvernement d'Afrique du Sud encourage officiellement l'abandon des logiciels propriétaires réputés coûteux, pour les OSS/FSLe 15 janvier 2003, Mojalefa Moseki, responsable de la communication à la State Information Technology Agency (SITA), affirma que l'Afrique du Sud prévoit d'économiser 3 milliards de Rands (environ 338 millions de dollars US), d'accroître les dépenses logicielles locales et d'accroître les compétences en programmation à l'intérieur du pays. L'Afrique du Sud affirme que l'amorçage d'une telle politique lui a permis d'économiser 10 millions de Rands (soit $1.1 millions USD). Tectronic publie plus d'informations.. L'etat d'Oregon s'intéresse aussi aux OSS/FS.

L'exposé de Tony Stanco "On Open Source Procurement Policies" décrit brièvement les raisons pour lesquelles les gouvernements devraient s'intéresser aux OSS/FS.

En fait, les gouvernements qui ont commencé à légiférer en faveur des OSS/FS sont si nombreux que Microsoft a financé une organisation appelée Initiative pour le Choix Logiciel . Cette a fait de belles déclarations mais il apparaît que le but réel est d'interdire les gouvernements de prendre en compte les licences quand ils fournissent des logiciels et d'encourager des standards qui ferment la porte aux OSS/FS. A l'opposé, Sincere Choice.org, fondé par Bruce Perens prone un marché sain et compétitif où les logiciels ouverts et propriétaires auraient leur place. Bruce Perens a publié un article dans lequel il démontre que le "Software Choice" n'est pas ce qu'il semble être.

L'implantation croissante de GNU/Linux auprès de clients est prouvée. Des organismes, tels que TrustCommerce et la ville de Largo en Floride, affirment qu'elles ont réussi le passage à Linux sur les PC.

On a déjà des preuves qui montrent que d'autres s'y préparent. Richard Thwaite, le directeur informatique de Ford Europe, a déclaré en 2001 que leur but est d'avoir des ordinateurs de bureau avec un système à code source ouvert et de faire de même pour l'industriel à terme. (il controle 33 000 ordinateurs de bureau et ce n'est pas négligeable). On peut argumenter que c'est peut-être un moyen de négocier avec Microsoft, mais de telles pressions ne marchent que si elles sont crédibles.

Il existe d'autres sources d'informations sur les OSS/FS et sur Linux côté client. Desktoplinux.com est un site web consacré à l'utilisation de GNU/Linux sur les ordinateurs de bureau. En effet, ils affirment que "Linux est à présent prêt à être largement utilisé comme OS sur les ordinateurs de bureau, et nous avons crée ce site pour promouvoir son implantation , puisqu'il offre une plus grande liberté et un plus large choix aux utilisateurs."

Bien sûr, il apparaît que beaucoup d'utilisateurs s'intéressent à une telle transition. Une étude de ZDNet publiée le 22 aout 2002 posait la question suivante : "Est-ce que votre entreprise migrerait de Windows à Linux sur ses PCs si les applications fonctionnaient sous Linux ?". Il y eut plus de 15 000 réponses. 58% migreraient immédiatement, 25% opteraient pour Linux dans un délai d'un an.  Bien qu'il ne faille pas prendre ces résultats pour argent comptant, c'est le style de réponse qu l'on trouve auprès d'utilisateurs assez mécontents de la situation. Ils précisent aussi que ZDNet Australia révéla que 55% des chefs de services informatique pensaient abandonner les produits microsoft. Beaucoup ne s'attendent pas à cette migration mais si elle s'effectue, ce sera rapidement.

Peut-être que le principal argument en faveur de la part de marché de GNU/Linux est que Sun modifie des produits Solaris pour supporter des applications GNU/Linux et IBM a déjà annoncé que GNU/Linux sera le successeur de son propre AIX.

3. Fiabilité

On raconte que les OSS/FS sont plus fiables, mais beaucoup de chiffres prouvent que les programmes OSS/FS matures le sont encore plus.

1.      Une étude menée en 1995 montre qu'à fonctionnalités équivalentes, les applications OSS/FS sont plus fiables que les applications commerciales. Le “Fuzz Revisited” publié en 1995 mesure la fiabilité en déterminant les programmes qui se bloquent après avoir reçu des caractères de façon aléatoire. Même si certains chercheurs estiment que cette approche n'est pas infaillible, elle permet de mettre en évidence beaucoup de disfonctionnements logiciels.

Ces tests ont mis en évidence la plus grande fiabilité des OSS/FS, comme indiqué dans la section 2.1.3

Il est intéressant de comparer les résultats des tests des systèmes commerciaux et ceux des logiciels libres GNU et Linux. Les sept systèmes commerciaux testés totalisaient un taux d'erreurs de 23% alors que le taux de Linux était de 9% et les utilitaires GNU de seulement 6%. On peut alors se demander pourquoi un groupe de programmeurs avertis, sans support de test ou sans standard de programmation peut produire un code plus fiable (selon nos mesures) qu'un code de type commercial. Même si l'on ne tient compte que des utilitaires disponibles pour Linux ou GNU, les taux d'erreurs sont meilleurs.

Il est évident que les applications Windows sont aussi fiables que les logiciels Unix propriétaires (mais moins que les OSS/FS). Un article récent, intitulé Une étude empirique de la robustesse des applications Windows NT au travers de tests utilisant des données aléatoires, mit en évidence que parmi les applications graphiques de Windows NT qu'ils avaient testés, 21% se plantaient et 24% se bloquaient. De plus, toutes les applications se plantaient quand elles recevaient des messages Windows aléatoires. Il n'y a donc aucune preuve permettant d'affirmer que les logiciels Windows propriétaires sont plus fiables que les OSS/FS. Windows a progressé depuis mais les OSS/FS aussi.

Bien que cette expérience se soit déroulée en 1995, aucun élément n'a été apporté depuis, prouvant la supériorité des logiciels propriétaires. L'intérêt porté aux OSS/FS depuis 1995 a permis de renforcer leur fiabilité.

Les auteurs de cet article trouvaient génant que les vendeurs de logiciels propriétaires ne corrigent pas les problèmes qui avaient été identifiés dans des versions précédentes de l'article. A l'inverse, Scott Maxwell mena une action pour supprimer tous les défauts trouvés dans le logiciel OSS/FS lors de cette étude de 1995. Finalement, il les corrigea tous. Cette réponse de la communauté OSS/FS montre pourquoi les programmes OSS/FS sont si orientés vers la fiabilité. Les problèmes trouvés sont souvent corrigés. Ce qui est plus surprenant encore est que la personne qui a pris en charge la correction n'est pas un des développeurs initiaux.

Soyons clairs, les OSS/FS ne sont pas infaillibles. En effet, les logiciels de version beta sont bogués. L'expérience de 1995 prenait en compte des logiciels OSS/FS et propriétaires réputés matures. Et le résultat est le suivant : les OSS/FS sont plus fiables suivant ce test.

2.      GNU/Linux est plus fiable que Windows NT, suivant un test effectué sur 10 mois par ZDnet.  ZDnet a effectué un test de fiabilité sur 10 mois et a comparé Caldera System OpenLinux, Red Hat Linux et Microsoft Windows NT Server 4.0 avec Service Pack 3. Ces trois OS utilisaient la même CPU et les requêtes (Internet, fichier, édition) étaient envoyées en parallèle à chaque serveur. Résultat : NT s'arrêtait en moyenne une fois toutes les six semaines, et il fallait 30 minutes pour le relmettre en route. Ce n'est pas mauvais mais jamais le serveur GNU/Linux n'est tombé en panne. Ce rapport de ZDnet  a aussi mis en évidence les failles de GNU/Linux (par exemple les applications de bureautique et le parallélisme massif ). Heureusement, Windows s'est amélioré depuis cette étude. Mais les OSS/FS ont certainement fait de même.

3.      GNU/Linux est plus fiable que Windows NT, selon une étude de Bloor Research, étalée sur un an. Bloor Research a aussi fait fonctionner les deux  OS sur des machines relativement anciennes, munies de Pentium. Durant l'année de test, GNU/Linux  s'est bloqué une fois en raison d'un problème matériel (Disque Dur). Le diagnostic a pris 4 heures ce qui correspond à une disponibilité de 99.95%. Windows NT s'est planté 68 fois, à cause de problèmes matériels (disque dur), de problèmes de mémoire (26 fois), de gestion de fichier (8 fois) , de problèmes variés (33 fois). Le diagnostic a pris 65 heures, ce qui donne un taux de disponibilité de 99.26%. Bizarrement, le seul problème de GNU/Linux est d'origine matériel ainsi que la plupart des problèmes de Windows. On pourrait en conclure que le matériel Windows était moins performant ou on pourrait en conclure que GNU/Linux a mieux évité et géré les problèmes matériels. La panne du système de gestion de fichiers est due à Windows et il apparaît que les divers autres problèmes sont dus aussi à Windows. GNet résume la suprématie de GNU/Linux par cette phrase : "Le gagnant est vraiment Linux".

4.      Une étude réalisée par Reasoning montre que l'implémentation du protocole TCP/IP sur le noyau Linux est plus performante que son implémentation sur plusieurs OS propriétaires, et que Linux est aussi performant que les meilleurs OS embarqués.  Comme stipulé dans leur article de presse et par C|Net, l'étude de Reasoning compare six implémentations de TCP/IP, le protocole fondamental sur lequel repose Internet. En plus du noyau Linux, trois des implémentations faisaient partie d'OS commerciaux classiques, et deux étaient embarqués dans des équipements de télécommunication commerciaux. Comme le noyau Linux est au départ utilisé pour un OS classique, on pouvait s'attendre à ce qu'un OS embarqué soit plus fiable du fait de l'exigence du marché. Aucun distributeur de GNU/Linux et aucun de ses concurrents directs n'a financé cette étude. Elle devrait donc être objective.

Des outils automatisés ont été utilisés pour détecter quatre types de défauts dans le code : Fuites de mémoire, références à un pointeur nul, mauvaises allocations, accès aux tableaux hors-limites et variables non-initialisées. Reasoning a relevé 8 défauts sur 81 852 lignes de code source du noyau Linux (SLOC - Linux kernel sources lines of code) ce qui donne un taux de 0.1 défaut par KSLOC. Au contraire, les trois OS propriétaires (deux d'entre eux étant des versions d'Unix) ont entre 0.6 et 0.7 défauts/KSLOC. Le noyau Linux a donc un taux d'erreur inférieur aux OS généraux étudiés. Avec un taux de 0.1 et 0.3 erreurs/KSLOC pour les OS embarqués, le noyau Linux est mieux placé qu'un des OS embarqué mais équivalent à l'autre OS embarqué.

Il faut noter que l'outil détecte des erreurs sans gravité. Par exemple, sur 8 erreurs, une était véritablement un bug, mis en évidence et rectifié par les programmeurs et 4 n'affectaient pas le code. Aucun ne concernaient l'aspect sécurité. L'étude a aussi dénombré les problèmes de code résolus sur les divers produits. Il en résulte que le noyau Linux recelait 1 défaut rectifié sur 81.9 KSLOC (soit un taux de 0.013 défauts/KSLOC) alors que les versions propriétaires dénombraient 235 défauts rectifiés sur 568 KSLOC (soit un taux de 0.41 défauts/KSLOC).

Scott Trappe, Directeur Général, remarque que le modèle "open source" encourage des comportements inhabituels dans le domaine de la programmation commerciale. Tout d'abord, beaucoup d'utilisateurs ne se contentent pas de recenser les erreurs de code, comme ils le feraient avec des logiciels propriétaires. Ils en recherchent la cause et les rectifient. De plus, beaucoup de programmeurs lisent le code de leurs collègues pour mieux le comprendre avant de la modifier et l'étendre. Une telle collaboration est le meilleur moyen de trouver des erreurs. D'autre part, le modèle "open source" encourage le coté collaboratif où chaque programmeur apporte sa contribution à l'élaboration d'un projet commun. Les plus efficaces écrivent le code vital, revoient les contributions des autres et décident de l'intégration d'une contribution dans une prochaine version. Enfin, les projets "open source" n'ont pas les mêmes exigences que les projets propriétaires. Les projets "open source" sont rarement développés dans un délai fixé, ce qui permet une meilleure relecture et une phase de test plus efficace.

Cela ne prouve pas que les OSS/FS seront toujours les meilleurs mais cela montre clairement qu'ils peuvent être de très bonne qualité.

5.      Selon une évaluation Suisse qui a duré 3 mois, les sites utilisant le logiciel serveur IIS de Microsoft sont en moyenne deux fois plus de temps "hors service" que les sites utilisant Apache. Ce chiffre a été mis en évidence par une analyse de Syscontrol AG le 7 février 2000. Ils ont sondé plus de 100 sites web Suisses réputés pendant trois mois, se connectant sur 4 sites différents toutes les 5 minutes. (il aurait été interessant d'élargir le panel!). Vous pouvez consulter le compte-rendu (en allemand) ou une traduction Babelfish du rapport. Vous trouverez ci-dessous quelques chiffres publiés (heures hors-service durant le mois de référence) pour chaque type de logiciel serveur ainsi que la moyenne trimestrielle.

Hors Service

Apache

Microsoft

Netscape

Autre

Septembre

5.21

10.41

3.85

8.72

Octobre

2.66

8.39

2.80

12.05

Novembre

1.83

14.28

3.39

6.85

Moyenne

3.23

11.03

3.35

9.21

6.      Il faut noter qu'Apache obtient les meilleurs résultats sur le trimestre. La différence entre Netscape et Apache est statistiquement insignifiante mais cela montre tout de même que la solution OSS/FS (Apache) est aussi fiable que la meilleure solution propriétaire (Netscape).

7.      Le compte-rendu stipule que ce problème n'est pas seulement dû à la qualité du logiciel et précise que plusieurs sites Microsoft IIS subissent de courtes interruptions au même moment, chaque jour, ce qui entraine des redémarrages réguliers.Cependant, une question demeure : " Pourquoi les sites IIS nécessitent des redémarrages réguliers, à l'inverse des sites sous Apache ?". Chaque coupure, même planifiée est dommageable pour le site, surtout si celui-ci est consacré au commerce électronique (perte potentielle de ventes). Il semble que les propriétaires de sites IIS qui effectuent ces redémarrages réguliers, pensent ainsi renforcer la fiabilité de leur système. Cependant, malgré cette politique, les systèmes IIS sont moins fiables que les sites basés sur Apache.

8.       Selon une étude sur le temps écoulé entre deux redémarrages (uptime), effectuée pat Netcraft, les OSS/FS se comportent bien. Selon le rapport du 3 aout 2001, sur les 50 sites ayant l'"uptime" le plus long, 92% utilisent Apache et 50% fonctionnent avec des OS OSS/FS. Netcraft a suivi les 50 sites les plus interrogés et ayant le plus long "uptime" sur le site http://uptime.netcraft.com. En consultant the August 3, 2001 uptime report , j'ai trouvé que 92% (46/50) des sites utilisent Apache. Un serveur était inconnu et trois autres n'étaient pas Apache. Sur les trois derniers, un seul s'identifiait comme Microsoft IIS, ce qui est étrange car ce site utilisait l'OS BSD. (cela peut s'expliquer de différentes façons : il existe peut-être un frontal sous BSD qui masque le site sur IIS ou le serveur se préserve des attaques en trompant les auteurs). Dans cet échantillon, 50%(25/50) utilisent un OS OSS/FS et seuls les OS de type Unix détenaient des "uptimes" larges. (aucun système Windows n'a été mentionné comme ayant le meilleur "uptime").

9.      Comme dans toutes les études, celle-ci comporte des faiblesses, comme stipulé dans  Netcraft’s Uptime FAQ. Leur technique d'identification du logiciel serveur et des OS n'est pas infaillible. Seuls les systèmes pour lesquels Netcraft avair reçu beaucoup de demandes ont été retenus dans l'étude. Elle n'est donc pas représentative de "tous les sites du monde". Tous les sites pour lesquels on fait une demande sur la page « Qu'est-ce qui tourne sur ce site » sont ajoutés à l'échantillon régulièrement vérifié. En effet, pour des raisons de performance, Netcraft ne surveille pas les 22 millions de sites qu'il connait. Beaucoup d'OS ne transmettent pas d'information relative à leur "uptime" et ne peuvent être inclus dans l'étude. Notamment AIX, AS/400, Compaq Tru64, DG/UX, MacOS, NetWare, NT3/Windows 95, NT4/Windows 98, OS/2, OS/390, SCO UNIX, Sony NEWS-OS, SunOS 4, Windows NT et VM. Seuls BSD/OS, FreeBSD (sauf la configuration par défaut des versions 3 et suivantes), les versions récentes de HP-UX, IRIX, GNU/Linux 2.1 kernel et suivant (sauf les systèmes basés sur le processeur Alpha), MacOS X, les versions récentes de NetBSD/OpenBSD, Solaris 2.6 et suivants, et Windows 2000 peuvent être étudiés au niveau de leur temps d'"uptime". Les données relatives aux systèmes Windows 2000 sont prises en compte dans l'étude mais posent un autre problème. Windows 2000 espérait faire partie de la liste d' Août 2001 car le cinquantième de la liste avait un "uptime" de 661 jours et Windows 2000 était mis sur le marché  17 mois avant (soit 510 jours).  Mais notez que HP-UX, GNU/Linux , Solaris et les versions récentes de  FreeBSD se réinitialisent (cycle back to zero) après 497 jours, comme si la machine avait été redémarrée. Il est donc impossible que ces systèmes ait un "uptime" supérieur à 497 jours, celui-ci peut donc être trompeur. Il y a un autre problème : si un ordinateur change d'OS par la suite, son "uptime" est attribué au nouvel OS. Cette étude compare donc Windows 2000, GNU/Linux (en général jusqu'à 497 jours au maximum), FreeBSD et plusieurs autres OS et les OSS/FS sont bien placés.

On peut arguer que les systèmes qui n'ont pas été redémarrés depuis longtemps ne sont pas significatifs. Par exemple, il se peut que les patches de sécurité ne soient pas régulièrement appliqués. Dans ce cas, un "uptime" long n'est pas une bonne chose. Cependant, il existe un contre-argument de valeur : les systèmes Linux et Unix n'ont pas besoin d'être redémarrés si souvent pour mettre à jour la sécurité du système. Si l'on accepte ce principe, il doit y avoir aussi des systèmes Windows non significatifs. Aussi, seuls les systèmes pour lesquels quelqu'un a fait une demande spécifique ont été retenus dans l'étude, ce qui limite le nombre de systèmes non-significatifs.

Pour conclure, Unix et Linux sont capables de démontrer que leur "uptime" est plus long que leurs concurrents Windows. Il est donc évident qu'ils sont plus fiables.

Bien sûr, on relate beaucoup d'anecdotes à propos de la fiabilité de Windows comparée à celle d'Unix. Par exemple, le programme "Smart Ship" de la Marine est à l'origine d'une panne complète sur le bateau Yorktow en septembre 1997 . Anthony DiGiogio a établi que Windows est "à l'origine des problèmes informatiques de Yorltown". Ron Redman, directeur technique de la Fleet Introduction Division de l'Aegis Program Executive Office, déclara : " il y a eu beaucoup de pannes logicielles associées à Windows NT sur le Yorktown". Redman affirma aussi : "Sous la pression politique, on nous force à faire des choix, comme Windows NT... Sans cette pression, je n'aurais pas choisi cet OS, sutout pour cette application particulière. Si nous avions utilisé Unix, nous aurions eu un système qui n'a pas tendance à s'effondrer."

Il est difficile de mesurer la fiabilité, en raison du délai d'obtention des données dans un environnement réel. On a donc plus de données sur la comparaison d'anciennes éditions de Windows avec d'anciennes éditions de GNU/Linux. Mais ces comparaisons sont raisonnables car elles comparent des produits de même génération. En conclusion, il est évident que, dans beaucoup de cas,  les OSS/FS ont une longueur d'avance en matière de fiabilité.

4. Performance

Comparer les performances de GNU/Linux et de Microsoft Windows sur un matériel identique a toujours été l'objet de querelles et les résultats ont toujours été basés sur des croyances. Les OSS/FS ont au moins prouvé qu'ils sont compétitifs et qu'ils sont supérieurs dans de nombreux cas.

Les référents sur lesquels on calcule la performance sont très sensibles aux croyances et à l'environnement. Le meilleur référent sera donc l'environnement que vous vous créerez. Sans cela vous récolterez des mesures erronnées.

Tout d'abord, voici quelques études récentes démontrant la supériorité de certains systèmes OSS/FS, du moins, dans certains cas.

1.      En 2002, les mesures de TPC-C database ont mis en évidence qu'un système basé Linux est plus rapide qu'un système basé Windows. Red Hat Linux Advanced Server et Microsoft Windows 2000 Advanced Server ont été testés sur la même configuration. A savoir : un HP ProLiant DL580 doté d'une CPU Intel Xeon 32 cadencée à 900 Mhz sur lequel Oracle 9iRE Edition Entreprise est installé. La solution Red Hat Linux a été plus rapide. Vous pouvez consulter les résultats de Linux et Windows . Notons que HP n'a pas modifié le noyau Linux pour obtenir ces résultats.

2.      Le test sur les serveurs de fichiers de PC Magazine, publié en novembre 2001, montre que Linux associé à Samba a surpassé Windows, dans le domaine des protocoles d'échange de fichiers propres à Windows. (Performance Tests: File Server Throughput and Response Times) . Ces données sont vérifiées, dans un premier temps, par rapport au nombre de clients simultanés (jusqu'à 30), dans un deuxième temps, par rapport à tous les types de machines utilisées (Pentium II/233MHz avec 128MiB RAM, Pentium III/550MHz avec 256MiB RAM, et Pentium III/1GHz avec 512MiB RAM, où MiB is 2^20 bytes). Bien sûr, plus les machines étaient puissantes, plus la différence était flagrante. Sur le matériel le plus rapide, gérant le plus grand nombre de clients,  GNU/Linux traitait aux alentours de 130MB/sec alors que Windows n'en traitait que 78. (GNU/Linux était plus rapide de 78%).

3.       En avril 2002, PC Magazine teste de nouveau les performances des serveurs de fichiers. Linux couplé à Samba dépasse Windows 2000. Samba est plus performant de 100% et peut gérer 4 fois plus de clients. PC Magazine a publié une autre étude qui compare Samba à Windows. Le résumé peut être consulté sur : “Samba runs rings around Win2000.” Ils ont mis en évidence que le logiciel Samba le plus récent dépasse Windows 2000 de 100% en terme de performance . Linux et Samba peuvent aussi gérer 4 fois plus de clients que les systèmes Windows 2000. Jay White, Directeur Informatique chez BF Group, déclare que Samba est un composant logiciel essentiel dans un environnement mixte Windows et Linux. “Notre serveur Samba est en service depuis au moins 394 jours. A part le coût matériel, il me coûte 30 minutes de mon temps chaque année.” Mark Twells, coordinateur, déclare : “Nous possédons six serveurs Samba répartis sur divers machines et traitons près de 1000 utilisateurs”.

4.      En terme de performance, selon le magazine Sys Admin, GNU/Linux est supérieur à Solaris (sur Intel), Windows 2000, et FreeBSD. (article : “Which OS is Fastest for High-Performance Network Applications?” dans le magazine Sys Admin de juillet 2001). L'équipe de tests a étudié des architectures de haut niveau et ont mis en évidence la supériorité de GNU/Linux par rapport à Solaris (sur Intel), FreeBSD (un système OSS/FS) et Windows 2000. L'équipe a intentionnellement fait fonctionner les systèmes tels quels, sans les paramétrer, sauf en ce qui concerne l'augmentation du nombre de connections TCP/IP simultannées (qui est nécessaire pour tester le “multi-threading” et les applications asynchrones). Ils utilisent les dernières versions des OS et utilisent exactement la même machine. Ils publient les résultats des deux tests de performance.

Les développeurs FreeBSD contestent les résultats de ces tests, arguant que FreeBSD privilégie la fiabilité et non la vitesse. De plus ils précisent que tout utilisateur désirant une certaine rapidité d'exécution peut régler finement le système. Sys Admin’s a donc effectué d'autres tests après avoir parmétré FreeBSD. L'équipe de test est d'abord passé en mode asynchrone, ce qui rend le système plus rapide (mais augmente le risque de perte d'informations lors d'une micro-coupure). Ce défaut est inhérent à GNU/Linux et facilement rectifiable chez FreeBSD. C'est donc une modification mineure. D'autres modifications ont été apportées : ils ont compilé et intégré 17 patches du noyau FreeBSD et ont utilisé différentes commandes de paramétrage précis. Les autres OS n'ayant pas la chance d'être ajustés ainsi, les résultats n'étaient donc pas équitables.

Dans tous les cas, voici le détail de deux tests de rapidité :

1.      Le test “en réel” a mesuré la vitesse avec laquelle une grande quantité d' “e-mail” peut être émise par le serveur de courrier (MailEngine). Aucune différence n'est apparue jusqu'à 100 messages émis simultanéments. Mais, plus le nombre de messages grandissait, plus les systèmes présentaient des différences au niveau de la vitesse d'émission des messages par heure. A 500 messages envoyés simultanément, GNU/Linux était clairement plus rapide que les autres OS sauf le FreeBSD paramétré. Ce dernier présentait des performances similaires à GNU/Linux pour le traitement d'au plus 1000 messages simultanés. Les performances de FreeBSD étaient optimales à 1000-1500 connections simultanées avant de décliner au chiffre de 3000 connections simultanées, contrairement à Linux. A 1 500 envois simultanés, GNU/Linux envoyait 1.3 millions d'e-mails/heure, alors que Solaris en gérait à peu près 1 million et Windows 2000 et FreeBSD-non-paramétré, 0.9 millions.

2.      Le “test d'Entree/Sortie sur Disque” créait, écrivait et lisait 10 000 fichiers de même taille placés dans un même répertoire. Plusieurs mesures ont été effecuées en variant la taille des fichiers. Solaris était plus lent que FreeBSD non-paramétré. Free-BSD paramétré, Windows 2000 et GNU/Linux fonctionnaient à la même vitesse dans le traitement des fichiers plus petits (dans certains cas FreeBSD, traitait plus rapidement les fichiers de petite taille – 8 ou 16k). Dès que les fichiers traités sont devenus plus gros (56k à 128k), les différents OS ont commencé à présenter des différences de temps de traitement. GNU/Linux était le plus rapide, suivi par Windows 2000 et FreeBSD. Pour des fichiers de 128k, FreeBSD était moins performant que Windows 2000 de 16% et moins rapide que Linux de 39%. Tous étaient donc plus rapide que FreeBSD-non-paramétré et Solaris. En totalisant ces temps , toute taille de fichiers confondus, on dénombre 542 secondes de traitement pour GNU/Linux, 613 secondes pour Windows 2000, 630 secondes pour FreeBSD-paramétré, 2398 secondes pour FreeBSD non-paramétré et 3990 secondes pour Solaris.

5.      GNU/Linux associé à TUX a produit de meilleures valeurs SPEC que Windows/IIS dans plusieurs cas, même lorsque la configuration du lecteur est moins performante. L'organisme SPEC Consortium, développe et entretient toute une série de référents pemettant de rendre les comparaisons plus fiables. On peut comparer Microsoft Windows et GNU/Linux en étudiant les résultats de SPECweb99 (qui mesurent les performances des serveurs web sur le même matériel). Malheureusement, on a rarement la même plateforme de test pour tous les OS. Même si ce problème est résolu (dans le test du 13 juillet 2001), la configuration est rarement identique (nombre de disques durs différent, disques plus rapides). Dans le test du 13 juillet 2001, on trouvait trois configurations matérielles différentes, toutes de chez Dell, qui fonctionnent sous GNU/Linux (couplé à TUX, l'accélérateur de serveur web) et Windows (sous IIS) basées sur le même matériel. Le tableau ci-dessous présente les résultats du SPECweb99 en date du 13 juillet 2001.

System

Windows SPEC Result

Linux SPEC Result

Dell PowerEdge 4400/800, 2 800MHz Pentium III Xeon

1060 (IIS 5.0, 1 network controller)

2200 (TUX 1.0, 2 network controllers)

Dell PowerEdge 6400/700, 4 700MHz Pentium III Xeon

1598 (IIS 5.0, 7 9GB 10KRPM drives)

4200 (TUX 1.0, 5 9GB 10KRPM drives)

Dell PowerEdge 8450/700, 8 700MHz Pentium III Xeon

7300/NC (IIS 5.0, 1 9Gb 10KRPM and 8 16Gb 15KRPM drives) then 8001 (IIS 5.0, 7 9Gb 10KRPM and 1 18Gb 15KRPM drive)

7500 (TUX 2.0, 5 9Gb 10KRPM drives)

6.      La première ligne n'est pas significative. Le système IIS était plus lent mais possédait un contrôleur de réseau alors que le système TUX en possède deux.

7.      La deuxième ligne montre que GNU/Linux associé à TUX est bien plus performant malgré l'ajout de deux disques sur le système IIS, ce qui aurait dû améliorer ses performances.

8.      La dernière ligne est plus compliquée. Les disques sont différents et le système IIS possède au moins un disque qui tourne plus rapidement que sur le système TUX (ce qui devrait procurer à IIS la meilleure performance puisque la vitesse de transfert est sûrement plus élevée). De plus le système IIS possédait plus de DD (disk drive), ce qui, encore, aurait pu assurer à ce système une meilleure performance.Quand j'ai regroupé ces informations montrant les conclusions d'avril 2201 (données collectées entre le 3ième trimestre 1999 et le 1er trimestre 2001), IIS 5.0 (sur un 8-processor Dell PowerEdge 8450/700) avait une valeur SPECweb99 de 7300. Depuis, Microsoft a modifié la disponibilité de Microsoft SWC 3 et cela signifie que les résultats ne sont pas conformes aux directives de SPECweb99. C'est une démarche subtile : ce n'est pas que les tests étaient invalidés, c'est Microsoft qui a modifié la disponibilité du produit et qui a utilisé les propres règles du Consortium SPEC pour rendre un résultat inexploitable (peut-être pour cacher des conclusions indésirables). Un test a de nouveau été effectué, cette fois avec une autre configuration de disque. IIS atteint alors une valeur de 8001 selon l'échelle du SPECweb99. Ces derniers bons chiffres résultent d'une meilleure configuration matérielle.

9.      Ainsi, dans ces configurations, GNU/Linux couplé à TUX était installé sur du moins bon matériel mais ne perdait pas en terme de performance. Puisque d'autres facteurs peuvent être invoqués, il est difficile d'émettre un jugement. Dans certains cas, un meilleur matériel peut être moins performant, ou un facteur non connu peut avoir des effets sur le résultat. Il est souhaitable que dans l'avenir, les tests soient effectués de manière équivalente, avec des configurations identiques.

10.  Souvent, on a tendance à utiliser TUX comme “accélérateur web” . Cela est dû à la rapidité avec laquelle il prend en charge les requêtes simples avant d'interroger de façon plus complexe un autre serveur (en général Apache). J'ai présenté les chiffres relatifs aux performances de TUX car ce sont les chiffres les plus récents que je possède .Aujourd'hui, je n'ai aucun résultat de type SPECweb99 relatif à Apache sur GNU/Linux ou à Apache couplé à TUX. Je n'ai pas non plus d'évaluation relative à la fiabilité de TUX. J'espère que de telles mesures seront effectuées.

11.  Des tests de bas-niveau effectués par IBM ont prouvé que GNU/Linux est plus performant que Windows dans la gestion des “pipes” (mécanisme d'entrée/sortie),et la création de processus et flux (thread). Ed Bradford (directteur de Microsoft Premier Support pour IBM Software ) a publié en octobre 2001 une étude intitulée Pipes in Linux, Windows 2000, and Windows XP. Il a étudié la vitesse des “pipes”, un mécanisme de bas niveau permettant la communication entre les programmes en cours d'exécution. Il a établit que les “pipes” de Red Hat 7.1 (avec le noyau Linux 2.4.2) a un taux maximum d'I/O (Input/Output – Entrée/Sortie) d'à peu près 700 MB/sec, et un taux stable au alentours de 100 MB/sec lors du raitement de gros blocs. Par contre, Windows 2000 culmine à 500 MB/sec et à 80 MB/sec pour les gos blocs. La version d'évaluation de Windows XP Professionel se contente d'un maximum de 120 MB/sec et 80 MB/sec pour les gros blocs. Ces OS ont été testés sur la même plateforme, dotée d'un GUI.

En Février 2002 il a publié Managing processes and threads, dans lequel il compare la vitesse de Red Hat Linux 7.2, Windows 2000 Advanced Server (”Win2K”), et Windows XP Professional (”WinXP”). Tous ces OS éaient installés sur un Thinkpad 600X avec 320MiB de mémoire. Linux a réussi à créer plus de 10 000 threads/second, alors que Win2K en créait 5 000 threads/second et WinXP 6 000 threads/second. En ce qui concerne la création de processus, Linux réalisa 330 processus/second, Win2K , moins de 200 processus/second et WinXP, moins de 160 processus/second.

12.  eWeek a démontré que l'OSS/FS MySQL vaut largement Oracle, logiciel propriétaire et qu'il surpasse d'autres logiciels propriétaires de ce type. eWeek Labs/PC Labs a comparé différents logiciels de SGBD et a publié ses résultats le 25 février 2002. Les mesures relatives à la comparaison des SGBD sont rares. Comme ils le remarquent, “les détaillants de SGBD ne précisent pas les performance de référence de leurs produits dans les licences d'agrément, afin de les occulter”. De plus, à leur connaissance, c'est la première fois qu'un magazine spécialisé publie des résultats de référence sur les SGBD à partir d'un même matériel, depuis PC Magazine, en octobre 1993 (il y a neuf ans). Ils ont donc pris le risque de publier les résultats des tests sur 5 serveur de Base de Données : DB2 7.2 d'IBM avec FixPack 5, SQL Server 2000 Enterprise Edition de Microsoft avec Service Pack 2, MySQL 4.0.1 Max de MySQLab, Oracle9i Enterprise Edition 9.0.1.1.1 d'Oracle, ASE (Adaptive Server Enterprise) 12.5.0.1 de SyBase. Leur but était de créer un référent pour déterminer la meilleure base de données utilisée sur un serveur d'applications basé sur Java.

Les résultats prouvent que Oracle9i et MySQL sont les plus performants et les plus évaluables. Oracle9i était légèrement devant MySQL dans la plupart des test mar est bien plus onéreux. “Pour 550 utilisateurs web, ASE traita plus de 500 pages/sec, Oracle9i et MySQL, 600 pages/sec et DB2, 200 pages/sec. SQL Server, pour sa part, était limité à 200 pages/sec à cause de problèmes de driver JDBC (Java Database Connextivity).”

Naturellement, “Un paramètrage manuel permet d'obtenir d'énormes différences dans le traitement des Bases de données. En général, nos mesures finales étaient deux fois plus rapides que les mesures initiales, sans paramétrage.”. Dans un système paramétré, “SQL Server et MySQL étaient faciles à paramétrer , contrairement à Oracle9i qui possède beaucoup de caches mémoires dificiles à ajuster”.

MySQL a montré une certaine innovation. A l'origine, ses performances étaient dues à ses “query cache” (cache d'interrogation), absents sur les autres Bases de Données. Si le texte d'une requête correspond à une requête en cache octet par octet, MySQL peut retrouver l'information dans sa mémoire cache, sans la retraiter (effectuer des accès indexés ou vérifier les paramètres de sécurité). Cette technique est évidemment destinées aux tables ayant peu de mises à jour, mais elle efficace dans beaucoup de cas et améliore les résultats des tests. MySQL supporte plusieurs SGBD basés sur le système de tables. Aucun autre SGBD ne possède cette fonctionnalité.

Cette étude a permis de mettre en évidence la fiabilité d'Oracle9i et MySQL. Ce sont les seuls SGBD qui ont pu mener à bien l'application teste pendant 8 heures, sans problèmes, contrairement aux autres SGBD.

Dans ce cas,, un programme OSS/FS surpasse la plupart des logiciels propriétaires en rapidité et en fiabilité (exécuter une application correcte sans problème). Oracle (propriétaire) est supérieur mais bien plus cher. On peut dire aussi que MySQL est une application très respectable.

MySQL AB a aussi publié des comparaisons de MySQL avec d'autres produits ; Cependant, je ne développerai pas ici ces conclusions car l'organisme n'est pas indépendant.

13.  En février 2003, des scientifiques dépassèrent le record de la Internet2 Land Speed en utilisant GNU/Linux. Les scientifiques ont envoyé 6.7 GB de données non compressées à 923 megabits/sec en seulement 58 secondes de Sunnyvale, California, à Amsterdam – l'équivalent de 4 heures de film de qualité DVD, en utilisant une vitesse de transfert de 3 500 fois supérieure à une connection domestique. L'équipe utilisait des PC sous Debian GNU/Linux à Amsterdam et sous Red Hat Linux à Sunnyvale, California.

Le développement d'un OS est une bataille constante pour l'amélioration des performances par rapport aux compétituers. L'historique de la comparaison entre Windows et GNU/Linux en est la preuve :

1.      Ziff-Davis a montré que GNU/Linux couplé à Apache dépasse Windows NT 4.0 couplé à IIS de 16 à 50% suivant la distribution GNU/Linux. Ziff-Davis a comparé Linux et Windows NT au niveau du service web. Il déclare :”Linux-Apache est largement plus rapide que NT 4.0- IIS. SuSE, le dernier Linux, est plus rapide de 16% qu' IIS, et Caldera, le leader, est plus rapide de 50% ”

2.      Mindcraft a publié un rapport en avril 1999 qui stipule que Microsoft Windows NT Server 4.0 est 2,5 fois plus rapide que Linux (kernel 2.2) en tant que serveur de fichiers et 3,7 fois plus rapide en tant que serveur web quand il tourne sur un système 4-CPU SMP. Plusieurs personnes et organismes Linux Weekly News (LWN) et Dan Kegel, ont mis en évidence de sérieux problèmes quant à cette étude. Tout d'abord, NT avait spécialement été paramétré par des experts de Microsoft, contrairement à GNU/Linux. De plus, le rapport prix/rapidité n'avait pas été pris en compte (pour la même somme, GNU/Linux aurait pu tourner sur un bien meilleur matériel). Mindcraft déclara qu'ils avaient demandé une assistance mais n'ont pas suivi les méthodes documentées destinées à ces demandes et ont encore moins demandé un contrat de support (support contract). Il faut savoir que l'étude était financée par Microsoft et que Mindcraft n'a aucunement mentionné ce conflit d'intérêt et l'on peut soupçonner que la configuration du matériel était conçue pour désavantager GNU/Linux. D'ailleurs la configuration utilisée était plutôt particulière : toutes les pages web étaient statiques (alors que la majorité des gros sites utilisent la génération de pages dynamiques) et il y avait 100 clients connectés via 100baseT (en 1999, la plupart des clients utilisent des modems à 28.8 ou 56 Kbps).

Un examen attentif des résultats a mis en évidence quelques problèmes inhérents au noyau Linux. Par exemple, un bug TCP , the lack of “wake one” semantics, et un goulot d'étranglement dans SMP (voir Dan Kegel’s pages pour plus d'informations). Les développeurs du noyau Linux ont commencé à travailler sur le problème mis en évidence.

3.      PC Week confirme que Windows est meilleur dans la configuration plutôt particulière décrite en 2. Le 30 juin 1999, Mindcraft publie son Open Benchmark en même temps que PC Week. Bien que cela n'excuse pas son parti pris, Mindcraft, note que des problèmes inhérents au noyau Linux et Apache rendent GNU/Linux peu performant dans le cadre de cette improbable configration (envoi de pages web staiques à très haut débit). Cette configuration est considérablement différente de celle étudiée par Ziff-Davis, ce qui explique que l'on ne peut confronter les résultats des deux études.

4.      The magazine allemand c't a mis en évidence que les sites NT étaient plud performants dans le traitement de contenu statique avec des connections réseau doubles (dual network connection) alors que GNU/Linux est plus efficace dans la gestion des sites de contenu dynamique, en connection unique (single connection). Leur article Mixed Double: Linux and NT as Web Server on the Test Bed a étudié Windows NT couplé à IIS et GNU/Linux (kernel 2.2.9) couplé à Apache sur une machine dotée d'un Pentium II Xeon . Il en résulte que les conclusions diffèrent suivant la situation : Si le serveur envoie des pages web statiques via une carte réseau très rapide, la performance de NT est supérieur. Dans le cas de sites plus évolués, le résultat n'est pas confirmé car les contenus sont dynamiques. Ils en concluent que “les résultats de Mindcraft ne peuvent s'appliquer à des sites dont le contenu est principalement dynamique, et c'est le plus souvent le cas. Linux et Apache ont une longueur d'avance dans le domaine des serveurs web pratiques. Si les pages ne proviennent pas directement de la mémoire principale du système, la situation se retourne en faveur de Linux et Apache. Dans ce cas, les produits OpenSource laissent leurs concurrents de Redmond loin derrière...”. Plus d'informations sont disponibles dans leur article.

5.      Network Computing a prouvé que GNU/Linux couplé à Samba fonctionne à la même vitesse que Windows dans le domaine de l'envoi de fichiers. Dans leur article “Is it Time for Linux”, Network Computing a comparé Red Hat Linux v5.2 couplé à Samba 2.0.3 avec Microsoft Windows NT Server Enterprise Edition sur un HP Net Sercer Lpr doté d'un Pentium II. Pendant le test, la machine devait effectuer de multiples lecture/écriture de fichiers de différentes tailles dans un intervalle de plusieurs heures.

En ce qui concerne l'envoi de fichiers, ils précisent : “la différence de vitesse moyenne de chargement est négligeable entre les deux systèmes...[et] suivant le degré de paramétrage de chaque installation, chaque système peut surpasser l'autre dans le cadre du partage de fichiers.”. Red Hat Linux est légèrement plus rapide que NT lors de l'écriture de fichiers, et la situation est inversée pour la lecture de fichiers, dans une configuration limitée au réseau. Ils ajoutent : “A aucun moment nous n'avons pu utiliser plus de 50% de la capacité de la CPU en raison du 100BaseT full duplex”.

Ils notèrent aussi : “l'examen de la différence de coût entre les licences des deux systèmes apporte une nouvelle dimension ... l'économie gagnée sur les licences devrait nous ouvrir les yeux. Par exemple, si l'on se base sur le prix moyen d'une licence Windows NT de 30$, 100 licences devraient couter 3 000 $, plus le cout d'une licence NT Server pour 600$. Comparez ceci au prix d'un CD Red Hat Linux, ou à un téléchargement gratuit, et l'économie réalisée se rapproche du cout d'un serveur de travail en groupe de bas niveau. Multipliez par quelques milliers de clients, et vous commencerez à voir des économies énormes”. Vous pouvez consulter la section cout total de propriété.

6.      Les efforts combinés des développeurs de Linux paraissent avoir donné des résultats. En juin 2000, Dell a évalué les différentes valeurs SPECweb99 indiquées plus haut.

D'autres comparaisons sont disponibles, mais nous les avons réunies en plusieurs groupes.

1.      Un ensemble d 'articles plus récent de eWeek daté de juin 2001 montre quelques chiffres relatifs au rendement de la paire GNU/Linux/TUX. Bien qu'ils la comparent à Microsoft IIS, ils ne tiennent pas compte de Microsoft SWC (Scalable Web Cache), le pendant de TUX. Je pense qu'omettre cet outil rend la comparaison moins juste. Plus d'informations sont disponibles sur les sites : “Tux: Build for Speed”, “Smart Coding pays off Big”, and Kegel’s detailed remarks.

2.      L'article de ZDNet article Take that! Linux beats MS in benchmark test, déclare à cors et à cris que GNU/Linux était le leader du rendement en mai 2001 dans le rapoort TPC-H, catégorie 100Gb. Cependant, ces résultats ne doivent pas être pris au sérieurx : le matériel sur lequel fonctionnait Linux était plus puissant que celui de Windows 2000. Le plus surprenant est que son score maximum (qui peut s'expliquer par le matériel) est sa mesure sans importance. En effet, traditionnellement, seules les performances de microsoft sont rapportées à ce niveau. Vous trouverez plus d'informations sur le site : the TPC results.

Kegel donne plus d'informations sur les sites NT vs. Linux Server Benchmark Comparisons, SPEC, et dmoz entry on benchmarking.

Souvenez-vous que toute comparaison dépend de la configuration et des partis-pris.Remember, in benchmarking everything depends on the configuration and assumptions that you make. Beaucop de systèmes sont limités par la largeur de bande du réseau. Dans de telles circonstances, acheter un ordinateur plus puissant ne servirait à rien. Même si l'on est pas limité par la largeur de bande, ni Windows, ni GNU/Linux ne fonctionnent bien en configuration de multiprocessus symétrique à grande échelle (SMP). Si vous voulez des CPUs 64 voies avec mémoire partagée, aucun d'entre eux n'est approprié. (SunSolaris, qui n'est pas un OSS/FS, est plus efficace dans cette configuration). D'autre part, si vous souhaitez une mémoire distribuée conséquente, non partagée, GNU/Linux , GNU/Linux le supporte assez bien si vous pouvez acheter plus de CPU suivant un budget donné. Si la distribution massive ne vous aide pas et que vous avez besoin d'un rendement très élevé, Windows n'est même plus dans la course: Aujourd'hui, Windows ne fonctionne que sur des processeurs compatibles Intelx86 alors que GNU/Linux fonctionne sur des processeurs plus performants , aussi bien que sur les x86.

5. Adaptabilité

Ce paragraphe traite de l'adaptabilité, un terme qui regroupe de multiples significations :

1.      GNU/Linux et NetBSD (tous deux des OSS/FS) supportent un large éventail de plateformes matérielles de rendement diférent que tout autre OS. Beaucoup de personnes entendent par “adaptabilité (scalability)” la réponse à la question : “peut-on utiliser le même logiciel pour de petits ou gros projets ?”. Souvent, on souhaiterait commencer avec un système minimum, et avoir la possibilité de le faire grandir à la demande sans modifications couteuses. Dans ce domaine, les OSS/FS sont imbattables. La capacité d'adaptation de la plupart des produits OSS/FS est surprenante car beaucoup de personnes peuvent identifier les problèmes d'adaptation et parceque les codes sources peuvent être optimisés pour chaque plateforme. Examinons plus particulièrement GNU/Linux. GNU/Linux fonctionne sur les PDAs (y compris l' Agenda VR3), du vieux matériel (vous n'avez plus à le jeter), avec les modems PC communs, sur plus d'une douzaine de microprocesseurs différents (non seulement les x86 d'Intel), les gros systèmes, massive clusters (grappes de terminaux), et sur un grand nombre de super-ordinateurs. GNU/Linux peut être utilisé pour le traitement parallèle abondant : une approche de cette forme de travail est la Beowulf architecture. Sandia’s “CPlant” fonctionne sur un ensemble de systèmes dotés de GNU/Linux et c'était un des ordinateurs les plus puissant au monde en juin 2001 (numéro 42 sur l'inventaire TOP 500 Supercomputer list, June 2001). IBM a annoncé en October 2002 que GNU/Linux serait le principal OS pour sa fimille de super-ordinateurs “Blue Gene” . IBM prévoit pour sa famille Blue Gene d'atteindre le pétaflop soit 1.10^15 calculs/sec. Blue Gene/L, le premier membre de la famille en 2004 ou 2005, contiendra 65 000 processeurs, 16 trillion de bytes de mémoire et pourra assurer 200 trillions de calculs/sec. Il existe même un prototype d'implémentation de GNU/Linux sur une wrist watch (montre). De plus, GNU/Linux fonctionne sur divers micro-processeurs, y compris, les x86, Intel Itanium, ARM, Alpha, IBM AS/400 (midrange), SPARC, MIPS, 68k, et Power PC, tout comme un autre OS, NetBSD.

Vous pouvez donc acquérir un petit système GNU/Linux ou NetBSD et le faire évoluer suivant vos besoins. Vous pouvez évidemment remplacer le matériel et installer des processeurs très rapides ou différentes architectures CPU sans avoir à changer d'OS. Windows CE/ME/NT assurent une compatibilité descendante et ne fonctionne que sur des systèmes x86. Beaucoup de systèmes Unix (tel que Solaris) s'adaptent bien à certaines plateformes plus importantes mais pas aux plus petites. Ces OSS/FS sont donc les plus adaptables actuellement disponibles.

2.      Les processus de développement des OSS/FS peuvent s'adapter à l'évolution des grands systèmes informatiques. Pendant un temps, il était légitime de se demander si le processus OSS/FS en soi était “adaptable”, en d'autres termes, s'il pouvait développer des systèmes à grande échelle. La lettre de Bill Gates, “Open Letter to Hobbyists”, datée de 1976 demandait : “ Qui peut réaliser un gros effort professionnel pour rien ? Quel passionné peut perdre trois années-homme en programmation, en correction, en documentation et distribuer son travail gratuitement ?”. Il pensait que ces questions resteraient sans réponse mais il se trompait. Vous pouvez consulter my reports estimating GNU/Linux’s size. Por Red Hat Linux 6.2, j'ai trouvé 17 millions de ligne de code source (SLOC). Une implémentation traditionnelle de cette charge de travail aurait demandé 4 500 années-homme et plus de 600 millions de dollars. Pour Red Hat Linux 7.1, j'ai dénombré plus de 30 millions de SLOC, ce qui représente 8 000 années-homme ou 1 milliard de dollars (un “Gigabuck”). La plupart des développeurs adhèrent au fait que les composants devraient être subdivisés en composants plus petits – une solution appliquée à GNU/Linux- mais certaines parties sont difficilement divisibles . De plus certaines parties de code restent très conséquentes : par exemple, on dénombre plus de 2 millions de lignes pour le kernel, la plupart destinées à la gestion des périphériques. En octobre 2002, Sourceforge.net a annoncé qu'il avait recensé plus de 500 000 utilisateurs enregistrés et soutenu presque 50 000 projets OSS/FS - et un grand nombre de projets OSS/FS n'utilisent pas SourceForge. De ce fait, il n'est plus raisonnable de soutenir que les OSS/FS ne peuvent s'adapter à la croissance des gros systèmes, parcequ'ils peuvent réellement le faire.

6. Securité

Il est très difficile de quantifier le sécurité. Cependant, il y a eu quelques tentatives qui suggèrent que les OSS/FS sont souvent plus sûrs que les systèmes propriétaires, au moins dans certains cas. Je m'en tiendrai à comparer les OSS/FS à Windows car, comme mentionné plus haut, d'autres systèmes propriétaires possèdent des composants OSS/FS, ce qui rend la comparaison plus laborieuse.

1.      L' »assurance contre les hackers » de J.S. Wurzler Underwriting Managers coute 5 à 15% plus cher si Windows est utilisé à la place d' Unix ou GNU/Linux dans les opérations Internet . Au moins une compagnie d'assurance a indiqué que Windows NT est moins sûr que Unix ou GNU/Linux. Il en résulte une surprime pour l'assurance des sytèmes basés sur Windows. Il est souvent difficile de déterminer quand une entreprise a été attaquée. En effet, ces dernières ne souhaitent pas divulguer de telles informations pour plusieurs raisons : elles peuvent perdre leur crédit auprès des clients ou des partenaires et la perte financière est inestimable. Cependant, les compagnies d'assurance peuvent exiger de telles informations de façon à couvrir le risque et déterminer les primes. Selon Cnet, Okemos, une agence de J.S. Wurzler Underwriting Managers, est l'une des premières à proposer une “assurance hacker” (et possède donc un historique intéressant pour des évaluations). Elle a été la première à réclamer une surprime de 5 à 15% si l'assuré utilise Windows NT au lieu de Unix ou GNU/Linux dans ses opérations Internet. Walter Kopf, vice president d'une compagnie d'assurance déclare : “Nous avons mis en évidence que les pertes possibles sont plus importantes avec le système NT”. Il précise aussi que la décision est basée sur l'évaluation d'une centaine de “points sécurité”, étudiés pendant deux ans chez ses petits et moyens clients.

2.      La plupart des sites web forcés et modifiés (“defaced”) sont hébergés par Windows. Mais les chiffres avancés montrent une disproportion entre le nombre d'intrusions sur les systèmes Windows et son implantation sur le marché. Une autre façon de considérer la sécurité est de connaître l'OS du site web attaqué et de noter sa part de marché. Un site “defaced” est un site qui a été forcé et dont le contenu a été modifié de façon flagrante, puisque les modifications minimes ne sont pas mentionnées. L'avantage de cette mesure est qu'il est difficile pour les victimes de cacher le fait qu'elles ont été attaquées avec succès. Historiquement, ces informations étaient entretenues par Attrition.org. On en trouvera un résumé sur James Middleton’s article, et les données quantifiées sur Attrition.org’s web site. Les données d'Attrition.org montrent que 59% des systèmes attaqués fonctionnent sous Windows, 21% sous Linux, 8% sur Solaris et 6% pour les autres, sur une période allant d'aout 1999 à décembre 2000. Il y a donc trois fois plus d'intrusions dans les systèmes Windows que dans les systèmes GNU/Linux. Cette conclusion serait sensée s'il y avait trois fois plus de systèmes Windows, mais quelques soient les chiffres utilisés, cela est faux.

Bien sûr, toutes les intrusions ne se font pas par le serveur et l'OS. D'autres causes peuvent expliquer une intrusion : un mot de passe non protégé, une mauvaise programmation du site etc... Dans ce cas, pourquoi y a t-il une telle différence dans le nombre d'intrusions par l'OS ? D'autres raisons peuvent être invoquées. Ces chiffres montrent une corrélation, pas une cause, mais laissent penser que les OSS/FS sont plus sûrs.

Attrition.org a décidé de ne plus suivre ces informations en raison du nombre important de sites attaqués, et il apparaît que c'est un travail impossible à effectuer. Cependant, defaced.alldas.de a décidé de prendre en charge ce service. Leur dernier rapport montre que la tendance continue : le 12 juillet 2001, sur 20 260 sites attaqués,66.09% fonctionnaient sous Windows, 17.01% sous GNU/Linux.

3.      La base de données Bugtraq relative à la vulnéabilité montre que l'OS le moins vulnérable est OSS/FS et que tous les OS OSS/FS de l'étude étaient moins vulnérables que Windows en 1999-2000, à moins que la vulnérabilité de GNU/Linux soit dénombrée plusieurs fois. Pour étudier la vulnérabilité, on peut utiliser une base de données. L'une des bases Bugtraq Vulnerability Database Statistics . Vous trouverez ci-dessous une échelle de vulnérabilité établie le 17 septembre 2000 :

OS

1997

1998

1999

2000

Debian GNU/Linux

2

2

30

20

OpenBSD

1

2

4

7

Red Hat Linux

5

10

41

40

Solaris

24

31

34

9

Windows NT/2000

4

7

99

85

4.      Vous ne devriez pas prendre ces chiffres au sérieux. Certaines faiblesses sont plus importantes que d'autres, certaines sont encore évaluées, alors que d'autres ont été définies avant l'exploitation. Les OS OSS/FS comportent beaucoup d'applications qui sont en général vendues séparéments dans les systèmes propriétaires (y compris Windows et Solaris). Par exemple, Red Hat 7.1 comporte deux SGBDR, deux traitments de texte, deux tableurs, deux serveurs web et beaucoup d'éditeurs de texte. De plus, dans le monde du “source ouvert”, les point de faiblesses sont abordés de façon publique et peuvent être pris en compte dans les développements en-cours (version “beta”). Ceux qui sont moins bien implantés ont moins de données à analyser. Parler de petite part de marché ne convient pas à GNU/Linux puisqu'il est le numéro un ou deux des OS serveurs (suivant la façon dont on les compte). Cela montre clairement que les trois OS mentionnés (Debian GNU/Linux, OpenBSD, et Red Hat Linux) se sont mieux comportés que Windows lors de cette mesure en 1999 et en 2000. Même si l'on confrontait cette particulière de GNU/Linux (qui regroupe tous ses points faibles) à Windows , on aurait 88 points faibles pour GNU/Linux et 88 pour Windows. Les meilleurs résultats sont à attribuer à OpenBSD, un OS OS/FS qui s'est focalisé sur la sécurité pendant des années. On peut arguer que son plus petit nombre de points faibles est dû à son faible déploiement. Mais la raison la plus simple est que les développeurs d'OpenBSD se sont consacrés à la sécurité et ont bien mieux réussi dans ce domaine que dans les autres.

5.      Ces chiffres perdent une part de leur intérêt car beaucoup d'enquêteurs effectuent la même erreur : la même faiblesse est dénombrée plusieurs fois. Un journaliste, Fred Moody, n'a pas pu comprendre ces sources de données – il a utilisé ces chiffres pour tenter de démontrer que GNU/Linux était moins sûr. Il a pris ces chiffres et a ajouté ceux relatifs à GNU/Linux ce qui fait que l'estimation de vulnérabilité était comptée au moins deux fois. En utilisant ces données erronnées, il a déclaré que GNU/Linux était un des systèmes les plus vulnérables. Si vous lisez cet article, vous devez aussi lire le démenti du manager de Microsoft Focus Area à la SecurityFocus pour comprendre pourquoi l'article du journaliste était mensonger.

6.      En 2002, un autre journaliste, James Middleton, a fait la même erreur, apparemment sans connaître l'étude précédente. Middleton a dénombré les mêmes défaillances de Linux plus de quatre fois. Il est étrange qu'il a même mentionné les chiffres de la liste Bugtraq d' Aout 2001 qui montraient que GNU/Linux est actuellement le système le plus sûr. Il a noté que Windows NT/2000 comportait 42 “points vulnérables”, alors que Mandrake Linux 7.2 en comptait 33, Red Hat Linux 7.0, 28, Mandrake 7.1, 27 et Debian 2.2 , 26. En bref, ainsi dénombrés, toutes les distributions GNU/Linux dénombrent largement moins de points défaillants. On laisse penser que des défaillances sur certains produits basés-Windows (tel que Exchange) n'ont pas été dénombrés, à l'inverse de GNU/Linux (sendmail). Il semblerait aussi que les attaques contre Windows aient été plus dangereuses comparées à celles de GNU/Linux. J'aimerais contacter quelqu'un qui aurait étudié ces données d'un peu plus près. Paradoxalement, malgré toutes ces erreurs, l'article met en évidence la sécurité supérieure de GNU/Linux.

7.      L' article “Honeymoon over for Linux Users” de VNUnet.com daté du 30 septembre 2002, proclame qu'il y a plus de “Linux bugs” que de “Microsoft bugs.” Il évalue X-Force (la société de logiciels de sécurité Internet Security Systems) et conclue en disant qu'en 2001, le centre a dénombré 149 erreurs dans les logiciels Microsoft contre 309 pour Linux. En 2002, ce chiffre s'élevait à 485 pour Linux contre 202 pour Microsoft. Cependant, Linux Weekly News a mis en évidence de sérieux problèmes quant à ces chiffres :

1.      Chaque distribution est comptée séparément. La même faille dans cinq distributions sera comptée cinq fois. Cette pratique dope les chiffres relatifs aux problèmes Linux.Each distribution is counted independently.

2.      Les faiblesses de Linux comprennent celles des applications (par exemple PostgreSQL), qui ne fait pas prtie d'un système Windows standard.

3.      La plupart des points faibles de Linux sont mis en évidence lors d'audits de code. Ils sont repérés et répertoriés avant toute exploitation. Tout bug Windows découvert par ces audits sont notés dans le plus grand secret et n'apparaîssent pas dans les comptes.

Bien sûr, en divisant le nombre de points faibles par trois (ce qui correspond à trois distributions), Linux aurait un meilleur score mais il existe plus de trois distributions et d'autres facteurs précisés par Linux Weekly News.

Bien sûr, comme le précise Bruce Schneier dans Crypto-gram du 15 Septembre 2000, les points de faiblesse sont affectés par d'autres facteurs tels que le nombre de fois dont les hackers l'exploitent, la vitesse à laquelle le problème est publié par les revendeurs et la rapidité avec laquelle les administrateurs résolvent le problème. Aucun système n'est invincible.

Une analyse pluq récente signée John McCormick parue dans Tech Republic compare les point vulnérables de Windows et Linux en Septembre 2001. Cette analyse intéressante montre que Windows NT était le plus “vulnérable” en 2000 (suivant les chiffres relevés de janvier à septembre 2001). Windows 2000 se retrouve au “milieu de l'échelle”, entre plusieurs systèmes Linux. Cependant, il apparaît dans ces chiffres que les “bugs” des applications Linux ont été ajoutés aux points faibles de Linux, à l'inverse des “bugs” de Windows. Comme mentionné plus haut, les distributions Linux regroupent beaucoup d'applications , vendues séparément chez Microsoft.

8.      Red Hat (revendeur d'OSS/FS) répond plus rapidement aux avis de défaillance que Microsoft ou Sun. Sun reçoit moins d'avertissements mais est plus long à réagir. SecurityPortal a établi une liste de temps de réaction des revendeurs à l'annonce d'une défaillance. Voici leur conclusion :

Red Hat détient le meilleur score avec 348 jours pour 31 avertissements, soit une moyenne de 11.23 jours de détection du “bug” à la réalisation du “patch” rectificatif. Microsoft est crédité de 982 jours pour 61 signalements, soit une moyenne de 16.10 jours pour rectifier. Sun es réputé pour être lent avec 716 jours pour 8 signalements, soit trois mois par résolution de “bug”.

Table des données de 1999 :

 

Analyse des signalements 1999

Distributeur

Nombre de jours

Total signalements

Moyenne

Red Hat

348

31

11.23

Microsoft

982

61

16.10

Sun

716

8

89.50

 

Par rapport au tableau précédent, cette synthèse calcule différemment les problèmes de sécurité. Parmi les trois distributeurs, Sun Solaris est le moins vulnérable mais son temps de réponse est plus long. Res Hat réagit le plus rapidement mais est moyennement sûr. Il est important de noter que l'on amoins signalés de problèmes de sécurité avec l'OS OpenBSD (qui est un OSS/FS). En fait, avoir un OS propriétaire ne signifie pas que vous êtes plus protégés. Dans tous les cas, Microsoft est crédité du plus grand nombre de points faibles.

Des exemples plus récents le confirment : le 30 september 2002, l'article d' eWeek Labs titré “Open Source Quicker at Fixing Flaws” établit la liste des exemples de réponses rapides. Cet article peut être paraphrasé de la façon suivante : En juin 2002, problème sérieux a été détecté sur le serveur Web Apache. L' Apache Software Foundation a conçu un “patch” disponible deux jours après. En septembere 2002, une défaillance dans OpenSSL a été annoncée et un “patch” était disponible le jour même. A contrario, un problème sérieux était détecté sur Windows XP qui rendait impossible la suppression de fichiers sur un système utilisant une URL. Microsoft a secrètement cerné le problème dans Windows XP Service Pack 1 sans en avertir les utilisateurs. On peut comparer aussi la façon dont Microsoft et le KDE Project ont réagi à une défaillance de SSL (Secure Socket Layer) qui faisiat d' Internet Explorer et de Konqueror des outils potentiels destinés au vol de données telles que les numéros de cartes de crédit. Le jour du signalement, KDE sortait un “patch”. Une semaine plus tard, Microsoft publiait un memo relativisant le problème sur son site TechNet.

9.      Une étude effectuée par des développeurs en 2002 montre que les sysèmes GNU/Linux sont relativement immunisés contre les attaques extérieures. La Spring 2002 Linux Developer Survey de Evans Data Corp. a sondé plus de 400 développeurs GNU/Linux , et a montré que les systèmes Linux sont relativement protégés contre les attaques extérieures. Même si le nombre d'attaques a presque annuellement doublé depuis 1988 (selon le CERT), 78% des sondés n'ont jamais l'occasion de gérer une intrusion et 94% travaillé sans virus. Cette enquête montre clairement que GNU/Linux “n'est pas souvent attaqué et il est encore moins infecté par des virus”, selon Jeff Child (analyste Linux chez Evans Data Corp.). Il affirme aussi que “les systèmes Linux sont relativement protégés contre des attaques extérieures”. Il précise q'il est plus difficile de s'attaquer à un système d'expert (et la plupart des développeurs de Linux sont des connaisseurs vertis). De plus, il y amoins d'ordinateurs de bureau sous GNU/Linux et moins de virus créés pour cet environnement. Les développeurs interrogés justifient le peu d'intrusion dans les systèmes OSS ainsi : “plus de 84% des développeurs pensent que Linux est intrinsèquement plus sûr que les logiciels créés dans un environnement non-OSS” et ils ajoutent : “La sécurité de Linux est comparable à celle de Solaris et AIX ... mais l&rgement supérieure à toute plateforme Windows.”

10.  Apache est plus sûr que IIS de Microsoft, suivant les compte-rendus des mesures de vulnérabilité . L'article d'Eweek daté du 20 juillet 2001, intitulé “Apache évite la plupart des problèmes de sécurité” a étudié les signalements relatifs à la sécurité depuis Apache 1.0. Le dernier gros problème de sécurité d'Apache remonte à janvier 1997 : un “hacker” distant pouvait faire fonctionner du code sur un serveur. Un ensemble de problèmes moins important était annoncé et résolu en janvier 1998 sur Apache 1.2.5. Trois ans et demi plus tard, le seul problème de sécurité relatif à Apache était que les “hackers” pouvaient consulter des fichiers ou des directories alors qu'ils n'en avaient pas le droit.

A l'inverse, dans l'article “IT bugs out over IIS security,” eWeek informe que Microsoft a édité 21 bulletins de sécurité pour IIS de janvier 2000 à juin 2001. Il est difficile de savoir à quoi correspond ce chiffre et l'article ne l'explique pas. J'ai donc étudié de près cette étude pour en déterminer sa signification. Tous les communiqués n'ayant pas la même sinification, dire seulement qu'il y a 21 bulletins n'est pas représentatif. Cependant, il est clair que certains d'entre eux abordent le problème épineux de la sécurité et en particulier, la possibilité qu'un système soit contrôlé par un utilisateur externe. J'ai dénombré 5 communiqués concernant ce problème pour IIS 5.0 (pour la période allant de janvier 2000 à juin 2001) et 3 relatifs à IIS 4.0 (pour une période allant de juin 1998 à décembre 1999). Vous pourrez librement examiner les bulletins MS01-033, MS01-026, MS01-025, MS01-023, MS00-086, MS99-025, MS99-019, et MS99-003. Le Code Red , par exemple, étudie une grand nombre de sites IIS et leurs faiblesses identifiées dans le bulletin MS01-033 de juin 2001.

En bref, en totalisant le nombre de rapports de vulnérabilité grave (qui pemet aux “hackers” d'exécuter du code), j'ai totalisé 8 bulletins pour IIS de juin 1998 à juin 2001 alors qu'Apache n'était pas mentionné pour cette période. Le dernier bulletin concernant Apache date de janvier 1998 et il s'agissait de l'analyseur d'entrée/sortie de session (log) et non le serveur web. Comme noté plus haut, le dernier véritable problème de sécurité sur Apache a éé annoncé en janvier 1997.

Je n'ai pas reétudié le problème recemment. Cependant, il est important de préciser l'article de eWeek daté du 10 avril 2002 révèle que 10 points faibles de plus ont été trouvés sur IIS Server 4.0,5.0, et 5.1, dont certains permettraient aux pirates de démanteler le service IIS ou exécuter n'importe quel code sélectionné.

Une défaillance chez IIS semble avoir plus de conséquences fâcheuses sur IIS que sur Apache car ce dernier suit la pratique sécuritaire du “privilège le plus bas-least privilege”. IIS est conçu de telle sorte que celui qui maîtrise IIS maîtrise aussi tout le système, pouvant ainsi effectuer des lectures, des modifications, des suppressions de fichiers. Au contraire, Apache est installé avec peu de privilèges par défaut. Ainsi, les pirates potentiels ont eux aussi peu de privilèges. Par exemple, une fois entrés dans Apache, les pirates n'ont pas le droit de modifier ou écraser la plupart des fichiers. Mais un pirate peut trouver une autre faille qui lui permettra des accès illimités mais un système Apache recèle plus de parades contre les “hackers” que IIS.

Quatre raisons justifient la bonne sécurité d'Apache dont trois concernent une pratique simple. Apache installe très peu d'extensions serveur par défaut (une approche “minimaliste”). De plus, tous les composants du serveur fonctionnent en tant qu'utilisateur non-privilégié (pratique du privilège le plus bas) . Enfin, tous les paramètres de configuration sont centralisés (ce qui permet à l'administrateur de suivre les évènements facilement). Cependant, l'article précise aussi que l'une des principales raisons de la sûreté d'Apache par rapport à IIS est que “son code source est très analysé”, du fait de son appartenance aux OSS/FS et cela améliore son côté sécurité.

Un simple décompte des avis de faiblesse n'est pas suffisant pour évaluer le sécurité. Un revendeur pourrait intentionnellement éditer moins de bulletins. Mais, étant donné que le code d'Apache et sa sécurité sont débattus publiquement, il semble que ce ne soit pas le cas pour ce logiciel serveur. Peu de notices sont édités si le produit n'est pas bien étudié ou rarement utilisé. Mais cela ne concerne pas Apache. On remarque que le nombre de mois entre les bulletins d'alerte concernant IIS (2/99,6/99,7/99,11/00, 3 en 5/01 et 6/01) sont respectivement 4,1,18,6,0,0,1 et 3 alors que pour Apache il est de 12 et 44. Cette tendance montre que la sécurité d'IIS s'améliore lentement mais n'atteint pas le niveau d'Apache. Ces chiffres sont corroborés par d'autres mesures telles que le taux d'intrusion.

Le but n'est pas de savoir si un programme donné est invinsible ou non (ce qui serait un non-sens). Il est vaut mieux savoir si un programme est prêt à résister à des attaques futures, selon ses performances passées. Il est clair qu'Apache est plus sûr que l'IIS propriétaire tant et si bien que le Gartner Group a décidé de faire une recommandation décrite plus bas (12).

11.  IIS a été attaqué 1 400 fois plus qu'Apache en 2001 et Windows a plus été attaqué que toutes les versions d'Unix réunies. SecurityFocus associée à CEO Arthur Wong ont publié une analyse des différentes faiblesses et attaques (basée sur les données de SecutityFocus) dans un article daté de février 2002 et intitulé : RSA: Security in 2002 worse than 2001, exec says. IIS a été attaqué 17 million de fois et Apache, 12 000 fois. C'est une comparaison stupéfiante dans la mesure où il ya presque deux fois plus de systèmes Apache sur Internet. En 2001, les systèmes Windows ont été attaqués 31 millions de fois alors que les systèmes Unix étaient attaqués 22 millions de fois. Ces informations sont développées dans l'article sus-nommé.

12.  Le Gartner Group recommande que les milieux d'affaires passent de Microsoft IIS à Apache ou iPlanet en raison de sa vulnérabilité et précise que les entreprises ont dépensé 1,2 milliard de dollars pour définir le Code Red (liste de rouge des points faibles relatifs à IIS) en juillet 2001. IIS de Microsoft est si vulnérable en septembre 2001 que Gartner Group a publié une recommandation . Celle-ci stipule que “les entreprises concernées par le Code Red et Nimda doivent immédiatement trouver d'autres alternatives à IIS et penser transférer leurs applications web sur des serveurs tels qu'iPlanet ou Apache. Même si ces derniers nécessitent des “patches” de sécurité, ils sont plus sûrs qu'IIS face aux virus et aus “hackers””. Microsoft étant un client de Gartner Group, cette annonce est plutôt surprenante.

L'impact du Code Red est étudié dans un document supllémentaire de Gartner. En juillet 2001, Computer Economics (une entrprise de recherche) a estimé que les entreprises de par le monde ont dépensé 1,2 milliard de dollars pour déterminer la faiblesse de leur système IIS et la transmettre au Code Red sous une forme exploitable. (rappel : Code Red recense les attaques sur les sytèmes IIS, Apache étant immunisé). Gartner précise que les défaillances d'IIS ne sont pas les seuls problèmes. En effet, Les entreprises utilisant IIS ne tiennent pas forcément à jour le tableau de bord de la sécurité informatique et Gartner se demande pourquoi. Il pose aussi la question suivante : “pourquoi les logiciels de Microsoft possèdent-ils encore ces points de vulnérabilité ?”. C'était un préssentiment : peu de temps après, se manifestait l'attaque “Nimba”, qui visait IIS, Microsoft Outlook, et d'autres produits Microsoft.

Lim Desler, porte-parole de Microsoft a esimé que la recommandation de Gartner était “extrème” et que “de sérieux problèmes de sécurité ont été recensés sur tous les serveurs web et sur toutes les plateformes... la sécurité est un challenge qui donderne toutes les entreprises”. Cela est en partie vrai. Comme le précise Gartner, “IIS recèle bien plus de problèmes de sécurité que tout autre produit et demande plus d'attentions”. Il est clair qu'il vaut mieux choisir un produit mieux suivi au niveau sécurité, dans la mesure où aucun d'eux n'est parfait.

13.  La majorité des plus gros problèmes de sécurité concerne les produits Microsoft et non les OSS/FS, selon la base de données ICAT et l'étude du CERT/CC “les conséquences les plus fréquentes des incidents de sécurité”. Certaines défaillances de sécurité sont plus importantes que d'autres pour plusieurs raisons. Certains centres d'analyse tentent donc de déterminer “les plus importantes” et leurs résultat laissent apparaître que les OSS/FS se comportent bien.

Le Centre de Coordination du CERT (CERT/CC) ont pour mission d'étudier les défaillances sécuritaires et de publier des messages d'alerte. J'ai décortiqué leur liste “activité courante” des incidents de sécurité sérieux les plus fréquents publiée le 24 septembre 2001, et j'ai bien vu que les produits Microsoft sont bien moins sûrs que les autres (y compris les OSS/FS). Sur les six défaillances les plus importantes, quatre sont spécifiques à Microsoft : W32/Nimda, W32/Sircam, corruption de cache sur les serveurs DNS Microsof, activités notées sur le “Code Red”. Un seul des six articles concernait un produit non-Microsoft (un dépacement de capacité de cache sut telnetd). Alors que ce point faible est important, il faut noter que beaucoup de systèmes en open source (tels que Red Hat 7.1) ne proposent pas ce service d'emblée (telnet) et sont donc moins vulnérables. Le sixième point (“scans and probes” ) précise qu'il existe toujours un potentiel de faiblesses au niveau de la sécurité de tous les systèmes. En conclusion, 4 des 6 points de vulnérabilité sont spécifiques à Microsoft,un seul concerne les systèmes “Unix-like” (y compris les OSS/FS) et un concerne la scanérisation. Encore une fois, les OSS/FS ne sont pas à l'abri d'une défaillance de sécurité mais ils semblent être les moins concernés.

Le système ICAT propose un index et une échelle de références des problèmes de sécurité. J'ai étudié les 10 premiers de la liste du 19 décembre 2001. Cette liste décompte le nombre de requêtes relatives à la sécurité effectuées dans l'ICAT (qui inclut seulement les faiblesses détectées la dernière année). 8 défaillances sur les 10 concernent les systèmes propriétaires (dans tous les cas, Windows). 2 sur 10 affectent les systèmes OSS/FS (nro 6, CAN-2001-0001, une faiblesse dans PHP-Nuke 4.4, et la nro 8, CVE-2001-0013, une nouveau problème détecté dans les anciennes vrsions de BIND-BIND4). Ces chiffres laissent penser qu'il y a moins de défaillances dans les OSS/FS.

14.  Les systèmes Windows sont bien plus infectés par les virus que les autres systèmes. L'infection par les virus a coûté très cher aux utilisateurs de Microsoft Windows. Le virus LoveLetter a coûté directement 960 millions de dollars et 7.7 milliards en perte de productivité. L'industrie du logiciel anti-virus atteint un chiffre d'affaires annuel de 1 milliard de dollars. L' Analyse de l'impact des OSS-Open Source Software des Drs Nic Peeling et Julian Satchell comprend une analyse des diverses sources de dénombrement des virus et met en avant le “vulnérabilité” disproportionnée des systèmes Windows. Voici ce qu'ils en disent :

Dans le détail, les chiffres sont différents mais toutes les sources s'accordent à dire que les systèmes Windows sont bien plus infectés que les autres sytèmes.On dénombre 60 000 virus connus destinés à Windows, 40 pour Macintosh, 5 pour les versions commerciales d'Unix et peut-être 40 pour Linux. La plupart des virus pour Windows sont anodins mais beaucoup ont causé des dommages sérieurx. 2 ou 3 des virus Macintosh se sont révélés assez importants. Aucun des virus Unix ou Linux ne se sont révélés graves : la plupart étaient développés en laboratoire.

Beaucoup ont expliqué le nombre important d'attaques de Windows par le nombre de systèmes en service. Windows est une cible privilégiée pour les développeurs de virus simplement parceque son usage est répandu. Pour être efficace, un virus doit être transmis sur un autre ordinateur. En moyenne, chaque infection en engendre au moins une autre. L'implantation de Windows facilite la contamination.

Il peut y avoir une raison plus grave : beaucoup n'apprécient pas les pratiques commerciales de Microsoft et cela peut contribuer au problème. Certaines de ces pratiques ont été déclarées illégales mais le gouvernement US ne semble pas tenterde les stopper ou de les réprimer. Certaines personnes mal intentionnées pourraient donc se venger sur les utilisateurs de produits Microsoft. Mais cela est faux et illégal dans certains pays. Il est tout à fait immoral de s'attaquer à un utilisateur de produits Microsoft uniquement pour se venger. Je condamne un tel comportement. Bien que cette raison ait été avancée, je n'ai pu mettre en évidence que c'était la motivation première des “agresseurs”. D'autre part, si vous choisissez un produit, voudrez-vous adopter celui sur lequel plane une vendetta ?

Les raisons évoquées plus haut n'expliquent pas la différence de vulnérabilité des produits Microsoft. Microsoft a tout simplement choisi de soigner son “design” pendant des années au détriment de la sécurité, ce qui fait de ses produits des cibles de choix (par exemple le manque de protection des sytèmes de repertoire dans Windows 3). Microsoft a agi ainsi car il comptait que les clients achteraient ses produits, qu'ils soient sécurisés ou non. Après out, jusqu'à maintenant, la concurrence n'était pas féroce et cela ne valait pas la peine de dépenser de l'argent pour des fonctionalités “invisibles” telle que la sécurité. Il est possible aussi que Microsoft tente de s'adaper encore à un monde basé sur Internet. En effet, Internet ne serait pas ce qu'il est sans les systèmes “Unix-like” qui ont supporté les standards Internet pendant des années alors que Microsoft ignorait ce monde avant de tenter de s'y raccrocher dans les années 90. Microsoft a quelques fois proclamé qu'il ne pouvait sécuriser ses produits au détriment de leur aisance d'utilisation. Il est vrai que des éléments de sécurité peuvent rendre un produit plus difficile à utiliser mais dans l'ensemble, un produit sécurisé peut être simple à utiliser si la sécurité est adaptée au produit. De plus, que dire d'un système qui doit être régulièrement reformaté et réinstallé à cause d'un nouveau virus ? Enfin, il est clair que, quelque soit la raison invoquée, les concepteurs de Windows ont opté pour une sécurité moindre par rapport à ses concurrents.

A l'inverse, alors qu'il est possible d'écrire un virus pour les OS OSS/FS, les concepteurs des OS s'évertuent à en éviter la dissémination. Ils tendent à faire des choix qui limitent les dommages des virus, peut-être parceque leur code est soumis à l'appréciation et aux commentaires du public. Par exemple, les programmes OSS/FS ne supportent pas les macros “start up” et encore moins l'exécition de courriers attachés, deux éléments contrôlables par les “hackers”. De même, les OSS/FS les plus répandus (GNU/Linux et BSD) ont toujours été protégés des écritures dans le système de répertoire. Une autre discussion sur l'effet significatif des virus sur les OSS/FS est disponible depuis Roaring Penguin. Les sytèmes OSS/FS ne sont pas immunisés contre un code mal-intentionné mais ils sont sûrement plus résistants.

15.  Selon Security Tracker, Microsoft est de loin le système le moins sûr. L'article SecurityTracker Statistics (daté de mars 2002) analyse les points de vulnérabilité détectés entre avril 2001 et mars 2002. Leurs auteurs ont identifiés 1595 rapports de “vulnérabilité” mettant en cause 1175 produits provenant de 700 revendeurs. Leur analyse a mis en évidence que Microsoft a plus de défaillances que tout autre (187 ou 11.7%). Suivent Sun (42 soit 2.6%), HP (40, 2.5%) et IBM (40, 2.5%). Seuls les revendeurs d'OSS/FS font bien mieus : on dénombre 13 défaillances pour l' Apache Software Foundation had (soit 0.8% ), et 10 pour Red Hat (0.6%). On peut arguer que Microsoft vend en général plus de logiciels mais le chiffre reste tout de même élevé. L'écart entre Microsoft et les autres s'est accru durant la seconde moitié de l'année, ce qui est encore plus alamant.It can be argued that Microsoft sells more kinds of software than most other vendors, but this is nevertheless an astonishingly large number of vulnerabilities.

16.  Selon une évaluation de Network Security un scanner de vulnérabilité OSS/FS (Nessus) s'est révélé être le plus efficace. Le 8 janvier 2001, l'article de Network Computing, Vulnerability Assessment Scanners , publie l'évaluation de neuf outils de scannérisation de réseau , la plupart propriétaires. Dans leur analyse, Network Computing utilisent 17 des vulnérabilités les plus critiques sur leur système de démonstration. Ils ont ensuite utilisé les différents outils pour tester leur efficacité dans la détection des failles de sécurité. Malheureusement, aucun d'entre eux n'a détecté toutes les “vulnérabilités”. Le meilleur scanner s'est révélé être Nessus Security Scanner (OSS/FS) qui a détecté 15 des 17 défaillances. Le meilleur des outils propriétaires en a détecté 13.5 sur 17.

Selon eux,

“Quelques uns d'entre nous étaient sceptiques envers le projet open-source Nessus jusqu'à ce qu'il détecte le plus grand nombre de “vulnérabilités”. Il a simplement survolé le test parcequ'il a correctement effectué plus d'opérations que ses concurrents.”

Je pense, comme les auteurs de ce rapport, qu'un “scanner de vulnérabilité de réseau” devrait trouver toutes les défaillances connues et que “un seul échec eest de trop”. Cependant, la perfection est rare dans le monde. Le plus important, pour un tel scanner, serait de faire partie du processus de sécurité d'une organisation – et ce ne serait pas sa seule activité. De fait, cette évaluation laisse pense qu'un organisme sera plus sécurisé en utilisant un programme OSS/FS. Cela montre que ce programme OSS/FS a plus de fonctionnalités, mais n'assure pas plus de sécurité. Mais dans ce cas, sa seule fonctionnalité est d'améliorer la sécurité des sytèmes.

Le problème est que les revendeurs rencontrent de sérieux obstacles économiques à l'amélioration de la sécurité des logiciels. Par exemple, si les revendeurs rendent leurs produits plus sûrs, ils ne seront plus les “leaders” sur un marché donné. Cela signifie souvent qu'ils perdront ce marché. De plus, il est difficile pour les clients de distinguer les logiciels propriétaires bien sécurisés de ceux qui le sont moins : les produits peu sécurisés tendent à éliminer les bons. (après tout, ils sont moins onéreux à développer et coûtent moins cher). Les Gouvernements rencontrent d'autres obstacles. Sur le thème des obstacles économiques à la sécurité des logiciels, vous pouvez consulter : Pourquoi l'information sur la sécurité est complexe – une perspective économique par Ross Anderson (issu de la l' Annual Computer Security Applications Conference (ACSAC), December 2001, pp. 358-365). Il n'est pas évident que les OSS/FS évitent toujours ces obstacles, mais il apparaît que dans certains cas, ils y parviennent. Par exemple, le code source des OSS/FS est publique et la différence de sécurité est plus visible que dans les produits propriétaires.

Le problème de sécurité le plus dangereux avec les logiciels propriétaires est que si un code mal-intentionné y est intégré, il est extrêmement difficile de le trouver. Peu de revendeurs de logiciels propriétaires peuvent faire examiner tout le code en détail par d'autres développeurs. Les processus de tests sont conçus pour rechercher les fautes (non le code mal-intentionné) et n'examine pas le code en entier. A l'inverse, du code malveillant peut être détecté par n'importe qui lorsqu'il est publique comme dans le cas des OSS/FS. Si quelqu'un insère du code malveillant dans un projet en cours de développement, il risque grandement d'être découvert. Voici deux exemples qui confirment et infirment cette analyse :

1.      Un jour, entre 1992 et 1994, Borland a intentionnellement inséré un “back door-porte dérobée” dans leur serveur de Base de Données “InterBase”, composée d'un nom d'utilisateur secret et d'un un mot de passe choisis. Cette “back door” permettait à tout utilisateur local ou distant de manipuler tout objet de la base, d'installer des programmes et dans certains cas, de contrôler la machine en tant que “root – utilisateur privilégié”. Cette “vulnérabilité” est restée dans le produit pendant au moins 6 ans. Personne d'autre ne pouvait revoir le programme et Borland ne rencontrait aucun obstaclepour réparer ce point faible. Plus tard, Borland publia son code source en juillet 2000, l'amenant à être un projet OSS/FS. Le projet “Firebird” a commencé à travailler sur le code source et découvrit ce sérieux problème de sécurité dans InterBase en décembre 2000 (5 mois après la publication). En janvier 2001, le CERT a annoncé l'existence de cette “porte dérobée” dans l'avis CA-2001-01. Le plus décourageant est que la “back-door” peut être détectée en examinant une version ASCII du programme (un truc classique de “cracker”). Il est donc possible que cette faiblesse ait été exploitée dans les années précédentes. Dès que ce problème à été mis à jour, il a été immédiatement résolu.

2.      Mohammad Afroze Abdul Razzak, arrêté par la police de Mumbai (Bombay) le 2 octobre 2001, révéla que le Réseau Al Qaeda d'Ousama bin Laden était capable de s'infiltrer chezAl Microsoft et a essayé de semer des “trojans, trapdoors, and bugs” dans Windows XP.” Cette annonce a été rapportée à Ravi Visvesvaraya Prasad, un consultant en télécommunications et sustèmes d'information de New Delhi, et mentionnée par la Washington Post’s Newsbytes division. Cette déclaration n'a pas été confirmée et je reste sceptique. Le problème est que l'on ne peut prouver le contraire. Même si cette action annoncée est fausse,cela reste encore possible vu que peu d'utilisateurs peuvent revoir le code des logiciels propriétaires. Une telle éventualité serait moins dangereuse pour des logiciels OSS/FS, car tout le monde peut détecter les modifications effectuées dans chaque version.

Bruce Perens, dans “Open sourcers wear the white hats – Les concepteurs d'Open Sources portent les chapeaux blancs”, déclare que la plupart des personnes qui recherchent les problèmes de sécurité dans les logiciels propriétaires, aidés ou non par des professionnels, sont des “black hats – chapeaux noirs”. Ils décortiquent le code ou essaient diférents types de saisies invalides dans le but de traquer les défaillances et de les exploiter au lieu de les signaler pour qu'elles soient rectifiées. On n'est pas encouragé à rechercher les défaillances de sécurité d'un produit propriétaire uniquement dans le but de l'améliorer, et ce, pour le compte d'un autre. “Seul un “black hat” décortiquerait du code à la recherche d'un défaillance de sécurité. Aucun “white hat” ne le ferait dans le but de cerner le problème”. A l'inverse, il pense que beaucoup de développeurs “open source” sont motivés en ce sens. Il pense que la “gloire” peut motiver le ré-examen d'un produit propriétaire d'une autre entreprise. Enfin, même les ré-examens formels s'attardent sur la conception et l'apparence au détriment du code. Le code propriétaire est souvent revu de façon superficielle dans beaucoup de cas (y compris le système OpenBSD au complet) . Comme il le précise : “Les logiciels Open Source sont étudiés par des “white hats”. Ils découvrent des problèmes de sécurité au hasard d'un développement, le recensent et le corrigent”.

Le modèle OSS/FS ne supporte malheureusement pas facilement un certain type d'évaluation de la sûreté telle que la “Common Criteria Evaluation”. Mais il semble que le problème se situe plus au niveau de la recherche de sponsors prêts à s'y soumettre que l'incapacité des OSS/FS à subir cette évaluation. En février 2003, Red Hat et Oracle ont annoncé qu'ils s'étaient associés pour soumettre Red Hat Linux Advanced Server à l'évaluation “Common Criteria”. IBM a, pour sa part, annoncé qu'il soumettrait GNU/Linux à l'évaluation Common Criteria. La Cyberspace Security Policy and Research Institute (CSPRI) mène à bien le projet Secure Government Software destiné à l'amélioration de la sécurité des OSS/FS via la recherche, le développement et la certification NIAP. Ils pensent améliorer l' évaluation de la configuration du serveur GNU/Linux (EAL2 pour l'éventail de configurations), perfectionner une évaluation PKI et ajouter un test sévère de sécurité (EAL4).

L' “ Institut Alexis de Tocqueville” (ADTI) a publié un “papier blanc” intitulé “Opening the Open Source Debate” qui étudie les caractéristiques des OSS/FS. Malheureusement, on y retrouve des affirmations fausses et peu argumentées. Dans son article Did MS Pay for Open-Source Scare?, Wired s'est renseigné sur ADTI et a découvert que leur article avait été payé par Microsoft, directement ou indirectement : “Un porte-parole Microsoft a confirmé que son entreprise avait financé l'Institut. Microsoft n'a pas précisé si elle avait directement financé “le papier blanc”. Ken Brown, le président de l'ADTI et Gregory Fossedal, le Directeur, ont refusé de s'exprimer sur l'éventualité que le rapport soit sponsorisé”. Politech a mis en évidence des informations inquiétantes sur ADTI. Apparemment, ADTI a toujours été un laboratoire de tests indépendant mais financé par des organismes (par ex, Smoke Free for Health article sur les articles d' ADTI pro-lobby-du tabac). Des auteurs réputés dénoncent un éventuel conflit d'intérêt, même accidentel. ADTI n'a pas mentionné la date d'élaboration de son article sur les OSS/FS. Evidemment, cet article contient beaucoup d'erreurs et apporte des conclusions non confirmées. Je présenterai quelques exemples d'informations incorrectes qui ne sont pas mentionnées ailleurs : évaluations fausses ou incomplètes, réécriture de l'histoire du web browser, et l'oubli de certaines données : I’ll just note a few examples of the paper’s problems that aren’t as widely noted elsewhere: incorrect or incomplete quotations, rewriting web browser history, and cleverly omitting the most important data in one of their charts:

·         Dans son article, l'ADTI m'attribue des propos que je n'ai jamais tenus et omet intentionnellement des informations importantes que j'ai communiquées. ADTI a affirmé que j'avais déclaré : “sans license, le code source est un format multilicense, (en référence à d'autres licenses plus permissives), il est impossible pour GPL de fonctionner pour un modèle professionnel propriétaire.”. Mais je n'ai jamais dit cela. En fait, j'ai précisé à ADTI que Microsoft vend un produit sous licence GPL (une information que j'ai déjà publiée). Au lieu de rectifier cette information, ADTI me l'a imputée. Ce que j'ai dit était plus nuancé : “sans license, le code source est un format multilicense [GPL et autre ], la GPL ne permet pas certaines utilisations dans un modèle professionnel propriétaire.” Les mots sont les mêmes mais cette phrase reflète plus ma pensée. Notez que beaucoup de modèles professionnels (y compris certains modèles propriétaires !) sont admis par la GPL. ADTI m'a aussi attribué ces mots : “aujourd'hui, je pense sincèrement que le nombre [de logiciels sous GPL] a sûrement atteint les 80%”. Or, j'ai seulement dit que je pensais que le nombre était probablement supérieur à 50%, mais, ne pouvant me souvenir du chiffre exact, je leur ai demandé de vérifier mes articles, ce qu'ADTI ne fit pas . S'ils l'avaient fait, ils auraient noté que j'avais récemment publié un article stipulant que 71.85% des packages logiciels de Freshmeat sont sous licence GPL. Le nombre d'omissions est remarquable. Par exemple, j'ai expliqué à ADTI ce qu'est la licence GPL (ce qu'ils n'ont pas compris, bien qu'ils la critiquent). ADTI semble penser que la GPL oblige à une publication du code, ce qui est faux. La GPL impose que ceux qui reçoivent le code binaire exécutable aient aussi le code source. Ceci est essentiel. De plus, il est évident que le gouvernement utilise des logiciels sous GPL, ce qui va à l'encontre de l'affirmation d'ADTI. La GPL permet une utilisation et un redistribution contrôlée de copies non modifiées.

·         De plus, ADTI reécrit l'histoire des navigateurs web à sa manière et stipule que Mosaic était un “web browser” en “open source”, mais il ne l'a jamais été. Les versions modifiées d'Unix pourraient seulement être utilisées de façon non-commerciale sans licence spécifique (les OSS/FS doivent être commercialement utilisables) et les licences Mac et Windows sont encore plus restrictives. ADTI omet totalement l'évènement le plus important dans l'histoire des navigateurs OSS/FS : le passage de Netscape en OSS/FS en 1998. J'ai signalé ces problèmes à ADTI avant la publication de leur article mais l'Institut n'a pas rectifié ses informations.

·         Enfin, ADTI publie le code source de divers programmmes (Source Line of Code – SLOC). Il fait même référence à mon article intitulé More than a Gigabuck et précise que le kernel Linux comprend plus de 2 millions de SLOC. Cette publication montre aussi que Windows XP comprend 30 millions de SLOC, donnée intéressante, vu qu'à ma connaissance, cette valeur n'est pas connue du public (ADTI n'a pas révélé ses sources, mais m'a confirmé qu'ils ont étudié Windows XP). Attardons-nous sur cette comparaison insensée : ADTI se réfère au noyau Linux (une petite part de l'OS) et à Windows XP (un OS entier), mais pas à tous les OS OSS/FS. ADTI ignore totalement mon article qui stipulait que la distribution Red Hat Linux 7.1 comprend aussi 30 millions de SLOC. En omettant les données les plus importantes, ADTI donne de fausses impressions. Mais cela est la face cachée de l'iceberg, tellement l'article est truffé de fautes et les conclusions illisibles.

Je recommanderais donc à toute personne désirant lire le rapport d'ADTI de voir aussi les démentis disponibles qui révèlent ses nombreuses erreurs. Certains démentis sont disponibles sur le site John Viega and Bob Fleck of Secure Software (Viega est un expert en sécurité), Juliao Duartenn (Directeur du Security Skill Center, Oblog Software, SA), Roaring Penguin’s David Skoll (via the Register), Ken Ambrose (via LWN), et Leon Brooks. Anthony Awtrey a analysé les modifications effectuées dans la publication d' ADTI . En bref, le rapport d'ADTI est erronné et superficiel.

Il existe d esargumentations non-quantitatives sur les OSS/FS et la sécurité. L'article publié en octobre 2002 sur “ Open Source Digital Forensics Tools: The Legal Argument “ de Brian Carrier précise que, pour être une preuve scientifique auprès d'une court aux USA, un outil criminel doit être fiable et pertinent conformément au guide “Daubert”. L'article passe donc au peigne fin ce guide et conclut : “ Les outils en open source sont plus conforme aux articles de ce guide que les outils en source fermée”.

Beaucoup d'experts en sécurité ont éabli que les OSS/FS sont plus sûrs que les logiciels propriétaires. Parmi ces experts, on trouve Whitfield Diffie (co-inventeur de la clé publique), Bruce Schneier (expert en cryptographie et sécurité informatique), Vincent Rijmen (développeur du Advanced Encryption Standard (AES)), Elias Levy (Aleph1, du groupe Bugtraq), John Viega (auteur d'un livre sur la programmation sécurisée), et Peter Neumann . Ceci ne garantit pas qu'un programme OSS/FS est plus sûr qu'un outil propriétaire mais cela prouve que les avantages des OSS/FS sont largement publiés et connus.

A l'inverse, Jim Allchin de chez Microsoft a témoigné sous serment que certains codes Microsoft contenaient tellement d'erruers qu'ils ne pourraient être ouverts au public. Plus recemment, Microsoft a annoncé que son “Government Security Program” permet aux gouvernements de consulter une partie du code source, sans permettre de le modifier et de redistribuer les résultats. De ce fait, Reuters a publié une enquête de Forrester Research Inc. stipulant que la plupart des experts en sécurité informatique des entreprises les plus importantes ne pensent pas que les produits de Microsoft Corporation soient sûrs. En effet, 77% déclarent que la sécurité est un problème majeur pour les utilisateurs de Windows. Le premier problème mentionné est que les patches ne sont pas implémentés car les administrateurs craignent qu'un patche ne perturbe la productivité et que la perte de temps soit importante, au vu de l'avalanche de patches Microsoft à valider.

D'après ous ces chiffres, il est clair, que les OSS/FS ne sont pas à l'abri de problèmes de sécurité. Bien sûr, certains pensent que rendre le code source disponible donnent un avantage aux pirates car ils disposent d'informations essentielles. Même si les OSS/FS donnent des informations aux pirates, avoir le code source disponible permet aussi de contre-attaquer et de tester le code. Les informations nécessaires à l'intrusion dans un programme est son code binaire exécutable. Les dé-assembleurs et les dé-compilateurs peuvent rapidement extraire toute information depuis un exécutable . Cacher le code source n'est donc pas efficace pour la prévention des attaques. Enfin, les programmes propriétaires ne sont pas toujours plus sûrs, les OSS/FS ne sont pas toujours plus sûrs, car tout dépend de l'environnement de travail. Par exemple, un système idéalement configuré et entretenu sera toujours beaucoup plus sûr qu'un système mal configuré et non mis à jour. Sur ce thème, vous pourrez consulter le site mon étude sur l'open source et la sécurité (faisant partie de mon livre writing secure software). Cependant, à partir de ces données, il apparaît que, dans de nombreux cas, les systèmes OSS/FS sont plus sûrs au niveau de leur résistance aux intrusions, comparé aux logiciels propriétaires.

7. Coût total de propriété (Total Cost of Ownership)

Le Coût total de propriété (TCO) est une mesure essentielle. Peu importe si un produit est économique à l'achat s'il s'avère plus onéreux à l'usage. Le TCO contribue à votre appréhension du système choisi.

Evidemment, quelque soit le produit utilisé, vous trouverez une étude qui montrera qu'il est plus économique dans certains cas. Microsoft et Sun proposent des études prouvant que leur TCO est le plus bas (à ce sujet, vous pouvez consulter mon avis sur l'étude de Microsoft). Xephon montre, dans une étude, que les ordinateurs centraux (mainframes) sont les moins onéreux par utilisateur (grâce au contrôle centralisé) avec un coût de £3450 par utilisateur et par an. Centralized Unix coute £7350 par utilisateur et par an, et un environnement PC décentralisé coûte annuellement £10850 par utilisateur. Xephon semble être un consultant de systèmes “mainframes” et tend à éditer ses résultats dans ce sens. Il y a des situations où installer un ordinateur central tombe sous le sens et nous verrons que l'on peut utiliser des OS/FS dans de tels environnements.

En bref, un TCO bas dépend de votre environnement et de vos besoins. Pour le déterminer, vous devez identifier les grandes lignes de dépenses (le modèle de coût-”cost model”) et estimer leur coût. N'oubliez pas les “coûts cachés”, tels que le coût administratif, d'optimisation, du support technique, d'utilisateur final, etc... Les OSS/FS sont compétitifs dans beaucoup de domaines, ce qui les rend globalement attractifs.

1.      OSS/FS sont moins onéreux à l'achat. Les OSS/FS ne sont pas gratuits car “free” se réfère à la liberté, non au prix. “Free speech, not free beer” résume cette distinction. Robert Lefkowitz, de chez Merrill Lynch, a trouvé un meilleur moyen pour les définir : “We like to think of it as ‘free as in market.’”

Les OSS/FS ne sont pas gratuits car vous dépenserez de l'argent pour la documentation, le support, la formation, l'administration du système, etc..., comme vous le feriez pour un système propriétaire. Dans beaucoup de cas, les programmes des distriburions OSS/FS peuvent être téléchargés sans frais (linux.org propose des liens sur la façon d'obtenir ces distributions). Cependant, la plupart des utilisateurs (en particulier les débutants et ceux qui n'ont pas de connection Internet haut-débit) obtiendront un package complet sur CD ROM, la documentation et le support moyennant une maigre redevance. Le coût d'acquisition reste donc très compétitif.

Par exemple, on peut étudier les différences de prix pour un serveur, (serveur web ou intranet et serveur de courrier) utilisant C++ et un RDBMS. Ceci est un exemple, sachant que chaque objectif recquièrt des composants différents. En utilisant les prix de “Global Computing Supplies” (Suwanee, GA), arrêtés en septembre 2000, arrondis au dollar le plus proche, on peut établir le tableau comparatif suivant :

 

Microsoft Windows 2000

Red Hat Linux

Operating System

$1510 (25 client)

$29 (standard), $76 deluxe, $156 professionnell (illimité)

Email Server

$1300 (10 client)

inclus (illimité)

RDBMS Server

$2100 (10 CALs)

inclus (illimité)

C++ Development

$500

inclus

La version de base, Microsoft Windows 2000 (25 clients) coute $1510; leur serveur d'e-mail Microsoft Exchange (10-accès clients) coûte $1300, leur serveur RDBMS, SQL Server 2000 coûte $2100 (avec 10 CALs), et leur suite de développement C++, Visual C++ 6.0 coûte $500. Red Hat Linux 6.2 standard (le plus courament utilisé) coûte $29 (avec 90 jours d'assistance installation par e-mail), $76 pour la version de luxe (assistance de la version standard plus 30 jours d'assistance installation par téléphone), ou $156 pour la version profesisionnelle (assistance de la version de luxe plus un support SSL d'encryptage du traffic web). Dans tous les cas, les fonctionnalités serveur web, serveur d'e-mail, serveur de base de données, C++ et plus, sont incluses. Un serveur web publique basé sur Windows 2000 et un RDBMS devrait atteindre 3610$ (1510+2100) contrairement à Red Hat Linux, qui revient à $156. Un serveur Intranet sous Windows 2000 et un serveur e-mail devraient couter $2810 ($1510+$1300) alors que la même configuration sous Red Hat Linux revient à $76.

Chacun de ces package a des fonctionnalités que l'autre n'a pas. Le système GNU/Linux est toujours livré avec un nombre de licences illimité. Le nombre de clients que vous utilisez dépend de vos besoins. Mais cela n'est pas important dans la mesure où les logiciels serveurs de Microsoft coutent des milliers de dollars en plus par serveur que leur équivalent GNU/Linux.

Pour une autre analyse plus approfondie des couts initiaux de ces deux systèmes, vous pouvez consulter Linux vs. Windows: The Bottom Line par Cybersource Pty Ltd. Voici un résulé de leur analyse ( en dollar US valeur de 2001) :

 

Microsoft Solution

OSS/FS (GNU/Linux) Solution

Economie réalisée en utilisant GNU/Linux

Company A (50 utilisateurs)

$69,987

$80

$69,907

Company B (100 utilisateurs)

$136,734

$80

$136,654

Company C (250 utilisateurs)

$282,974

$80

$282,894

Consulting Times a montré que, sur trois ans, plus le nombre de boîtes à lettre est élevé sur un ordinateur central doté de GNU/Linux, plus son TCO est inéressant. Pour 50 000 boîtes, la solution Exchange/Intel revient à 5,4 millions de dollar US, alors que la solution Linux/IBM(G6) coûte 3,3 millions de dollars US. Pour 5 000 boites à lettres, Exchange/Intel coute 1,6 millions de dollars US, et Groupware sur IFL coute 362 890 dollars US. Pour une autre étude vous pouvez consulter Cost Comparison from jimmo.com. Evidemment, les prix dépendent des fonctions nécessaires pour une tâche donnée, mais dans la plupart des cas, GNU/Linux est bien moins onéreux à l'achat.

2.      Les coûts de la maintenance et de l'optimisation sont bien plus bas. Le cout des mises à jour sont bien plus bas sur des systèmes OSS/FS . Par exemple, mettre à jour un système Microsoft coutera à peu près la motié de l'investissement initial. Le pire étant que vous êtes à la merci des prix de votre unique fournisseur (voir Microsoft Turns the Screws). A l'inverse, pour les systèmes GNU/Linux, les mises à jour peuvent être téléchargées gratuitement ou simplement rachetées (pour moins de 100 $) et réutilisées sur tous les systèmes. Cela n'inclut pas le support technique qui peut être mis en concurrence, ce qui n'existe pas pour les logiciels propriétaires). En bref, si votre fournisseur GNU/Linux ne vous convient pas, vous pouvez en changer.

3.      OSS/FS n'imposent pas de gestion de licence et permet d'éviter tout risque de litige. Les vendeurs de logiciels propriétaires gagnent de l'argent sur la vente des licences et imposent aux clients des mécanismes complexes de gestion de licence. Les clients qui ne peuvent prouver qu'ils ont payé pour l'installation des copies d'un logiciel propriétaire (par exemple : perte des licences papier) risquent des amendes importantes. En utilisant un logiciel propriétaire, vous risquez que le vendeur vous poursuive au tribunal.

Pour évider ce risque, les entreprises doivent garder précieusement les licencs. Cela implique un processus stricte de suivi de licence, un programme de suivi de coût, et la rémunération d'un personnel responsable de ces licences et capable d'effectuer des audits.

A l'inverse, il n'y a ni gestion de licence ni risque de litige à l'utilisation d' OSS/FS. Certains OSS/FS ont des dispositions légales dans le cas de modification de programme ou d'intégration d'un programme dans un autre; mais les logiciels propriétaires interdisent formellement la modification de programme et la paiement de redevance en cas d'embarquement de programme. De ce fait, les développeurs doivent étudier les composants qu'ils utilisent afin d'en comprendre les conséquences. Mais cela est vrai aussi bien pour les OSS/FS et les logiciels propriétaires. Vous pouvez consulter la partie licensing litigation discussion de cet article pour plus d'informations sur les coûts et risques des licences.

4.      Les OSS/FS peuvent plus facilement s'adapter au matériel ancien que les systèmes propriétaires, ce qui entraine un coût matériel moindre et la possibilité de ne pas systématiquement ré-investir en matériel. Les OSS/FS fonctionnent plus rapidement sur du matériel le permettant mais beaucoup de ces logiciels peuvent fonctionner sur du matériel ancien de façon plus efficace, ce qui entraîne un cout matériel moindre. De plus, dans certains cas, on peut éviter le rachat de matériel neuf, lorsque l'ancien est encore fonctionnel. Par exemple, le minimum recquit pour Microsoft Windows 2000 Server (selon Microsoft) est un Pentium-compatible CPU (133 MHz ou plus), 128 MiB de RAM minimum (avec 256MiB minimum recommandé), et un disque dur de 2 GB dont au moins 1.0 GB libre. Selon Red Hat, Red Hat Linux 7.1 (distribution courante de GNU/Linux) nécessite au minimum un i486 (Pentium recommandé), 32MiB RAM (64MiB recommandé), and 650MB d'espace disque (1.2 GB recommandé).

Dans le Scientific American d'aout 2001, l' article The Do-It-Yourself Supercomputer montre la façon don des chercheurs ont construit une plateforme puissante au moyen d'ordinateurs “déclassés” et de GNU/Linux. Le résultat a été nommé “Le superordinateur de [l'âge de la] pierre”. En mai 2001, il atteignait une performance théorique de 1,2 gigaflops.

5.      En utilisant un système basé sur un serveur d'applications, le coût matériel total diminue largement. Beaucoup de gens font l'erreur de développer des stations de travail sous OSS/FS (tels que GNU/Linux ou BSD) de la même manière que s'ils développaient un système Windows. Bien que cela soit possible, l'approche financière n'est pas nécessaire si des stations de travail pour des applications de bureau courantes sont installées (par exemple : le traitement de texte, les tableurs ou tout autre outil de bureau). La meilleure approche serait de doter chaque utilisateur d'une station “ancienne” dotée de GNU/Linux et supportant un simple affichage graphique (un “terminal X”) et de faire fonctionner les applications récentes sur un “serveur”, partagé par tous. Sur ce sujet, vous pouvez consulter le site Comment créer un réseau basé Linux pour des cacahuètes. Avec cette approche “serveur d'applications”, les stations coutent à peu près 30$ (en utilisant des machines “obsolètes”), un serveur revient à 1000$ et presque toute l'administration du système est centralisée, d'où une diminution du coût d'administration. L'avantage d'une telle organisation est qu'un utilisateur peut accéder à une station en précisant son identité (log-in).Vous trouverez plus de détails sur cette approche sur le site Paul Murphy’s article, Total cost of ownership series revisited. C'est ainsi que la ville de Largo, en Floride et beaucoup d'autres organismes utilisent GNU/Linx.

6.      Plus le nombre d'ordinateurs augmen te, plus l'économie à l'achat et à la mise à jour est substentielle. Plus le nombre de serveurs augmentent, plus les solutions propriétaires deviennent onéreuses. Tout d'abord, beaucoup de systèmes propriétaires (y compris Microsoft) vendent des licences par client. Cela veut dire que si votre matériel peut supporter plus de clients, vous devrez payer une redevance pour optimser l'usage de votre matériel. De plus, si vous souhaitez utiliser plus d'ordinateurs, vous devrez racheter des licences. A l'inverse, la plupart des distributions GNU/Linux permettent l'installation d'autant de copies que l'on souhaite, sans surcoût. Et aucune limite de performance n'est intégrée au logiciel. Il peut y avoir une redevance pour l'obtention du support technique mais vous pouvez faire jouer la concurence.

Selon le Network World Fusion News, Linux est de plus en plus utilisé dans le domaine de la santé, la finance, la banque et la vente, grâce à son coût avantageux. Selon leur calculs, pour 2 000 sites déployés, SCO UnixWare couterait 9 millions de dollars US, Windows, 8 millions de $ et Red Hat Linux, 180$.

7.      Il existe d'autres facteurs, mais cela dépend de ce que l'on essaye de faire. Il existe d'autres facteurs qui interviennent dans le calcul du TCO mais il est difficile d'évaluer leurs effets et de les quantifier. Les défenseurs de Windows déclarent que les administrateurs systèmes Windows (les professionnels) reviennent moins chers et sont plus faciles à trouver sur le marché du travail. Par contre, les défenseurs de GNU/Linux et Unix répondent que de tels postes sont moins nombreux dans leur domaine car l'administration des systèmes est simple à automatiser et que leur système est plus fiable.(voir les études quantitatives sur ce sujet). Des défenseurs de GNU/Linux m'ont affirmé que GNU/Linux permet l'hébergement de multiples services sur un seul serveur alors que les installations Windows doivent utiliser plusieurs serveurs. Le respect des licences peut être coûteuse pour un système propriétaire (par exemple leur suivi, leur mise à jour par une équipe dédiée). Or, ce coût est simplement inexistant chez les OSS/FS.

8.      Une étude de Cybersource, datée de 2002, montre que l'économie réalisée sur le TCO par l'usage des OSS/FS est de 24% à 34%, contrairement à une approche propriétaire de type Microsoft.( Cybersource : “Linux vs. Windows: Comparaison du coût total de propriété”) ). Les auteurs de cet article ont imaginé un modèle comprenant une équipe de 250 utilisateurs, un nombre approprié de stations de travail, des serveurs, une connexion Internet, un système de e-commerce, le cablage du réseau et du matériel, des logiciels standards, et une équipe d'informaticiens pour gérer le système. En utilisant une infrastructure et un matériel existant, ils ont évalué l'économie réalisée sur trois ans à 34,26% (251 393 dollars US) en utilisant une solution Linux/open source au lieu d'une solution Microsoft. Lorsque le matériel et l'infrasructure étaien achetés, l'économie réalisée s'élevait à 24,69%. Cette étude fait suite à la précédente. Un article est disponible sur Linux Journal. On peut arguer que c'était une étude théorique mais les auteurs affirment qu'ils avaient observés des économies significatives lors de leur travail. Dans tous les cas, ces économies ont été mentionnées par des organismes officiels, ce qui confirme les résultats.

9.      Une étude Italienne effectuée en 2002 montre que GNU/Linux a un TCO de 34,84% inférieur à Windows. Toute cette étude est en italien; vous pouvez tenter de lire une traduction générée automatiquement.

10.  Dans beaucoup de cas, les économies réalisées sur le TCO sont substantiels. Par exemple, elles s'élevaient à 250 000$ par an, selon 32% des Directeurs Techniques (Chief Technical Officers-CTO) interrogés en 2001 par InfoWorld. 60% de ces CTO ont économisé 50 000$ par an. L'InfoWorld du 27 aout 2001 (pages 49-50) rapporte les résultats d'une enquête effectuée auprès de 40 Directeurs Techniques, membres du InfoWorld CTO network. Dans cette enquête, 32% des CTO utilisant des OSS annoncent une épargne supérieure à 250 000$. 12% d'entre eux ont économisé entre 100 001 and 250 000$. 16% ont annoncé une économie située entre 50 001 et 100 000$. Seuls 8% d'entre eux affirment avoir économisé moins de 10 000$ (donc 92% ont économisé plus de 10 000$ par an). Le poste principal d'économie, selon 93% d'entre eux, est l'acquisition ou le coût de développement d'applications. 72% affirment que l'économie réalisée est issue du développement ou du temps d'implémentation (plusieurs réponses étaient permises). Les Directeurs ont précisé qu'ils utilisaient ou pensaient utiliser les OSS pour les serveurs web (65%), serveur d'OS (63%), serveurs d'applications web (45%), tests des développements d'application (45%), et pour un OS de bureau (38%), entre autres. InfoWorld résume ces faits de cette façon : “en 2000, il semblait que personne n'utilisait les logiciels open-source pour des tâches essentielles de commerce... Aujourd'hui, une large majorité de cadres informatiques utilisent ou prévoient d'utiliser des OS et des serveurs web OSS dans leurs applications”.

11.  L'étude du Groupe Robert Frances, publiée en juillet 2002 a montré que le TCO de GNU/Linux est inférieur de 40% à celui de Microsoft Windows et de 14% à celui de Solaris de Sun Microsystem. Le Groupe Robert Frances Group (RFG), à Westport, Conn., a étudié le coût de production en réel de serveurs web dotés de GNU/Linux-Apache, Microsoft Windows -IIS, et Sun Solaris-Apache chez 14 entreprises en 2000. Ce sont des installations réelles, où une panne de serveur entraîne des pertes financières et non des sites prototypes. Leur analyse du TCO est basée sur le prix d'achat du logiciel, le prix d'achat du matériel et de sa maintenance, le prix de la maintenance logicielle et de sa mise à jour, et le coût de gestion. Pour rendre les chiffres comparables, ils ont utilisé une échelle. (Pour plus de détails, vous pouvez consulter l'étude). Ils ont déterminé que, sur trois années, un système GNU/Linux coûte 74 475$, un système Windows coûte 190 662$ et un système Solaris coûte 534 020$. Ce qui donne un coût GNU/Linux inférieur de 40% à celui de Microsoft Windows et de 14% inférieur à celui de Solaris.

Ce rapport a aussi montré que le coût administratif de GNU/Linux et Solaris est inférieur à celui de Windows. Bien que les administrateurs système Windows coutent individuellement moins cher, un administrateur système Linux ou Solaris peut prendre en main beaucoup plus de machines, ce qui rend, au final, Windows plus onéreux. L'étude a aussi révélé que les administrateurs Windows passent deux fois plus de temps à rectifier les machines et à régler les problèmes de sécurité que les administrateurs Solaris ou GNU/Linux.

RFG a aussi étudié des domaines qu'il était difficile d'évluer financièrement. Ils concluent : “Après tout, étant donné son prix bas et la flexibilité de ses licences, sont haut niveau de sécurité et sa stabilité, Linux est considéré comme le serveur idéal”.

12.  Netproject a montré que le TCO de Linux sur un ordinateur de bureau représente 35% du TCO Microsoft Windows (soit une économie de 65%). Netproject’s Cost of Ownership report a prouvé l'économie importante qui peut être réalisée et en montre les différentes causes :

o        La suppression des licences des logiciels systèmes et des applications de bureau

o        La suppression de l'exclusivité du revendeur qui force à l'achat de mises à jour pas foecément nécessaires

o        La baisse du nombre de mises à jour logicielles dans le domainde de la sécurité

o        L'inutilité des logiciels anti-virus pour les ordinateurs sous Linux (ces logiciels sont nécessaires sur les PC Microsoft)

o        La baisse du nombre des membres de l'équipe d'assistance

13.  Une majorité des membres du InternetWeek Newsbreak travaillant pour des entreprises effectuant plus de $5 millions de chiffre d'affaires affirme que les OSS/FS sont beaucoup moins onéreux que le logiciels propriétaires.

Une étude a été menée par TheOpenEnterprise.com (co-édité par InternetWeek.com et InformationWeek) auprès de responsables informatique et de responsables développement dans des entreprises dont le chiffre d'affaires dépasse 5millions de dollars. Dans cette étude, 39% des sondés déclarent : “les logiciels open-source sont moins coûteux (25% à 50%) que les logiciels propriétaires”. 27% d'entre eux donnent un pourcentage situé entre 50% et 75%. Il semble que le terme “open-source” se réfère aux OSS/FS puisque dans la majorité des cas, ils uilisent simplement ce terme. Comme ils le remarquent : “Votre Directeur Financier réagirait-il favorablement à une économie de 50-75% sur les coûts logiciels ?”

14.  Beaucoup d'organismes signalent des économies significatives lors de l'utilisation d' OSS/FS. Voici quelques exemples d'organismes réalisant des économies en utilisant les OSS/FS:

a.   L'analyse intitulée Linux pour remplacer Windows 2000 compare Red Hat Linux 7.1 à Windows 2000; dans le cas de ce client, utiliser Linux au lieu de Windows 2000 lui a permis d'économiser $10 000. Il a migré d'un environnement Windows/DOS à Linux au prix de gros efforts pendant plusieurs mois. “Vous serez étonnés par les possibilités de réaliser des économies ... que les logiciels open-source vous offre”.

b.   Doug Busch, Vice Président d'Intel, a déclaré économiser plus de 200 millions de dollars en remplaçant des serveurs Unix coûteux par des serveurs plus économiques fonctionnant sous GNU/Linux.

c.   Amazon.com a pu économiser 17 millions de dollars dans ses dépenses techniques en un trimestre, grâce à la migration sur un système Linux. Amazon a dépensé 54 million de dollars pour son service technique au troisième trimestre. L'année précédente, à la même date, la dépense s'élevait à 71 millions de dollars. Les cadres s'attendent à ce que les couts techniques baisseraient dans une proportion de 20% des ventes nettes.

d.   La ville de Largon en Floride a révélé avoir économisé 1 million de dollars par an, à l'usage de GNU/Linux

e.   Dell propose une économie de 21% à l'utilisation de GNU/Linux. Dell computer possède un service d'hébergement dédié telle que leur offre D-2800. Cette offre propose un système correct (Pentium 850, 256MiB, 20GB, 21GB/mois de largeur de bande) dans deux configurations: Red Hat Linux 7.1 pour $189/mois, et Windows 2000 pour $239/mois. Pour un matériel identique et un provision de largeur de bande égale, le sustèmes GNU/Linux et moins cher de 21%. Ceci est particulièrement intéressant car Dell n'a pas à démontrer quel est le meilleur système. Il a juste affiché les prix auxquels il peut offrir ses services.

f.   Un rapport indépendant, publié au Dannemark conclut : si on mène à bien le projet politique d'utiliser Internet pour améliorer le secteur public, on économiserait 500 millions de dollars sur les dix prochaines années en utilisant les OSS/FS au lieu des logiciles Microsoft. (merci à Poul-Henning Kamp, pour sa traduction).

Il existe beaucoup d'autres rapports émanent d'organismes ou entreprises qui ont choisi de migrer sur des systèmes OSS/FS. Voir la section comptes-rendus d'utilisation pour plus d'informations.

1.      Même Microsoft a admis que ses produits étaient plus onéreux que GNU/Linux. Pendant un temps, Microsoft a essayé de convaincre les utilisateurs que ses produits étaient quelque peu moins coûteux. Cependant, comme relaté dans Var Business et The Register, le Directeur Général de Microsoft, Steve Ballmer, en 2002, a admis que Microsoft “n'a pas chiffré le fait que ses produits soient moins chers que Linux. Pour nous, en tant qu'entreprise, nous allons vers une nouvelle façon de penser.” The Register résume la nouvelle approche de Microsoft en ces mots : “Leurs produits sont plus chers car Microsoft vaut plus”. Même si c'est vrai, cela reste discutable mais reste un argument. Depuis, Microsoft n'essaye plus de déclarer que ses produits sont plus économiques. C'est pourquoi cette précision valait d'être mentionnée.

2.      Une étude récente financée par Microsoft montre que Windows est plus économique que Linux mais cela a été démenti. L'étude financée par Microsoft ( disponible sur Microsoft) compare Windows 2000 à Linux. Elle établit que Linux a un TCO plus bas dans le domaine du web-service et Windows 2000 a un TCO moins élevé au niveau de l'infrastructure réseau, du serveur de fichers, et des applications de sécurité. (note: le “David Wheeler” mentionné dans InfoWorld n'est pas l'auteur de l'article que vous lisez). Ce rapport mentionne clairement qu'il a été financé par Microsoft, à l'inverse de Mindcraft et c'est appréciable.

Toutes les suppositions mises en évidence par les études sur le TCO ne sont pas universelles. Joe Barr analyses certains problèmes relatifs à cette étude du TCO. Dans cette étude, on suppose donc que l'OS n'a pas été mis à jour pendant 5 années. Si une entreprise utilise un ancien OS Microsoft, elle achète une licence de mise à jour et ne se réfère pas à la licence courante. L'étude ne tient pas compte des dépenses suivantes : la déclaration légale (lorsqu'il y a signature de plusieurs agréments), l'achat et la maintenance d'un système d'inventaire de licences logicielles (dont vous avez généralement besoin), l'audit éventuel, l'assurance responsabilité (si vous perdez la preuve de votre achat il vous en coutera 151 000$ par incident) et le paiement multiple pour le même produit (un effet pervers de beaucoup de licences d'entreprises).

Barr conclut en disant : “le TCO est comme le bon vin : il n'apprécie pas les voyages. Ce qui est vrai dans une situation, ne se vérifie pas dans une autre. Ce qui est claironné comme une vérité universelle (“Windows est moins cher que Linux”) peut ou ne peut pas être vrai. Ce qui est certainement erronné est l'universalité.”. Puisque le TCO dépend du système et de ses applications et que Microsoft, en tant que financeur de cete étude, a pu en déterminer tous les paramètres, les conclusions de ce rapport étaient connues d'avance.

Vous pouvez consulter le site MITRE Corporation’s business case study of OSS, qui analyse les sytèmes militaires.

La plupart de ces articles supposent que les utilisateurs utilisent des logiciels non modifiés. Même si les OSS/FS n'effectuent pas toutes les fonctions recquises, ce n'est pas forcément la fin de l'histoire. Un des atouts majeurs de ces logiciels est qu'ils peuvent être modifiés par les uilisateurs. De ce fait, toute TCO précise devrait tenir compte du fait que les produits adaptés peuvent encore évoluer pour s'ajouster encore mieux. Il peut être plus économique de commencer avec un OSS/FS existant et de l'améliorer plutôt que d'invertir dans un logiciel propriétaire qui possède toutes les fonctionnalités nécessaires. Evidemment, un TCO tenant compte de ces coûts varie considérablement en fonction des circonstances.

Brendan Scott (un juriste spécialisé en technologie de l'information et en télécommunications) précise que le TCO à long terme des OSS/FS doit être moins élevé que celui des logiciels propriétaires. Son article aborde quelques points intéressants. Par exemple : “TCO est le coût total de propriété. Mais dans ce cas, “la propriété (ownership)” d'un logiciel est un concept à l'opposé de ce que conçoit le vendeur d'un logiciel propriétaire (proprietary software). ... L'utilisateur d'un logiciel propriétaire aura, au mieux, une forme (souvent restrictive) de licence. Bien sûr, certains arguent que le fait de ne pas posséder un logiciel propriétaire-proprietary dans son intégralité fait partie du coût de propriété-ownership.” Cet article explique aussi pourquoi les logiciels libres sous GPL ont de meilleurs TCO que les OSS/FS sous licence. Scott conclut que : “Les clients qui tentent d'évaluer un logiciel libre par rapport à une solution propriétaire peuvent limiter leurs recherches à la façon dont les logiciels correspondront à leurs besoins. Ils peuvent aussi s'attendre à ce que le TCO à long terme du progiciel libre sera plus avantageux. En effet, puisque le coût des licences additionnelles est minime, un client préfèrera un solution “logiciel libre” avec la possibilité d'ajouter des fonctionnalités, solution qui, au bout du compte, sera moins onéreuse qu'une solution propriétaire équivalente.

La première étude sur les TCO de Microsoft qui compare Windows à Solaris (mentionnée plus haut) n'est pas une référence pour estimer votre propre TCO. Leur étude compare la moyenne du TCO des sites utilisant des produits Microsoft à la moyenne du TCO des sites utilisant des systèmes Sun. Mais, bien que les systèmes Microsoft coûtent 37% de moins à la propriété, les systèmes Solaris gèrent des bases de données plus volumineuses, plus d'applications à la demande, 63% de connections simultannées en plus, et 243% de réponses à des requêtes en plus par jour. En d'autres termes, les systèmes Microsoft qui oeuvrent moins coûtent moins cher que des systèmes qui travaillent plus Cette étude n'est donc pas une référence si vous vous basez sur le TCO afin de sélectionner le système que vous souhaitez acquérir. Pour que le TCO soit déterminant, vous devez comparer les TCO des systèmes qui vous conviennent. L'analyse de Thomas Pfau (voir part 1 et part 2) se penche sur cette question et les autres points faibles de cette étude.

D'autres études fot la promotion des systèmes “Unix-like”, non OSS/FS, et affirment que, dans certains cas, ils sont moins coûteux que les systèmes Windows. Une Comparaison de Windows et Unix , par Paul Murphy va dans ce sens. Il apparaît que beaucoup de ses arguments pourraient s'appliquer aux systèmes OSS/FS, dans la mesure où beaucoup d'entre eux sont basés Unix.

C'est le TCO qui a de l'imporance et non certaines catégories de cout. Cependant, malgré de grandes disparités, les OSS/FS, en général, ont un TCO moins élevé que les systèmes propriétaires. Pendant un temps, on disait que l'installation des OSS/FS était plus longue. En fait, les systèmes OSS/FS peuvent être pré-installés et les procédures d'installation automatique ont fait leurs preuves. On dit aussi que le coût de l'administration du systèmes est plus élevé mais des études, telle que celle de Sun, révèlent que ce coût est moins élevé pour des systèmes basés Unix (au moins celui de Sun). Par exemple, sur des systèmes “Unix-like” il est plus facile d'automatiser des taches (car l'utilisation d'interface graphique est facultative), ce qui réduit le TCO. Les coûts de formation peuvent être significatifs, mais, maintenant que GNU/Linux est doté d'une interface graphique moderne, ce coût est à présent assez réduit (certaines études le prouvent). En bref, il est souvent difficile de montrer que les avantages des solutions propriétaires justifient leur coût plus élevé alors qu'il existe des produits OSS/FS matures compétitifs spécialisés.

Cela signifie-t-il que les OSS/FS assurent un TCO toujours inférieur ? Non! Comme je l'ai répété plus haut, cela dépend de son utilisation. Mais il est faut de dire que les OSS/FS ont toujours TCO élevé.

8. Aspects non quantifiables

Tous les caractéristiques des OSS/fs ne peuvent être quantifiables et certains d'entre eux sont les plus importants : le côté libre, la protection contre la législation des licences, la flexibilité, ainsi que l'innovation.

1.      Les OSS/FS protègent les utilisateurs des risques et des inconvénients des solutions à source unique. Que l'on parle de “logiciels libres” (terme utilisé par les défenseurs des OSS/FS), de “free market-marché libre”, de “multiple sources-sources multiples”, “alternate supply channels-canaux de remplacement alternatifs” et “nécessité d'absence de monopol dans la distribution” (termes employés dans le monde des affaires), l'objectif est le même : les utilisateurs ne veulent pas être l'otage d'un quelconque vendeur. Les gestionnaires préfèrent acheter les produits disponibles sur un marché concurrentiel car ils réduisent leurs risques. En cas d'insatisfaction, ils peuvent s'adresser aux concurretns. Un vendeur peut augmenter ses prix inconsidérablement ou faire faillite, d'où l'intérêt de la concurrence. Cela induit un effet sur le produit lui-même : si le client peut choisir un produit dans unmarché concurrentiel, son prix baisse et sa qualité s'améliore. A l'inverse, s'il y a monopol sur un produit, le vendeur en profitera pour augmenter ses prix et pour le faire évoluer dans son sens. Les utilisateurs fidèles à une solution source unique subiront l'augmentation de son prix.

Par exemple, beaucoup d'organismes ont choisi d'utiliser exclusivement les produits Microsoft et ce dernier tente d'exploiter cette situation grâce au nouveau “Microsoft Licensing 6.0 Program.” Les résultats de l'enquête TIC/Sunbelt Software Microsoft Licensing (de mars 2002) met en évidence l'impact de ce nouveau schema de licence sur les clients. 80% d'entre eux ont une vue négative sur ce schéma et précisent que le nouveau coût de l'assurance logiciel est le plus élevé de l'industrie. 90% de ceux qui ont analysé les coûts prévoient une augmentation de prix s'ils migrent sur la version 6 et 76% pensent que leurs dépenses augmenteront de 20 à 300% par rapport au schéma actuel des Licences Microsoft 4.0 et 5.0. Ce sondage a aussi montré que 36% des entreprises n'ont pas la capacité financière pour passer au Microsoft Licensing 6.0 Program. La moitié d'entre elles indiquent que cette nouvelle politique ajournera leur transfert sur la nouvelle plateforme client/serveur/Office. 38% déclarent rechercher activement une alternative aux produits Microsoft. Une Commerce Commission Complaint en Nouvelle-Zélande a déclaré que la politique des prix chez Microsoft est anti-compétitive. Craig Horrocks précise que l'approche de la Software Assurance n'assure pas à l'acheteur de recevoir quoique ce soit en contre-partie de son versement. Le client achète simplement le droit de migrer sur une version Microsoft pour une période donnée. Microsoft pourrait augmenter le prix d'une version et le contrat n'oblige pas Microsoft à fournir quoique ce soit pendant la période donnée.

Les dernières versions de Windows Microsoft inquiètent de plus en plus. Michael Jennings explique, dans son article intitulé Windows XP montre les objectifs de la direction de Microsoft que les utilisateurs de Microsoft subissent de plus en plus d' incursions dans le domaine privé, le gel intentionnel de services nécessaires et d'autres problèmes.

Si l'”architecture” d'une organisation est définit par ce qu'un vendeur fournit alors on a affaire à ce que l'on appelle “Vendor Lock-in” ou “Pottersville”, et cette solution est connue sous le nom AntiPattern (une AntiPattern est une “solution” qui pose plus de problèmes qu'elle n'en résoud).

Du point de vue des coûts, il est dangereux qu'un seul founisseur monopolise un marché car le client n'a aucun contrôle sur les prix. De plus, le monopole aggrave le problème de la sécurité : la vulnérabilité de la monoculture-monoculture vulnerability. En agriculture, il est dangereux de dépendre d'une seule variété de culture car la moindre maladie compromet toute la récolte. De même, un fournisseur de produits propriétaires qui contrôle totalement un marché crée une uniformité contre laquelle il est difficile de lutter. Les programmes OSS/FS permettent une évolution du système informatique : même s'il existe un OSS/FS dominant, le système peut être modifié (car le code source est disponible) et les implémentations sont plus résistantes aux tentatives d'intrusion.

Par le passé, certaines entreprises innovantes n'ont pu imposer sur le marché un technologie propriétaire plus performante. Le format Betamax de Sony n'a pu s'imposer face au format VHS sur le marché de la bande vidéo, l'architecture “microchannel” d'IBM n'a pu rivaliser avec l'architecture ISA, et NeWS de Sun est moins implanté que X-window sur le marché de l'interface graphique réseau. Une telle situation est due aux clients qui préfèrent réduire les risques (et les prix réduits) des produits non propriétaires. Cela est quelques fois appellé “commodification”, un terme abhorré par les fournisseurs mais apprécié des clients. A partir du moment où un client dépense de l'argent, il sera à la recherche d'un fournisseurqui répondra à ses attentes. C'est à ce moment que d'autres fournisseurs concurrents doivent entrer en scène.

Avec les OSS/FS, les utilisateurs peuvent choisir parmi les distributeurs. Même si l'un d'eux disparaît, ils peuvent s'adresser à la concurrence. Les fournisseurs doivent donc fournir des services et des produits de bonne qualité, à un prix attractif. Les utilisateurs peuvent même se regrouper et assurer la maintenance des produits par eux-même (c'est ainsi que le projet Apache a vu le jour) ,se préservant ainsi de toutes les conséquences d'une faillite.

L'article Commentaire d'un nouvel utilisateur: Linux est une expérience, non un système d'exploitation, décrit la liberté en ces termes :

“En travaillant sous Linux, le mot ‘free’ a pris une toute autre dimension. Comme les défenseurs de l' Open Source et du Free Software l'ont établi, “free” veut dire liberté. Oui, en tant que simple utilisateur de Linux, j'expérimente la liberté et suis fier d'utiliser un système d'exploitation (OS) universel.

Linux n'est pas seulement un OS. Il incarne une multitude de concepts relatifs à la façon dont devrait être le monde des ordinateurs et des logiciels. C'est un OS conçu par le monde, pour le monde. Toute personne intéressée par Linux peut développer, le partager et l'utiliser. Tout le monde contribue de son mieux à son évolution par sa programmation, sa documentation. Quel concept novateur !

Free chez Linux veut dire liberté – liberté de l'utiliser, liberté d'utiliser son code, liberté de l'améliorer. Sans être programmeur, il m'apporte beaucoup : un OS transparent, sans code caché en fonctionnement sur mon ordinateur. Rien de Linux ne m'est caché. Je contrôle beaucoup plus mon ordinateur, à présent.”

2.      Les OSS/FS protègent les utilisaeurs de le législation des licences et des coûts de gestion. Les fournisseurs de produits propriétaires réalisent leur bénéfice sur la vente des licences et imposent des règles de gestion des licences de plus en plus complexes. Par exemple, Windows XP nécessite une activation du produit - ce qui signifie qu'une modification matérielle entraîne une réactivation du code. Une licence donne pas le droit illimité de ré-installation. Si vous avez des problèmes matériels, vous devrez, à terme, racheter votre logiciel. Pour plusieurs raisons, les gestionnaires estiment qu'ils doivent racheter le même logiciel plus d'une fois.

Les fournisseurs sont de plus en plus pointilleux avec les utilisateurs qui ne respectent pas à la lettre leurs licences complexes et ils augmentent ainsi les risques légaux. Par exemple, la Business Software Alliance (BSA) est propriétaire d'un logiciel destiné à l'organisation de l'industrie, financé par Microsoft, Macromedia, et Autodesk. Cette organisation passe un temps considérable à traquer et punir les entreprises qui ne peuvent prouver qu'elles appliquent les termes de la licence. Comme annoncé dans le SF Gate (Feb. 7, 2002), la BSA pousse ses employés à la délation s'ils s'aperçoivent d'une violation de licence. “Si l'entreprise soupçonnée refuse d'obtempérer ou si elle semble négliger les termes de la licence, l'Alliance peut décider d'être plus sévère et de s'adresser au tribunal fédéral afin d'obtenir un mandat de perquisition. Si celui-ci est obtenu, la BSA peut légalement pénétrer dans les bureaux de la société, accompagnée de policiers, pour rechercher les logiciels non enregistrés.”

Software Licensing par Andrew Grygus détaille les risques et les coûts des licences propriétaires. Selon cet article, “l'amende maximum est de $150 000 par licence non réglée; En pratique, cette amende est revue à la baisse, et une entreprise qui n'a pas payé $8 000 de licence devra s'acquitter d'une amende de $85 000 (et devra acheter le logiciel pour $8 000 ).” Par exemple, un service d'information de la ville de Virginia Beach, VA a fermé pendant plus d' un mois et 50 employés étaient au chômage technique le temps de mettre les licences en ordre, à la suite d'un audit de Microsoft. Il semble que la ville a dû payer une amende de $129 000 pour défaut de licence mais cela n'a pas été confirmé par les journaux. Temple University a dû payer $100 000 au BSA, à cause d'un accord interdisant la copie non autorisée.

Pour limiter ces risques, les entreprises doivent suivre de très près l'achat des licences. Elles doivent donc mettre en place un processus de vérification des licences, acheter les logiciels correspondants, employer du personnel et effectuer des audits occasionnels

Un autre problème se pose. Les entreprises utilisant des logiciels propriétaires doivent, dans beaucoup de cas, demander à leur fournisseur la permission de vendre leur unité qui utilise ledit logiciel sinon elles risquent de subir une procédure en justice. Par exemple, Microsoft a refusé que Kmart vende pour $8.4 million Bluelight.com à United Online Inc, estimant que la licence logicielle les concernait. Microsoft a estimé que “Les licences détenues par Kmart sont des produits Microsoft et que la transaction ne peut se faire sans leur accord”. Il y a donc un risque à dépendre d'une licence. Dand la plupart des cas, il apparaît que la doctrine légale du “droit de la première vente” ne peut être appliquée (par exemple, il y a beaucoup de types de licences pour Windows. La même action peut être légale ou non suivant le contenu de la licence acquise).

Au contraire, les utilisateurs d' OSS/FS ne craignent pas les litiges liés à l'utilisation et la copie de ces types de logiciels.Les détails de la licence apparaissent au moment de la modification ou de la redistribution du code ouvert. Mais, pour être juste, cette action est simplement interdite sur les logiciels propriétaires, de façon à ce que cela devienne un nouveau droit. Même dans ces circonstances, redistribuer un OSS/FS modifié demande de suivre quelques règles simples (selon la licence) telles que mentionner les développeurs précédents et publier les modifications sous la même licence que le programme originel.

L'exemple de l'entreprise d'instruments musicaux Ernie Ball, est révélateur (World Trade, May 2002). Un ex-employé mécontent a dénoncé cette entreprise auprès de la Business Software Alliance (BSA); ils se sont alors arrangés pour investir l'entreprise, accompagnés d'un agent fédéral armé. Ernie Ball a été mis au secret pendant une journée et on lui a imposé d'accéder uniquement aux données nécessaires au fonctionnement de l'entreprise. Après l'enquête, il s'est avéré qu'Ernie Ball était en faute à 8%. Ball a répliqué qu'”il est impossible d'être totalement conforme” aux règles de la licence et a dénoncé la méthode d'intervention. L'entreprise a dû s'acquitter d'une amende de $90 000, dont $35 000 revenaient à Microsoft . Ball a donc décidé que sa société s'affranchirait de Microsoft. En un an, il a migré sur un réseau basé-Linux et un central Unix utilisant StarOffice de Sun. A l'heure actuelle, il n'utilise plus du tout de produits Microsoft et la plupart de ses logiciels sont des OSS/FS.

3.      Les OSS/FS sont plus flexibles. Les utilisateurs d'OSS/FS peuvent ajuster le produit à leur convenance si bien qu'ils ont besoin du code source. Ils peuvent le modifier eux-même ou faire appel à une personne qui règlera leur problème (même le développeur d'origine). On a dit que cela créerait le “danger de dispersion”, c'est à dire, l'existence de versions incompatibles multiples d'un produit donné. C'est dangereux pour ceux qui pensent que la concurrence est démoniaque – nous avons aussi de multiples versions de voitures. En pratique, le coût élevé de la mise à jour personnelle d'un logiciel fait que les changements servent à la communauté.

Par exemple, en 1998, Microsoft a décider d'abandonner le développement d'une version Islandaise de Windows 95 car le marché limité ne justifiait pas le coût. Sans le code source, les Islandais n'avaient aucun recours. A l'inverse, les OSS/FS peuvent être modifiés et un support en Islandais leur a été fourni, sans négociation avec un fournisseur. Les utilisateurs ne savent jamais quand ils auront un besoin spécifique non anticipé par leur fournisseur. Pouvoir modifier le code source rend possible la prise en main de ces besoins non prévisibles.

4.      Beaucoup croient qu'il y a des impératifs sociaux, moraux ou éthiques pour utiliser les OSS/FS. La Free Software Foundation dispose d'articles décrivant leur philisophie, i.e., pourquoi ils croient que le Free Software est un impératif éthique. Ce long document explique en profondeur la philosophie de la FSF.

5.      Il ya de bonnes raisons de croire que les OSS/FS encouragent l'innovation. Microsoft déclare publiquement que les OSS/FS (et spécialement la GPL) condamne l'innovation mais les faits prouvent le contraire. La majorité des cadres informatique réfutent cette idée. En 2000, une étude de Forrester Research a interrogé 2 500 cadres. 84% des sondés pensent que le code ouvert sera cucial pour innover dans le secteur industriel. A l'examen des innovations les plus importantes en matière de logiciel , on se rend compte que Microsoft n'a pas apporté d'innovation clé et qu'il n'a été l'instigateur d'aucune d'entre elles. En fait, il est évident que Microsoft n'est pas un innovateur. A l'inverse, beaucoup des innovations clés sont des projets OSS/FS. Par exemple, Tim Berners-Lee, inventeur du World Wide Web, a déclaré en décembre 2001 : “Que le logicel soit “open source” était un facteur déterminant . Il s'est vite répandu, pouvait vite être amélioré et pouvait être installé dans l'administration et l'industrie, sans passer par un processus d'acquisition lourd”.that “ . Et la phase d'expansion ne s'est pas arrêtée : dix ans après le développement originel du wev, le web serveur numéro un en 2001 est Apache, en “open source” et le navigateur web numéro deux en 2001 est Netscape Navigator, un produit entièrement OSS/FS. Bien entendu, le fait qu'Internet Explorer (propriétaire) soit le navigateur numéro un est dû aux années de monopol illégal de Microsoft. Microsoft a longtemps affirmé en public que les OSS/FS ne peuvent innover mais en février 2003, Bill Gates a admis que beaucoup de développeurs créent des capacités innovantes en utilisant les OSS/FS.

Le thème de l'innovation n'est pas surprenant. L'approche OSS/FS est basée sur une méthode scientifique, permettant à tout à chacun d'améliorer ou d'innover un logiciel et de le mettre à la disposition du public. Eric Raymond a expliqué largement pourquoi l'innovation touche principalement les projets OSS/FS. Le site web Sweetcode expose les logiciels libres innovants. Voici ce qu'ils pensent de leur site : “ Le terme innovant signifie que les logiciels présentés ne sont pas simplement des clones ou des add-on mineurs. Les logiciels mentionnés devraient agréablement vous surprendre.”.

Si l'approche de Microsoft était vouée à la recherche, la communauté de chercheurs devrait s'attendre à disposer de documents. L'article “Les guerres de religion de NT : Pourquoi les chercheurs de la DARPA craignent Windows NT?” a mis en évidence que, malgré la pression des clients qui les financent, les chercheurs informatique ne souhaitent pas baser leurs recherches sur Windows. En voici les raisons : les développeurs croient que Windows est terrible , que les dispositions très restrictives de non divulgation de Microsoft entrent en conflit avec les chercheurs, et que la mutation technologique des OS et des produits de recherche Microsoft n'est pas claire. En effet, seul Microsoft peut distribuer les modifications de ses produits. La propre recherche secrète de Microsoft, plus tard nommée “Halloween I” , se rend compte que “les projets de recherche/apprntissage sur Linux se “disséminent” plus facilement grâce à la disponibilité de son code source. Ainsi, les nouvelles idées s'implémentent et sont disponibles tout d'abord sur Linux avant d'être disponibles ou incorporées aux autres plateformes.”. Le professeur Lawrence Lessig de la Stanford Law School (le “specialiste” de l'antitrust de Microsoft) précise que “Microsoft utilisait son pouvoir pour se protéger des innovations” et qu'en général Microsoft freine l'innovation au lieu de la promouvoir.

Les développeurs eux-même estiment que les OSS/FS sont novateurs. Selon une étude de BCG menée auprès de développeurs OSS/FS, 61.7% des sondés déclarent que leur projet OSS/FS leur demandait leur plus gros effort de créativité.

Etant donné l'existance d'un site entier consacré aux projets OSS/FS novateurs, la part des OSS/FS dans l'histoire de l'innovation, l'impossibilité pour Microsoft de prouver qu'il innove, les compte-rendus des cadres informatique, l'insatisfaction des chercheurs vis à vis de l'approche propriétaire de Microsoft, et l'aveu de Microsoft selon lequel les nouvelles idées sont implémentées et disponibles sous Linux, il est faux d'affirmer que les OSS/FS freinent l'innovation.

Bien que je ne puisse les mesurer, ces aspects (en particulier les quatre premiers) sont les plus importants.

9. Craintes non fondées

Certains évitent les OSS/FS, non pas à cause des aspects notés plus haut, mais à cause de craintes non fondées. Examinons certaines d'entre elles :



1.      L'assistance technique est-elle meilleure pour les programmes propriétaires ? Non. Il existe deux types d'assistance pour les OSS/FS: une assistance traditionnelle payante et une assistance informelle communautaire. Beaucoup d'organismes proposent une assistance technique payante. Etant en concurrence, vous pouvez obtenir un bon rapport qualité/prix. Par exemple, beaucoup de distributions Linux comprennet une assistance installation quand vous l'achetez. Moyennant finance, vous pourrez obtenir des niveaux additionnels d'assistance. Beaucoup d'organismes indépendants proposent aussi une assistance payante. L'article ‘Team’work Pays Off for Linux évalue quatre services différents d'assistance technique pour les systèmes GNU/Linux et note que “chacun des participants a répondu aux questions sans problème et tous ont résolu les problèmes soumis”. Il est essentiel de comprendre que les assistances OSS/FS sont indépendantes su produit. Pour les produits propriétaires, l'assistance est liée à l'achat d'une licence.

Par exemple,For example, le Groupe Gartner annonce que “en 2005, les garanties et la maintenance additionnelle pour les 100 logiciels open-source les plus courants seront offertes par les fournisseurs, les fournisseurs de service ou les compgnies d'assurance. warranties and additional maintenance for at least the 100 most-popular open-source software products will be offered by commercial software vendors, service providers, or insurance companies (probabilité de 0.7). Dans le même temps, les utilisateurs pourront minimiser les risques grâce à l'évaluation et aux tests et en utilisant des versions connues, des produits matures issus de distributeurs reconnus”. Cette vision est quasiment certaine dans la mesure où cet aspect s'est confirmé depuis des années.

Vous avez aussi la possibilité d'obtenir une aide gratuite auprès de la communauté des utilisateurs et développeurs, au moyen des newsgroup, des mailing listes, des sites web et autres forums. Bien que cet assistance ne soit pas traditionnelle, beaucoup en ont été satisfaits. En 1997, InfoWorld a décerné le prix du “meilleur support technique” à la “Linux User Community,” au détriment de tous les supports techniques de logicielspropriétaires.Beaucoup pensent que c'est un effet du succès d'Internet. De plus en plus d'utilisateurs et de développeurs communiquent directement et rend cette approche plus efficace que les autres (pour plus de précisions sur cette philosophie, vous pouvez consulter The Cluetrain Manifesto). Cette façon de procéder demande certaines règles. Celles-ci sont détaillées dans “Comment poser une question pertinente” et Comment signaler un problème efficacement. Cependant, vous avez le choix. Utiliser un OSS/FS ne vous oblige pas à recourir à une assistance non-traditionnelle (et suivre ses règles). Si vous le souhaitez, vous pouvez payer pour une assistance traditionnelle moyennant finance, comme pour un logiciel propriétaire.

2.      Un logiciel propriétaire vous donne-t-il plus de droits que les OSS/FS ? Non. Certains soutiennent qu'”avec les OSS/FS vous perdez le droit de réclamer sen cas de problème”. Or, toutes les licences de programmes propriétaires interdisent aussi toute réclamation. Il est illusoire de réclamer auprès de Microsoft ou tout autre fournisseur de logiciel propriétaire en cas de problème sérieux. En tout cas, la plupart des utilisateurs exigent un système qui fonctionne et ne sont pas intéressés par la contestation. Vous pouvez consulter le site “Un avocat de Microsoft examine les licences de code ouvert”, où Bryan Pfaffenberger affirme que “avec les logiciels ouverts, vous “marchez” les yeux ouverts. Vous savez ce que vous possedez sinon vous pouvez trouver quelqu'un pour vous aider. Les licences Openn-source permet à la communauté des utilisateurs d'examiner le code en cas d'erreur, d'échanger ses connaissances sur le problème détecté. Elles permettent aussi la création de versions dérivées corrigées des erreurs imprévisibles. Elles permettent de vérifier si les programmes garantissent la sécurité des systèmes. A l'inverse, les firmes puissantes qui formes la UCITA nous incitent à acheter du code fermé qui peut contenir des erreurs imputables à la corporation et ne nous permettent pas de voir le code ni de le modifier. Vous ne savez donc pas ce que vous possédez”. Enfin, si votre OSS/FS fonctionne mal, vous pouvez le corriger ou payer pour qu'il le soit. Cette possibilité réduit grandement les risques et n'existe pas dans le monde du logiciel propriétaire.Finally, if the software goes wrong and it’s very important, you can fix it yourself or pay to have it fixed; this option greatly reduces risk, and this option doesn’t exist for proprietary software.

Il existe une autre différence légale peu souvent mentionnée. Beaucoup de programmes propriétaires exigent que l'utilisateur autorise des audits de licence et imposent de lourdes contributions si l'organisme ne peut prouver que pour chaque logiciel utilisé, la licence soit confome. Dans certains cas, si vous utilisez un logiciel propriétaire, la différence légale la plus importante est que le fournisseur peut vous trainer en justice.

3.      Risque-t-on l'abandon d'un produit OSS/FS ? Non. Les enreprises ferment et les particuliers ne s'intéressent plus à leur produits, aussi bien dans le monde du libre que du logiciel propriétaire. La différence est que les programmes OSS/FS qui ne sont plus suivis peuvent être repris par une personne ou un groupe. Cette situation a souvent été démontrée dans les OSS/FS. Par exemple, le GIMP est un éditeur graphique bitmap abandonné par ses développeurs originels (le pire est qu'ils l'ont abandonné avant sa première version et n'ont pu trouver un repreneur). Même si cette situation est la pire, après un certain temps, d'autres utilisateurs ont repris son développement en main. Autre exemple : NCSA a abandonné son serveur web “httpd”- un groupe d'utilisateurs a choisi de le reprendre en main. De là est né Apache, le serveur web le plus répandu au monde.

4.      Les OSS/FS sont-ils économiquement viables? Oui. Il existe des entreprises qui font des bénéfices avec les OSS/FS ou qui les utilise pour maintenir leur activité financière. Beaucoup d'articles ont traité ce sujet, tels que “Le chaudron magique” de Eric S. Raymond and “Comment gagner de l'argent avec les logiciels open-source” de Donald K. Rosenberg . Les OSS/FS sont incompatibles avec les modèles affairistes.

Par exemple, HP a annoncé en janvier 2003 ses ventes annuelles de produits liés à Linux ont atteneint $2 milliards. IBM a déclaré en 2002 qu'ils ont bénéficié d'un retour d'investissement $1 milliard sur Linux en un an . Enfin, L'histoire du Financial Time intitulée “Linux peut-il détrôner le roi du logiciel?” daté du 21 janvier 2003 analyse certains aspects financiers.

La “Strategy Letter V” de Joel Spolsky stipule que “la plupart des entreprises qui dépensent de l'argent pour développer des logiciels open-source le font dans le cadre de leur stratégie financière”. Son argument est basé sur une donnée micro-économique : tout produit mis en place sur le marché a des substituts et des compléments. Un substitut est un autre produit disponible à l'achat si le premier est trop cher. Un complément est un produit que vous achetez en même temps qu'un autre. Si la demande d'un produit augmente et que le prix de son complément décroît, les petites entreprises tentent d'adapter les compléments. Par exemple, un fabricant de voitures voudrait investir pour réduire le coût du raffinement de l'essence parceque si l'essence est moins chère, il vendra plus de voitures. Beaucoup d'entreprises, telles que les fabriquants de matériel et les organismes de service vont faire évoluer les OSS/FS afin de les faire contribuer à la baisse de leurs coûts.

Bien que beaucoup de projets OSS/FS aient été développés individuellement pendant les temps de loisirs, certains d'entre eux peuvent être considérés comme étant largement utilisés. Bien sûr, ces projets bénéficient d'un soutien financier de corporations. Cet aspect est discuté dans l'article de Brian Elliott Finley Corporate Open Source Collaboration?.

A s'attarder sur les entreprises utilisant les OSS/FS à des fins financières, on analyse le côté “offre” et non le côté “demande”. Les consommateurs économisent de l'argent et trouvent bien d'autres avantages à utiliser les OSS/FS. Il existe donc une base économique solide pour leur succès. Pour économiser, les utilisateurs ont intérêt à se regrouper pour contribuer financièrement à l'amélioration des OSS/FS au lieu de recheter éternellement des produits propriétaires. Un fournisseur de logiciels propriétaires aura du mal à concurrencer un produit OSS/FS similaire car ces derniers sont moins chers et l'utilisateur est indépendant du vendeur. C'est de l'argent investi et non directement générateur de profit. Certains fournisseurs d'OSS/FS ont fait faillite, comme beaucoup de fournisseurs de code propriétaire. Heureusement pour les consommateurs, les OSS/FS ne sont pas liés à la situation financière d'un fournisseur, à l'inverse des logiciels propriétaires.

Fondamentalement, le logiciel est économiquement différent des biens matériels. Il est réplicable à l'infini, il ne coûte rien à la copie et peut être développé par des centaines de programmeurs travaillant ensemble moyennant un petit investissement. (le coût de développement par personne devient minime). C'est un produit durable (en théorie il peut être utilisé pour toujours) et partageable (les utilisateurs se le partagent sans se gêner les uns les autres). Par conséquent, le coût marginal d'une copie de progiciel tend vers zéro. Cela explique pourquoi Microsoft est devenu si riche en si peu de temps (en vendant des copies de logiciels qui ne coûtent rien à la copie) et pourquoi les développeurs d'OSS/FS n'hésitent pas à diffuser largement leurs logiciels. Consultez “l'économie de l'Open Source : étude pseudo-économique de caractéristiques de l' Open Source” par Ganesh Prasad, qui analyse “quelques mythes liés à l'économie de l' Open Source.” Le public est déjà prêt à appliquer les concepts OSS/FS aux autres tâches intellectuelles, et on ne connait pas la façon dont ces logiciels s'adapteront aux autres domaines. Cependant, il est clair que prendre une décision économique basée sur l'analogie entre le logiciel et le matériel n'est pas pertinent. Les logiciels recèlent bien des aspects économiques différents.

5.      Les OSS/FS détruiront-ils l'industrie du logiciel? Les programmeurs mourront-ils de faim si les programmes deviennent OSS/FS? Non. Il est possible que beaucoup d'OSS/FS élimineront leur concurrent propriétaire mais c'est la nature de la concurrence. Si l'approche OSS/FS menace le développement propriétaire, les fournisseurs devront trouver d'aures moyens pour entrer en concurrence ou rejoindre le mouvement du libre. Personne n'a pu prévoir la faillite des fabriquants de charettes au moment de l'avènement de la voiture. Heinlein a déclaré que personne ne pouvait être à l'abri de l'évolution, dans Life-Line (1939).

“Le chaudron magique” d'Eric Raymond décrit les multiples façons de gagner de l'argent avec les OSS/FS. Il est intéressant de remarquer que 95% des logiciels développés ne sont pas destinés à la vente. Pour la grande majorité d'entre eux, les organismes doivent rétribuer des développeurs pour les créer. Même si les OSS/FS menaçaient les logiciels fermés, ils mettraient en péril 5% des emplois de développeur. Et, à partir du moment où les OSS/FS sont plus économiques, d'autres tâches pourraient être attribuées aux développeurs. Soutenir le développement des OSS/FS ne devrait pas empêcher les programmeurs de vivre.

Les développeurs d'OSS/FS ne doivent pas pour autant travailler gratuitement. Beaucoup d'OSS/FS sont développés ou améliorés par des employés (dont c'est le métier) et/ou par des intervenants extérieurs (qui apportent une fonctionnalité particulière au produit). Si une entreprise doit ajouter une fonctionnalité à son OSS/FS, elle doit trouver quelqu'un pour le faire et le rémunérer en conséquence. Dans ce modèle, les modifications spécifiques sont rétribuées, et non la copie pure et simple. On est donc plus près de la réalité économique.

Bine sûr, les OSS/FS ne sont plus l'apanage des développeurs passionnés occasionnels mais touchent désormais les développeurs expérimentés dont c'est le métier. Vous pouvez consulter l' article de Ganesh Prasad pour plus d'informations. Il existe des preuves quantitatives qui montrent que les développeurs des OSS/FS sont expérimentés. L'enquête sur les fans des OSS/FS du Boston Consulting Group/OSDN (31 janvier 2002) a interrogé les utilisateurs de SourceForge et a mis en évidence que ces passionnés avaient en moyenne 30 ans et pouvaient justifier d'une expérience moyenne de programmation de 11 années.

Il est improbable que tant de programmeurs choisiraient une approche qui menacerait leur propre domaine et il existe eaucoup de programmeurs OSS/FS. Le 28 janvier 2003, Sourceforge.net a annoncé lui.même qu'il avait enregistré 555 314 utilisateurs sur son site de développement OSS/FS et que beaucoup de ces projets n'étaient pas hébergés par Sourceforge.net (y compris le kernel Linux, le système de compilation gcc, le système GUI X-Windows, le serveur wev Apache, le navigateur Mozilla et la suite bureautique Open Office).Malheureusement, on ne peut déterminer le nombre de développeurs OSS/FS dans le monde. On l'estime à au moins un million sinon beaucoup plus.

Les OSS/FS permettent aux néophites d'acquérir de l'expérience et de la crédibilité et aux entreprises de trouver sur le marché les développeurs dont elles ont besoin. Ces dernières trouveront les programmeurs adéquats en examinant les projets dont ils dépendent tous les deux. Les programmeurs inexpérimentés ont donc toutes leurs chances sur ce marché : s'ils participent à un projet, ils ont de grandes chances d'être contactés par la suite. De plus, le code étant ouvert, la collaboration entre programmeurs néophytes et expérimentés est bien plus facile. Cette situation peut être illustrée par cette anecdote : un des présentateurs de Netscape à la FOSDEM 2002 a largement contribué au projet Mozilla de Netcape. Par la suite, Netscape lui a proposé un emploi, qu'il a accepté.

Karen Shaeffer a écrit un article intéressant intitulé Prospérer dans le domaine l'Open Source Software, qui expose les effets des OSS/FS. Par exemple, les OSS/FS favorisent l'innovation car ne sont pas soumis à la propriété des logiciels. Elle pense que l'utilisateur final sera le grand gagnant car “la valeur d'un logiciel ne réside plus dans son code, mais dans l'aptitude des programmeurs à adapter les logiciels existants et à les améliorer et dans la possibilité, pour le monde desaffaires, de tirer parti des opportunités émergentes”. Cette faculté d' adaptation du code source représente une étape déterminante dans l'efficacité des entreprises : les développeurs expérimentés entrent dans le monde des affaires, qui fourmille d'idées innovantes.

6.      Les OSS/FS sont-ils compatibles avec le capitalisme? Oui. Il y a quelques années, on a qualifiés les OSS/FS de “communistes” or “socialistes” (i.e., anti-capitalistes), mais aujourd'hui, cela n'est plus vérifié. Un article expliquant porquoi les OSS/FS sont compatibles avec le capitalisme est disponible sur le site Comment le capitalisme voit l' Open Source?. Cet article démontre que capitalisme et OSS/FS sont compatibles : Ils permetent l'augmentation des richesse sans violer le principe de propriété et la notion de liberté. (Cf la partie “viabilité économique”, étudiée plus haut.)

7.      Si les OSS/FS n'existent que dans un domaine, cela éliminera-t-il la concurrence au sein de ce domaine? Non. Il est surprenant de remarquer que des programmes OSS/FS sont quelques fois en concurrence dans un domaine particulier. Les éditeurs de texte emacs (à l'origine GNU emacs) et vi (à l'origine vim) se sont mesurés l'un à l'autre pendant des années. Sendmail reste répandu dans l'envoi d'emails, mais est en concurrence avec Postfix et Exim,eux aussi OSS/FS. Les environnements Gnome et KDE sont aussi en concurrence, ainsi que le noyau Linux et le BSD. En général, les projets en concurrence doivent se distinguer par eux même pour être les meilleurs (par exemple au niveau de la philosophie de l'interface, le designe, la sécurité, la stratégie des licences, etc...). Mais cela se vérifie aussi dans le monde des logiciels propriétaires. De plus, les logiciels en concurrence doivent rester compatibles entre eux (à la demande des clients) et se complètent quelques fois, au niveau technique. Par exemple, freedesktop.org propose un forum pour encourager la coopération autour de X Window System (tels que KDE et Gnome) et fait partie du Free Standards Group qui tente de promouvoir l'utilisation et l'adoption des technologies “open source” via le développement, l'application et la promotion des standards. Même s'il n'existe qu'un produit spécifique, plusieurs organismes peuvent entrer en concurrence pour l'améliorer et développer son support. (ex : les distributeurs de GNU/Linux). Par conséquent, si un OSS/FS supplante un programme propriétaire dans un domaine particulier, la concurrence reste toujours active.

8.      Les OSS/FS détruisent-ils la propriété intellectuelle ? Non. Vous pouvez utiliser un OSS/FS (ex : un traitement de texte) pour développer une information privée et propriétaire que vous garderez confidentielle. Vous n'avez pas le droit d'utiliser le bien d'autrui d'une façon illégale. Cela est vrai pour tous les logiciels, et pas seulement les OSS/FS.

Le cas de la “General Public License” (GPL), la plus commune des licence “libres”, est intéressant. Un logiciel sous GPL peut être modifié mais toute version modifiée doit être proposé sous la même licence GPL. La GPL crée un consortium : toute personne peut modifier le programme ou utiliser son code dans un autre programme mais le résultat ne peut être propriétaire. Etant donné que la GPL est un document légal, il peut être difficile à comprendre pour certains. En voici un résumé succint (visible sur Slashdot):

Ce logiciel contient la propriété intellectuelle de plusieurs personnes. La propriété intellectuelle est une ressource évaluable et vous n'êtes pas autorisé à utiliser la propriété intellectuelle d'autrui pour établir votre propre projet gratuitement. Beaucoup d'organismes et d'individus sont prêts à échanger leur propriété intellectuelle contre une valeur, en général, de l'argent. Par exemple, moyennant une certaine somme d'argent, vous obtiendrez le d'incorporer le code d'autrui dans votre propre programme.

Les développeurs de ces logiciels sont prêts à vous permettre d'utiliser leur propriété intellectuelle en échange d'une valeur. Cependant, au lieu d'échanger de l'argent, les développeurs sont prêts à vous donner le droit d'incorporer gratuitement leur code dans votre programme si, à l'inverse, vous les autorisez à incorporer votre propre code dans leurs programmes. Cet échange est effectué sous les termes de la GPL. Si vous refusez ces termes, vous êtes libre de développer votre propre code ou acheter celui d'un autre. Vous pourrez continuer à utiliser le logiciel, ce qui est valorisant pour les développeurs, même si vous ne les avez pas payé.

Microsoft se plaint que la GPL ne lui permette pas de modifier un tel code et de le rendre propriétaire mais cela n'est pas logique. Microsoft ne permet pas à d'autres de modifier ou de distribuer ses logiciels. La GPL donne bien plus de droits à ses clients que Microsoft.

Dans certains cas, Microsoft publie du code source sous une licence “source partagée” mais cette licence (qui n'est pas OSS/FS) est bien plus resrictive. Par exemple, elle interdit formellement la distribution de programmes sources ou objets dans un but commercial. Cette licence est encore plus restrictive sur les droits de la propriété intellectuelle. Par exemple, elle établit : “si vous poursuivez en justice une personne qui utilise un logiciel bréveté par vos soins, votre licence s'arrête automatiquement” et “les droits du brevet Microsoft s'applique au logiciel, non à ses dérivés que vous créez”. Une analyse plus précise de cette licence et de ses conséquences est proposée par Bernhard Rosenkraenzer (bero). La FSF a aussi publié une note sur les libertés de la protection logicielle de la GPL.

Il est vrai que les organismes qui modifient et publient des logiciels sous GPL doivent en accepter les droits de copie et de brevetabilité. Ils le font volontairement (personne ne peut forcer quiconque à modifier du code GPL) et en connaissance de cause (tous les logiciels GPL sont fournit avec une licence claire). Les termes de la licence s'appliquent aux modifications. Les organismes peuvent inclure d'autres restrictions, s'ils le souhaitent ou bien développer leurs propres programmes. Puisque les organismes ne peuvent modifier les logiciels propriétaires ou redistribuer les rares modificatons éventuellement autorisées, il s'avère qu'ils obtiennent plus de droits avec la GPL qu'avec une licence “propriétaire” et “source partagé”. S'ls souhaitent éviter la licence GPL, ils peuvent créer leur propre code, la seule issue avant l'apparition du code GPL.

Bien que la GPL soit quelques fois appelée “virus” par les fournisseurs de logiciels propriétaires (en particulier Microsoft) du fait qu'elle encourage les autres à l'utiliser, il est juste de noter que beaucoup de produits propriétaires et sous licence ont aussi des effets “virus-like”. Beaucoup de produits au format de données ou aux protocoles propriétaires ont un “effet réseau” : à partir du moment où un produit est largement utilisé, ceux qui ne l'utilisent pas sont désavantagés. Par exemple, si un groupe d'utilisateurs choisissent un OS ou un traitement de texte propriétaires, il devient de plus en plus difficile pour les autres d'utiliser un produit différent. A long terme, l'usage forcé d'un produit propriétaire particulier se révèle réagir comme un virus.

Beacoup de techniciens et d'entreprises ne pensent pas que la GPL détruira leur société. Certains semblent très occupés à se moquer des déclarations de Microsoft. ( voir l'article de John Lettice publié en juin 2001 “ Gates: GPL absorbera votre économie, mais BSD est serein”). Après tout, Microsoft vend un produit avec des composants sous GPL, et fait tout pour maintenir la propriété intellectuelle (voir plus haut).

Microsoft veut peut-être dire que la GPL “détruit” la propriété intellectuelle parceque les entreprises utilisant un logiciel concurrentiel peut faire faillite. Mis cet argument n'est pas recevable : Beaucoup d'entreprises utilisant les produits Microsoft ont aussi fait faillite ou ont été rachetées à un prix inférieur à leur valeur originelle. De plus, les voies utilisées par Microsoft ont été quelques fois déclarées illégales. A l'inverse, il est évident que la GPL est une base légale solide. “l'absorption” d'une entreprise par une autre est le résultat normal d'une concurrence légale dans les économies capitalistes.

La GPL ne “détruit” pas le propriété intellectuelle : elle crée un espace où chacun peut volontairement contrbuer à l'amélioration d'un projet commun sans être “volé” par autrui. On peut l'assimiler à un consortium créatif : personne n'est obligé d'aider le consortium mais ce qui y adhèrent doivent en suivre les règles. Les motivations sont diverses (voir l'article License to FUD), comme dans tous les autres consortiums. Il est incroyable que Microsoft veuille utiliser à ses propres fins les résultats de ce consortium. Enfin, un monde où la GPL ne pourrait être utilisée ne va pas dans l'intérêt des utilisateurs.

9.      Y a-t-il vraiment beaucoup de logiciels OSS/FS ? Oui. Freshmeat.net a dénombré plus de 21 000 logiciels assimilés OSS/FS en octobre 2002. Sourceforge.net héberge à lui seul 55 424 projets OSS/FS (28 janvier 2003). La liste dmoz dénombre 114 OS OSS/FS; Elle comprend les vieux systèmes, les OS expérimentaux et les projets spécialisés. La liste ne peut pas être exhaustive et elle mentionne certainement un grand nombre d'entre eux. Ces projets sont variables en quantité et en qualité, comme les programmes propriétaires, et l'on peut croire qu'ils sont la base de développements futurs.

10.  La possibilité de voir et de changer le code source est-il si important ? Oui. Il est vrai que l'accès direct au code source n'intéresse que peu de monde. Seuls les développeurs ou les correcteurs ont besoin d'y accéder. Mais ne pas avoir accès à la façon dont votre ordinateur est contrôlé pose un problème. Bob Young de Red Hat utilise une l'analogie de la voiture pour expliquer pourquoi les non-techniciens ont besoin d'accéder aussi au code source. Voici ses explications, en ses propres termes :

L'Open source donne à l'utilisateur le privilège de contrôler la technologie dans laquelle il a investi... La meilleure illustration de cet avantage est la façon dont nous achetons une voiture. Posez la simple question suivante : “Achèteriez-vous une voiture dont les capot est soudé ? “. Non, bien évidemment. Posez-vous la question : “ Que savez-vous des moteurs à combustion interne ? “ Pas grand chose, bien sûr.

Nous devons pouvoir ouvrir le capot d'une voiture car cela nous permet, en tant que consommateurs, de contrôler le produit acheté et de l'emporter. Si le vendeur est honnête et compétent, nous pouvons aussi lui rapporter pour l'adapter à nos besoins. S'il est malhonnête, ne peut réparer une panne ou ne veut poser un auto-radio, il existe d'autres mécaniciens pour nous satisfaire.

Dans le domaine du logiciel propriétaire, le client ne contrôle pas son matériel. Si le vensuer est malhonnête, refuse de résoudre un problème logiciel ou refuse d'inclure un fonctionnalité particulière, le client n'a pas le choix. Ce manque de contrôle entraîne un surcoût, un manque de fiabilité et beaucoup de frustration.

Pour les développeurs, le code source est essentiel. Il est nécessaire à la résolution de problèmes, à l'ajout de fontionnalités. Bill Gates a souvent estimé que la plupart des développeurs n'ont pas besoin d'accéder au code source de l'OS. Pourtant, l'article de Graham Lea intitulé “l'idée originelle de Bill Gates dans les poubelles de l'histoire” montre qu'il extrait du code source d'OS issus d'autres entreprises en “faisant leurs poubelles”. Mr. Gates a déclaré “... je rejoignais le centre informatique en catimini. Nous avancions rapidement : Basic, FORTRAN, LISP, langage machine PDP-10 , extrayant des poubelles les listings des OS pour les étudier.”. Si le code source n'est pas nécessaire aux développeurs, pourquoi en a-t-il besoin, lui ?

Voir aussi l'article sur la plus grande flexibilité des OSS/FS.

11.  Les OSS/FS sont-ils uniquement les outils d'une campagne anti-Microsoft? Non. Il exeiste certainement des personnes qui défendent les OSS/FS tout en s'opposant à Microsoft, mais ce serait une erreur de considérer les OSS/FS comme de simples outils anti-Microsoft. Microsoft a déjà utilisé des OSS/FS dans ses propres applications. L'implémentation de Windows du protocole de base d'internet TCP/IP est dérivé du code OSS/FS et sa suite Office dépend de la bibliothèque de compression “zlib”, elle même OSS/FS. Microsoft pourrait, à tout moment, publier ses programmes tels que ses OS en tant que OSS/FS, prendre un OS OSS/FS existant et le publier, ou proposer des applications pour des systèmes OSS/FS. Aucune licence ne l'en empêche. Beaucoup de “leaders” OSS/FS précisent souvent qu'ils n'ont rien contre Microsoft par lui-même mais qu'ils réprouvent ses pratiques commerciales. Certains d'entre eux lui ont même proposé plusieurs fois de les rejoindre(voir Free Software Leaders Stand Together).

Dans bien des cas, les OSS/FS sont développés avec et pour la technologie Microsoft . Le 21 juin 2002, SourceForge a établi une liste de 831 projets qui utilisent Visual Basic et 241 qui utilisent C# (un langage dont Microsoft est à l'origine). 8 867 projets fonctionnent sur Windows. Cela prouve sans ambigüité que beaucoup de programmeurs OSS/FS ne sont pas “anti-Microsoft.”

Microsoft a annoncé qu'il était à priori opposé à la GPL mais il vend un produit dont certains composants sont sous GPL. L'Interix de Microsoft propose un environnement qui peut supporter des applications et des scripts basés-Unix sur Windows NT et Windows 2000. Il est normal que si Microsoft veut vendre ses OS, il doit y inclure un moyen de faire fonctionner des applications Unix, quelques fois incontournables. Beaucoup des composants de Interix sont sous GPL.( voir le site ftp de Microsoft qui présente la liste des composants d'Interix sous GPL, et une copie du texte relatif à la GPL ) (voici ma copie locale). Le problème n'est pas de savoir ce que Microsoft développe actuellement : il semblent qu'ils suivent à la lettre l'esprit de cette loi, dans ce produit. Le problème est que Microsoft déclare que personne ne devrait utiliser la GPL, faire des bénéfices à son usage, tout en gagnant lui-même de l'argent en l'utilisant. Bradley Kuhn (de la FSF) déclare “Il est incroyable que Microsoft bénéficie de la GPL tout en la critiquant.”. Microsoft est certainement conscient de son utilisation de la GPL. Même le vice préseident de Microsoft, Craig Mundie admet cette utilisation de la GPL. Kelly McNeill l'a rapporté le 22 juin 2001, et, après vérification le 23 avril 2002, Microsoft continuait à vendre des logiciels en partie sous GPL. Plus de détails sur l'utilisations de la GPL par Microsoft sont donnés dans The Standard du 27 juin 2001. Microsoft tentera peut-être de retirer dans le futur beaucoup de ses composants GPL, ce qui éclaircira la situation. Mais, mêmes si ces composants sont retirés, cela ne change rien au fait que Microsoft s'est arrangé pour vendre des produits dont une partie étaient sous GPL sans perdre ses droits de propriété intellectuelle.

Cela étant dit, beaucoup de personnes encouragent l'utilisation des produits spécifiquement OSS/FS (tels que Linux) et entretiennent une concurrence viable avec Microsoft. D'autres utilisent l'existence d'un concurrent pour obtenir de meilleurs services auprès de Microsoft. Cette situation est courante : la concurrence est souhaitée par les clients, dans tous les domaines. La concurrence sévère dans le domaine du matériel informatique a été bénéfique pour les clients. Le New York Times écrit : “plus de vingt-quatre pays, y compris l'Allemagne et la Chine, ont encouragé les gouvernements à utiliser des logiciels “open source”... les autres pays, les USA et les particuliers devraient chercher à utiliser Linux et les produits basés-Linux. La concurrence offerte devrait aider tout le monde”.

12.  J'au toujours entendu dire qu'il n'existe pas de déjeuner gratuit. N'y a-t-il pas de surprise cachée ? Si un OSS/FS correspond à vos besoins, il n'y a aucune crainte à avoir. Peut-être que la seule difficulté cachée est l'incompréhension du terme “free”. La GPL inclut ce texte : “Quand nous parlons d'un logiciel libre, nous nous référons à sa liberté, pas à sa gratuité.” ce qui veut dire qu'un OSS/FS n'est pas nécessairement gratuit.

Naturellement, si vous souhaitez des services liés au produit (garantie, formation, etc...), vous devez les payer, de même que pour un produit propriétaire. Si vous voulez adapter votre logiciel, vous devez investir pour le modifier. En général, cet investissement consiste en l'emploi d'un prestataire qui effectuera ces modifications. Ce coût peut-être partagé avec d'autres utilisateurs, qui ont les mêmes besoins d'évolution. Remarquez que vous ne paierez que les modifications et non la permission de l'utiliser, de le copier.

Par exemple, quand IBM a souhaité rejoindre le groupe Apache, la société a découvert qu'elle n'avait rien à payer. La valeur d'un logiciel OSS/FS est son code. IBM a donc “transformé” son argent en code.

Cela explique pourquoi les projets OSS/FS sont petits au démarrage avant de s'enrichir rapidement de fonctionnalités nouvelles et d'atteindre une certaine mâturité auprès des utilisateurs. Pour toute application, il existe un niveau minimum de fonctionnalités, destiné à peu d'utilisateurs. Le travail initial peut rester en l'état un certain moment car peu d'utilisateurs sont concernés. A un certain point, quelqu'un peut “croire” en ce projet. Dès qu'un certain niveau de fonctionnalités est atteint, quelques personnes vont l'utiliser, et certaines d'entre elles voudront contribuer à son développement (parceque la réussite de ce projet leur est utile ou parcequ'elles ont des besoins spécifiques). Le projet va alors prendre de l'ampleur de façon exponentielle. Plus le nombre de fonctionnalités augmente, plus le nombre d'utilisateurs potentiels s'accroît, jusqu'à ce que le projet soit mûr pour être largement utilisé. Un pourcentage des utilisateurs de base décide d'ajouter des fonctions et plus ce pourcentage augmente, plus le nombre de développeurs croît. Le programme atteint alors une mâturité et une qualité tout à fait honorable.

10. Compte-rendus d'utilisation

Beaucoup d'utilisateurs qui ont migré sur les OSS/FS ont établi des rapports. En voici quelques uns qui devraien vous être utiles. Ce n'est évidemment pas une liste exhaustive.

Comme précisé plus haut, la ville de Largo, Floride emploie 900 personnes qui utilisent GNU/Linux et économise près de 1 million de dollar par an. Un article online du BusinessWeek note que les 300 employés de Mindbridge ont migré d'un système intranet Microsoft/Sun Solaris vers un système GNU/Linux. Après quelques petits problèmes de migration, le fondateur, Scott Testa déclare : “nous avons économisé des centaines de milliers de dollars entre les contrats d'assistance, les contrats de mise à jour et le matériel”. Amazon.com a économisé des millions de dollars en passant sur GNU/Linux. Le président d'Oracle, Larry Ellison, a déclaré qu' Oracle migrera sur GNU/Linux pour la majorité de ses applications de gestion au plus tard en été 2002, en remplacement de ses trois serveurs Unix. Un prestataire de service dans le domaine du voyage a économisé 170 000 dollars durant le premier semestre en utilisant GNU/Linux (pour le serveur et le bureau). Il a également fait des économies sur le matériel et les coûts de gestion. Le centre de tests du CRN a mis en évidence qu'un réseau basé GNU/Linux (avec un serveur et 5 stations de travail) coute 93% de moins en logiciel qu'un réseau basé Windows. Il estime que les performances sont équivalentes. L'article intitulé Linux as a Replacement for Windows 2000 montre que “Red Hat Linux 7.1 peut être utilisé en remplacement de Windows 2000... Vous serez étonnés par les multiples possibilités offertes par les logiciels “open source””.

Les organismes éducatifs ont aussi trouvé un intérêt dans les OSS/FS. Le K12 Linux Terminal Server Project a mis en place beaucoup de laboratoires informatiques aux USA à tous les niveaux d'enseignement. Par exemple, la St. Mary’s School accueille 450 étudiants à Rockledge en Floride et utilise GNU/Linux. Cet exemple montre que les enfants ne trouvent pas GNU/Linux difficile et qu'il peut supporter des projets éducatifs : les “troisième grade” ont créé des pages web contenant leurs Saints favoris en utilisant plusieurs programmes OSS/FS: ils ont ouvert une session GNU/Linux, ont saisi le contenu initial au moyen de Mozilla Composer, ont dessiné en utilisant The Gimp et partagé les résultats avec des utilisateurs Windows au moyen de Samba. La page Pourquoi devrait-on utiliser l'open source à l'écoles ? Donne plusieurs exemples d'utilisation de programmes OSS/FS dans le secteur éducatif et propose des liens sur des sites expliquant l'intérêt des OSS/FS dans l'éducation. La lettre de Kochi Free Software Users’ Group au gouvernement de Kerala et autres résume aussi certaines de ces raisons, et propose aux gouvernements de spécifier des standards (et non des produits) pour l'usage éducaatif. La Faculty Senate de l'Université de Buffalo, la State University de New York, ont approuvé une résolution favorisant grandement l'utilisation des OSS/FS à la place des logiciels propriétaires.

Beaucoup d'organismes financiers utilisent les OSS/FS. la société E*Trade change son système pour des serveurs IBM fonctionnant sous GNU/Linux, en raison des économies réalisées et de la performance. Cet article mentionne la migration de LL Bean (prêt à porter) et de Salomon Smith Barney (finance) sur GNU/Linux. Toute l'entreprise Merrill Lynch passe à GNU/Linux et souhaite économiser annuellement des dizaines de millions de dollars dans les cinq ans. Adam Wiggins mentionne la migration sur Linux réussie de TrustCommerce. Un rapport de ZDNet daté du 22 avril 2002 intitulé “Plus de banques étrangères passent à Linux” montre que la banque Néo-Zélandaise TSB “a été la dernière institution à adopter Linux. Selon certains rapports, la banque transfert toutes ses branches d'activité sur une plateforme Linux... en Europe, BP et la Banca Commerciale Italiana sont les plus grosses entreprises a avoir migré sur Linux. Selon IBM, au moins 15 banques du centre de Londres utilisent Linux.”. Ce rapport précise : “ Korean Air, qui gère les réservations sur Linux, et le fabricant Winnebago sont des exemples importants”. Le centre de commande du système de contrôle du traffic aérien de l'aviation fédérale de Herndon, en Virginie, installe actuellement un système qui puisse gérer 2000 utilisateurs simultanés sur Red Hat Linux. Ce système, nommé, National Log, sera une base de données centrale relative au traffic aérien du pays. ComputerWorld mentionne, en octobre 2002, une augmentation de l'utilisation de GNU/Linux à Wall Street - Merrill Lynch écrit que la majorité des nouveaux projets concernent GNU/Linux. TowerGroup (de Needham, MA) estime que GNU/Linux occupe 7% des serveurs des entreprises boursières de l'Amérique du Nord. TowerGroup prévoit aussi que l'utilisation de GNU/Linux augmentera de 22% par an sur le marché des serveurs entre 2002 et 2005, dépassant Windows 2000, NT et Unix.

Certains organismes déploient largement des points de vente sous GNU/Linux. Beaucoup de détaillants migrent sous GNU/Linux pour leur système d'encaissement, selon Information Week (”Les caisses enregistreuses adoptent Linux” par Dan Orzech, 4 décembre 2000, paragraphe 815). Le 26 septembre 2002, The Economist note que “Linux gagne rapidement les détaillants.” . Selon Bob Young (fondateur Red Hat), BP (British Petroleum) implante 3 000 serveurs Linux dans ses stations. Zumiez installe des logiciels “open source” sur ses PC en location, et espère que cela lui permettra d'économiser entre 250 000$ et 500 000$ par an. Ils installent le gestionnaire d'e-mail Evolution, le navigateur Mozilla, et un tableur en “open source”. Sherwin-Williams, le numéro un aux USA des peintures s'est adressé à IBM pour changer ses ordinateurs et ses caisses enregistreuses dans 2 500 magasins et passer sur GNU/Linux. Cette évolution concerne 9 700 ordinateurs de bureau NetVista.

Les OSS/FS sont légion aussi à Hollywood. En 1996, lorsque GNU/Linux était encore considéré comme risqué, Digital Domain a utilisé GNU/Linux pour générer beaucoup d'images du film Titanic. GNU/Linux a alors connu un tel essor qu'en Février 2002, l' article paru dans IEEE Computer précise que “GNU/Linux fait de tels progès qu'il devient l'OS dominant dans le domaine du cinéma”. “Shrek” et “Lord of the Rings” ont utilisé GNU/Linux et maintenant, DreamWorks SKG est passé sur GNU/Linux pour travailler sur ses films. Industrial Light & Magic a implanté Linux sur ses stations de travail en 2001 alors qu'ils travaillaient sur Star Wars Episode II. Ils ont déclaré : “Nous pensions que passer sous Linux serait plus compliqué” (depuis leurs machines SGI IRIX). Ils ont remarqué que ce systèmes était cinq fois plus rapide et leur permettait de produire des résultats de qualité supérieure. Ils utilisent aussi Python aussi bien que des outils “maison” et propriétaires. Disney passe aussi à GNU/Linux pour ses animations de films.

Beaucoup de systèmes d'imagerie à distance utilisent GNU/Linux. Quand un tel système a été placé au Pôle Nord, les reporters ont noté que la mascotte Linux était un pingouin et ont annoncé que Les Pingouins envahissent le Pole Nord.

Il existe beaucoup de systèmes de simulation. En octobre 2002, le groupe Chrysler a annoncé qu'il utilisait Linux sur ses ordinateurs pour tester et analyser des simulations d'accident dans le but d'améliorer la sécurité des voitures et des camions. Leur configuration comprend 108 stations, chacune bi-processeur. Le système utilise donc 216 ordinateurs sous Red Hat Linux. Le groupe souhaite améliorer les performances des tests de 20% tout en économisant 40% des coûts.

Les OSS/FS sont largement utilisés par les entreprises basées sur Internet. Google utilise plus de 6 000 serveurs GNU/Linux. Yahoo développe son utilisation des OSS/FS. Cette entreprise déclare que ce sont les “World’s most trafficked Internet destination,” vision justifiée par une étude de Nielsen/NetRatings datée d'aout 2002. Yahoo dénombre 201 millions d'utilisateurs particuliers, 93 millions d'utilisateurs actifs enregistrés, plus de 4 500 serveurs, et plus de 1,5 milliards de pages consultées par jour. Yahoo précise que les OSS/FS se suffisent déjà à eux même (par exemple, Perl, Apache, FreeBSD, et gcc), et qu'ils ont décidé d'abandonner leurs langages propriétaires “maison” pour le PHP, un langage OSS/FS. Afilias a transféré sa base de données d'adhérents du domaine .org d'Internet d'Oracle (propriétaire) sur PostgreSQL (gestion de base de données OSS/FS). Avec plus de 2,4 millions de noms de domaines enregistrés, .org est le cinquième plus grand domaine.

Le gouvernement Américain a utilisé des logiciels en “open source” et devrait en utiliser encore plus. Le rapport du President’s Information Technology Advisory Committee (PITAC), intitulé Liste des Open Source Software Recommandés Pour Une Informatique Haut De Gamme, préconise “de favoriser le développement des logiciels en “open source” pour accéder à une informatique haut de gamme”. Vous pouvez consulter une étude sur les OSS et les affaires par la MITRE Corporation (qui met en avant l'utilisation des OSS par le gouvernement US et les militaires Américains). La National Imagery et Mapping Agency (NIMA) National Technical Alliance, via le consortium National Center for Applied Technology (NCAT), ont créé le projet Open Source Prototype Research (OSPR). Au sein de ce projet, ImageLinks Inc., Tybrin Inc., Kodak Inc., et le Florida Institute of Technology (Florida Tech) ont réalisé une évaluation des pratiques de développement des logiciels en “open source” et ont démontré les avantages technologiques de ces logiciels. Le rapport final de l'OSPR , plutôt complet, comprend ces évaluations, un sondage et différents documents. Il conclut :

Le développement des logiciels en “open source” est un potentiel énorme pour atteindre les besoins des gouvernements. Cette approche permet des économies subsentielles et de développement d'une technologie prometteuse. Le premier défi sera d'établir une structure capable d'utiliser la méthodologie OSS.

L'article L'Open Source et les Etats Unis de C. Justin Seiferth se résume ainsi :

Le Departement de la Défense peut réaliser des économies significatives en adoptant des systèmes à licence “ouverte” associés à une assistance technique. Nous pouvons baisser nos coûts, améliorer la qualité de notre système rapidement. La Licence Ouverte peut améliorer “le moral des troupes” et notre capacité à défendre la nation. Ces avantages sont visibles à tout moment. Elle peut réduire les coûts d'acquisition, de développement, le maintenance et d'assistance et améliorer l'interopérabilité entre nos propres systèmes et ceux de nos alliés.

NetAction a proposé au gouvernement d'utiliser plus d' OSS/FS et d'en encourager l'usage. (voir Les Origines et l'Avenir des Logiciels en Open Source de Nathan Newman et Le Gouvernement fait la Promotion de l'Open Source Software par Mitch Stoltz)

Plus récemment, L' U.S. Department of Defense Information Systems Agency (DISA) a certifié le système d'exploitation Advanced Server du Distributeur Red Hat en tant que “Common Operating Environment” (COE). Cela veut dire que ce logiciel est conforme aux spécifications d'interopérabilité et de sécurité de l'agence.

On a essayé d'empêcher le gouvernement d'utiliser les OSS/FS et d'interdire l'utilisation de la GPL mais sans succès. Comme décrit Le “Geek activism” force le Congrès à reconsidérer l' Open Source, une lettre du Congrès US a été modifiée par le représentant de l'état de Washnigton, Adam Smith. Or Microsoft est le principal financeur de la campagne de A. Smith. Il avait ajouté des articles dénigrant l'usage de la GPL. Elle était à l'origine signée par 67 membres du Congrès, mais, comme le révèle une note de l'Associated Press, “l'attaque de A. Smith à l'encontre de l'”open source” a déclenché la colère d'un des signataires de la lettre, Tom Davis, (président du sous-commité de la technologie et de la politique d'attribution de la House Government Reform). “Nous n'avons pas eu connaissance de cette lettre qui aurait permis un débat sur les possibilités de la GPL” déclara Melissa Wojciak, DRH du sous-commité. Elle a ajouté que Davis favorise le subventionnement des projets en “open source””. Enfin, “beaucoup des 67 membres du Congrès signataires déclarent qu'ils ne savaient pas ce qu'ils signaient et la lettre est “passée aux oubliettes”. Information Week a aussi mentionné cette histoire.

Les autres gouvernements ont été attentifs aussi à de tels avantages. l'Allemagne tente de plus utiliser les OSS/FS. Le Gouvernement Coréen a annoncé qu'il prévoit d'acheter 120 000 copies de Hancom Linux Deluxe cette année, assez pour transférer 23% de son parc Microsoft sur des logiciels équivalents en “open source”. Ainsi, le Gouvernement Coréen souhaite économiser 80% de son budget destiné à l'achat de produits Microsoft (HancomOffice n'est pas OSS/FS, contrairement à GNU/Linux). Taiwan met en place un plan national destiné au développement et à l'usage des OSS/FS. Un article du Linux Journal décrit beaucoup d'expériences internationales intéressantes. Par exemple, le Pakistan prévoit d'installer 50 000 ordinateurs à bas prix sous GNU/Linux dans les écoles et les collèges du pays. Finnish MPs encouragent l'usage de GNU/Linux sur les systèmes informatiques d'état. Un article paru dans PC World, daté du 14 juin 2002 énumère les actions entreprises par différents gouvernements. Statskontoret, l'agence Suédoise pour la Gestion Publique a mis en place une étude sur les logiciels libres dont les conclusions ont été très positives (voir le rapport en Anglais ou en Suédois). Comme notifié dans le Washington Post du 3 novembre 2002, Luis Millan Vazquez de Miguel, ministre de l'éducation, des sciences et de la technologie en Extremadura (Espagne) est à la tête d'une campagne gouvernementale qui vise à transférer tous les systèmes (personnels, professionnels et d'Etat) de Windows à GNU/Linux. Vazquez de Miguel a annoncé que 10 000 machines avaient déjà été concernées par ce transfert et 10 000 autres seraient modifiées l'année prochaine. Le gouvernement régional a versé une subvention de 180 000$ à une entreprise pour qu'elle crée des logiciels libres et qu'elle investisse dans un centre de développement de logiciels “à la demande”. “Le gouvernement a produit 150 000 disques contenant un de ces logiciels, les a distribués dans les écoles, les magasins d'électronique et dans les journaux. Il a même eu recours à la publicité pour vanter les mérites des logiciels libres”. Le Washington Post a aussi présenté les raisons pour lesquelles certains gouvernements se tournent vers les OSS/FS. “Ils n'admettent pas qu'un entreprise Américaine, en l'ocurrence Microsoft, domine l'industrie du logiciel dans leur pays. Le logiciel libre leur permettra de fragiliser la position de monopole de Microsoft. Si Microsoft détient tout le marché dans leur pays, les entreprises locales ne pourront pénétrer l'industrie du logiciel” déclare Ted Schadler, un analyste chez Forrester Research Inc.” Certains systèmes administratifs Espagnols et ceux appartenant à la compagnie de télécommunications Telefonica sont “passés” sous Linux en partie à cause de problèmes de sécurité. A Florence, les législateurs parlent de briser “la dépendance de l'informatique Italienne envers Microsoft”.

Bien sûr, selon Robert Kramer de la CompTIA (Computer Technology Industry Association), tous les leaders politiques, de la Californie à la Zambie, préparent une législation plus favorable à l'utilisation des logiciels en “open source” . Il a dénombré au moins 70 propositions d'attribution de logiciels OSS/FS dans 24 pays en octobre 2002. La préférence affichée pour les OSS/FS devrait certainement être débattue (même le défenseur de ces logiciels, Bruce Perens, ne s'implique pas la préférence de l'Etat pour les OSS/FS) mais cela démontre clairement l'intérêt significatif que portent les gouvernements aux OSS/FS.

En 2002, une étude indépendante a été publiée par la Commission Européenne. Elle était intitulée ”Fédérer l' Open Source Software”, et était financée par le programme IDA (Inter-échange de données entre les Administrations). Cette étude recommande de créer une “centrale de récupération” des logiciels administratifs pouvant être réutilisés. Cette centrale regrouperait les applications spécifiques aux besoins du secteur public. Cette étude suggère plus particulièrement qu'un logiciel développé pour une administration devrait être publié sous une licence “open source” et montre que partager des logiciels administratifs rendrait le secteur public Européen plus efficace.

En Octobre 2002, la Commission Européenne a récompensé le contrat pilote Netproject évalué à 250 000 Euros destiné à étudier l'implantation des OSS/FS dans les différents services de l'Etat.

Le Pérou tente de faire voter une loi obligeant les administrations à utiliser les OSS/FS . En plus des économies réalisées, il souhaite “que le citoyen puisse accéder librement à l'information publique, que les données publiques soient accessibles à tout moment, que la sécurité de l'Etat et des citoyens soit assurée”. Le Dr. Edgar David Villanueva Nuñez (membre du Congrès Péruvien) a écrit une lettre dans ce sens. Marc Hedlund présente brièvement cette lettre. (Une version en Anglais est disponible sur GNU au Pérou, UK’s “The Register”, Linux Today). Plus de détails sont consultables sur le site Slashdot. Que cette loi soit votée ou non, c'est une vision intéressante du problème.

Le 10 octobre 2002, le Danish Board of Technology a publié un rapport sur le potentiel économique lié à l'usage des logiciel Open Source dans l'administration. Le rapport fait apparaître une économie potentielle de 3,7 milliards de Kroners Danois (500 millions d'Euros) dans les quatre ans. Un projet pilote dans la municipalité de Hanstholm a montré que le passage de Microsoft Office à OpenOffice.org et StarOffice n'ont pas posé plus de problèmes. De plus, le temps de formation nécessaire à chaque utilisateur est de une heure à une heure et demie. Cette municipalité utilisera dorénavant OpenOfice.org et StarOffice sur toutes ses stations de travail (au total 200) et économisera 40 000 Euros de licence. Microsoft Windows restera leur OS.

On parle beaucoup des avantages des OSS/FS dans les pays en voie de développement. Dans leur article intitulé Les Logiciels Propriétaires et les Pays en Voie de Développement : Le Cas de l'Argentine, Heinz and Heinz montrent que le logiciel propriétaire a des conséquences négatives au regard des possibilités de développement de ces pays. L'article that the way proprietary software is brought to market has deep and perverse negative consequences regarding the chances of growth for less developed countries. L'article Une Technologie Adaptée : Le Logiciel Libre , de Danny Yee,montre que le logiciel libre est une technologie appropriée aux pays en voie de développement, en utilisant des analogies claires et simples.

L'article de Bloomberg daté du 14 janvier 2003 intitulé “Microsoft a un Nouveau Projet pour Partager le Code avec le Gouvernement” annonce que Microsoft “partagera plus le code de ses programmes Windows pour aider le gouvernement, la Russie et l'OTAN à améliorer la sécurité de leur système informatique”. Il précise que “Microsoft fait face à la concurrence de Linux qui permet à l'utilisateur de voir et de modifier son code source. Les analystes montrent que Microsoft a perdu des contrats en faveur de Linux dans le domaine administratif. Plus de 20 pays s'intéressent aux propositions de loi qui favorisent l'utilisation de Linux sur les ordinateurs administratifs... et Microsoft a commencé à dévoiler son code pour ces administrations dans le souci de concurrencer Linux.”

Les bibliothécaires ont trouvé beaucop d'avantages aux OSS/FS.

L'Histoire de l' Alameda County Computer Resource Center, de James Butgett est intéressante dans le sens où elle montre l'usage qu'il est fait des OSS/FS dans les Centres de Recyclage pour Ordinateurs (non commerciaux), aux USA. Ses usines traitent 200 tonnes de martériel par mois dans ses entrepôts de 38 000 pieds -carré. Ces centres ont donné des milliers d'ordinateurs recyclés à des personnes démunies dans le monde entier, à des organismes humanitaires au Guatemala, au programme spatial Russe, aux écoles et orphelinats. GNU/Linux est installé sur toutes les machines.

Les produits bien établis comme GNU/Linux ont assez de notoriété pour être considérés. Le 18 octobre 2002, Forrester Research a rapporté que “Linux est prêt pour être le leader”. Ils ont précisé que “les responsables de services informatique ont toutes les raisons d'avoir confiance en la qualité de l'assistance Linux assurée par beaucoup de fournisseurs d'application”. Ils font référence Amazon, Oracle, Sun, et IBM, et d'autres organismes qui estiment que cette confiance permet à GNU/Linux de se déployer.

De ce fait, l'usage de ces logiciels est si étendu que Microsoft admet que la concurrence avec les OSS/FS l'oblige à baisser ses prix, au moins sur le marché des serveurs. Microsoft note que “l'ouverture grandissante du marché au modèle “open source” entraîne une baisse des ventes de nos produits. Nous devrons réduire le prix de nos produits et nos marges opérationnelles vont forcément baisser.”

Des résumés de l'utilisation des OSS/FS dans l'administration de différents pays sont disponibles sur Infoworld et IDG.

Certains organismes collectent des rapports sur l'utilisation des OSS/FS, et cela est très utile. Linux International dispose d'une liste études de cas Linux/histoires de succès. Mandrakesoft fait la maintenance d'un site enregistrant les expériences des utilisateurs professionnels de la distribution Mandrake. Red Hat propose des informations similaires. Opensource.org comprend quelques études de cas.

Le Dravis Group LLC a publié en avril 2003 Logiciel en Open Source : Etude de son utilisation, qui examine plusieurs cas d'utilisation dans le détail. Leur étude s'appuie sur différents organismes utilisant les OSS/FS et se termine ainsi :

1.     Le coût est un facteur détermiant dans le choix d'un logiciel “open source”.

2.      Le Contrôle et la flexibilité sont aussi considérés comme des avantages.

3.      L'Implémentation de solutions ouvertes est “évolutionnaire” et non révolutionnaire.

4.      L'Open Source s'impose de plus en plus dans le monde du logiciel.

5.      L'assistance technique liée au produit n'est pas essentielle (significative concern).

6.      L'Open Source n'est pas une solution magique.

7.      Les “standards ouverts” devraient être plus importants que le “source ouvert”.

11. Autres sites traitant du sujet

Vous trouverez ci-dessous quelques sources d'information:

1.      Voici quelques sites d'informations générales sur les OSS/FS ou Unix : la Free Software Foundation (FSF), l' Open Source Initiative website, et le site Linux.org. Le projet Exploring and Collecting History Online (ECHO) de l'Université George Mason contient des informations utiles sur Une Hisoire Libre et Ouverte du Logiciel Libre et Ouvert. Microsoft Windows NT Server 4.0 versus UNIX de John Kirch est un article moins récent (archivé dans Internet Archives). L'article Notre Open Source / Free Software Futur: C'est juste une Question de Temps prétend que dans peu de temps, l'OS standard de-facto utilisé par tous sera OSS/FS, ainsi que la plupart des logiciels utilisés. Le livre The Cathedral and the Bazaar d'Eric Raymond étudie les processus de développement et l'avenir des OSS/FS. Une liste utile d'ouvrages relatifs à ces logiciels se trouve dans Open Source Reader. Le livre de Peter Wayner intitulé Free For All: How Linux and the Free Software Movement Undercut the High-tech Titans décrit l'histoire et le développement des OSS/FS, et contient des interviews de personnalités. Il peut être téléchargé gratuitement ou acheté. Ganesh C. Prasad a publié Le guide Pratique de Linux pour le Décideur. “Linux et les Universités” de Dan Kegel explique pourquoi les étudiants doivent aborder GNU/Linux à l'Université et pourquoi celles-ci doivent le soutenir. Vous trouverez des informations générales sur les OSS/FS sur le site ma page web présentant des références sur les OSS/FS.

2.      MITRE Corporation a étudié les applications OSS/FS aux systèmes militaires. Leur rapport, daté de juillet 2001, s'intitule Etude des Logiciels Open Source Professionnels. Il conclut que “les produits et les méthodes “open source” doivent être sérieusement pris en compte dans les applications administratives, particulièrement s'ils sont appliqués scrupuleusement et en connaissant les risques potentiels. Les OSS favorisent le développement des logiciels et la ré-utilisation de leur code, permettent des bénéfices économiques importants et donnent la possibilité d'effectuer des économies directes et indirectes. Ces avantages sont significatifs sur les systèmes militaires qui recquièrent un large déploiement de logiciels coûteux.” Cette étude recommande de suivre une démarche qui déterminera s'il est préférable d'utiliser un logiciel propriétaire ou libre : évaluer la qualité de l'assistance de la communauté des développeurs, étudier le marché, conduire une analyse spécifique des avantages et des risques, comparer les coûts à long terme et choisir une stratégie d'implantation. MITRE a reçu une récompense du Potomac Forum pour avoir montré les avantages des OSS sur les logiciels propriétaires, d'autant plus que la fiabilité et l'assistance à long terme sont des exigences clés.

Plus récemment, comme noté dans l'article du Washington Post, Open-source Fight Flares at Pentagon, “Microsoft Corp. S'impose de façon agressive au Pentagon dans le but d'entraver l'usage grandissant des logiciels librement distribués et d'obliger les utilisateurs à migrer sur des postes vendus par le géant du logiciel, avec l'aide de certains officiels... Mais ces efforts ne sont pas sans conséquences. Un deuxième rapport de la MITRE Corporation destiné au Département de la Défense (DoD), Defense Information Systems Agency (DISA) (daté du 10 mai 2002 et publié le 28 octobre 2002) conclut que l'usage des OSS/FS est répandu et doit être étendu. Ce rapport précise que “bannir les OSS/FS aurait un impact négatif sur la capacité du DoD de se protéger des cyber-attaques”. Il ajoute que la GPL est tellement implantée dans les applications du DoD que la supprimer reviendrait à bannir tous les OSS/FS. MITRE note que les OSS/FS “jouent un rôle bien plus essentiel dans le DoD qu'on ne l'a généralement pensé”. Dans une étude qui a duré deux semaines, la MITRE a identifié au total plus de 115 applications libres et ouvertes et 251 exemples de leur utilisation. Elle conclut : “Ni l'étude ni l'analyse ne permettent d'affirmer que restreindre l'usage des OSS/FS améliorerait les capacités défensives du DoD. Au contraire, la combinaison d'un statut ambigü et la crainte que ces logiciels (les OSS/FS) ne puissent être utilisés avec d'autres types de logiciels empêchent les OSS/FS d'atteindre un niveau optimal d'utilisation”. En bref, la MITRE estime que les OSS/FS sont largement utilisés et devraient l'être encore plus.

L'article du Washington Post précise aussi que “au Census Bureau, les programmeurs ont utilisé un logiciel “open-source” pour mettre en place un site destiné à obtenir des statistiques fédérales. Ce projet leur a coûté 47 000$. S'ils avaient utilisé un logiciel propriétaire, la création du site aurait coûté 358 000$”.

3.      Le Free/Libre and Open Source Software (FLOSS): Sondage et Etude est un rapport Européen très large qui étudie les OSS/FS sous un angle différent. Il est divisé en plusieurs parties :

o        Partie I: Utilisation des “Open Source Software-OSS” dans les entreprises et les institutions publiques

o        Partie II: Les activités des entreprises utilisant les OSS : motivations et implications légales

o        Partie II B: Les OSS dans le secteur public : politique au sein de l'Union Européenne

o        Partie III: Les bases du marché OSS et des modèles commerciaux

o        Partie IV: Etude des développeurs

o        Partie V: Etude sur le code source

4.      Microsoft a tenté de faire croire que l'”open source” est quelque peu dangereux. Lee Gomes, du Wall Street Journal précise “Microsoft utilise du code “open-source” alors qu'il dénigre l'utilisation de tels logiciels”. Voici quelques passages de son article :

... Mais les déclarations de Microsoft suggèrent que l'entreprise a profité de cette technologie qui, selon elle, n'apporterait que des conséquences néfastes aux autres. “La façon dont Microsoft dénigre l'”open-source” alors qu'il l'utilise pour mener à bien ses affaires, me choque” déclare Marshall Kirk McKusick, un des responsables de l'équipe de développement de FreeBSD.

Plus récemment, Microsoft a plus concentré ses critiques sur la GPL que sur les licences OSS/FS, déclarant que la GPL est anti-commerciale. Mais cette déclaration n'est pas crédible, étant donné le nombre d'entreprises commerciales (e.g., IBM, Sun, and Red Hat) qui utilisent la GPL. Vous pouvez consulter cet article sur Microsoft fait des bénéfices en vendant des produits contenant des composants GPL. Cet article conclut en ces termes :

Dans sa campagne contre l'”open-source”, Microsoft n'a pas été capable de citer des exemples d'entreprises en péril à cause de l'”open-source”. Eric von Hippel, professeur à la Massachusetts Institute of Technology, précise qu'il y a une raison à cela : il est évident que l'”open-source” est un énorme avantage pour les entreprises. “Elles sont capables de construire un standard commun, non détenu par qui que ce soit. Avec Windows, Microsoft s'appartient à lui-même.”

D'autres sites proposent les commentaires de Bruce Peren, Ganesh Prasad : Comment le Capitaliste considère l' Open Source?, et la lettre ouverte Free Software Leaders Stand Together.

5.      Beaucoup de ceux qui ont analysé l'évolution de l'informatique ou les actions de Microsoft se rendent compte que dépendre des produits Microsoft est une stratégie dangereuse. 2003 et après d' Andrew Grygus étudie le cas de l'industrie informatique et démontre le danger de dépendre d'un infrastructure basée sur Microsoft. Fondamentalement, Microsoft fait tout pour accroître la dépendance de ses clients. Il leur fait payer des sommes exhorbitantes pour ses produits. Ainsi, le client ne peut pratiquement pas changer de système.

6.      Microsoft défend par inadvertance les OSS/FS dans un document intitulé ”Halloween” documents. Les deux premiers documents de cette série montrent que les OSS/FS sont largement plus efficaces qu'ils ne l'admettent. Halloween 7 propose les résultats de l'une de leur enquête et comprend beaucoup de commentaires positifs sur les OSS/FS.

7.      Il existe un autre document Microsoft interne appelé Convertir un site UNIX .COM à Windows (de David Brooks). Il décrit les “leçons apprises” lors du passage de Hotmail de FreeBSD à Windows, après que Microsoft l'ait acquis. Il montre les avantages et les inconvénients de chaque approche et conclut en présentant les avantages d'une telle concurrence. Par exemple, il précise que “Unix est familier aux entrepreneurs des jeunes entreprises (souvent étudié en université) et qu'ils n'ont pas peur de migrer d'un système à l'autre”. Un article paru dans The Register résume des points forts d'une approche Unix.

8.      Plusieurs documents ont été écrits dans le but de publier les déclarations de Microsoft (Linux Myths de Microsoft). On peut consulter la réponse de LWN , La réponse de Jamin Philip Gray, et le Site de FUD-counter. La page sur le source partagé montre que l'idée de “source partagé” de Microsoft est moins forte que “le source ouvert”. L'article de Richard Stallman The GNU GPL and the American Way contre-argumente la déclaration ridicule de Microsoft selon laquelle “la GPL est non-Américaine”. La lettre Free Software Leaders Stand Together prend le contre pied des déclarations de Craig Mundie. Vous trouverez beaucoup de sites généraux sur Microsoft y compris le Cloweth’s site.

9.      Voici encore une histoire à faire sourire. Microsoft et Unisys se sont groupés au sein d'une campagne publicitaire coûteuse pour contrer Unix,dans le but de faire repartir les ventes des produits basés Windows pour Unisys. La campagne (qui a duré 18 mois et qui a coûté 25 millions de dollars) intitulée “We have the Way Out,” attaquait spécifiquement les offres Unix de Sun, IBM, et Hewlett-Packard. Or, les principaux Systèmes d'Exploitation (OS) OSS/FS que sont Unix ou Unix-like étaient aussi dénigrés. Puis il a été révélé que le site web de la campagne anti-Unix fonctionne grâce à un logiciel Unix , en l'occurence, FreeBSD (une version OSS/FS d' Unix) et le serveur web OSS/FS Apache. Dès que cette situation a été rendue publique, Microsoft et Unisys ont installé leur site sur un système basé Windows... puis le site n'a plus été opérationnel pendant plusieurs jours. Comme si cela n'était pas suffisant, Andrew Orlowski rapporte dans The Register une analyse plus détaillée de ce site. Il déclare que le port 3306 était ouvert, un port normalement utilisé par MySQL et Postgres. En d'autres termes, il apparaît que leur site anti-Unix utilise toujours des logiciels OSS/FS (et non la base de données Microsoft) à l'origine déployés sur des systèmes Unix-like. Même le graphisme utilisé pour leur campagne auraient pu leur causer de sérieux problèmes. L'image utilisée montrait un sol couvert de peinture mauve (la couleur de Sun Microsystem) et l'alternative proposée était un saut par une fenêtre. Beaucoup de littéraires reconnaîtront le symbole (l'acte de sauter par la fenêtre ou d'être jeté par la fenêtre) de la defenestration, une façon de tuer les personnes qui ont du pouvoir et aussi une façon populaire d'inviter les rois à se suicider au XVII ème siècle. En d'autres termes, cette image vous suggère que vous devriez utiliser la fenêtre (window[s]) pour vous suicider (!). Leon Brooks a aussi “décortiqué” le site – et a trouvé qu'il utilise JSP (une technologie introduite par les spécialistes Unix de Sun). Il a aussi trouvé que ce site n'était pas conforme aux recommandations du W3C (dont Microsoft fait partie), et utilise un type de caractères propre à Window, non standard, et qui active des conflits avec des standards internationaux (et bizarrement, Microsoft fait une promotion de l'un d'entre eux). Si utiliser exclusivement Microsoft est si formidable, pourquoi ce site qui le défend ne peut être conforme aux standards internationaux ? En fait, tenter de convaincre qu'il faut éviter Unix à tout prix -alors que ses détracteurs l'utilisent et rencontrent des problèmes lorsqu'ils utilisent un autre système- est absurde et invraisemblable.

10.  “Comment Big Blue est Passé à Linux” est un article qui présente la façon dont IBM est devenu le principal financeur. IBM a annoncé qu'il auto-investirait 1 milliard de dollar pour soutenir GNU/Linux en 2001 (voir le rapport annuel d'IBM). En 2002 IBM a rapporté qu'il profitait déjà d'un retour sur investissement; Cette annonce peut laisser sceptique, mais il est clair qu'IBM a investi sur GNU/Linux et qu'il ne le regrette pas (par exeple, voir leur site Linux-only mainframe). Ce n'est pas seulement un geste philantrope. Les entreprises comme IBM considèrent les OSS/FS comme des points forts, car ils assurent une certaine indépendance et permettent aux clients de migrer sur les produits et services IBM (qui étaient fermés aux produits concurrents). C'est un bon plan pour les clients . En 2002, IBM employait 250 personnes à temps plein pour améliorer Linux.

11.  Pour avoir une vision humoristique de ce que pensent les utilisatuers des différents OS, vous pouvez consulter Operating System Sucks-Rules-O-Meter. Ce site dénombre les pages web contenant des termes comme “Linux rocks”.

12.  Il existe plusieurs études académiques sur les OSS/FS. Par exemple, “A Framework for Open Source Projects” (a Master Thesis in Computer Science by Gregor J. Rothfuss) décrit la structure des projets Open Source. Il présente les acteurs, les rôles, les champs d'application, les processus et les outils et décrit leurs inter-actions. Le but est de fournir une base conceptuelle et d'aider à l'organisation et à la gestion des projets “Open Source”.

13.  Plusieurs études se penchent sur les développeurs (au lieu de leurs programmes) comme “Un profil Quantitatif de la Communauté des Développeurs Linux Open Source”, Hl'étude de Herman, Hertel and Niedner (basée sur des questionnaires), et l'étude Who Is Doing It (WIDI). La Free/Libre and Open Source Software Survey (FLOSS) Européenne détient beaucoup d'informations sur les développeurs. L'article intitulé Deux études de cas de développement d' OSS: Apache et Mozilla étudie les deux projets majeurs en “open source” , le serveur web Apache et le navigateur Mozilla , évaluent la participation des développeurs sur l'évolution de ces produits, la productivité, le taux d'erreurs, et le temps passé à résoudre les erreurs. L'étude du Boston Consulting Group/OSDN Hacker (versionr 0.73, 21 juillet 2002) émet des observations en citant les utilisateurs de SourceForge . Par exemple, elle montre que les développeurs d'OSS/FS peuvent être divisés en quatre groupes (basés sur leur motivation) :

a.   Believers (19%): croient que le code source devrait être ouvert

b.   Learning and Fun (29%): pour les loisirs et la stimulation intellectuelle

c.   Hobbyists (27%): ont besoin du code pour les loisirs

d.   Professionals (25%): ont besoin du code par nécessité professionnelle.

Par romantisme, les journalistes présentent quelques fois les développeurs OSS/FS comme étant des adolescents peu expérimentés mais l'étude ne les montre pas ainsi : ces développeurs sont principalement des professionnels expérimentés, ayant une moyenne de 11 années d'expérience et ayant en moyenne 28 ans.

1.      Si vous souhaitez développer un projet OSS/FS project, vous trouverez des documents susceptibles de vous aider comme Free Software Project Management HOWTO et Software Release Practice HOWTO. Vous pourrez lire aussi The Cathedral and the Bazaar.

2.      D'autres études comprennent les évaluations de Gartner Group et de GNet .

Pour avoir plus d'informations générales sur les OSS/FS, vous pouvez consulter le site my list of Open Source Software / Free Software (OSS/FS) references at http://www.dwheeler.com/oss_fs_refs.html

12. Conclusions

Les OSS/FS détiennent une part de marché significative, sont souvent plus fiables, et dans beaucoup de cas, sont les plus performants. Les OSS/FS s'adaptent, à la taille des problèmes et des projets. Ils assurent souvent une meilleure securité, peut-être parcequ'ils sont publiquement visualisables. Leur coût total de propriété (TCO) est souvent moins élevé que celui des logiciels propriétaires notament lorsque le nombre de plateformes augmente. Ces remarques ne reflètent pas seulement une opinion. Elles peuvent être quantitativement démontrées. Et elles ne tiennent pas compte d'autres effets non mesurables tels que la liberté de contrôle, la liberté de gérer les licences. Les Organismes peuvent migrer sur les OSS/FS en partie ou par étape , de façon à la rendre pratique.

Etant donné les avantages des OSS/FS il convient d'aborder les problèmes d'une façon différente, sans oublier l'exigeance des clients, l'ajout possible de fonctionnalités à un logiciel existant, et la compréhension des différences entre les modèles “libre” et “propriétaires”. Les processus d'acquisition doivent tenir compte des alternatives OSS/FS, sachant qu'un simple appel d'offres ne sélectionnera pas tous les candidats viables. Les produits OSS/FS ne sont pas les meilleurs choix techniques dans tous les cas. Même les entreprises les plus vouées à ces logiciels confient certains de leurs processus à des logiciels propriétaires. Cependant, il est évident que tenir compte des OSS/FS ne peut être que bénéfique.

Les possibilités des OSS/FS devraient être examinées attentivement au moment de l'achat d'un logiciel ou de matériel. Les entreprises doivent s'assurer que leur politique de décision encourage et n'entrave pas l'examen d'une approche OSS/FS lors de l'acquisition d'un logiciel.


Appendice A. A propos des Open Source Software / Free Software (OSS/FS)

Cet appendice propose plus d'informations à propos des “open source software / free software” (OSS/FS): definitions (du code source, du logiciel libre, du logiciel en source ouverte), motivations des développeurs, histoire, types de licence, approche gestionnaire, et “forking”.

A.1 Definitions

Il existe des définitions officielles relatives aux termes "Logiciel Libre" (tel que utilisé dans ce texte) et "Logiciel ouvert".

Cependant, il est nécessaire de comprendre quelques notions fondamentales sur les logiciels avant que ces définitions ne prennent tout leur sens. Les programmeurs créent des programmes en écrivant du texte, appelé "code source", en langage spécialisé. Ce code source est souvent traduit dans un format que l'ordinateur peut exécuter. Tant que le programme ne nécessite pas de modifications (c'est à dire, ne requière pas de nouvelles fonctionnalités ou n'a pas besoin d'être utilisé sur un ordinateur plus récent), les utilisateurs n'ont pas forcément besoin d'accéder  au code source. Cependant, pour modifier le code source d'un programme, il est nécessaire de le posséder et d'avoir la permission de le faire. En d'autres termes, quiconque contrôle légalement le code source contrôle aussi ce que ledit programme peut faire ou non. Sans code source, les utilisateurs ne peuvent faire évoluer leur programme selon leurs souhaits ou l'implanter sur un autre type d'ordinateur.

Les deux paragraphes suivants présentent les définitions officielles du Logiciel Libre et du Logiciel ouvert (en pratique, les deux définitions sont équivalentes).

A.1.1 Definition du Logiciel Libre

Les logiciels Libres et les Logiciels Ouverts existent depuis que les ordinateurs digitaux ont été inventés, mais au début des années 80, on a tenté de traduire ce concept en mots. Les deux principales définitions utilisées sont la "définition du logiciel libre" (pour le logiciel libre) et la "définition du code source ouvert" (pour les logiciels à code source ouvert). Ces deux définitions se recoupent. Puisque le terme de "logiciel libre" ets apparu le premier, nous étudierons tout d'abord sa définition.

 

La Free Software Definition est publiée par la Free Software Foundation de Richard Stallman , dont voici  le texte clé :

“Free software” se réfère à la liberté, non au prix. Pour en comprendre l'idée, vous devez penser "free" dans le sens d'un "discours libre" et non pas dans le sens d'une "bière gratuite". Le qualificatif Libre (Free) permet à l'utilisateur d'utiliser, de copier, de distribuer, d'étudier, de modifier et d'améliorer librement le logiciel. La liberté pour l'utilisateur du logiciel se résume en quatre points :

·        La liberté de faire fonctionner le programme, quelqu'en soit le but (liberté 0).

·        La liberté d'étudier la façon dont le logiciel fonctionne, et l'adapter à ses besoins (liberté 1). Pour cela, il faut que le code source soit accessible.

·        La liberté de redistribuer des copies du logiciel de façon à pouvoir aider son voisin (liberté 2)

·        La liberté d'améliorer le programme et de publier vos améliorations de façon à ce que toute la communauté en bénéficie. (liberté 3). Pour cela, il faut que le code source soit accessible.

Un programme est un logiciel libre si les utilisateurs possèdent toutes ces libertés. Par conséquent, vous seriez libre de redistribuer des copies, modifiées ou non,  gratuitement ou moyennant finances pour la distribution, à n'importe qui, n'importe où. Etant libre d'agir ainsi vous n'aurez pas à demander ou payer un droit. Vous pourriez aussi avoir la liberté d'effectuer des modifications et de les utiliser personnellement sans même mentionner qu'elles existent. Si vous publiez vos modifications, vous n'aurez pas à en référer à quelqu'un en particulier. La liberté d'utiliser un programme signifie que tout type de personne ou organisation peut l'utiliser sur tout type de système, pour tout type de travail, sans avoir à rendre de comptes au développeur ou à tout autre entité.

Le texte définissant le "logiciel libre" est en fait plus long et approfondit la notion. Il précise que "Logiciel Libre ne veut pas dire non-commercial. Un logiciel libre doit être disponible pour un usage commercial, un développement commercial et une distribution commerciale. Le développement commercial de logiciels libres n'est plus exceptionnel. De tels logiciels libres commerciaux ont leur importance".

A.1.2 La définition du code source ouvert

L' open source definition  définit officiellement le logiciel ouvert :

Le code source ouvert ne se réduit pas à l'accès au code source. Pour être qualifié de "source ouvert", un logiciel doit suivre les critères suivants :

1. Redistribution Libre

 

La licence ne doit pas empêcher aucune des parties de vendre ou donner un logiciel en tant que composant d'une distribution contenant plusieurs programmes de différentes sources. La licence ne doit pas imposer de versement d'une redevance pour une telle transaction.

2. Code Source

Le programme doit comporter le code source et doit permettre une distribution du logiciel sous sa forme “code source” et sous sa forme compilée. Quand un logiciel n'est pas distribué sous la forme de code source, les moyens de l'obtenir (acquisition ou téléchargement) doivent être stipulés. La forme “code source” doit être préférée par le programmeur qui souhaite modifier le programme. Un code source délibérément incompréhensible n'est pas autorisé. Les formes intermédiaires d'un logiciel (code de sortie du microprocesseur, ou traduction) sont interdites.

3. Travaux Dérivés.

La licence doit autoriser les modifications et les travaux dérivés qui devront être distribués sous les mêmes termes que la licence originelle.

4. Integrité de l'auteur du code source

La licence doit restreindre la distribution d'un code source modifié uniquement si elle permet la distribution de “patch files – fichiers de correction” avec le code source dans le but de modifier le programme pendant la phase de son développement. La licence doit explicitement permettre la distribution d'un logiciel conçu à partir de code source modifié. La licence oblige les travaux dérivés de porter un nom différent ou un numéro de version différent du logiciel original.

5. Pas de discrimination entre les personnes ou les groupes

La licence ne doit pas faire de discrimination entre les individus ou les groupes de personnes.

6. Pas de discrimination entre les champs d'applications

La licence ne doit pas restreindre l'usage d'un programme à un domaine d'application spécifique. Par exemple, il ne doit pas affecter l'usage d'un programme à la gestion ou à la recherche génétique.

7. Distribution de la licence

Les droits rattachés au programme doivent s'appliquer à ceux à qui le programme est redistribué sans avoir besoin de refaire une licence additionnelle par les différentes parties.

8. La Licence ne doit pas être spécifique à un produit.

Les droits rattachés à un programme ne doivent pas dépendre de la distribution particulière dudit programme. Si le programme est extrait d'une distribution et utilisé ou redistribué dans les mêmes termes que la licence dudit programme, toutes les parties qui l'ont acquis devraient avoir les mêmes droits que ceux qui ont contribué à la distribution du programme originel.

9. La licence ne doit pas restreindre l'usage d'un autre programme

La licence ne doit pas poser de restrictions sur un autre logiciel distribué avec le logiciel sous licence. Par exemple, la licence ne doit pas obliger tous les autres programmes distribués par le même moyen à être aussi “open source”.

10.Aucune licence ne peut être pré-déterminée sur une technologie individuelle ou sur un style d'interface.

A.1.3 La tendance Open Source et la tendance Free Software

Les définitions données plus haut se ressemblent toutes. Si un logiciel remplit une condition, il est aussi conforme aux autres. Ceux qui ont inventé le terme “open source” décrivent leur approche comme une approche “marketing”. Cependant, pour certains, les connotations et les motivations sont différentes entre les deux termes.

Certains préfèrent utiliser le terme “free software” pour mettre en avant le côté éthique, moral et social (le droit de tout utilisateur). Ces personnes s'identifient comme étant membres du “free software ovement”. Richard Stallman est le leader de ce groupe. Ses arguments sont développés dans l'article Why “Free Software” is better than “Open Source”

D'autres ne sont pas convaincus par ces arguments ou ne les considèrent pas comme fondamentaux. Ils préfèrent mettre en avant la valeur des OSS/FS dans le domaine de l'économie, de la sécurité et de la fiabilité. Ils utilisent alors le terme “open source software”, et s'identifient au groupe “open source movement”. Eric Raymond, considéré comme le leader de ce groupe, est l'un des instigateurs du mot “open source”.

Le “free software movement” est-il l'héritier de l' “open source movement”? Cela dépend de la façon dont on définit l'“open source movement”. S'il est un terme général décrivant tout suppoter des OSS et FS alors “free software movement” est un sous groupe de l' “open source movement”. Cependant, certains leaders de l'”open source movement” (comme Eric Raymond) recommande de ne pas discuter des libertés de l'utilisateur. Même si la liberté est le principe fondamental du “free software movement”, les deux mouvements sont considérés comme bien distincts.

L'étude Free/Libre and Open Source Software Survey (FLOSS), partie IV, interroge les développeurs OSS/FS (à l'origine Européens) sur ces deux tendances. Dans cette étude, 48.0% se disent appartenir à la communauté “Free Software”, 32.6% d'entre eux s'identifient au groupe “open source” et 13.4% n'ont pas d'opinion. Une majorité d'entre eux (52.9%) déclarent que les tendances sont distinctes sur le principe mais que le travail reste le même. 29.7% pensent que les mouvements sont fondamentalement différents et 17.3% ne tiennent pas compte des différences. A la fin de cette étude on pouvait distinguer six groupes de développeurs OSS/FS :

1.      développeurs qui s'apparentent à la communauté Free Software community et qui voient une différence fondamentale entre les deux tendances (18%).

2.      développeurs qui s'apparentent à la communauté Open Source et qui voient des différences fondamentales entre les deux communautés (9%).

3.      développeurs qui s'apparentent à la communauté Free Software et qui distinguent une différence de principe entre les deux communautés et qui considèrent que le travail est le même dans les deux branches. (26%).

4.      développeurs qui s'apparentent à la communauté Open Source et qui distinguent des différences de principe, non fondamentales entre les deux tendances (17%).

5.      développeurs qui s'apparentent indifféremment aux deux tendances (9%).

6.      développeurs pour qui la communauté à laquelle ils appartiennent importe peu (20%).

La différence de terminologie peut rendre plus compliqué le travail des auteurs d'articles sur les OSS/FS. Les motivations des différents mouvements peuvent être différents mais à partir du moment que les développeurs travaillent ensemble, il est plus pratique d'utiliser un terme commun. Certains auteurs optent pour le terme OSS. D'autres utilisent un terme fédérant les deux motivations, mais aucun terme n'est commun. C'est pour cela que j'ai choisi pour cet article le terme réunissant les deux tendances : OSS/FS.

A.2 Motivations

Cela nous amène à poser la question suivante : “Pourquoi les développeurs contribuent-ils aux projets OSS/FS ?” Pour être bref, il y a plusieurs raisons.

L'enquête de la Boston Consulting Group/OSDN Hacker (version 0.73, 21 juillet 2002) a effectué un sondage auprès d'utlisateurs de SourceForge. Les motivations mentionnées sont les suivantes :

1.      stimulation intellectuelle (44.9%)

2.      expérience professionnelle (41.3%)

3.      obligation professionnelle (33.8%)

4.      croire au code ouvert (33.1%)

5.      nécessité non professionnelle (29.7%)

6.      obligation de l'utiliser (28.5%)

En examinant ces données, l'étude conclut que les programmeurs peuvent être divisés en 4 groupes :

a.       Les adeptes du code ouvert(19%): ils pensent que le code source devrait être ouvert

b.      Apprentissage et Plaisir (29%): pour une stimulation intellectuelle et pour du développement non professionnel

c.       Loisirs (27%): ont besoin du code pour de la “programmation loisir”

d.      Professionnels (25%): développement par obligation professionnelle

La Partie IV de l'étude Free/Libre and Open Source Software Survey (FLOSS), mentionnée plus haut, étudie aussi les motivations individuelles des développeurs.

Le côté financier contribue aussi au développement des OSS/FS. Beaucoup d'entreprises créent ce type de logiciel pour en vendre l'assistance technique. En distribuant largement un produit, elles espèrent obtenir plus de contrats d'assistance. La “Strategy Letter V” de Joel Spolsky note que “la plupart des entreprises investissent dans le développement des OSS (open source software) par stratégie financière”. Ses arguments sont basés sur des données micro-économiques et en particulier sur le fait que tout produit implanté sur le marché a des substituts et des compléments. Un substitut est un autre produit susceptible d'être acquis si le produit d'origine est trop cher. Un complément est un logiciel que l'on achète en même temps qu'un produit. Si la demande d'un logiciel augmente quand le prix de ses compléments décroit, les petites entreprises tentent de rentabiliser leurs compléments. Pour beaucoup d'entreprises, favoriser les OSS/FS c'est rentabiliser les produits complémentaires en réalisant plus de ventes.

Un essai sur l'aspect commercial est disponible sur The Magic Cauldron , article signé Eric Raymond. La Free/Libre and Open Source Software (FLOSS): Survey and Study (étude Européenne) présente des statistiques sur les motivations des individus et des entreprises.

A.3 Histoire

Au début de l'informatique (approximativement 1945 à 1975), les programmes étaient partagés entre les développeurs, tout comme les OSS/FS d'aujourd'hui. A cette époque, l'ARPAnet (ancêtre d'Internet) tenait une place importante. De plus, les chercheurs d'AT&T, développaient le système d'exploitation Unix et en distribuaient le code source (avec des drois de modification) en échange d'une somme minime. Bien sûr, les interfaces d'Unix sont devenues les bases de la suite de standards POSIX. Cependant, dans les années 70-80 les programmeursont de plus en plus “fermé” leur code source aux utilisateurs. Même le système Unix était concerné. On avait alors l'habitude d'avoir la liberté de consulter le code source Unix mais AT&T a soudainement augmenté le montant de ses droits et a limité la distribution d'Unix. Il était donc devenu impossible de modifier le code et de partager ces modifications.

Richard Stallman, un chercheur au MIT Artificial Intelligence Lab, a trouvé que la “fermeture” de ce code était intolérable. En 1984, il initialisa le projet GNU dans le but de développer un OS Unix-like complet que serait un Free Software (free en tant que libre et non pas gratuit). En 1985, R. Stallman créa la Free Software Foundation (FSF) qui devrait préserver, protéger et promouvoir le Logiciel Libre-Free Software; La FSF devint alors la première organisation à sponsoriser le projet GNU. Le projet GNU a permis de développer beaucoup de programmes essentiels comme le compilateur GNU C (gcc) et l'éditeur de texte emacs. L'innovation la plus importante apportée par R. Stallman est la GNU General Public License (GPL), la licence OSS/FS la plus répandue.Cependant, le projet GNU n'a pu développer le “kernel-noyau” de l'OS. Il suivait un avis académicien qui imposait une “microkernel achitecture- architecture micro-noyau” et n'a pu développer un noyau solide utilisant cette architecture. Sans noyau, le projet GNU ne pouvait atteindre ses objectifs.

Pendant ce temps, à l'Université de Berkeley, Californie (qui collabore depuis longtemps avec AT&T au sujet d'Unix), on avait fini de reécrire beaucoup de composants Unix. Keith Bostic a sollicité les bonnes volontés pour finaliser des utilitaires clés et pour créer un système quasi-complet dont le code source serait publié gratuitement, sans restrictions. Les oublis ont vite été comblés, et plusieurs OS ont vu le jour. Malheureusement, ces OS étouffaient sous une montagne de décisions judiciares issues de multiples plaintes. Une autre solution se présentait. Puisque les licences BSD permettait aux entreprises de s'approprier un code pour le rendre propriétaire, Sun et BSDI n'ont pas hésité à attirer les développeurs de code ouvert et partageable sans remettre sur le marché un code publiquement disponible. Enfin, les projets développés de cette façon appartenaient à des petits groupes de personnes qui avaient la réputation d'accepter rarement les contributions d'autrui. Il en résulte des OS de qualité tels que NetBSD, OpenBSD et FreeBSD, membres d'un groupe nommé *BSD. Même si ces derniers sont largement utilisés et respectés, même si leurs variantes propriétaires (tel que Apple Mac OS X) ont du succès, les OSS/FS ont rapidement gagné le devant de la scène et encore plus de parts de marché.

En 1991, Linus Torvalds a commencé à développer un petit noyau d'OS appelé Linux pour mieux connaître le microprocesseur Intel 80386. A l'inverse de BSD, L. Torvalds a mis son travail sous Licence GPL qui oblige les entreprises à travailler ensemble sur le noyau. Les défenseurs des *BSDs arguèrent que c'était un avantage. Mais, même aujourd'hui, les distributions de Linux louent les services de développeurs pour qu'ils travaillent ensemble sur un code commun, à l'inverse des entreprises commerciales spécialisées “*BSD” qui ne partagent pas les améliorations apportées à un programme commun. L. Torvalds a fait des choix qui, rétrospectivement, étaient reamarquables : utiliser un noyau monolithique traditionnel (au lieu d'une “approche micro-noyau” qui a ralenti le projet GNU), utiliser l'Intel 386 comme base de départ, travailler sur la prise en charge des requêtes utilisateurs (tel que le “dual booting”), et prendre en charge un matériel qui était techniquement pauvre mais largement utilisé. Enfin, L. Torvalds a utilisé un processus de développement original en exploitant Internet. Il publie souvent de nouvelles versions (plus d'une fois par jour) et confie à des groupes de développeurs des parties de son travail. Au lieu de dépendre de standards rigides, un retour rapide de petites améliorations et une compétition “Darwinienne” ont permis l'amélioration de la qualité.

Quand le noyau Linux a été combiné avec les composants d'OS déjà développés au sein du projet GNU et avec certains composants issus par exemple des systèmes BSD, le résultat a été surprenant de stabilité et de capacité. De tels systèmes ont été nommés systèmes GNU/Linux ou simplement Systèmes Linux. Il faut d'ailleurs préciser que L. Torvalds n'a jamias développé le soi-disant “Linux operatig system” comme le mentionnent les médias. Il a été le développeur principal du noyau Linux et le noyau est une partie d'un OS. La plupart des OS GNU/Linux ont été développés grâce, en particulier, au projet GNU.

En 1996, Eric Raymond s'est rendu compte que L. Torvalds s'était arrêté sur un nouveau style de développement, combinant la “partageabilité” des OSS/FS et la rapidité d'Internet. Son essai, intitulé The Cathedral and the Bazaar décrit ce processus dans le but de faire des émules. Cet essai a eu beaucoup d'impact et a convaincu Netscape de passer sous une approche OSS/SF pour sa prochaine génération de navigateurs.

Au printemps 1997, un groupe de “leaders” de la communauté Free Software se sont regroupés ( Eric Raymond, Tim O’Reilly, et Larry Wall, entre autres). Ils pensaient que le terme “Free Software” était confus et non significatif (beaucoup pensaient que Free correspondait à Gratuit). Le groupe a choisi un terme alternatif, “open source”, et Bruce Perens a conçu la définiton du terme “open source”. Le terme “open source” est largement utilisé mais pas encore universel. De ce fait, Richard Stallman ne l'a jamais reconnu et Bruce Perens réutilise le terme “Free Software” pour mieux insister sur la liberté de l'utilisateur.

Les applications serveur majeures Unix (l'OSS/FS serveur web Apache) sont facilement passés sur GNU/Linux ou *BSDs car elles implémentent les standards POSIX. GNU/Linux et les *BSDs ont alors rapidement pris de l'ampleur sur le marché des serveurs. Plusieurs initiativesse sont regroupées pour créer un OS moderne OSS/FS, inculant des outils graphiques, un environnement de bureau et des applications de bureau. En 2002, on annonçait les premières versions utilisateur d'applications pour le bureau : Mozilla (navigateur) et OpenOffice (suite de bureau).

Vous pourrez en savoir plus sur l'histoire des OSS/FS en consultant le site Open Sources: Voices from the Open Source Revolution et Free for All: How Linux and the Free Software Movement Undercut the High-Tech Titans de Peter Wayner,

A.4 Licences

Il existe des dizaines de licences OSS/FS mais la majorité des OSS/FS utilisent les quatre plus répandues : la GNU General Public License (GPL), la GNU Lesser (or Library) General Public License (LGPL), la MIT (aka X11) licence, et la licence BSD-new. Evidemment, la Open Source Initiative considère ces licences comme des classic open source licenses. La GPL et la LGPL sont conçues pour empêcher un code de devenir propriétaire. Voici une brève description de ces licences :

1.      La GPL permet à n'importe qui d'utiliser un programme et de le modifier. Elle empêche le code de devenir propriétaire, dès lors qu'il est distribué. Aucun programme propriétaire ne peut lui être rattaché.

2.      Les licences MIT et BSD-new permettent à n'importe qui de disposer du code à sa convenance mais interdisent d'attaquer les auteurs auprès des tribunaux. Un complication mineure : il existe deux licences BSD, BSD-old et BSD-new. Les nouveaux programmes doivent utiliser la BSD-new.

3.      La LGPL est un compromis entre l'approche GPL et MIT/BSD-new et était conçue pour le code des bibliothèques de programmes. Comme pour la GPL, un logiciel sous licence LGPL ne peut devenir propriétaire. La LGPL permet aux programmes propriétaires de se rattacher à une bibliothèque (de programmes) comme la licence MIT/BSD-new licenses.

Notez que toutes ces licences permettent la vente et l'usage commercial des logiciels concernés. (Voir Perens’ paper pour plus d'informations sur ces licences).

La licence OSS/FS la plus répandue est la GPL. Par exemple, Freshmeat.net rapporte, le 4 avril 2002, que 71.85% des 25 286 packages étudiés sont sous licence GPL (pour la LGPL, 4.47%, et pour la licence BSD, 4.17%). Sourceforge.net déclare, le 4 avril 2002, que la GPL protège 73% des 23 651 projets “open source” qu'il héberge (pour la LGPL, 10%, et pour les licences BSD, 7%). Dans mon article intitulé More than a Gigabuck: Estimating GNU/Linux’s Size, j'ai précisé que Red Hat Linux, une des distributions GNU/Linux les plus répandues, contient plus de 30 millions de lignes de code dans sa version 7.1 et que 50.36% de ces lignes sont protégées par la GPL (pour la licence MIT, 8.28%, et pour la LGPL, 7.64%). Si vous tenez compte des lignes qui sont sous deux licences (ce qui permet à un développeur de choisir la licence qu'il souhaite utiliser) le taux des lignes de code sous GPL est de 55.3% . Mon article sur la compatibilité GPL étudie ces chiffres dans les détails et montre qu'il est fortement recommandé d' utiliser une licence compatible avec la GPL si vous développez des logiciels OSS/FS.

A.5 Approche Gestionnaire

Comme pour les logiciels propriétaires, il n'existe pas une seule façon de gérer les projets OSS/FS. La taille et l'objectif du projet déterminent la façon dont il faut le gérer ainsi que le style des responsable du projet.

The Cathedral and the Bazaar prône un style particulier de développement, nommé le style “bazaar” (en référence au bazar de certains pays, marchés où se vendent une pléthore de produits). Selon cette conception, on trouve un grand nombre de petites versions et un grand nombre de développeurs qui peuvent proposer des “patches” d'amélioration. Les versions doivent compiler et fonctionner. De ce fait, les développeurs peuvent les tester et les améliorer. Tous les OSS/FS ne fonctionnent pas de cette façon alors qu'ils le devraient.

Il est utile d'étudier la façon de gérer les projets à succès pour identifier des approches universelles. Voici quelques pistes :

1.      Linux kernel. Le développement du noyau Linux se divise en quatre niveaux : les développeurs ordinaires (Ordinary developers), ceux qui sont chargés de la maintenance (maintainers), les lieutenants en qui l'on a confiance (trusted lieutenant), et le dictateur généreux (benevolet dictator). Les développeurs ordinaires proposent des modifications, les soumettent à un “maintainer” chargé d'un composant particulier du noyau. Ce dernier envoie sa modification à un ”trusted lieutenant”, qui l'envoit au “benevolet dictator” (actuellement Linus Torvalds). Un test peut être effectué à chaque étape du processus. Le “benevolet dictator” écrit le code et donne des directives générales mais sa mission première est d'être un fédérateur et un arbitre. Les modifications sont légions. Une fois que le développement est “stabilisé”, une branche stable est créée est un “maintainer” est affecté à cette branche. Les distributions Linux peuvent alors s'approprier la “branche stable” la tester et sélectionner la meilleure version de cette branche.

2.      Apache. Le projet serveur web Apache est, pour sa part, géré par un groupe. A la tête du “Apache HTTP Server Project Management Committee (PMC)” on trouve un groupe de volontaires responsables de la gestion du projet. Pour adhérer au projet, on doit être invité et accepté par les membres actifs du projet. Un membre peut être révoqué par vote unanime allant dans ce sens. La plupart des modifications sont approuvées par consensus.

Voir Apache Voting Rules pour plus de détails.

3.      Perl. Perl a été développé par Larry Wall, mais il a toujours souhaité intégrer des “patches”. Il existe donc la notion de “patch pumpkin” qui doit être suivie si l'on souhaite modifier Perl. Dans le Rebel Code, de Moody, Wall explique que “nous avons principalement un chef intégrateur appellé “pumpkin holder””. Il ajoute : “cette intégration comprend l'approbation des patches et leur ajout au code source Perl principal”. En tant que développeur d'origine, il peut refuser tout changement. Plus d'informations sur le patch pumpkin sont disponibles sur perl.com.

4.      Applications basées-Sourceforge. Beaucoup de projets OSS/FS sont soutenus par SourceForge, en particulier l'outil CVS destiné à la gestion de la configuration. Ceux qui ont un accès en écriture peuvent faire leur mise à jour. Les autres postent leurs requêtes ou se signalent sur la base de données des “suivi des bogues” et demandent à une personne autorisée d'en tenir compte. Peu de personnes possèdent l'accès en écriture direct. Par conséquent, les conflits sont rares.

A.6 Forking ou code forking.

Ndlt : définition du “Code forking” : Pratique relativement courante dans le monde du logiciel libre (mais pas forcément conseillée)consistant à reprendre le code source d'un programme et à poursuivre son développement indépendemment du code original. Cela peut être une bonne chose si le développement du premier programme était arrêté depuis un moment mais cela peut être une sorte de coup d'état détestable. Tout dépend du contexte. (source : www.linux-france.org/prj/jargonf)

Le “fork” est un projet concurrent basé sur une version du code source d'un projet pré-existant. Tous les projets OSS/FS peuvent être “forked”. La possibilité de créer un “fork” est fondamentale dans la définition des OSS/FS.

La création ou une variante du code d'un projet ne crée pas systématiquement un “fork”. Les versions d'expérimentation sont considérées comme normales dans un processus de développement d'OSS/FS. Beaucoup de projets OSS/FS (tel que le projet de développement du noyau Linux) est divisé en plusieurs branches dans lesquelles différents développeurs tentent différentes approches. Au terme d'une comparaison des résultats, la meilleure modification (“winning mutation”) est acceptée dans le projet alors que les autres sont abandonnées (“evolutionary dead ends”). Dans la mesure où chaque “équipe” travaille au mieux pour être retenue, et qu'il y a abandon des autres approches, il n'y a pas de “code forking”. Pour qu'il y ait un “code forking”, il faut que la personne crée un projet qui remplacera ou concurrencera le projet original.

Développer un “code forking” est un évènement majeur dans la communauté des OSS/FS. C'est l'équivalent d'un appel à un “vote de non confiance” dans un parlement ou un appel à la grève dans un conflit social. Ceux qui créent un “code fork” montrent que le succès du projet concerné n'est pas justifié et demandent aux développeurs de “contrer” ce projet en l'abandonnant pour rejoindre une des branches de la “code fork”. Ils doivent aussi justifier leur appel. Les raisons les plus courantes sont : les modifications ne son pas assez rapidement acceptées, les modifications sont trop rapides pour être comprises par les utilisateurs, la gestion du projet est trop fermée, la licence entrave le développement ou la direction technique du projet est incompétente.

Les tentatives de “code forking” sont méconnues. Ils faut donc que les développeurs aient de bonnes raisons pour adhérer à un projet concurrent. La plupart d'entre eux ne favorisent pas les “OSS/FS forks”. Elle divise des efforts qui seraient plus efficaces s'ils étaient regroupés, elle rend difficile l'assistance et le développement futur et amène les développeurs à discuter de la direction du projet au lieu de l'améliorer. Des programmeurs peuvent tenter de soutenir deux projets mais cela devient impossible lorsqu'ils divergent. Eric Raymond, dans Homesteading the Noosphere, précise que la réputation de la culture OSS/FS s'appuie sur l'idée de “don”et que le “forking” est contraire à cette idée.

Quelques exemples historiques de “forking” vous permettront de préciser cette notion, sachant qu'ils peuvent “gagner” ou “perdre” face au projet originel.

1.      glibc vs. libc. Quand le noyau Linux a été développé, les programmeurs ont pris la bibliothèque GNU C de la FSF (appelée glibc) et ont créé leur propre « fork », libc. Tous deux étaient sous licence LGPL. A cette époque, les programmeurs estimaient que le processus de développement de la FSF était trop long et ne correspondait pas à leurs attentes.Alors, ils créèrent une version “forked” de libc version 1.07.4 de GNU (publié le 17 février 1994). Dans ce cas, le projet originel de GNU était supérieur au projet “forked”. Il offrait une meilleure conformité aux standard, permettait le multithreading, était plus performant et possédait plus d'options. Le site d'Elliot Lee décrit brièvement cette histoire. Dans ce cas, le “fork” créé a été abandonné au bout de plusieurs années. De 1997 à 1998 presque tous les systèmes GNU/Linux sont repassés de libc à glibc.

2.      gcc vs. egcs. La GNU Compiler Collection (gcc) est un ensemble de compilateurs essentiels, (contenant entre autres, un compilateur C++) la plupart sous licence GPL. En 1997, sa vitesse et son type de développement ne faisaient pas l'unanimité. De plus, beaucoup reprochaient au “maintener” de la FSF rattaché à ce projet, de ne pas accepter assez rapidement les modifications. Cygnus (mené par Michael Tiemann) a décidé de créer un “fork” de ce projet, d'inviter d'autres développeurs à le rejoindre pour créer le projet egcs. Ce dernier a vite été développé et a bientôt surpassé le projet originel gcc. En avril 1997, le tour était joué. La FSF accepta d'utiliser egcs au lieu de gcc. Le projet egcs fur donc dissous et prit la place du projet gcc. Dans ce cas, le projet “forked” a surpassé le projet original.

Trop de “forks” nuisent aux projets. En fait, l'existence d'un nombre trop élevé de “forks” d'Unix lui a fait perdre des parts de marché par rapport à Windows. Bob Young l'explique clairement dans son essai “Giving it Away” :

La première différence entre GNU/Linux et Unix est que Unix est un OS au code binaire propriétaire. Le problème avec les OS propriétaires est que, pour des raisons commerciales, les fabricants doivent vite vendre un produit et ne peuvent, par conséquent, faire bénéficier leurs clients de ses améliorations éventuelles. A la longue, ces “innovations propriétaires” liées à chaque version d'Unix ont entrainé une différence substantielle entre les différents “Unix”. Cela arrive lorsqu'un fournisseur n'a pas accès au code source de la modification et que la licence du fournisseur interdit l'usage de la modification. Pour Linux, la tendance est inversée. Si un fournisseur Linux adopte une innovation reconnue sur le marché, un autre fournisseur Linux l'adoptera immédiatement. Et cela, grâce à l'accès au code source de la modification et à la licence qui permet de l'utiliser.

Notez que les licences telles que GPL et LGPL autorisent le “fork” mais réduisent toute tentative financière de créer un “fork”. La licence d'un projet influe donc sur sa possibilité d'être “forked”.

La possibilité de créer un “fork” est importante dans le développement des OSS/FS. Fondamentalement, un telle possibilité pousse les responsables de projet à trier leurs partenaires sur le volet. Même si un projet OSS/FS domine un marché particulier, il existe toujours un potentiel de projets concurrents. Une telle situation pousse les responsables à redoubler d'attention et à tenir compte de données auxquelles ils n'auraient pas pensé. Enfin, l'existence du “forking” permet à des développeurs insatisfaits de montrer si le projet alternatif est meilleur ou non.

Notes sur l'Auteur


David A. Wheeler est expert en sécurité informatique et travaille depuis longtemps sur des systèmes logiciels à haut risques. Son livre traite de la
Software Inspection: An Industry Best Practice (publié par IEEE CS Press), Ada 95: The Lovelace Tutorial (publié par Springer-Verlag), et de Secure Programming for Linux and Unix HOWTO. Les articles qu'il a écrits sont More than a Gigabuck: Estimating GNU/Linux’s Size et The Most Important Software Innovations. Le site de Mr. Wheeler est http://www.dwheeler.com; Vous pouvez le contacter sur [email protected], mais ne lui envoyez pas de messages inutiles (il se réserve le droit de vous les faire payer).

Picture of David A. Wheeler

You may reprint this article (unchanged) an unlimited number of times and distribute local electronic copies (e.g., inside an organization) as long as no fee is involved. You may not “mirror” this document to the public Internet or other public electronic distribution systems; mirrors interfere with ensuring that readers can immediately find and get the current version of this document. Copies clearly identified as old versions, not included in normal searches as current Internet data, and for which there is no charge (direct or indirect) to access them are usually fine; examples of acceptable copies are Google caches and the Internet archive’s copies. Please contact David A. Wheeler for clarifications or if you’d like to translate this article into another (human) language; I would love to see more freely-available translations of this document, and I will help you coordinate with others who may be translating the document into that language. Trademarks are registered by various organizations, for example, Linux(r) is a trademark of Linus Torvalds. This is a personal essay and not endorsed by David A. Wheeler’s employer. This article is a research article, not software nor a software manual.