Note de lecture


The Economics of Information Technology
H.Varian, J.Farrell, C.Shapiro (2004)

C’est une lecture très rentable que ce texte coécrit par Varian, Farrell et Shapiro. En moins d’une centaine de pages, les auteurs exposent le B-a-ba de l’économie des nouvelles technologies de l’information. La première partie du livre est écrite par Varian (elle reprend le texte d’une conférence). Elle démarre par une rapide analyse du boom des nouvelles technologies de l’information (NTIC). Pour lui, il ne fait aucun doute que la bulle Internet ne doit pas masquer tous les bienfaits de cette période. Bienfaits qui ne commencent qu’à apparaître et sont loin d’être épuisés. Certes, de nombreux investissements n’ont pas été rentables. Mais, là où la lecture des charts boursiers (notamment la chute des cours du NASDAQ) peuvent être compris comme un immense gaspillage, Varian propose de les analyser comme, au contraire, la marque d’une concurrence élevée qui a ramené l’essentiel du surplus des NTIC vers le consommateur. La spéculation n’a pas laissé un grand vide derrière elle. Les innovations et infrastructures informationnelles sont présentes et représenteront une valeur sociale certaine.

Son propos général est d’analyser les liens existants entre les NTIC et les structures de marché corrrespondantes. Quelles sont les mécanismes concurrentiels à l’oeuvre dans ces secteurs ? Quelles stratégies les entreprises y adoptent-elles ? Si les forces de marché agissent dans les secteurs concernés comme ailleurs (pensons par exemple aux industries de réseau telles que l’électricité), la nature des biens produits induit cependant des particularités, que l’auteur développe dans la suite. Quels sont précisément les biens concernés ? Evidemment, pour l’essentiel, il s’agit de biens immatériels, donc d’information. Mais Varian précise que ce ne sont pas les seuls. Il cite, et cela ne surprendra guère, les processseurs. Un point commun réside dans ce cas dans une structure des coûts particulière : des coûts fixes importants et des coûts marginaux de production relativement faibles.

Au total, c’est six points sur lesquels Varian fixe son attention pour étudier son sujet : la fixation des prix, les coûts de transfert (“switching costs”), les économies d’échelle, les coûts de transactions, le système de coordination et les mécanismes contractuels.

La période d’innovation qui s’est manifestée dans les années 1990 est marquée (même si ce n’est pas la première, comme le rappelle l’auteur) par l’émergence d’”innovations combinables” (« combinatorial innovations »). Les nouveaux produits ont la propriété de pouvoir être combinés et recombinés pour produire encore de nouveaux produits. Cette spécificité correspond, en effet, à une caractéristique de la connaissance en tant que bien, à savoir la capacité à produire de nouvelles connaissances à partir de celles qui existent déjà. Après avoir expliqué les raisons pour lesquelles des innovations de cet ordre apparaissent en grappe, Hal Varian donne quelques pistes pour comprendre pourquoi la révolution Internet fut bien plus rapide à se concrétiser que les précédentes révolutions industrielles (serait-elle mineure ? serait-elle différente car axée sur des outils immatériels, reproductibles sans délais ? est-ce lié au fait que le nombre d’outils – tels les protocoles par exemple – est limité ?). La période actuelle est celle d’une consolidation des inventions significatives et d’un processus de recombinaison. Les gains sociaux qu’on pourra en tirer apparaîtront lorsque ces innovations seront intégrées aux pratiques des entreprises, dont la réorganisation dans ce sens est en cours.

L’analyse des stratégies des entreprises se fait logiquement dans une situation de concurrence imparfaite (penser à la structure typique coûts fixes élevés / coûts variables faibles). La première qui est abordée est la différenciation des prix, dont de nombreuses variantes sont envisagées. Dans chaque cas, Varian analyse les conséquences en matière de répartition du surplus collectif. Les raisonnements utilisés sont classiques. Les résultats aussi. Varian prend bien le soin de donner des exemples éclairants de situations où ces tarifications sont pratiquées. Selon les cas, producteurs ou consommateurs sont favorisés par la différenciation des prix. L’analyse porte ensuite sur les coûts de transferts et les « lock-in » (qu’on pourrait improprement traduire par « blocage » ou « enfermement ») qu’ils induisent. C’est un problème bien connu. Lorsque vous faites l’acquisition d’un bien, tel une imprimante, le choix d’une marque conduit à une forme de sentier de dépendance à l’égard de cette marque pour ce qui concerne les cartouches d’encre (ou au moins aux quelques fabricants qui les produisent). Ce phénomène se traduit alors par des pratiques concurrentielles spécifiques, dont on peut dire qu’elles sont globalement plutôt défavorables au bien-être des consommateurs. En particulier, si un client connaît un certain degré de captivité, la grande question est de savoir comment le capturer avant les autres (ce qui renvoie encore aux possibilités de discriminer par les prix entre anciens et nouveaux clients). Ce sont ensuite les économies d’échelle qui sont abordées, côté offre et côté demande. Côté offre, Varian insiste sur le fait que si traditionnellement on pensait en termes de monopole naturel lorsqu’il était question d’économies d’échelle, la réalité de la concurrence sur les marchés NTIC est assez différente, compte tenu, d’une part, des stratégies utilisées par les firmes pour devenir LE monopole et, d’autre part, de certains aspects propres aux NTIC (on pensera notamment à la baisse importante des coûts fixes absolus qui, sans modifier totalement la structure des coûts, réduisent les barrières à l’entrée). Au final, le tableau que l’on peut dresser en matière de bien-être est moins alarmiste qu’on pourrait le penser. Côté demande, ce que Varian appelle « économies d’échelle » est relatif à la notion d’ externalités de réseau. Si la satisfaction qu’un individu tire d’un bien dépend (positivement) du nombre de personnes qui l’utilisent déjà, l’émergence et le développement d’un marché seront différents de ceux d’un marché dénués d’effets de réseau. Les NTIC ne sont pas historiquement les premiers biens concernés. Un très bon exemple est le téléphone. Néanmoins, ce qui les caractérisent, c’est le grand nombre de biens de la catégorie qui y sont soumis. Songez à un logiciel de messagerie, à un traitement de texte dont les documents doivent être transmis à des clients, des fournissseurs, des co-auteurs etc. Dans ce domaine, la question est de savoir si on atteindra ou non une masse critique d’utilisateurs, permettant de voir le marché exploser. Il en découle un certain nombre de conséquences en termes de stratégies. Des externalités de réseau, on aboutit assez logiquement sur le problème des standards. Sur un marché soumis à des effets de réseau, une entreprise est face à un dilemme : doit-elle tenter de développer le réseau seule (et en tirer tous les bénéfices), au risque de ne pas voir « son réseau » gagner ; ou doit-elle préférer l’instauration d’un standard qui assure le développement d’un réseau suffisamment large pour livrer une concurrence sur les parts de ce marché ? Dans la réalité, les deux logiques se croisent. Varian décrit les stratégies à l’œuvre en la matière.

Après quelques remarques sur les relations stratégiques entretenues entre fournisseurs de biens complémentaires, Varian laisse la place à ses deux co-auteurs, pour une analyse justement complémentaire de la sienne. Farrell et Shapiro se penchent sur un point volontairement volontairement ignoré par Varian, à savoir la dynamique concurrentielle associée à la propriété intellectuelle dans les NTIC. Après avoir souligné que la propriété intellectuelle joue un rôle inédit, et fondamental, dans le développement d’une économie post-industrielle, ils décrivent succinctement les caractéristiques et raisons d’être économiques des brevets, secret de fabrication et droits d’auteur. Rien de très original, sur un sujet qui est désormais très connu (exception faite peut-être du secret, moins évoqués pour le grand public, alors même qu’il occupe une place très importante dans les mécanismes retenus pour la protection de la propriété intellectuelle). D’un côté, la « incentives school », qui rappelle que la production d’innovation repose sur l’incitation à investir, celle-ci étant inexistante si l’inventeur craint de voir son invention exploitée gratuitement par les autres. De l’autre côté, la « openness school », qui insiste sur l’idée que les incitations financières ne sont pas les seules (réputation, avancement, etc.) et que la diffusion des connaissances est socialement avantageuse. Les auteurs se penchent ensuite plus en détail sur les brevets. Sont-ils incitatifs ? Peut-on déterminer une protection optimale ? Sur ce dernier point, la réponse est problématique : certes, il est tout à fait possible d’écrire des modèles qui exhibent une protection optimale. Mais dès qu’il faut choisir une protection optimale en grandeur nature, on se heurte à une réelle impossibilité de déterminer ce qu’elle est. Quelques développements suivent sur l’importance des licences dans le processus de diffusion des inventions. Puis, Farrell et Shapiro reviennent sur les secrets de fabrication, dont ils rappellent qu’ils sont une forme de protection ambiguë (ils n’assurent de protection, par exemple, que si le secret n’est pas « redécouvert »). Cette longue entrée en matière conclue, les auteurs analysent une par une les stratégies évoquées par Varian dans la première partie, en regard de la propriété intellectuelle. Ils commencent donc sur la différenciation, en prenant comme exemple l’industrie du disque, dont ils montrent que sa stratégie a été largement de court terme, puisqu’elle a ignoré les possibilités de différenciation (aussi bien sur les prix que les produits). En matière de lock-in, le secret et le droit d’auteur ont un effet indéniable. Les auteurs décrivent quelques exemples. Le lecteur peut ensuite revenir à l’analyse de la première partie pour apprécier les conséquences de la protection sur ce point. Les pages suivantes portent sur le rapport entre standard et brevets. A ce sujet, il est avancé que si l’usage de technologies brevetées dans le développement d’un standard n’est pas nécessairement un problème (les détenteurs peuvent le mettre à disposition sous des conditions favorables), le développement d’un standard incluant ce genre de technologie peut conduire à donner au détenteur du brevet un pouvoir ex post important, une fois que le standard est largement diffusé. La dernière partie de l’article recense les critiques et améliorations possibles concernant le système des brevets. Elle souiligne que depuis deux décennies, le nombre de brevets a fortement augmenté, mettant en évidence une insuffisance du système d’attribution des brevets, qui conduit à s’interroger sur les moyens à mettre en œuvre pour réduire le nombre de brevets qu’il est désormais commun d’appeler « discutable » (« questionable patents »).

Ce livre, qui se veut une introduction, est bien à conseiller dans cette logique. Très peu de modèles formels sont développés. Un bon équilibre entre la théorie et la pratique a été trouvé. On peut le recommander à un assez large public. On notera que le cœur du livre est la première partie, écrite par Varian. Il est intéressant car il montre bien que la microéconomie dispose déjà de modèles adaptés pour aborder l’économie des nouvelles technologies. Pour une analyse économique de la propriété intellectuelle, facile d’accès aussi, on se tournera plutôt vers cet ouvrage. Pour une revue de la littérature sur l’économie de la connaissance, vers celui-là.

Addendum : J’ai trouvé une version en ligne de l’article de Varian (la première partie du livre). Il est lisible ici

Stéphane Ménia
10/07/2005

H.Varian, J.Farrell, C.Shapiro, The Economics of Information Technology. , Cambridge University Press, 2004 (17,65 €)

Acheter le livre Google en parle Twitter en parle

Share Button