Archives for posts with tag: définitions

Dans un commentaire sur Contrepoints, Emmanuel Martin répond à mon billet du 3 janvier, “Le réalisme en sciences économiques”. Je me permets de reproduire son commentaire ici parce qu’il est plus complet, précis, et emploi une discours beaucoup plus académique que mon billet, écrit dans une langage familier pour s’adresser au problème familier. Emmanuel confirme certains de mes arguments et apporte des corrections et clarifications à certains autres:

Il y a réalisme et réalisme.

Le réalisme se réfère en premier lieu à la doctrine épistémologique selon laquelle la réalité existe indépendamment de l’observateur et des théories qu’il peut en faire (et se pose ainsi contre toute philosophie de l’esprit). Il y a donc une réalité objective à étudier.

Il se trouve que ce niveau ontologique d’objectivité des faits et des lois de causalité porte en sciences sociales sur le contenu subjectif des faits sociaux (évaluations, anticipations, buts…), c’est-à-dire le niveau ontique (voir Hayek 1952). L’objectivisme ontologique est donc parfaitement compatible avec le subjectivisme ontique (voir Uskali Mäki 1990).

La démarche réaliste consiste à pratiquer des abstractions de la réalité des particuliers de manière à en tirer des universaux (tant en termes d’objets qu’en termes des relations causales – de nécessité – qui les co-ordonnent). Le réalisme aristotélicien est immanent par opposition à transcendantal : l’existence des universaux dépend donc de celles des particuliers, c’est-à-dire que les universaux existent dans les particuliers qui les exemplifient, et pas dans une sphère indépendante de la réalité (comme le monde des Idées chez Platon).

Ce réalisme philosophique doit être distingué de la notion de réalisme que l’on trouve dans le « réalisme des hypothèses » (Mäki 1990), mais nous devons reconnaître le lien étroit entre les deux. Toute isolation théorique de la réalité empirique nécessite toujours un certain degré « d’irréalisme » au sens des hypothèses. Le tout est de savoir quel type d’isolation permet une abstraction des éléments justement essentiels de la réalité pour juger de cet irréalisme. A ce titre, le type d’isolation adopté est guidé par les buts scientifiques qui peuvent diverger.

Les théories en termes de modèle (fonctionnalisme) cherchent à capturer la réalité dans un moule formel par souci de prédiction, alors que les théories de processus causaux (causalité génétique) tentent d’isoler les éléments essentiels de la réalité par souci de compréhension (NB : la distinction entre théories génético-causales et théories fonctionnelles est effectuée par Mayer en 1932), ce qui n’exclut cependant pas la prédiction.

Les autrichiens faisaient face à une montée en puissance des théories en termes de modèles formels et tentaient de proposer une perspective théorique en termes de compréhension de la réalité. Cette compréhension nécessite de mettre à jour certaines caractéristiques essentielles de la réalité. Cette démarche réaliste nécessite donc une dose d’irréalisme dans le processus d’abstraction, mais le critère pour juger de la nécessité et du caractère approprié de cet irréalisme est bien la « façon dont marche le monde », c’est à dire ses caractéristiques « essentielles » (Mäki 1993, 2001).

Reférences rapides :

HAYEK, Friedrich (1952/1953/) Scientisme et sciences sociales, Plon.
MÄKI, Uskali (1990) « Scientific realism and Austrian explanation », Review of Political Economy, Vol. 2, n° 3, pp. 310-344.
MÄKI, Uskali (1993) « The Market as an Isolated Causal Process: A Metaphysical Ground for Realism » in Bruce Caldwell & Stephan Boehm (eds), Austrians Economics: tensions and New Directions, Kluwer Academic Publishers, pp.
MÄKI, Uskali (1994) « Isolation, Idealization and Truth in Economics », Poznan Studies in the Philosophy of the Sciences and the Humanities, Vol. 38 pp. 147-168.
MÄKI, Uskali (2001) « The Way the World Works (www): towards an ontology of theory choice », in The Economic World View: Studies in the Ontology of Economics, édité par Uskali Mäki, Cambridge University Press, pp. 369-389.

Mario Rizzo de l’Université de New York insiste sur un point important concernant l’absence de définition du risque systémique, et la corruption que ce flou génère. Le risque systémique n’a pas de définition claire, pas d’exemple clair, que des scénarios apocalyptiques. Parmi les scénarios sur la table sont ceux de la contagion de contrepartie (les dominos; la faillite d’une institution financière entraînant des pertes plus importantes que le capital des créanciers), et la contagion informationnelle (la faillite révèle des informations sur les risques tiers partagés, et les réactions outrepassent le réajustement et provoquent à elles seules l’insolvabilité d’autres institutions). Aucun n’est vraiment convaincant.

Il est ironique que la crainte du risque systémique ait abouti à accorder plus de pouvoir au Fond de garanti des dépôts américain à travers la Loi Dodd-Frank. Tout suggère pourtant qu’il en est la cause principale, non seulement parce qu’il diminue la quantité de capital des banques ont besoin ou à cause de la façon dont il outrepasse presque toujours son mandat pour assurer tous les créanciers non assurés, ou à cause des techniques utilisées pour résoudre les banques en faillite, mais parce qu’il retarde les faillites. Il en est coupable par une trop grande tolérance réglementaire (une flexibilité qui bien entendu ne comporte pas uniquement des désavantages), mais aussi et surtout parce qu’il empêche l’émergence de ruées bancaires qui pourraient révéler les institutions mal gérées avant le pic de la crise ne frappe, et que les faillites ne soient effectivement plus gérables.

Quel est le rôle de la recherche économique dans l’ensemble de cette situation? Il semble que la plupart du temps elle ait, parfois involontairement, fournie des justifications au fantasme du Too Big to Fail plutôt que l’inverse. Il suffit de penser à la façon dont la contagion financière et les ruées bancaires sont devenues un sujet brûlant au début des années 80, respectivement avec Aharony & Swary et Diamond & Dybvig, pour être utilisé comme une justification pour le renflouement de la Continental Illinois quelques années plus tard. Même chose dans les années 90; Schleifer & Vishny ont fourni un cadre théorique pour que des scénarios apocalyptiques de “fire sale” chez la Long Term Capital Management s’accrochent à nos esprits. Encore une fois, pensez à la façon dont la gestion des liquidités et leur rôle dans les crises est devenu un sujet brûlant dans le milieu des années 2000, et la façon dont la promotion du TARP a été faite… Attention, je ne prétends pas qu’il y ait là une causalité forte, mais le lien est tout de même intéressant.

Le livre L’Ecole Autrichienne de A à Z édité par le professeur Antoine Gentier et le professeur François Facchini est enfin disponible!

L'Ecole autrichienne de A à ZL’objet de ce livre est de donner des définitions sur les concepts clés développés par l’école autrichienne en science économique et de fournir les principales références bibliographiques relatives à ces concepts. Chaque entrée se compose d’un article accompagné de sa bibliographie. Le livre peut se lire comme un dictionnaire ou en suivant un guide de lecture thématique.

Le livre est destiné à tous les publics curieux de connaître l’état de l’art sur les apports contemporains de l’école autrichienne en science économique. Il peut servir de manuel complémentaire pour donner aux étudiants des définitions sur 50 concepts clés comme l’entrepreneur, les cycles économique, la monnaie, le subjectivisme, le droit, la finance, la concurrence, le monopole, la firme, le prix, le profit, le taux d’intérêt et beaucoup d’autres encore. J’y ai contribué pour les concepts de coût d’opportunité, de temps et de dispersion de la connaissance.

Il s’agit donc d’un ouvrage collectif rassemblant les contributions des auteurs suivants:
Mathieu Bédard, Laurent Carnis, Virginie Doumax, François Facchini, Pierre Garello, Antoine Gentier, Nathalie Janson, Elisabeth Krecké, Youcef Maouchi, Patrick Mardini, David Moroz, Philippe Nataf, Steeve Paillard, Frédéric Sautet, Luc Tardieu.

15 auteurs, 50 articles, 196 pages, un prix HT de 6,95 euros en format livre, 1,49 HT euros en format pour Ipad ou Iphone, une livraison par UPS partout dans le monde.

Si vous aviez des cours d’économie au lycée, dans votre BTS ou à l’Université, vous avez probablement appris que l’inflation était une hausse généralisée et durable du niveau des prix. C’est par exemple la définition qu’emploient les journalistes lorsqu’au JT vous entendez dire que “l’inflation est stable” (qui veut donc dire que les prix augmentent à un rythme stable). C’est aussi, sans trop de surprise, la définition utilisée par la plupart des économistes.

Il existe toutefois une vision alternative selon laquelle le mot inflation devrait conserver sa signification historique, c’est à dire une augmentation de la masse monétaire. En d’autres mots, la définition “d’inflation” serait le fait de créer de la monnaie, et qu’il y en ait donc plus en circulation qu’auparavant. Malgré l’enthousiasme et la préférence de plusieurs économistes pour cette seconde définition, elle a du mal à gagner en popularité. Cette définition est-elle plus juste que la définition plus répandue? Read the rest of this entry »

%d bloggers like this: