Théorie de la décision, élections et primaires de la droite (et du centre)

Note aux lecteurs qui passent par là : la primaire de la droite et du centre aura eu le mérite de me faire réécrire en français ! Il s’agit cependant essentiellement d’un prétexte pour parler de mon occupation actuelle… la théorie de la décision !

Dans sa version positive, la théorie de la décision (TD) est un corpus théorique visant à expliquer et à prédire les choix d’agents satisfaisant certaines conditions de rationalité dans des contextes caractérisés, notamment, par divers degrés d’incertitude. Dans sa version normative, la TD énonce un certain nombre de conditions que doivent satisfaire les choix et les raisonnements d’agents rationnels. Pour l’essentiel, la TD est « bayésienne » : les jugements et les choix des agents rationnels doivent répondre aux lois des probabilités, en particulier concernant la manière dont les jugements des agents concernant les probabilités d’occurrence d’un évènement donné (leurs croyances) doivent prendre en compte une information nouvelle. Dans ce cadre, les préférences d’un agent sur un ensemble d’alternatives faisant l’objet d’un choix dépendront de deux éléments : leur évaluation de la désirabilité des conséquences que peuvent les alternatives et leur évaluation de la probabilité de ces conséquences étant donnée l’alternative choisit.

Formalisons quelque peu les choses. Soit W un ensemble de propositions « basiques » X sur lesquelles les jugements (croyances et désires) de l’agent rationnel portent. A ∈ W est un sous-ensemble de (disjonctions de) propositions décrivant les choix de l’agent. Formellement, ce sont des propositions dont la véracité est entièrement contrôlée par l’agent lui-même. Dans sa version la plus générale, la TD énonce que la valeur associée à n’importe quelle proposition X, notée V(X), est déterminée par l’expression suivante :

  • V(X) = ∑ip(Si & A|X).u(Si & A), avec A ∈ A et ∀: Si ∈ W.

L’expression (1) indique la valeur de n’importe quelle proposition X est donnée par la désirabilité de la conjonction de l’action A et d’un état de nature Si, mesurée par une fonction u, pondérée par la probabilité conditionnelle d’occurrence de la conjonction Si & A étant donnée X, mesurée par une fonction p. Si X = A (i.e. l’agent sait avec certitude que A est vrai) alors (1) devient

  • V(A) = ∑ip(Si|A).u(Si & A), avec A ∈ A et ∀: Si ∈ W.

Un agent rationnel choisira n’importe quelle alternative A pour laquelle il n’existe pas d’alternative A’ telle que V(A’) > V(A). Supposons qu’une information X soit portée à la connaissance de l’agent. Par exemple, un potentiel candidat à la présidence de la République, que nous appellerons François B., devant décider s’il se présente ou non, et dans ce dernier cas quel autre candidat soutenir, apprend qu’un certain François F. a remporté la primaire du droite et du centre avec une large avance sur Alain J. Comment François B. doit-il prendre en compte cette information pour réévaluer la valeur des différentes alternatives à sa disposition (se présenter ? quel candidat soutenir ?), compte tenu de ses croyances et objectifs initiaux ? Autrement dit, comment doit-on définir l’expression V(A|X) ?

Dans un cadre bayésien classique, l’information X va être pris en compte par l’agent rationnel au travers de la règle de Bayes. Si on note p(SiA) = p(Si|A), dans ce cas la croyance actualisée p*(SiA) de notre agent une fois l’information X reçue sera

  • p*(SiA) = p(SiA|X) = p(SiA & X)/p(X).

L’information X doit par ailleurs, d’un point de vue bayésien, être intégrée dans l’évaluation de la désirabilité de l’action A. La nouvelle évaluation devient alors

(Bayes)           V*(A) = ∑ip*(SiA).u(Si & A & X) = ∑ip(SiA|X).u(Si & A & X).

Concrètement, l’information X que François F. a gagné la primaire doit permettre à François B. de réviser sa croyance, par exemple, de l’emporter dans le cas où il se présente. La révision de ses croyances va alors à son tour entrainer une révision de ses préférences concernant les différents objets contenues dans l’ensemble A.

L’approche bayésienne stricte souffre toutefois d’un certain nombre de difficultés. Dans le cas d’espèce, le principal problème vient du fait que l’on suppose que l’information X est connue de François B. de telle sorte qu’il lui assigne une probabilité de 1, ce qui lui permet d’appliquer la règle de Bayes. Or, la victoire de François F. peut signifier différentes choses, par exemple quant à la nature des attentes de l’électorat de droite, quant au positionnement des futurs candidats de gauche, etc. Autrement dit, plutôt qu’une seule et unique information X, la victoire de François F. véhicule une partition d’informations X = {Xj}. L’idée est d’admettre la possibilité que le même évènement (la victoire de François F.) puisse être interprété de différentes manières. Formellement, cela se traduit par un changement dans les probabilités que François B. assigne à chaque élément de la partition X. Ces nouvelles probabilités viennent alors pondérer l’actualisation bayésienne, ce qui donne

  • p*(SiA) = ∑jp(SiA|Xj).p*(Xj), avec p*(Xj) la nouvelle croyance de François B. dans la proposition Xj.

Cette forme d’actualisation a été proposée par le philosophe Richard Jeffrey comme alternative à l’actualisation bayésienne. Elle repose sur le fait que les croyances « fondamentales » des agents ne sont pas fixes mais peuvent évoluer de manière indéterminée. Bien entendu, cette révision va à son tour entrainer une révision des préférences de l’agent :

(Jeffrey)         V*(A) = ∑ijp(SiA|Xj).p*(Xj).u(Si & A & Xj).

Outre le fait qu’elle permet de tenir compte du fait qu’une information peut véhiculer un message ambigu, l’actualisation de Jeffrey permet également de rendre compte de manière plus satisfaisante des évènements imprévus et autre « surprises ». Si l’on considère que la victoire de François F. était largement non envisagée il y a encore un mois et demi, François B. assignait alors probablement une probabilité 0 à la proposition X. Le problème dans ce cas, bien entendu, est la règle de Bayes est inapplicable. L’actualisation de Jeffrey ne souffre pas de cette difficulté. Par ailleurs, même si l’on considère que François B. n’assignait pas une probabilité de 0 à X (ce que tout bon bayésien ne devrait jamais faire), l’approche bayésienne standard est très peu économe en termes de ressources computationnelles conférées à l’agent puisqu’elle suppose que ce dernier a une partition assez fine des états du monde (ou dispose d’une liste suffisamment large de propositions, ce qui revient au même) pour envisager un évènement tel que la victoire de François F.

Il reste cependant un dernier point non pris en compte par l’approche de Jeffrey : la victoire de François F. peut amener à réviser non seulement ses croyances mais aussi ses désirs fondamentaux. Par exemple, si l’on considère que cette victoire de François F. indique que les idées plus centristes ne seront pas représentées à l’élection, cela peut amener François B. à conférer plus de valeur à tous les états du monde où il se présente. Dans ce cas, outre l’actualisation à la Jeffrey, François B. doit aussi actualiser ses désirs de la manière suivante :

  • u*(Y) = ∑j[u(Y|Xj) + u*(Xj)].p*(Xj|Y) = ∑j[u(Y & Xj) – u(Xj) + u*(Xj)].p*(Xj|Y) pour toute proposition Y ∈ W

Ce principe d’actualisation général englobant les croyances et les désirs est notamment proposé par Richard Bradley. L’évaluation révisée des alternatives est alors déterminée par l’expression suivante :

(Bradley)         V*(A) = ∑ijp(SiA|Xj).p*(Xj).u*(Si & A & Xj)

= ∑ijp(SiA|Xj).p*(Xj).[u(Si & A|Xj) + u*(Xj)].p*(Xj|Si & A).

Bien entendu, la TD qu’elle soit bayésienne ou non, ne peut pas dire à François B. ce qu’il doit faire dans l’absolu, mais seulement en fonction de ses croyances et désirs. A contrario, les choix futurs de François B. combinés à ce cadre théorique nous permettrons d’inférer (dans une certaine mesure) ses croyances et ses désirs, ainsi que la manière dont il les a actualisés !

Poster un commentaire

Classé dans Non classé

Billet sur le paradoxe de Newcomb – Bargaining Game

A lire sur Bargaining Game, un billet sur le paradoxe de Newcomb (ainsi que le « méta-paradoxe de Newcomb »). J’ai discuté de ce paradoxe ici à plusieurs reprises.

Poster un commentaire

Classé dans Non classé

Nouveaux billets sur « Bargaining Game »

Plusieurs (plus ou moins) nouveaux billets sont à lire sur « Bargaining Game » :

Poster un commentaire

Classé dans Non classé

Nouveau billet sur « Bargaining Game »

A lire, un nouveau sur « Bargaining Game »: « Philosophy of Mind and the Case Against Methodological Individualism« .

Poster un commentaire

Classé dans Non classé

Working paper : « Rule-Following and Constitutive Rules: A Reconciliation »

Je viens de finaliser un nouveau working paper relatif au concept de règles constitutives. Il est disponible ici. Les commentaires sont bien sûr les bienvenus.

Poster un commentaire

Classé dans Non classé

Nouveaux billets sur Bargaining Game

A lire, plusieurs nouveaux billets sur mon blog « Bargaining Game » :

« Rational Expectations and the Standard Model of Social Ontology »

« September Issue of the Journal of Institutional Economics on Institutions, Rules and Equilibria »

« Rules and Possible Worlds »

« Is the Choice of a Welfare Criterion a Matter of Opinion? »

Poster un commentaire

Classé dans Non classé

Nouveau billet sur Bargaining Game : « Frame Principles and the Grounding of Social Facts »

Nouveau billet à lire sur Bargaining Game, intitulé « Frame Principles and the Grounding of Social Facts« .

Poster un commentaire

Classé dans Non classé

Nouveau billet sur « Bargaining Game » : « Are There Constitutive Rules »

Je viens de publier un nouveau billet sur le blog « Bargaining Game », intitulé « Are There Constitutive Rules?« . Comme son nom l’indique, le billet porte sur le concept de règles constitutives, sujet que j’ai déjà abordé plusieurs fois ici.

Poster un commentaire

Classé dans Non classé

Nouveaux billets sur « Bargaining Game »

Deux nouveaux billets sur mon nouveau blog « Bargaining Game », l’un (publié il y a 3 jours) à propos de l’ouvrage Emergence of Norms de Edna Ullmann-Margalit, l’autre une réflexion sur la délimitation de la philosophie de l’économie.

Poster un commentaire

Classé dans Non classé

Bargaining Game

Le milieu du mois d’août n’est peut-être pas le moment idéal pour cela, mais quoiqu’il en soit j’informe mes fidèles lecteurs que je viens de mettre en ligne un nouveau blog « Bargaining Game » consacré à… la philosophie de l’économie et tout ce qui tourne autour. C’est l’aboutissement logique d’un processus que j’avais amorcé il y a quelques semaines en publiant deux billets en anglais. L’ouverture d’un nouveau blog est un moyen symbolique de marquer le coup, même si sur le plan éditorial il n’y aura pas de grand changement. De toute évidence, il est peu probable que l’activité sur le présent blog se poursuive, même si au moins dans un premier temps, je signalerai ici tout nouveau billet sur Bargaining Game. Je n’ai pas non plus l’intention dans l’immédiat de fermer ce blog, ce qui veut dire que le contenu restera disponible – au moins jusqu’à temps que je trouve un moyen de le recycler. J’espère vous retrouver pour de nouvelles aventures, cette fois dans la langue de Shakespeare !

1 commentaire

Classé dans Non classé

Irrational Consumers, Market Demand and the Link Between Positive and Normative Economics

As a follow-up to my last post, I would like to briefly return on the claim that the representative agent assumption is also well alive in microeconomics, not only in macroeconomics. As Wade Hands explain in several papers I linked to in the previous post, the representative agent assumption in microeconomics finds its roots in the study of consumer’s choice and more generally in demand theory. This may seem surprising (at least for non professional economists) since in virtually all microeconomic textbooks the study of demand theory starts from the analysis of the individual consumer’s choice. This reflects the fact that initially ordinal utility theory was conceived as a theory of the rational individual consumer with market demand simply derived through the horizontal summation of the individual demand curves. Similarly, in his seminal article on revealed preference theory, Samuelson started with well-behaved individual demand functions on the basis of which he derived a consistency axiom nowadays known as the weak axiom of revealed preference theory.

However, as it is well-known, the idea that the individual consumer is rational in the specific sense of ordinal utility theory (i.e. the consumer’s preferences over bundle of goods form a complete ordering) or revealed preference theory (i.e. the consumer’s choices are consistent in the sense of some axiom) is a disputed one, inside and outside economics. A foundational issue for economics has been, and still is the relationship between individual rationality and what can be called “market” or “collective” rationality. To ask the question in these terms already marks a theoretical and even an ontological commitment: it presupposes that the rationality criteria we apply to individual agents are also relevant to study collective behavior. Some economists have always resisted this commitment. However, acknowledging the fact that individual consumers may not be rational, the issue is obviously an important one for the validity of many theoretical results in economics, particularly concerning the properties of market competition.

An important paper from this point of view is Gary Becker’s “Irrational Behavior and Economic Theory” published in 1962 in the Journal of Political Economy. Becker established that the so-called law of demand (i.e. demand is a decreasing function of price) is preserved even with irrational consumers who either choose randomly a bundle of goods among the bundles in the budget set or who, because of inertia, always consume the same bundle if it is still available after a change in the price ratio. The simplest, random-choice case, is easy to illustrate. Becker assumes a population of irrational consumers who choose a bundle on their budget hyperplane according to a uniform distribution. In other words, a given consumer has the same chance to choose any bundle which exhausts his monetary income. Consider the figure below:

Becker 2

Consider the budget set OAB first. An irrational consumer will pick any bundle on the budget line AB with the same probability. Since the distribution is uniform, the bundle a (which corresponds to the mid-point between A and B) will be chosen on average in the population. Now, suppose that good x becomes more expensive relatively to good y. CD corresponds to the resulting compensated budget line (i.e. the budget line defined by the new price ratio assuming the same real income than before the price change). For the new budget set OCD, the bundle b is now the one that will be chosen on average. Therefore, the compensated demand for good x has decreased following the increase of its price. This implies that the substitution effect is negative, which is a necessary condition for the law of demand to hold. Note however that this not imply that each consumer is maximizing his utility under budget constraint. Quite the contrary, an individual consumer may perfectly violate the law of demand through a positive substitution effect. For instance, one may choose a bundle near point A with budget set OAB and a bundle near point D with budget set OCD, in which case the consumption of x increases with its price.

Clearly, there is nothing mysterious in this result which simply follows from a probabilistic mechanism. Becker used it as a “as-if” defense of the rationality assumption for consumer choice. Even if consumers are not really rational, one can safely assume the contrary because it leads to the right prediction regarding the shape of the market demand. As Moscati and Tubaro note in an interesting historical and methodological discussion, most of the experimental studies based on Becker’s theoretical argument have focused on the individual rationality issue: are consumers really rational or not? As the authors show, it turns out that Becker’s article and the subsequent experimental studies only offer a weak defense of the rationality assumption because they only show that rational choice is a plausible explanation for demand behavior, not the best explanation.

Surprisingly however, the most significant economic implications of Becker’s argument seem to have been largely ignored: the fact that individual rationality is of secondary importance to study market demand and that only “collective” rationality matters. This idea has been recently developed in several places, for instance in Gul and Pesendorfer’s critique of neuroeconomics and in Don Ross’ writings on the scope of economics. The latter offer a sophisticated account of agency according to which an economic agent is anything that fulfills some consistency requirements. Contrary to Becker, Ross’ approach is not grounded on an instrumentalist philosophy but rather on a realist one and provides a strong defense for the representative agent assumption in microeconomics.

The problem with this approach does not only lie in the fact that it excludes from the scope of economics all issues related to individual rationality. More significantly, as I already note in the preceding post, it has significant implications for the relationship between positive and normative economics. Welfare analysis has been traditionally grounded on the preference-satisfaction criterion. The latter is justified by the fact that there is an obvious link between the preferences of an (individual) agent and the welfare of a person. The link is lost under the more abstract definition of agency because there is no reason to grant to some abstract market demand function any normative significance, despite its formal properties. Added to the fact that the irrationality of consumers makes the preference-satisfaction criterion meaningless, this makes necessary to rethink the whole link between positive and normative economics.

Poster un commentaire

Classé dans Non classé

Hands on the representative agent in macroeconomics and revealed preference theory

Note – comme vous pouvez le remarquer, ce billet a une particularité : il est en anglais. Cela fait un certain temps que l’idée d’écrire au moins certains billets en anglais me tente et histoire de marquer mon retour après un certain temps d’absence, je me lance. Je suppose (et je comprend) que certains lecteurs ne verront pas cela d’un très bon oeil, mais en même temps on écrit pour être lu, et de ce point de vue écrire en anglais est optimal. Cela ne veut pas dire pour autant que tous les billets à l’avenir seront en anglais, tous dépendra du « succès » de l’expérience.

I am currently doing the ultimate refinements on my working paper “Sen’s Critique of Revealed Preference Theory and Its Neo-Samuelsonian Critique”. In the process, I have just finished to read several papers by Wade Hands on Paul Samuelson’s contribution to revealed preference theory and general equilibrium analysis. Hands’ papers are mainly historical but they also contain many interesting methodological and theoretical insights regarding the significance and the relevance of the representative agent assumption in modern economics. Lire la suite

Poster un commentaire

Classé dans Non classé

Nouveau working paper : « Distributive Ethics, Separability and the Competing Claims View of Fairness »

Entre écrire des billets et écrire des papiers, il faut choisir (au moins en ce moment), et donc voici un nouveau working paper qui porte sur un sujet abordé plusieurs fois ici récemment :

« Distributive Ethics, Separability and the Competing Claims View of Fairness: A (Partial) Defense of Prioritarianism« 

As usual, comments are welcome!

Poster un commentaire

Classé dans Non classé

« Welfarisme et utilitarisme », « Egalitarisme et prioritarisme » (diaporamas de cours)

Suite et fin des diaporamas de mon cours « Economie normative et équité » : le premier est consacré à une discussion critique du welfarisme, le second à la distinction entre priorité et égalité. N’hésitez pas à me faire part de vos commentaires !

Poster un commentaire

Classé dans Non classé

Sport et philosophie : à quelles conditions joue-t-on à un jeu ?

Alors que je regardais il y a deux jours le match de basket NBA entre les Spurs de San Antonio et les Rockets de Houston, je me suis rappelé un article du philosophe David Papineau sur son blog consacré à la philosophie et au sport qui se demandait « What exactly does it take to be playing a game?« . Comment une telle interrogation wittgensteinienne peut-elle venir à l’esprit alors que l’on regarde du sport à la télévision ? En l’espèce, l’explication est la suivante : alors que le match battait son plein, les Spurs, sur consigne de leur coach Greg Popovich, ont mis en application une stratégie connue sous le nom de « Hack-a-Shaq », en référence au surnom de l’ancien pivot Shaquille O’Neal, unanimement considéré comme l’un des meilleurs de tous les temps à son poste. Bien qu’il ait été un des joueurs les plus dominants de son époque, O’Neal avait un point faible prononcé : une incapacité à ne réussir guère plus que 50% de ses lancers-francs, là où un joueur NBA tourne en moyenne à 70-75% et où les meilleurs dépassent les 90%. Certaines équipes adverses à l’époque (on parle des années 90 et 2000) ont alors adopté une stratégie consistant à faire faute volontairement sur O’Neal, même lorsque celui-ci n’avait pas le ballon, pour l’envoyer sur la ligne des lancer-francs*. La stratégie relève d’un simple calcul d’espérance de gain : en moyenne, une équipe NBA marque environ 100 points par match pour approximativement 90 possessions, soit un peu plus de 1,1pt/possession. En faisant faute sur O’Neal, ce dernier, du haut de ses tout juste 50% de réussite aux lancer-francs, ne scorait en moyenne que 1 point. A cela s’ajoute que la stratégie avait aussi le mérite de couper le rythme de tous les autres joueurs.

Depuis quelques années, cette stratégie s’est largement répandue en NBA, en raison notamment de la multiplication des joueurs incapables de rentrer leurs lancer-francs, avec parfois des pourcentages bien inférieurs aux 50%. C’est précisément ce qui est arrivé dans le match entre les Rockets et les Spurs, lorsque ces derniers se sont mis dans le 3ème quart-temps à enchaîner les fautes sur un joueur des Rockets, en l’occurence Josh Smith. Résultat des courses, ce dernier va tirer le nombre record de 26 (!!) lancer-francs en un seul quart-temps pour seulement 12 réussites. La stratégie sera payante puisque les Spurs vont l’emporter, profitant largement des points laissés en route par Smith.

Le hack-a-Shaq est un véritable supplice pour le (télé)spectateur puisque cette stratégie a pour conséquence de rendre le match interminable tout en limitant l’action sur le terrain au minimum syndical. Elle a aussi le don d’irriter les joueurs, entraineurs et dirigeants, même si de manière peu surprenante elle suscite des contestations davantage du côté des équipes qui subissent la stratégie. C’est ici que la question de Papineau intervient : à partir de quand un comportement ou une stratégie devient « en-dehors » du jeu ? Formellement, en tant que stratégie, le hack-a-Shaq est autorisé par les règles (sauf dans les 2 dernières minutes d’un match) même si elle repose sur une violation volontaire de ces dernières (faire faute volontairement). Papineau envisage trois possibilités : un comportement peut rentrer dans le cadre du jeu soit selon 1) les règles formelles, 2) les normes de « fair play » ou 3) le respect de l’autorité des « officiels ». Il est clair que le premier critère n’est pas satisfaisant : il y a de nombreuses situations dans le sport où le détournement voire le non-respect des règles fait « partie du jeu », autrement relève d’une pratique collectivement acceptée. Dans de nombreux cas, une certaine ambiguité existe entre le fait de savoir s’il s’agit de violations pures et simples d’une règle (la simulation au foot) sanctionnée de manière non-systématique ou plutôt du fait de jouer avec les règles, autrement dit de profiter avantageusement de ses dernières. Ce dernier cas de figure fait le lien avec la seconde possibilité : jouer à un jeu, c’est respecter le « code moral » de ce jeu. Papineau donne des exemples, tel que la fameuse main de Thierry Henry contre l’Irlande en barrage pour la qualification à la coupe du monde de 2010 (ou rétrospectivement, on peut se dire qu’il aurait été préférable de ne pas y être !), qui montre que le fait de ne pas se conformer à ce code ne remet pas en cause le résultat collectivement accepté (une autre main fameuse, celle de Maradonna en 1986, est également une « jolie » illustration). Le Hack-a-Shaq rentre également partiellement dans cette catégorie : bien que la pratique soit largement condamnée par les spectateurs, journalistes, coachs et joueurs, elle est toujours de fait autorisée et effective. Bien entendu, quand une pratique devient trop systématique, on peut s’attendre à une évolution des règles formelles, mais cela n’empêche que durant la période de transition, cette pratique n’est pas contradictoire avec le fait de participer au jeu. Reste la troisième possibilité évoquée par Papineau, celle d’accepter l’autorité des officiels, à commencer par les arbitres. Outre qu’il s’agit de l’une des premières choses que l’on inculque à un enfant lorsqu’il commence une pratique sportive, l’acceptation de cette autorité semble être une condition sine qua non : comme le dit Papineau, refuser de se soumettre à l’autorité, c’est en quelque sorte s’exclure de fait du jeu. Néanmoins, il me semble que les mêmes remarques que celles faites plus haut restent valables ici : on peut tout à fait chercher volontairement à tromper ou à influencer l’arbitre pour obtenir un avantage. C’est une pratique largement répandue dans le sport professionnel, peut être plus dans certains sports que dans d’autres. Surtout, il me semble que cette solution perd une grande partie de sa pertinence unefois que l’on considère que les officiels font, d’une certaine manière, également partie du jeu. Dans ce cas, leur autorité ne peut pas être comprise indépendamment des règles qui pré-existent et qu’ils sont supposés faire respecter.

A la question de savoir ce qui constitue le fait de jouer à un jeu, j’aurais tendance de mon côté à donner une réponse toute aussi wittgensteinienne : le fait de jouer à un jeu consiste en un ensemble de pratiques dont la force normative découle du fait qu’elles s’inscrivent au sein d’une communauté constituée de tous les participants pertinents : joueurs, entraineurs, officiels mais aussi, d’une certaine manière, (télé)spectateurs et journalistes. Ces pratiques peuvent elles-mêmes s’analyser comme le fait de suivre des règles, non pas les règles formelles évoquées plus haut, mais qui correspondent plutôt à un ensemble d’anticipations, de croyances et de préférences. Ces règles fonctionnent sur la base d’une « compréhension commune » de la situation dans laquelle les différents agents sont insérés. Certaines de ces règles sont plus fondamentales que d’autres dans le sens où elles correspondent à des croyances totalement partagées et normativement prégnantes : par exemple, il est absolument inconcevable dans un match de basket qu’une équipe prétende marquer des paniers à 4 points ou qu’un joueur défende en plaquant son adversaire. Le point n’est pas que ces pratiques sont interdites par les règles formelles (elles le sont bien sûr) ; la compréhension commune qu’ont les acteurs du jeu auquel ils jouent leur permet d’inférer (et de rendre connaissance commune) les implications de tels comportements. Ces règles fondamentales peuvent s’interpréter comme les « règles constitutives » du basket.D’autres règles/pratiques sont moins systématiques : la pratique du Hack-a-Shaq qui  a motivé ce billet est un excellent exemple. Aujourd’hui, cette pratique fait bien partie du jeu parce que de fait elle est utiisée et acceptée par les différents acteurs. Ce ne sera peut être pas toujours le cas, sans que l’on puisse considérer que l’existence ou non de cette pratique spécifique affecte signifiativement la représentation des acteurs du jeu auquel ils jouent.

* En NBA, toute faute commise sur un joueur par une équipe qui a plus de 4 fautes collectives dans le quart-temps envoie automatiquement le joueur sur la ligne des lancer-francs.

1 commentaire

Classé dans Non classé