Russell détourné – L’autosuffisance de la citation d’un philosophe

Les réseaux sociaux sont propices aux expressions d’opinions et affirmations de positions. Entre deux débats, il n’est pas rare de voir nos amis débatteurs ponctuer leurs trêves de citations censées soutenir leur cause. Certaines de ces citations mettent en cause directement et nommément un individu, une communauté, un groupe de personnes, un courant de pensée symbolisant un problème. Une de ces citations a retenu mon attention : « L’ennui en ce monde c’est que les imbéciles sont sûrs d’eux et les gens sensés pleins de doutes. »
Cette citation de Bertrand Russell est fréquemment utilisée. Et pourtant elle dynamite systématiquement tous ceux qui l’utilisent.

En parlant des gens sûrs d’eux, Bertrand Russell fait allusion à ceux qui ne se remettent pas en question. Russell, en bon philosophe-mathématicien logiciste, se devait de tester méticuleusement chacune de ses théories, de peser avec application chacun de ses propos. Il était en perpétuelle remise en question. Les démarches philosophique et scientifique ont en commun d’analyser une situation en contexte pour proposer des règles afin de comprendre un mécanisme. Russell était un chercheur qui avait pour but de constituer les meilleurs modèles possibles avec le meilleur sens critique possible. A la lumière d’une autre citation de Russell, sa perspective ne fait plus… aucun doute : « Existe-t-il au monde une connaissance dont la certitude soit telle qu’aucun Homme raisonnable ne puisse la mettre en doute ? »

Russell, par cette citation, a donc exprimé sa démarche d’humilité quant à son aventure dans le monde des idées. Il aurait été mal venu qu’il fût fermé et figé dans dans ses certitudes en prononçant de tels mots. En conséquence, ce serait être bien mal inspiré que d’utiliser cette citation pour dénoncer un adversaire qui serait identifié alors comme dogmatique, fermé et figé dans des certitudes, puisque cet adversaire pourrait alors reprendre cette citation à son propre compte, et accuser son interlocuteur d’être lui-même fermé et figé dans sa certitude que l’autre est fermé et figé dans des certitudes.

Avec cette citation, on se prive de l’habilitation à formuler les moindres certitudes, des affirmations sans nuances, sous peine de se les voir reprocher par un contradicteur au nom de sa propre citation. Invoquer cette citation, c’est présupposer que l’on n’a pas de certitudes, tout en désignant et dénonçant avec aplomb (« imbéciles »), donc certitude, ceux qui en ont. On ne pourrait se sortir du champ d’application de cette citation qu’en précisant que, finalement, il vaut mieux avoir des certitudes justes que des certitudes fausses. Le premier individu aura en effet dégainé cette citation car il pense avoir une meilleure certitude que son partenaire rhétorique. Mais cette conclusion autocomplaisante peut très bien se passer d’examen critique de sa propre autoévaluation.

Citer ces mots de Russell pose un problème si l’on estime que celui qui utilise cet argument d’autorité, une phrase de philosophe, n’a pas effectué le même travail de sens critique que Russell lui-même. Utiliser cette citation présuppose, en effet, que l’on a effectué un travail de sens critique suffisant, et que l’on peut désormais se permettre de juger ceux qui ont des certitudes et qui méritent d’être traités d’ « imbéciles ». Au nom de cette citation, chacun pourra décréter que l’autre est un imbécile, c’est-à-dire que l’autre doit se remettre en question, ce qui est de l’ad hominem rendant sourd à tout propos de fond. Si l’on valide soi-même le postulat que c’est l’autre qui doit se remettre en question, on ne peut en effet plus entendre son propos, que l’on a jugé et condamné sans estimer devoir soi-même se remettre en question.

Ce que l’on pourrait regretter dans la citation de Russell, c’est la faiblesse qu’il a eue d’utiliser un jugement de valeur grossièrement subjectif avec le terme « imbéciles » (« stupid », dans la version originale*), attirant aujourd’hui l’attention d’éventuels imbéciles (des personnes fermées et suffisantes) qui reprendraient la citation du malheureux Russell, qui parlaient d’eux, afin de dénoncer ceux qu’ils sont eux-mêmes : fermés et suffisants. Condamner chez autrui ce que l’on est soi-même fait partie des facéties de l’homo sapiens sapiens : par un phénomène de projection, troublé par ses sens, on peut attribuer sans discernement à autrui une façon de penser que l’on conçoit sans mal puisqu’il s’agit en réalité de la sienne.

Cette citation contraint obligatoirement au démantèlement de ses propres certitudes sous peine de se faire traiter d’individu dogmatique. Demander à quelqu’un de faire preuve de sens critique est une requête désespérée vaine. Le dogme, le sien ou celui d’autrui, est la limite du sens critique. Le sens critique ne peut donc pas être exigé de l’autre, sinon ce serait un dogme-contre-dogme synonyme de combat et non débat. Le sens critique ne peut qu’être travaillé personnellement comme une exigence intime, un travail sur l’indépendance de sa propre pensée. Sans sens critique, l’humain oublie ou ignore que sa supposition est une hypothèse, il la transforme alors en illusion propice à l’adhésion à un paradigme dogmatique construit et renforcé par une dualité formée par la définition d’ennemis sur-mesure, forcément des imbéciles. La pensée duelle, à l’arrière-goût de manichéisme, est un train de naïveté accroché à des rails dogmatique. Pour faire preuve de sens critique, il faut (re)devenir un modeste piéton lent. Un piéton lent et malmené par des ferraris rutilantes et autres porsches prétentieuses – les egos – qui foncent droit dans des murs ou des ravins. Avoir raison est-il si important après tout ?

* The trouble with the world is that the stupid are cocksure and the intelligent are full of doubt.

Permanente Impermanence – Peut-on, doit-on éviter l’erreur ou l’échec ?

Les mots “erreur” et “échec” sont porteurs d’une connotation qui renvoie à une expérience négative. Pour le mot “échec“, le dictionnaire Larousse nous donne la définition suivante : résultat négatif d’une tentative. C’est pourquoi il est communément considéré qu’il est préférable de ne pas faire d’erreur, afin d’obtenir un résultat positif, le contraire d’un échec, un succès. Si l’on pouvait choisir, a priori tout le monde choisirait de ne pas commettre d’erreur… Le contraire serait étonnant.
L’erreur révèle l’inadéquation entre ce que vise quelqu’un et ce qu’il obtient, entre le désir et le résultat, entre l’attente et la réalité. L’échec est une erreur qui se situe à une échelle supérieure : l’échec implique une vision rétrospective d’un cycle de tentative qui peut contenir des erreurs. L’échec est un bilan, tandis que l’erreur se situe encore pendant le processus.
L’erreur et l’échec sont désagréables, mais il semble difficile de concevoir une vie sans en commettre. Préparez-vous à être déçus plusieurs fois dans votre vie, c’est inévitable semble-t-il ! On commet tous des erreurs, on connaît tous des échecs. Néanmoins, il est possible d’en tirer des enseignements. Tiens donc… Si nos erreurs et nos échecs sont utiles donc bénéfiques, peut-être est-il alors souhaitable d’en commettre.

  • Se tromper

Dans sa quête de liberté, l’être humain veut s’affranchir des tromperies des autres et également de ses propres erreurs de jugement afin d’accéder à une opinion aussi personnelle et aussi conforme à la réalité que possible. Le Larousse nous dit que l’erreur est l’acte de se tromper, d’adopter ou d’exposer une opinion non-conforme à la vérité, de tenir pour vrai ce qui est faux. “Erreur” vient du verbe latin “errare” qui signifier “errer“. Celui qui commet une erreur n’arrive pas à destination (la vérité), il ne se situe plus sur le chemin qui y mène, il erre.
La tromperie que l’on subit nous éloigne de la vérité, nous fait errer dans l’illusion. Se baser sur une illusion pour agir ferait mal évaluer la situation et donc n’inspirerait pas de bons moyens pour arriver à ses fins. Quand on trompe quelqu’un, il ignore l’illusion, il la croit malgré lui : si je fais croire à un ami que je suis allé en vacances dans un pays où je n’ai jamais mis les pieds, je vais faire appel à mes connaissances pour essayer de construire un discours approprié à mon but. Je ne vais pas dire la vérité, je vais dire un mensonge et donc adopter une démarche volontaire de tromperie.
Quand on se trompe soi-même, on ignore l’illusion que l’on s’est construite, on la croit malgré soi. On peut se demander alors dans quelle mesure on peut se faire croire à soi-même une version altérée de la réalité que l’on connaît pourtant. En effet, la forme réfléchie du verbe “se tromper” suggère une superposition, une (con)fusion entre celui qui trompe et celui qui est trompé. C’est un paradoxe : si l’on peut considérer que le trompé est la victime du trompeur quand il croit l’illusion sans savoir que c’en est une, on devrait alors logiquement considérer que le trompeur est coupable car il sait qu’il trompe l’autre. Dans le cas où les deux, le trompeur et le trompé, sont la même personne, il y aurait donc un dédoublement cognitif de l’individu. Cela présupposerait donc que le trompé connaît une version altérée de la réalité qui serait forcément connue par le trompeur qui décide de l’altérer. La connaissance de la réalité se trouverait alors à la portée du trompé, puisqu’il forme avec le trompeur une seule et même personne. Voilà qui semble illustrer la présence de plusieurs niveaux de conscience. Notre ami Freud développera sans doute lui-même ce point dans une prochaine publication.

  • Eviter l’erreur et ses conséquences

Cas numéro 1 : avoir déjà commis l’erreur auparavant et s’en souvenir.
Un jour, par inadvertance, j’ai bu un peu d’alcool alors que j’avais pris des médicaments. C’était une erreur, car cette combinaison est généralement contre-indiquée, c’est dangereux pour la santé. D’ailleurs j’en suis mort. La contrepartie positive de cette expérience malheureuse est que, depuis cette erreur, je n’ai plus jamais mélangé alcool et médicaments, et donc je ne suis plus jamais mort. Si j’ai déjà commis l’erreur, il me suffit d’analyser les paramètres interprétés comme étant l’erreur et d’ensuite les contrarier en organisant des conditions différentes. Toutefois, si je remplaçais l’alcool par de l’eau de javel pure, je commettrais une nouvelle erreur. Changer les paramètres de l’erreur n’est pas suffisant pour obtenir le résultat attendu : on peut remplacer une erreur par une autre erreur. Chaque nouvelle erreur commise alimente une base de données, l’expérience du sujet, permettant par une ou plusieurs déductions de trouver des moyens d’éviter des erreurs dans des situations postérieures, qu’elles s’inscrivent dans une situation scrupuleusement identique au modèle ou bien analogue.

Cas numéro 2 : ne jamais commettre l’erreur.
D’un point de vue pragmatique, le moyen le plus simple d’éviter l’erreur aurait été de ne pas avoir combiné alcool et médicaments, afin de ne pas provoquer la mort. Certaines personnes commettent des erreurs que ne commettent pas d’autres. On peut alors compter sur la chance, le hasard, pour ne pas commettre l’erreur. Selon la conclusion du cas numéro 1, c’est une première réalisation de l’erreur qui peut permettre de ne pas la reproduire. On peut également bénéficier de l’expérience de quelqu’un d’autre, dont on aurait été témoin de l’erreur, ou qui aurait fait part de son expérience par son témoignage. L’expérience d’autrui peut être un moyen d’alimenter sa base de données sans commettre l’erreur soi-même. Néanmoins, dans ce cas, il est nécessaire de croire un témoignage sur parole ou d’être convaincu par son argumentaire. Mais la leçon apprise/enseignée par l’autre n’a pas le même goût que la leçon éprouvée soi-même, empiriquement. Comme chez l’enfant qui commet des bêtises malgré les mises-en-garde de ses parents, on a parfois un doute sur la validité de l’expérience racontée par quelqu’un d’autre. On retrouve alors une situation qui ressemble au cas numéro 1 détaillé ci-dessus, à une différence près : un homme averti en vaut deux. S’il veut expérimenter l’erreur, il pourra se prémunir de ses conséquences et agir avec prudence en s’appuyant sur l’expérience d’autres personnes, pour ainsi ensuite en accepter la leçon dans sa banque de données à la suite de son expérimentation personnelle (même conclusion que pour le cas numéro 1).

Cas numéro 3 : commettre l’erreur sans en faire les frais.
Dans le fond, l’erreur n’est pas ce qu’on veut éviter : ce que l’on veut éviter, c’est la conséquence de l’erreur, l’échec. Alors que tous les paramètres de l’erreur semblent réunis, être chanceux peut permettre de compenser l’ignorance de la possibilité de l’erreur. L’expérience fait prendre conscience et sert à se prémunir d’erreurs, mais la naïveté accompagnée de chance peut faire commettre une erreur sans en subir les conséquences, alors que l’on n’a pourtant rien fait pour s’en prémunir. En effet, si j’avais absorbé des médicaments avec de l’alcool mais n’en étais pas mort, parce que j’aurais avalé un antidote involontairement, j’aurais certes commis la même erreur que lorsque je suis mort, mais je n’en aurais pourtant pas subi les conséquences. Alors, si je n’ai aucune raison de penser que j’ai commis une erreur, je ne peux pas penser que j’en ai commise une, car aucun désagrément n’aurait contrarié mes plans. On peut alors se poser la question de la définition de l’erreur : celui qui ne subit pas les conséquences d’une erreur qu’il a commise, a-t-il réellement commis une erreur ou l’erreur n’est-elle qu’une projection de l’esprit, une illusion ? Si une erreur n’en est pas une dans tous les cas où elle se produit de la même façon, est-ce toujours une erreur ? L’erreur est-elle une essence ou une perspective subjective ?

  • La relativité

Quand je constate une erreur, quelqu’un d’autre peut ne pas la voir et désapprouver mon point de vue. L’utilisation du mot “erreur” implique un regard évaluant subjectif. Prenons A qui écrit “un après-midi” et B qui lui dit qu’on doit utiliser le féminin “une après-midi“. B pense que A a commis une erreur. A pense lui aussi que B commet une erreur s’il utilise le féminin. Ils auront chacun tort l’un selon l’autre. Alors arrive C, qui dit que l’on peut accepter les deux : il a raison et donc A et B commettaient tous les deux une erreur de croire que l’autre avait tort, puisque les deux avaient raison sans que l’autre n’ait tort.
Celui qui commet une erreur n’arrive pas à destination, il ne prend pas le chemin initialement prévu, il le quitte, il erre. Toutefois, une errance peut être un nouveau chemin menant à une autre destination que celle que l’on imaginait. Un artiste qui crée peut chercher à provoquer des accidents, commettre des erreurs, parce que c’est sa méthodologie pour en garder ensuite les fruits, alors que, dans un autre paradigme, des accidents seraient des erreurs à éviter, dont les traces seraient à effacer pour recommencer ensuite, sans erreur. L’erreur éloigne du succès, or cette idée d’un succès présuppose une connaissance du but de celui qui commet l’erreur : peut-être qu’il n’a pas commis d’erreur, peut-être que ce qu’on prend pour une erreur était en réalité son but, et c’est donc un succès pour lui alors que, pour soi-même, cela aurait été interprété comme un échec.
Pour évaluer pertinemment une situation et savoir s’il y a erreur ou pas, il faut connaître l’intention de l’individu observé et la comparer au résultat qu’il obtient. En musique, une dissonance est une note n’appartenant a priori pas à la gamme régulière de la tonalité utilisée pour le morceau. C’est ce qu’on peut appeler une fausse note, ce qui serait donc une erreur. Cette fausse note, selon un autre système tonal l’acceptant dans une gamme régulière, n’est pas une fausse note mais une note régulière. La fausse note devient une note régulière sans la changer, sans modifier la partition : on a seulement changé de point de vue. La dissonance volontaire n’est pas une erreur. L’erreur est quelque chose d’involontaire : si elle était volontaire, elle ne serait pas une erreur.
En art, on peut rectifier soi-même les consignes et repousser des limites, transgresser des règles. Dans d’autres domaines, on est moins libre car on doit se soumettre à des règles que l’on doit respecter collectivement. Soit un élève soumis à l’épreuve de la dictée. Son but est de respecter les conventions de grammaire et d’orthographe. S’il écrit un mot de manière conforme, il n’y a pas d’erreur. La perfection étant l’absence totale d’erreurs, si l’on ne prend aucun risque, il est donc possible de réaliser quelque chose de parfait s’il suffit de respecter une règle précise et directive. Dans le cas contraire, on se trompe et commet donc une erreur. Si l’on ne fait aucune erreur de grammaire ou d’orthographe, sa prestation peut être qualifiée de parfaite.

  • Le risque

On n’est pas toujours certain de ne pas se tromper. On peut l’espérer, le supposer fortement. Pourtant, sans accepter de prendre le risque de commettre une erreur, on reste statique, on ne peut pas progresser, s’enrichir avec une nouvelle expérience personnelle. Se contenter d’adhérer aux expériences et donc aux opinions des autres est une forme de paresse intellectuelle et philosophique qui ne fait prendre aucun risque… à part le risque de ne pas prendre de risque et d’être trompé par les subjectivités partiales des autres : adhérer aux opinions d’autres personnes sans s’en faire une propre à soi est le meilleur moyen d’être un pantin qui virevolte au gré du vent, allant dans le sens du dernier qui nous aurait soufflé sa perspective. Prendre un risque est une nécessité pour celui qui veut être libre car c’est une démarche sceptique qui refuse de se contenter des expériences des autres.
Prendre un risque relève également d’une démarche optimiste : celui qui ne tente rien se condamne à ne jamais réussir ce qu’il aurait envie d’accomplir. Seul celui qui tente peut réussir. Ainsi, ceux qui jouent au loto savent qu’ils ont de grandes chances de perdre : 19 068 839 chances sur 19 068 840. C’est cette seule chance sur 19 068 840 qui les pousse à jouer. Sans cette chance de gagner, personne ne tenterait sa chance. Or, “100% des gagnants ont joué”.
Dans le cas du loto, il n’y a rien d’autre que la chance qui peut faire gagner. Dans d’autres domaines, le travail spécifique (l’entraînement) et l’expérience (la connaissance), facteurs de progrès, permettent de ne plus compter seulement sur la chance pour réussir, en augmentant ses chances de succès. En conséquence, par le progrès personnel, on réduit les probabilités d’erreurs. Dans le pire des cas, si l’on commet une erreur et que l’on manque son but, on gagne en expérience puisqu’on ajoute une nouvelle entrée à sa base de données, après un exemple concret expérimenté soi-même. L’échec n’est donc pas un résultat négatif, puisque l’existence-même d’un résultat ajoute un résultat à d’autres résultats précédents. Peu importe l’issue d’une action, réussite ou déception, tout est toujours une expérience qui enrichit une banque de données personnelle qui fait progresser celui qui veut bien reconnaître l’enseignement qu’apporte la moindre expérience, qu’elle soit agréable ou pas. Chaque expérience peut être appréhendée comme un entraînement utile pour mieux aborder une épreuve suivante.
Ne jamais commettre d’erreur est probablement la preuve qu’il n’y a jamais de prise de risques. Si l’objectif visé reste à coup sûr dans mes limites, je ne transgresse aucune frontière personnelle et donc n’en change pas le tracé. Accomplir un acte que je sais déjà accomplir ne fait pas progresser : on progresse davantage en passant plusieurs diplômes sans avoir 20/20 à chaque fois qu’en repassant plusieurs fois le même premier diplôme en ayant 20/20 à chaque fois. Si l’on veut éviter la frustration de l’erreur, on peut être tenté de ne pas prendre de risque. En contrepartie, sans jamais se lancer de défi, on ne peut pas connaître ses limites, on doit conserver ses anciennes frontières, que l’on a définies soi-même à l’issue d’une précédente expérience, ou qui ont été imposées par quelqu’un d’autre. Si les buts visés requerraient toujours une compétence moindre, on ne pourrait pas mieux connaître le monde extérieur et également soi-même, puisque ce sont les deux faces de notre monde : l’intérieur et l’extérieur, mis en relation par notre subjectivité. Si l’on ne repousse pas ses limites, on ne peut pas les visualiser. Ne pas pouvoir visualiser ses limites empêche de les repousser. Rester dans le domaine du connu ne favorise évidemment pas la conquête de nouveaux territoires. Une fois ces jolis mots couchés sur le papier, ou sur l’écran plus précisément, je me dis que j’ai trouvé la recette pour devenir un grand sage : il me suffit de repousser mes limites et de prendre des risques. La méthodologie est là, elle semble évidente ! Pourquoi alors tout le monde ne l’applique-t-elle pas ?

  • L’irréversibilité

Il est plus facile d’accepter de prendre un risque quand il est moindre, quand il ne fait pas peur. Si le risque semble trop grand, l’erreur potentielle représente une menace pour l’individu qui alors ne tentera rien, de crainte d’un échec dont les conséquences seraient trop difficiles à (di)gérer. Le risque peut être pris s’il semble raisonnable et le risque semble raisonnable si l’on se sent capable de faire face aux conséquences, d’en assumer les désagréments. Fumer est mauvais pour la santé et, a priori, peut causer, dans beaucoup de cas, des maladies respiratoires et cardiovasculaires : il y a ceux qui fument en connaissance de cause et ceux qui ne veulent pas fumer parce qu’ils se sont mentalement projetés dans le futur et ne veulent pas prendre le risque d’avoir un cancer du poumon ou un problème cardiaque pour un plaisir de fumer qui, selon eux, n’en vaudrait pas la peine.
Le risque est la perspective négative de la chance : quand on prend un risque, on tente sa chance, et inversement. La probabilité optimiste est un capital que l’on met en jeu afin de connaître un succès, tout en connaissant la possibilité d’un échec dont le retentissement est proportionnel à la mise. Le risque est inconsidéré s’il y a démesure entre l’objectif visé et les conséquences d’un potentiel échec. On ne fera pas un hold-up dans une gendarmerie : les probabilités de se faire arrêter sont plus élevées que n’importe où ailleurs et les probabilités d’y trouver de grosses sommes d’argent y sont quasiment nulles.
L’erreur, c’est quand on se trompe. L’échec, c’est la conséquence d’une erreur. Même si l’on croit ne pas avoir commis d’erreur, l’échec démontre qu’on a, au mieux, manqué de chance ou qu’on a, au pire, été négligent. L’échec est la sentence finale. Constater un échec relève d’une perspective postérieure à la tentative, un bilan. On fait un bilan à la fin d’un cycle, quand le cycle est terminé, révolu, de manière irréversible. Dans le concept d’échec, il y a l’idée d’irréversibilité, comme quand il y a “échec et mat” et que la partie est terminée et perdue pour toujours de manière irréversible.
Un échec qui ne serait pas considéré comme irréversible, est-ce toujours un échec ? Après un échec, on peut prendre deux décisions différentes, retenter sa chance ou changer d’objectif. Si l’on se croit capable de réussir un examen auquel on vient pourtant d’échouer, on peut toujours espérer réussir au second essai. Le premier essai a été un échec, et cet échec-là est irréversible. Mais, en dépassant l’échelle de cette unique expérience (délimitée dans un temps révolu), on peut prendre une perspective différente et penser en visualisant une échelle plus large. Parfois il faut essayer plusieurs fois, persévérer pour réussir quelque chose. L’idéal est, comme toujours, de viser le juste milieu : baisser les bras après la première tentative peut être considéré comme excessif tout comme s’entêter très longtemps et échouer des milliers fois sans changer d’objectif.
S’accorder une deuxième chance permet de se donner un droit à l’erreur qui minimise rétrospectivement le premier échec en concevant un succès toujours possible dans le même domaine, lors d’un nouvel essai. S’il semble acquis qu’un essai raté est un échec, il faut toutefois nuancer : la démarche d’avoir tenté de réussir une tentative ne relève pas encore d’un échec si l’on a gardé exactement le même but et qu’on essaye à nouveau. Si le cycle de tentative n’est pas terminé, alors il est peut-être encore trop tôt pour parler d’échec.
J’ai démontré plus haut que l’erreur est un concept relatif. Il me semble que l’échec également : si celui qui a échoué peut retenter, il remettra probablement en question ses méthodes pour connaître un succès et aura sûrement davantage de probabilités de connaître un succès puisqu’il se sera enrichi de l’expérience de ses erreurs ayant causé l’échec précédent qui, en conséquence, n’aura pas été inutile puisqu’il aura permis de gagner en expérience. Celui qui ne réessaye pas scelle le sort du but général de sa démarche : il a échoué dans sa tentative et abandonne l’idée de conserver le même objectif, qui peut alors porter l’estampille d’échec. L’échec, c’est l’abandon d’une perspective. Cependant, dans les deux cas, les insuccès ont été des sources d’enrichissement : celui qui retente met à jour ses méthodes et peut réussir autrement, celui qui ne retente pas met à jour ses objectifs et peut réussir autre chose. On peut penser alors qu’avec le recul, chaque erreur et échec deviennent une expérience. Les péripéties dignes d’intérêt et instructives pour la suite participent à l’entraînement de l’humain, au travail de l’apprentissage de la vie.

  • La mort symbolique

Tant qu’on ne meurt pas, il est possible de visualiser des deuxièmes chances à l’infini : après un échec, on peut essayer autrement ou essayer autre chose. Si l’on arrive à rester vivant, il n’y a aucun échec qui ne soit pas constructif car chaque échec ajoute une nouvelle expérience à sa base de données.
Si l’on considère la vie comme une épreuve, la mort en est l’échec. Or, nous sommes tous condamnés à mourir un jour, donc nous sommes tous condamnés à au moins cet échec-là. La perfection étant l’absence d’échecs, le sort des vivants condamnés à mourir serait donc une imperfection insoluble qui ne peut être évitable qu’en ne naissant pas. Tout être vivant doit mourir, car il naît un jour. Une fois arrivé à cette théorie, on peut la remettre en question et se demander si mourir est vraiment un échec puisqu’un échec permet, par discrimination, de visualiser un succès possible. Quel serait le succès correspondant à cet échec ? L’immortalité n’est pour l’instant pas possible. Y a-t-il donc des morts qui seraient non pas des échecs mais des succès ?
On a généralement une seule limite pour prendre un risque : sa propre vie. Si l’on mourrait, on ne pourrait pas profiter de cette ultime expérience pour progresser car on n’aurait plus aucune activité possible après sa propre destruction. Pourtant, dans certains cas, des gens risquent leur vie, estimant que la cause défendue mérite de prendre ce risque. On peut même se sacrifier pour sauver quelqu’un, au prix de sa propre vie : dans ce cas, sacrifier sa vie n’est pas un échec si l’on meurt mais qu’on a réussi à sauver l’autre. Si la mort n’est pas un échec quand on donne sa vie pour sauver quelqu’un, alors l’altruisme offre une forme d’immortalité, de non-finitude. La mort n’est donc pas un échec par essence. La mort n’est un échec de la vie que selon une certaine perspective subjective, tout comme tous les autres échecs que l’on se diagnostique ou diagnostique aux autres.
L’échec est une mort pour celui qui voit en la mort une fin définitive. Mais tout n’est qu’une question d’échelle de perception et chaque échec peut être à la fois une fin et un nouveau commencement une fois que l’on a dépassé l’échec. A l’échelle d’une partie de jeu vidéo, avoir un “game over” est un échec non-définitif car cela provoque une frustration que l’on peut dissiper par un nouvel essai ou une autre activité. A l’échelle d’une relation de couple, être quitté est un échec non-définitif car cela génère une douleur que l’on peut digérer avec d’autres rencontres. A l’échelle professionnelle, perdre son emploi est un échec car il est communément considéré qu’un travail est le meilleur moyen à la fois d’être autonome et d’avoir une vie sociale, mais c’est un échec également non-définitif car on peut trouver une autre activité.
Chacun de ces échecs représente des morts symboliques que l’on veut éviter : on aimerait tous éviter le “game over”, la rupture sentimentale, la perte de son travail. Ces morts ne sont que symboliques, certes, mais les dépasser impose une remise en question, synonyme de bouleversement de ses points de repère : puisque les points de repère physiques changent, il faut changer également son regard car celui-ci ne correspond plus à ces anciens points de repère, disparus, absents du regard. Il faut donc ajuster son regard en fonction des nouvelles données contextuelles. Si l’on ne met pas à jour son regard dans un contexte qui a changé, on s’impose une perspective anachronique qui suscite un sentiment de nostalgie.
La nostalgie peut aller du regret du changement qui a opéré jusqu’à un refoulement de ce changement, un déni de réalité. Dans ce cas, l’individu voudra contraindre sa perception à confondre une situation passée avec une situation présente. Quand on n’a pas fait le deuil d’un passé que l’on aimerait retrouver, on ne peut pas être en accord et en harmonie avec son contexte présent. Alors il y a la tentation de la projection. Une projection est une erreur que l’on entretient malgré soi, un sophisme perceptif, afin de se persuader que la situation n’a pas changé, que le présent est égal au passé. La projection est un camouflage de la réalité derrière un habillage complaisant que l’inconscient plaque devant les yeux de l’individu. L’individu se trompe, et il se trompe lui-même. Ce passé recréé artificiellement est une illusion qui permet d’observer ceci : le déni d’un échec implique un refus d’une nouvelle expérience, donc un refus d’un apprentissage, ce qui, d’une certaine façon, maintient artificiellement dans le passé. Après réalisation de l’échec, la prolongation de sa perception étire temporellement ce qui ne devrait être qu’un basculement vers une nouvelle vie. S’attarder dans cette phase de transition sans passer à la suite, c’est le sentiment d’échec.

  • L’obsolescence des choses

Celui qui commet une erreur n’arrive pas à destination, n’atteint pas le succès espéré. Celui qui connaît un insuccès, un échec, est amené à douter : il peut prendre un autre chemin ou réessayer. L’erreur, c’est l’errance. Toutefois, une errance peut être un chemin d’un autre genre menant à une autre destination que celle que l’on imaginait pourtant être la bonne avant l’échec. L’erreur peut se situer à deux niveaux : la trajectoire prise pour arriver à une destination choisie ou le choix de la destination elle-même. Pour cueillir des fruits dans un arbre, on peut choisir de monter sur une échelle, si l’on en a une, ou d’empiler des caisses fragiles qui ne cessent de se briser sous son poids. Si elles ne se déchirent pas, la structure toute entière sera peu stable et donc dangereuse : on pourrait tomber et se rendre incapable de poursuivre l’opération à cause d’une blessure. On optera donc pour l’échelle, qui est une bonne méthode pour aller chercher quelque chose en hauteur. Il faudra donc trouver une échelle, ajoutant une nouvelle étape dans l’opération. Toutefois, un coup d’œil sur le sol peut permettre parfois de trouver des fruits tombés de l’arbre, prêts à être ramassés. Ce choix sera probablement le plus efficace, alors que la solution de l’échelle était la meilleure idée jusqu’à cette nouvelle inspiration. Ce que l’on conçoit comme la meilleure solution peut évoluer vers une nouvelle meilleure solution. Celui qui ne veut pas changer de méthode continuera de se casser la figure en empilant des caisses, refusant de connaître un échec dans son choix de méthode, même si manifestement elle est mauvaise.
Celui qui opte pour le déni, la négation de ce qu’il devrait percevoir et comprendre, se maintient dans une errance qui l’empêche d’agir en fonction de son expérience. Il n’a donc aucun but en accord avec sa situation présente, il ne peut plus agir en fonction de ce qui existe mais seulement en fonction de ce qu’il souhaite ou regrette. Tout déni est un refus du changement. Or, l’échec sert d’inspiration pour changer de trajectoire ou changer de destination : l’échec est un panneau qui indique ce qui doit changer. C’est pourquoi la personne peureuse évitera de prendre un risque afin d’éviter tout changement et ne fera rien, ou alors optera pour le déni en cas d’échec, pour refuser le changement.
Chaque expérience apporte de nouvelles informations qui sont autant de nouvelles nuances qui affineront le regard. Chaque observation d’un fait représente une expérience. Celui qui ne prête pas attention à un phénomène ne peut pas en tirer une expérience personnelle. En effet, un acte/événement/fait/phénomène est une perception isolée mentalement, une conception subjective d’une manifestation éprouvée par les sens, un découpage d’un mouvement universel. Une expérience est une perception discriminante d’un phénomène à l’intérieur d’un système ou paradigme. Tout peut être une expérience : c’est la subjectivité de l’individu qui le conduira à isoler mentalement des perceptions empiriques, donc personnelles, et à les visualiser de manière compacte en une seule expérience qui peut faire l’objet d’une réflexion.
Celui qui est attentif percevra davantage de mouvements, concevra davantage d’expériences à intégrer dans sa base de données. Grâce à l’invention de la loupe puis du microscope, notre perception du monde du vivant a évolué, et ainsi cela a pu doper les recherches en biologie. Grâce à la lunette astronomique et au télescope, notre perception de l’espace a évolué également, et ainsi on a pu développer l’astronomie. De nouvelles disciplines, comme la physique quantique, ont même pu voir le jour grâce à des instruments assimilables à des prothèses perceptives, indiquant la limite de perception organique de l’oeil en dépassant cette limite. Une mise à jour de sa perception du réel bouleverse la perspective que l’on en avait avant cette mise à jour. Avant de voir des choses invisibles à l’œil nu, des micro-organismes ou des planètes lointaines, l’Homme avait une perception différente de l’univers : en progressant dans ses perceptions, il a développé sa compréhension de l’univers et donc, par la même occasion, a mis à jour sa propre définition d’Homme en réévaluant sa place dans l’univers. L’expérience donne une connaissance de l’extérieur qui influence également sa connaissance de l’intérieur. Il y a donc une interdépendance philosophique entre le monde et la pensée, entre l’objet et le sujet.
On peut visualiser deux types de mouvements différents. Il y a le mouvement du sujet observant : le regard de l’individu évolue avec son analyse personnelle de ce qu’il voit, l’idée qu’il s’en fait. Ce changement subjectif appartient à l’individu. L’évolution de sa conception de l’objet, c’est le mouvement de la compréhension par le sujet. Il y a également le mouvement de l’objet observable : chaque chose évolue selon des propriétés qui lui sont propres. Ce changement objectif appartient à l’entité en question. L’évolution de son état, c’est le mouvement de la transformation de l’objet.
Puisque l’objet observable change constamment, le sujet observant doit sans cesse modifier sa perspective pour accompagner le mouvement de cet objet observable-observé. S’il ne met pas à jour son regard, il continuera avec une perspective anachronique, dépassée. A moins que l’objet ne puisse reprendre un état antérieur, le sujet observant est contraint d’évoluer, de changer sa façon de penser. S’il ne le fait pas, il sera dans l’erreur, il se trompera car il aura au présent un avis qui portera sur quelque chose de passé, qui n’existe donc plus. Son avis portera sur une illusion et, en conséquence, n’aura aucune pertinence car aucune adéquation avec la mise à jour de l’entité observée.
Si je ne vois plus pendant dix ans une personne que j’ai connue à l’école, cette personne aura changé pendant notre rupture de contact. Moi aussi, j’aurai changé. La perception de cette autre personne est indexée sur/dépendante de deux variables : ce qu’est devenue cette personne et ce que je suis devenu moi-même. Elle aura probablement changé, et je la verrai avec un regard qui aura probablement changé également. Deux changements se seront combinés : le sien et le mien. Spontanément, on a tendance à oublier la plasticité de notre subjectivité qui évolue, et pourtant c’est par elle que nous voyons et pensons le monde. C’est aussi par elle que nous pouvons voir et penser notre subjectivité. Ce qui est évident crève les yeux, et on ne peut pas voir ce qui crève les yeux. Ce serait donc une erreur de considérer que l’on a accès à une objectivité immuable qui nous permet d’avoir un accès direct au monde extérieur. Celui qui croit être objectif ne doutera pas et jugera. Ainsi, il se trompera plus souvent que celui qui sait qu’il est subjectif et qui sera plus prudent dans ses jugements : il saura que sa subjectivité appelle à la nuance de ses opinions, afin d’en ajuster méticuleusement l’ouverture de la lentille et la vitesse de prise de vue. L’individu qui se dit objectif est un individu subjectif qui refuse le réglage de son objectif par sa subjectivité qu’il nie. Il confond alors la photo et la réalité.

  • Les cycles de transformation

Dans le cas d’une entité physique, on peut en remplacer des composants afin de compenser un changement. Les greffes permettent de remplacer un organe défectueux, mais toutes les cellules ont également une durée de vie limitée et se renouvellent constamment. Le réservoir de carburant se vide pour alimenter un moteur à explosions : il faut le remplir constamment et même remplacer les pièces qui s’usent. La transformation semble impliquer un vieillissement, une dégradation d’un élément qui est nocive au fonctionnement du système. Cette détérioration physique semble inéluctable car le mouvement qu’implique l’existence-même du système fait entrer en interaction plusieurs éléments qui se transforme mutuellement. Parler d’erreur dans ce cas insinuerait que les lois physiques et chimiques se tromperaient. Or, elles sont seulement regrettables pour celui qui n’en aime pas les effets.
Dans le cas d’une entité abstraite, comme une mode, une philosophie ou une idéologie, les composants ne s’usent pas car ce sont des abstractions composées de concepts. Certes, l’adhésion à ces abstractions peut connaître une usure. Mais il suffit d’en vouloir le retour pour les réactiver, les ressusciter. Si plusieurs gouvernements consécutifs échouent à rétablir un équilibre social, on peut vouloir un changement de méthode, donc un changement de système politique. Tout naturellement, quand on fait le diagnostic d’un problème, on essaye d’en visualiser la chronologie. C’est pourquoi une des solutions envisagées est presque toujours de retourner à une situation précédente, de faire une révolution, c’est-à-dire un tour complet pour retourner à un début de cycle visualisé comme meilleur à une époque passée. Or, il y a deux bémols à apporter à cette approche.
Une révolution, au sens géométrique du terme, est un concept inapplicable en Histoire : l’Histoire ne se répète pas. En effet, la boucle de l’Histoire est un premier mouvement indissociable du mouvement chronologique général suivant de l’axe du temps. En Histoire, la révolution est spiralique. La volonté d’un retour à un système passé dans un contexte présent correspond à une révolution circulaire et non spiralique, une perspective anachronique correspondant à la définition de la nostalgie, qui est un déni de réalité. Pour qu’une révolution ne soit pas vouée à l’échec, il faudra donc une mise à jour de ses paramètres qui ne seraient pas compatibles avec la situation présente, respectant ainsi les paramètres d’une révolution spiralique. Les royalistes nostalgiques qui veulent le retour d’un roi, veulent-ils également un retour des trois Ordres qu’étaient le Clergé, la Noblesse et le Tiers-Etat ? Les révolutionnaires doivent se mettre d’accord sur les modalités d’application d’un système qui n’aura jamais été testé dans un autre contexte que le sien, et qui devra donc être adapté. Faire du neuf avec du vieux, c’est du bricolage. Mais faire du neuf inspiré du vieux peut permettre d’obtenir quelque chose de nouveau. Le deuxième bémol est la définition des coordonnées temporelles de cette révolution, c’est-à-dire la datation du début du cycle. Les révolutionnaires devront non seulement se mettre d’accord sur les modalités d’application d’un ancien système, mais, avant cela, ils devront également convenir du système passé duquel s’inspirer : monarchie, fédération tribale, Etat de Nature…
Pour ce qui y est du vivant, on peut identifier des révolutions, des cycles, à plusieurs niveaux : outre le renouvellement cellulaire qui ne s’arrête pas au cours de la vie, on peut constater la récurrence de maladies, à fréquences variables selon les individus. Il y a également des maladies génétiques, qui sont une erreur de codage de l’ADN interférant sur les fonctionnalités psychologiques ou physiques du malade. L’erreur génétique, la contamination par une maladie et les blessures sont des faux-pas qui peuvent précipiter la mort. Les plus faibles sont appelés à mourir avant les autres. Mais, au bout du compte, nous devons tous mourir. Même l’être vivant le plus fort du monde doit mourir. C’est le cycle de vie. Lorsque l’on meurt, le corps ne cesse pas de se transformer. Les corps en décomposition sont des aliments pour le monde des vivants, animaux ou végétaux. Une fois assimilés, les atomes qui formaient un être vivant font partie d’un autre organisme, qui les utilisera pour son propre fonctionnement, sa propre survie. La chaîne alimentaire est un cycle qui consiste en une série de prélèvements de matière organique réalisés par les êtres vivants dans un milieu afin de survivre pour se reproduire.
Si je considère que je ne fais qu’emprunter des atomes entre ma naissance et ma mort, alors la mort est le début d’un nouveau cycle au cours duquel je cesse d’utiliser des atomes pour mon compte personnel. Quand on meurt, on laisse son matériau physique à la disposition de la nature. La mort est un concept inquiétant et angoissant car il signifie l’arrêt de notre existence physique telle que nous la connaissons de notre vivant. La mort représente donc la sphère de l’inconnu. Comme toute mise à jour après un échec, la mort est la fin d’un cycle : notre corps ne disparaît pas d’un coup, sans laisser de traces, lorsque nous cessons de l’habiter. Ce n’est pas une fin définitive car il retourne à la nature. C’est une fin seulement pour notre ego qui est alors dépossédé de son enveloppe charnelle qui était son outil d’expression, son instrument de conquête. Sans son enveloppe corporelle, l’ego n’existe pas car il n’a plus besoin d’exister. L’ego d’une personne est inversement proportionnel à son souvenir qu’il n’est qu’une partie d’un tout en perpétuel mouvement. L’ego est une perspective défensive de sa personne. Or, sans enveloppe charnelle, nul besoin de se protéger car plus aucune menace n’existe.
Notre corps s’use, comme la pièce d’un moteur. Si nous étions tous de plus en plus mal en point, sans jamais mourir, nous nuirions à l’humanité toute entière par excès démographique. Un être vivant en mauvaise santé ne peut pas se reproduire, et donc perd la capacité d’accomplir ce but premier inscrit dans ses gènes. Ce qui nous fait rester en vie, c’est donc autre chose : le refus égocentrique d’être anéanti ou le souhait altruiste de prémunir les autres d’un anéantissement, ou de souffrances.

  • Le pessimisme de l’ego

Une cohérence absolue ferait agir de manière suffisamment pertinente et précise pour arriver à ses fins sans commettre d’erreurs. Difficile donc, dans cette perspective, de valoriser l’erreur, qui est même sanctionnée doublement : la contrariété personnelle d’en avoir commise une et le jugement extérieur qui remet en cause la valeur personnelle de celui qui en a commise une. Celui qui juge l’échec des autres, en laissant entendre qu’il n’aurait pas échoué à leur place, veut en réalité détourner l’attention de ses propres échecs. Peut-être ne prend-il aucun risque, afin de s’assurer de ne pas en connaître, pour pouvoir se mettre à l’abri et juger les autres, passant alors pour un surhomme qui aurait réussi s’il avait essayé. D’ailleurs, pourquoi n’a-t-il pas déjà essayé ? Et, s’il a réussi, pourquoi quelqu’un d’autre ne le pourrait-il pas ? Celui qui a un ego trop important mais trop paresseux ne peut pas souhaiter les succès d’autres, parce qu’ils le mettraient face à ses propres insuccès et le conduirait donc à se remettre en question : il est en déni.
On peut vouloir se protéger et ne pas prendre des risques démesurés. Si l’on adapte ses ambitions à ses capacités, on peut viser un rapport raisonnable entre ses objectifs et les moyens d’y arriver. Le juste milieu est une exigence raisonnable, et dépend donc de l’individu qui doit se définir lui-même, déterminer lui-même ses limites. Pour réussir des choses, il faut les tenter. Celui qui ne relève que des petits défis ne peut pas réaliser de grands accomplissements. Pour réussir de grandes choses, il faut tenter de grandes choses. Celui qui prend peu de risques, et jamais de gros risques, minimise ses progrès : le progrès est indexé sur la quantité et la difficulté des expériences. S’il faut agir pour réussir mais que l’erreur et l’échec ne sont pas valorisés, cela implique une valorisation de la chance, de l’intuition, de la science infuse ou de la préconnaissance, qui sont les seuls moyens d’arriver à un succès sans que l’on n’ait jamais commis de faux pas auparavant.
Les mises à jour de son opinion, après reconnaissance d’une erreur et dépassement de celle-ci, semblent sans fin. L’arrêt de cycles de transformation de la pensée signifierait que l’on a accès à une vérité absolue. L’arrêt de la progression peut indiquer en effet l’arrivée à une perfection absolue. A moins que cet arrêt n’indique qu’un plafond relatif, une limite subjective du corps ou de l’esprit. Ou, encore plus trivial, une illusion complaisante, donc une erreur d’appréciation quant à sa propre subjectivité.
Le processus de progression fait engranger de l’expérience dans la douleur, suscite des frustrations, provoque des déceptions et autres émotions négatives. Accepter sa non toute-puissance permet de mieux gérer ses erreurs et échecs en s’attendant à eux. On peut s’y préparer en comprenant qu’il s’agit de nécessités inhérentes à la vie humaine. La perfection est divine mais  l’erreur est humaine car seul l’Homme conçoit l’erreur, qui est un concept subjectif. Commettre une erreur n’est pas une erreur si l’on considère qu’en commettre relève de l’essence humaine. L’être humain accomplit seulement son existence comme il le peut et le doit.
Le divin représente tout ce qui ne serait pas soumis au principe de transformation. Dieu représente l’immuable, et tout ce qui est immuable est du ressort de Dieu. Du point de vue de l’Homme qui se prend pour un dieu, mourir est un échec qu’il faut empêcher. Or, mourir n’est un échec que pour celui qui voit en la mort une fin, sa propre fin. La peur de l’erreur et de l’échec, voisine de la peur de la mort, est un problème d’ego qui ne conçoit pas la transformation comme quelque chose de souhaitable. Or c’est un principe universel.
A l’échelle d’une vie humaine, une erreur ou un échec n’installent pas l’individu dans des conditions négatives permanentes qui le tortureraient jusqu’à sa mort. L’idée d’une souffrance permanente est un fantasme, une illusion. Rien n’est jamais permanent, excepté l’impermanence. Encore faut-il ne pas vouloir entretenir soi-même une illusion douloureuse et s’entêter à percevoir une limite contraignante qui ne serait qu’une construction de son propre esprit ou une construction suggérée par un conditionnement.
On dit que tant qu’il y a de la vie, il y a de l’espoir. Après la mort, le corps poursuit son chemin pour servir aux vivants. La mort est une étape. La mort d’un corps n’est donc une fin qu’à l’échelle de l’individu qui cesse d’exister quand il cesse de penser. Si l’on cesse de penser, sa propre représentation mentale de la personne que l’on est n’a plus d’interface : sans projection de l’esprit, l’ego n’existe plus. Seul l’égo disparaît avec la mort. Les atomes, eux, restent en mouvement, et formeront d’autres corps. La vie ne s’arrête donc pas avec la mort d’un corps, elle continue. Il y a donc toujours un espoir car, avec cette perspective, il y a véritablement une vie après la mort. De plus, si vous laissez un héritage derrière vous, malgré la mort biologique de votre corps, vous accéderez à une forme de postérité. Est-ce que les gens, quand ils sont morts, perdent leurs attributs intellectuels, leur caractère ? Non, tant que la flamme du souvenir brillera dans la mémoire des vivants, les personnes continueront d’y exister autant que de leur vivant.

Finalement, il y a deux perspectives qui confirment l’idée de la vie après la mort : l’immortalité des atomes que l’on a empruntés et qui serviront à d’autres êtres vivants, ainsi que l’immortalité de la personne que l’on est, qui a pu s’exprimer grâce à ces atomes et qui restera dans les mémoires aussi longtemps que notre vie temporaire a été rayonnante, tel un phénomène de persistance rétinienne.
La vie est cinétique : son mouvement ne s’arrête pas, peu importent la nature et le nombre des erreurs et échecs que l’on peut rencontrer et qui ne sont, dans le fond, que des perspectives pessimistes d’un ego d’un individu dont la prétention n’est égale à sa gourmandise que parce qu’il n’a pas encore compris ce qu’est la vie et l’univers.

La Philosophie – La quête de la bonne question, pas de la bonne réponse

Au cours de conversations, il vous est sûrement arrivé de ne pas adhérer à des questions posées et, donc, de ne pas y répondre et même de poser une question en retour. On pourra alors vous accuser de “répondre à une question par une autre question”, donc de vous défiler, lâchement, signifiant ainsi votre défaite dans la joute rhétorique ou dispute argumentative.
On n’a pas toujours envie de répondre à certaines questions. Parfois elles nous semblent ridicules et réductrices ou, au contraire, trop vagues et peut-être même hors-sujet. Et pourtant chaque question a un sens car elle naît d’un cheminement de pensée logique de la part de son énonciateur. Le problème réside dans le fait que les questions s’inscrivent toujours dans une logique déterminée par l’expérience de la personne, expérience unique et particulière influençant et conditionnant ses perspectives. En faisant l’effort de les comprendre, on dépassera la violence stérile d’un conflit avec quelqu’un qui ne pense pas la même chose que nous, qui a un autre avis.

La philosophie est une démarche active de savoir. Il est courant de considérer l’ignorance comme facteur de danger et de violence. En effet, on peut considérer que plus on sait de choses, plus nos craintes se dissipent; plus on en sait, moins on appréhende l’inconnu qui devient alors connu. En conséquence, moins on se sent menacé, plus on se rapproche d’une sagesse faisant disparaître toute pulsion violente: la sérénité individuelle sera à la fois une paix intérieure et une paix avec l’extérieur, donc une paix pour l’extérieur aussi.
La philosophie étend la sphère de confiance de celui qui la pratique, en dépassant toutes les petites questions les unes après les autres. En remontant le fil du questionnement, on remet en cause les présupposés de chaque question, révélant ainsi les convictions implicites de l’énonciateur de la question. Ce travail sur la question permet de faire évoluer sa pensée en laissant tomber les petites questions qui ne donneraient que des petites réponses. D’ailleurs, ces petites questions sont elles-mêmes issues des petites réponses de questions de “l’avant”: le présupposé de la question posée est une réponse à une petite question implicite précédant la question de départ.

1a. Petite question: Pourquoi les femmes sont-elles plus intelligentes que les hommes ?
1b. Présupposé: Les femmes sont plus intelligentes que les hommes.

2a. Petite question intermédiaire: Les femmes sont-elles plus intelligentes que les hommes ?
2b. Présupposé: La femme est intelligente, l’homme peut-être.

3a. Petite question intermédiaire: L’intelligence est-elle un concept qui concerne les humains ?
3b. Présupposé: L’intelligence existe.

4a. Petite question intermédiaire: Est-ce que l’intelligence existe ?
Grande question: Qu’est-ce que l’intelligence ?

Les affirmations (b) sont les présupposés des questions (a) du même numéro et également les réponses aux questions (a) du numéro suivant. La grande question est tellement élémentaire, simple et fondamentale, qu’elle ne peut porter que sur la définition du concept impliqué dans chaque petite question de “l’après”. La réponse à la grande question évite de répondre à toutes les petites questions tout en leur apportant indirectement un éclaircissement, voire même une sorte de réponse. Ici, je me suis attardé sur le terme “intelligence”. Mais j’aurais pu voir une autre grande question qui aurait porté sur l’autre mot lexical de l’avant-dernière question: “Est-ce que des choses existent ?”
Voilà pourquoi, quand on philosophe, il est considéré comme nécessaire de définir les termes de la question afin de savoir ce que la question signifie exactement et pourquoi l’énonciateur la pose. Répondre naïvement à une petite question serait tomber dans le piège de la question orientée: cela ne consisterait pas en une démarche philosophique puisqu’on adhérerait implicitement aux présupposés de la question en y répondant. Au lieu de remonter le fil du questionnement vers la grande question, on ferait alors fausse route en ajoutant, avec sa propre réponse, une nouvelle petite question portant sur cette réponse et s’éloignant de la grande question. Cette petite question, encore plus petite que la précédente, réduit ainsi le champ de vision. En conséquence, au lieu d’avoir du recul, la sphère de conscience/sphère de confiance se réduit, ce qui cause une claustrophobie intellectuelle, une panne philosophique, engendrant émotions et sentiments négatifs.
Peu importent les différentes situations d’énonciation (locuteur, interlocuteur, lieu ou temps d’énonciation, fond et forme du message), chaque propos peut être passé au crible de la philosophie. La philosophie fait réfléchir au-delà des présupposés et combat la claustrophobie intellectuelle en remontant jusqu’à une grande question qui porte sur un concept, une idée. Cette grande question n’oppose pas d’individus entre eux, ni d’individus avec un environnement. La grande question n’oppose rien, car sinon elle présupposerait une opposition.

1a. Petite question: Dans le conflit israélo-palestinien, qui est la victime et qui est l’agresseur ?
1b. Présupposé: Entre Israël et la Palestine, il y a une victime et un agresseur.

2a. Petite question intermédiaire: Y a-t-il une victime et un agresseur entre Israël et la Palestine ?
2b. Présupposé: Quand il y a un conflit, il ne peut pas n’y avoir que deux victimes ou que deux agresseurs.

3a. Petite question intermédiaire: Est-ce que deux camps ne peuvent pas être à la fois victimes et agresseurs l’un de l’autre ?
3b. Présupposé: Il y a deux ennemis qui s’opposent.

4a. Petite question intermédiaireY a-t-il deux ennemis qui s’opposent ?
4b. Présupposé: Il y a un conflit entre Israël et la Palestine.

5a. Petite question intermédiaire: Y a-t-il un conflit entre Israël et la Palestine ?
5b. Présupposé: Israël et la Palestine ne sont pas en paix.

6a. Petite question intermédiaire: Est-ce qu’Israël et la Palestine sont en paix ?
6b. Présupposé: Il y a un problème politique entre Israël et la Palestine.

7a. Petite question intermédiaire: Y a-t-il un problème politique entre Israël et la Palestine ?
7b. Présupposé: Israël et la Palestine sont deux pays.

8a. Petite question intermédiaire: Israël et la Palestine sont-ils deux pays ?
8b. Présupposé: Israël et la Palestine sont deux choses séparées et différentes.

9a. Petite question intermédiaire: Est-ce qu’Israël et la Palestine sont deux choses séparées et différentes ?
Grande question: Pourquoi Israël et la Palestine sont deux choses séparées et différentes ?

La philosophie porte sur les concepts. On philosophe, jusqu’à finalement ne plus présupposer d’opposition ou de contradiction entre deux concepts, deux idées, deux camps, mais leur inclusion dans un seul et même monde, un seul et même paradigme. Ainsi, au lieu d’opposer des concepts, on peut chercher à comprendre pourquoi il y a une opposition entre eux. Les petites questions divisent, les grandes questions rassemblent. Demander pourquoi Israël et la Palestine sont deux choses séparées et différentes conduira à expliquer leur Histoire commune au lieu de prendre spontanément parti pour l’un ou l’autre. Considérer deux concepts sur le même plan rend impossible toute partialité. En effet, la partialité signifierait que l’on prend parti, donc que l’on présupposerait qu’il y a un camp en contradiction avec celui pour lequel on prend parti. La partialité, c’est faire un choix. Or, tout choix est contestable par celui qui en fait un autre. Pour comprendre cette différence de subjectivité, il faut donc s’élever à un niveau supérieur et dépasser ainsi l’opposition afin de la comprendre et non plus juger avec ses émotions. On ne peut pas remettre en question un paradigme dans lequel on se trouve pendant que l’on réfléchit, il faut du recul car l’adhésion à des présupposés verrouille la réflexion qui n’ira, par principe, pas au-delà de ces présupposés: remettre en question la question rend absurde l’effort d’y trouver une réponse.
L’endocentrisme, courant philosophique défendu par Ebenezer Kotto Essome, rejoint cette idée d’absence d’opposition avec le monde et d‘inclusion à l’intérieur de celui-ci aux côtés de tous les autres concepts. Dans l’endocentrisme, tout peut être un centre, de manière équitable et juste: puisque je ne soumets jamais personne, je ne suis donc jamais soumis moi-même car tous ceux qui peuvent dire “je” obéissent à cette logique endocentrique. Lorsque l’homme parle à l’arbre, il ne s’oppose pas à lui, il s’identifie à lui. Le juste milieu d’une conscience absolue ne se situerait donc ni en soi-même ni à l’extérieur: le point d’équilibre de l’univers n’est pas en nous, ni dehors, mais à la surface de notre peau, là où le dehors et le dedans se touchent. Accepter cette perspective conduit non pas à l’opposition mais à la coopération entre soi et tout le reste.
Cette sérénité individuelle, vecteur à la fois de paix intérieure et de paix avec l’extérieur, donc de paix pour l’extérieur aussi, démontre que l’expérience, l’élévation vers la sagesse, guide la conscience au-delà des oppositions, fuit les situations de conflit. Sitôt que l’opposition est dépassée, le conflit n’existe plus car un conflit implique une opposition entre deux parties. Si vous êtes l’une des deux parties et que vous élevez votre niveau de conscience, le conflit n’existe plus entre vous et l’autre mais seulement dans l’autre, qui devient démuni sans objet d’opposition. Il ne vous faut pas ignorer ou sous-estimer le pouvoir auto-réalisateur du procès d’intention: visualiser un ennemi créera l’ennemi qui verra que vous vous positionnez en tant que son ennemi. Si l’opposition n’existe que lorsque vous la voyez, alors détournez les yeux, levez-les au-dessus de votre ancien vis-à-vis. La fin d’un conflit n’est pas l’annihilation physique de votre ennemi, mais l’annihilation de son statut d’ennemi dans votre perspective.

Je ne sais pas s’il y a une règle pour pouvoir philosopher. C’est à la portée de n’importe qui, mais dans des proportions diverses. Philosopher, c’est penser son évolution. Par contre, philosopher n’est pas nécessaire pour évoluer. Tout le monde apprend constamment, même passivement. On évolue et on change d’idées, même sans philosopher. Philosopher, c’est décider de prendre le contrôle de son évolution. La philosophie m’apparaît plus comme une méthodologie applicable universellement que comme une discipline clairement définie. Elle me semble plus pertinente en relation avec une action. En effet, la philosophie n’est pas le travail sur la vie avant la vie: on est déjà vivant quand on philosophe.
La philosophie n’est pas non plus un travail sur la philosophie, mais un travail de philosophie sur quelque chose d’autre. Lire de la philosophie n’est pas philosopher, c’est se nourrir d’inspiration philosophique pour évoluer. Comprendre de la philosophie, et y adhérer, ne suffit pas à rendre quelqu’un capable de la mettre en pratique. Lire donne des pistes mais il faut plus que des lectures. Lire de la philosophie inspire spirituellement. Hélas, sans ressources psychologiques, il est impossible de faire germer cette graine.
Mais… pourquoi faire de la philosophie, au fait ? Pour être heureux en élargissant son spectre de conscience et donc de connaissance, éliminant tout sentiment négatif initié par l’angoisse de l’inconnu. Le bonheur ne s’obtient pas par le chantage avec l’extérieur. Il se fabrique à l’intérieur, par des efforts personnels. Si le bonheur ne vient pas de l’extérieur, par contre l’inspiration pour le fabriquer, elle, en vient.

Deuxième Lune – La guerre, industrie de mort

Au chapitre 12 du roman que j’écris, le personnage principal réfléchit à la mort et son industrialisation sous forme de guerre.

“Le corps humain était donc une machine bien fragile, pour qu’il puisse se casser de tant de façons possibles. On peut mourir si on heurte un camion en ville. On peut aussi mourir si on tombe maladroitement d’une échelle en plein bricolage. On peut mourir si on se fait poignarder par un brigand nerveux, un amant psychotique. Un simple coup peut suffire, un petit coup, s’il est porté au bon endroit. Ou au mauvais, selon le point de vue. On peut mourir pendant son sommeil, asphyxié au monoxyde de carbone inodore, si on n’a pas un animal domestique pour nous avertir du danger. On peut mourir empoisonné par des aliments bon marché, produits de manière insalubre à échelle industrielle. D’ailleurs Pierre avait la conviction que plus aucun aliment n’était sain, mais il fallait bien manger, donc il préférait être dans le déni de cette conviction plutôt que de céder à une paranoïa qu’il n’aurait pas la force d’assumer par des actes. Il avait eu trop de soucis personnels pour avoir la force d’être révolutionnaire. On peut mourir dans une guerre, industrielle elle aussi, voulue par une minorité de bureaucrates qui envoient à la mort des soldats entraînés pour assassiner les ennemis avant que ce ne soit eux qui les assassinent. On peut mourir à cause de sa propre imprudence, du hasard, de l’incompétence des uns, de la malveillance des autres. Les gens, la géographie, les événements, les convergences de facteurs de natures diverses nous dépassent, sont plus fortes que nous et trop imprévisibles pour qu’il soit raisonnable de vouloir éviter de mourir un jour. La mort est le crime le mieux organisé du monde. Elle peut frapper à chaque instant, peut sortir de la main de n’importe qui, sans même qu’on s’en soit rendu compte. (…)

La vie étant un combustible, le plus complexe qui soit, son utilisation optimale aboutissait à la mort, immanquablement. Chaque individu n’a le droit qu’à une seule vie, et pourtant il arrive très souvent qu’il en perde sa propre souveraineté. La perte de souveraineté sur son corps est généralement précédée par la perte de souveraineté sur ses propres idées. Les deux ne faisaient qu’un, la personne. Mais il était plus efficace de vouloir contrôler l’esprit d’abord, pour lui indiquer ensuite une commande à exécuter par son corps. Un citoyen qui prend lui-même des initiatives servant une doctrine est plus fiable qu’un citoyen à qui l’on donne un ordre direct. Il lisait la réalité au travers d’une doctrine, sans même penser à la remettre en question puisqu’on lui avait fait oublier qu’il ne s’agissait que d’une perspective, une interface intellectuelle. Malgré les mouvements pacifistes, qui faisaient de plus en plus de bruit en dehors des médias qui les relayaient de moins en moins, l’industrie de mort militaire avait réussi à être maintenue à flots, et même plus encore, grâce à une propagande manichéenne qui ne cessait d’expliquer que la justice, c’était plus complexe que d’être simplement juste. La mort était plus qu’un risque à prendre, plus qu’un regrettable effet secondaire: la rhétorique en faisait un moyen d’arriver à ses fins.

Pierre, trop sensible car trop intelligent, était viscéralement pacifiste. C’est pourquoi il méprisait les Droits de l’Homme. Sans jamais avoir osé le dire tout haut à quiconque. Pierre pensait que ce n’était qu’un mièvre argument d’autorité, une grotesque bible moderne devant laquelle il est politiquement correct de s’agenouiller sans réfléchir, sous peine d’être traité de terroriste. La juste pensée avait été préréfléchie et synthétisée en un simple intitulé qu’il suffisait d’invoquer pour ne pas vouloir débattre. Pour ne pas avoir à débattre non plus, de toute façon. Pour lui, les Droits de l’Homme, c’était l’histoire d’un terrorisme européen, un terrorisme des bons sentiments, défendu au nom d’une empathie en réalité profondément égocentrique, car empreinte d’une culpabilité civilisationnelle qui pesait sur les consciences d’un peuple à l’échelle continentale. Cette culpabilité devait donc être purgée, au nom d’une clairvoyance éthique qui donne le droit d’utiliser tous les moyens, la violence militaire dans tous les cas, pour arriver à ses fins, la paix et la justice. La légitimité de la démarche était validée bien sûr selon les propres référents culturels de leurs élaborateurs. En conséquence, la contradiction consistait en une clairvoyance éthique qui présupposait, une fois de plus, que cet autre pays lointain ne pouvait décidément pas se gérer lui-même. Ni au niveau de ses ressources naturelles, ni politiquement. Ce Nord colonialiste avait fait tant de mal à ce Sud qui n’avait rien demandé à personne, à part peut-être, une fois ou deux, qu’on le laisse tranquille. Les Européens voulaient réparer leurs fautes. Ou celles de leurs ancêtres. Peu importe, c’était devenu la même chose. Cette culpabilité était le lourd héritage transmis de génération en génération dans les écoles, épaulées par la télévision. Les gens étaient ravis des interventions militaires, humanitaires, à travers le monde. Toutefois, même si leurs ambassadeurs guerriers réparaient les erreurs du passé en utilisant des méthodes similaires à ce qui avait causé les premiers torts, tout le peuple européen applaudissait la cause démocratique défendue courageusement à coup de bombes sur écoles et hôpitaux, sans distinction.
C’est la guerre, il y a forcément des dommages collatéraux. Il n’y a que ça, parfois. C’est un risque facile à prendre quand il engage une autre population que celle dont on fait partie. Ces frappes militaires n’avaient de chirurgical que leur habileté à épargner les ridicules philosophes va-t’en-guerre cheveux au vent qui fanfaronnaient devant les caméras de télévision ou même de cinéma, les leurs, entre les cadavres encore chauds dans des ruines encore fumantes. Ces imposteurs de la pensée, les plus connus car les plus grands, par d’indécentes courbettes, avaient réussi à faire financer des massacres par des organisations internationales à but lucratif: les Etats. Comme le disait Lao Tseu, le philosophe favori de Pierre, de la profusion naît la variabilité du concept qualitatif. Alors les méchants ennemis finiraient forcément par être annihilés, surtout s’ils se cachaient sournoisement dans des petits villages agricoles et de grandes villes industrielles. Ils étaient trop fourbes pour se cacher à proximité des bases militaires. Il ne fallait pas céder à ce chantage, cette prise en otage de la population par ces hommes monstrueux. Il fallait tout raser. La démocratie est un concept éclatant. Les corps éventrés des autochtones non-européens en témoignent.

La mort que la science ne pouvait expliquer, la politique pouvait la justifier. La mort prend plusieurs visages, celui du bourreau et celui de la victime. Elle est partout. Elle est la plus abjecte et pourtant la plus naturelle des conspirations mondiales. Elle est un plan serein qui se déroule patiemment, avec la contribution de son plus fidèle soupirant, l’Homme. L’animal tuait pour se nourrir ou pour survivre d’une manière générale. L’Homme avait le génie de pouvoir tuer pour de bien meilleures raisons, des raisons que sa conscience intellectuelle pouvait expliquer à ceux dont la conscience morale ne rendait pas sourds. Si la mort est expliquée objectivement et si on prend la peine de comprendre l’argumentaire, on ne peut qu’en accepter l’usage.
La mort nous harcèle et on préfère souvent l’ignorer plutôt que savoir que l’on va tous finir par perdre. Une hyper-conscience de sa propre mortalité nous assujettirait à des pensées extrêmes et absurdes. Pierre se souvenait du mouvement YOLO, ces néo-hippies qui mourraient prématurément chaque jour, alors qu’ils revendiquaient leur libération du conditionnement sociétal qui, selon eux, empêchait l’humain d’être libre et heureux. Dans la presse, les récits de leurs décès semblaient irréalistes, tant ils étaient caricaturaux. Ils avaient entre quinze et trente-cinq ans et avait décidé de ne plus éviter la mort, afin de se libérer de cet instinct de survie qui était une prison mentale qui les insupportait. Au nom de la liberté, ils mourraient sans se débattre. Finalement, la mort était encore plus présente dans leurs esprits que dans ceux des autres. Ils flirtaient avec elle, ils y étaient soumis.”

Deuxième Lune, chapitre 12, “Deuxième papillon”

Diabolislamisation – Les Musulmans sont-ils les nouveaux Indiens d’Amérique ?

Le mercredi 22 mai 2013, un homme a été tué à Londres à l’arme blanche par deux autres hommes. Ce n’est toutefois pas ce qu’on a pu lire exactement à ce sujet. J’ai entendu parler de cette histoire sur Twitter. Il était question d’un soldat britannique décapité à la machette par des musulmans hurlant « Allah akbar ». Lorsque j’ai lu l’article du Parisien, j’ai compris que le twittos avait déjà interprété, traduit et synthétisé l’événement à partir de son analyse du contexte politique actuel. Je propose un décryptage de ce fait qui n’est pas un fait divers compte tenu de sa résonance médiatique.

  • Deux musulmans ou deux britanniques ?

Lorsque que l’on parle d’un soldat britannique tué par deux musulmans, ce qui semble passer comme une lettre à la poste pour beaucoup m’apparaît comme l’expression d’une subjectivité déjà partiale. En effet, on pourrait distinguer les protagonistes selon leur nationalité ou selon leur religion. Ici, il y a un mélange des genres. Cette asymétrie identitaire semble opposer la nationalité britannique et la religion musulmane en les mettant sur le même plan. Pourtant ces deux musulmans ont bel et bien une nationalité.
Ils seraient Anglais et l’un deux aurait même un fort accent londonien. Les distinguer par la nationalité est donc impossible s’ils sont tous les trois des Anglais. On aurait pu chercher de quelle religion se réclamait le soldat tué, mais on ne le sait pas car il ne l’a pas dit publiquement, contrairement à ses meurtriers. On a pu définir les tueurs par leur religion car ils ont revendiqué religieusement cet assassinat en criant publiquement « Allah akbar ». On retiendra donc leur religion comme élément les dissociant de leur victime.
Si les tueurs sont plus musulmans qu’anglais, alors on dissocie les Musulmans de la population anglaise: ce ne serait pas des Anglais qui ont commis ce meurtre mais des Musulmans. En faisant cette dissociation, on extrait les Musulmans de la masse nationale, leur donnant un statut spécial: musulmans, pas britanniques, donc pas intégrés. Ce sont donc des étrangers qui viennent d’ailleurs, un ailleurs non-européen qui s’est invité en Europe. Cette stigmatisation des Musulmans, à partir d’un acte sanglant interprété politiquement, fait apparaître l’Islam comme un ennemi de la paix nationale, en symbolisant le Musulman comme un corps étranger qui est isolé et qui sera mis en quarantaine pendant son procès. En Europe, l’Islam apparaît comme un ennemi ou, plus précisément, est confirmé dans ce rôle d’idéologie du Mal.

  • Islam et violence

L’essentiel de la culture qu’a un Occidental sur l’Islam lui est apportée par les médias au travers du prisme de la violence. Je ne vais pas citer tous les exemples mais en voici quelques-uns: les persécutions des Coptes en Egypte, les actions armées de la Palestine contre Israël, les attentats du World Trade Center, et ce meurtre de soldat en Angleterre. Est-ce que le Coran justifie ces violences ? Il existe en tout cas des musulmans qui se positionnent contre le terrorisme. Qu’en est-il de la violence à un niveau plus local ? Le juste milieu se situant entre deux extrêmes, je vais commencer par partir d’idées extrêmes pour ensuite affiner.
Dans les pays musulmans, chaque citoyen ne passe pas ses journées à massacrer l’autre. Dans le pire des cas, on peut visualiser les Musulmans pacifistes comme une exception. Or, une exception réfute toute généralité absolue. L’Islam ne serait donc pas systématiquement un vecteur de violence. Dans le meilleur des cas, la majorité des Musulmans sont des gens non-violents. Est-ce qu’un musulman non-violent est un musulman qui n’a rien compris à sa religion ou l’inverse ? La position de Tariq Ramadan est très claire à ce sujet. Il ne souhaite pas réécrire le Coran mais en conteste l’interprétation la plus répandue qui considère les châtiments corporels comme un principe coranique. Il montre et démontre la contradiction effective entre l’application de ces peines et  « les finalités essentielles et supérieures » défendues par le Coran que sont « l’intégrité de la personne (an-nafs) et la promotion de la justice (al-‘adl) ».

  • La religion, un poison comme l’eau

Si l’Islam n’est pas une religion violente, alors la violence dans l’Islam ne serait qu’une violence malgré l’Islam. Même si les propos des médias induisent qu’un « terroriste islamiste » est un terroriste exprimant une violence au nom du Coran, on peut rejeter l’affirmation consistant à dire que ce serait les principes du Coran qui lui imposeraient de commettre des attentats et des meurtres. Toutes les religions ont un potentiel de violence si celui qui l’instrumentalise est violent au départ. Celui qui veut exprimer sa violence individuellement (agression isolée) ou sous forme collective (guerre) pourra trouver facilement des justifications, des arguments dans chaque religion. Si on considère toutes les guerres qu’a connues l’Histoire, il n’y a pas une seule religion qui n’ait pas fait l’usage de la violence: le Christianisme a eu ses Croisades, Israël qui est un Etat Juif a bombardé la Syrie et des Bouddhistes ont récemment tué des Musulmans en Birmanie.
On peut faire le procès des religions dans leur ensemble pour toutes les guerres qu’elles ont générées. On peut également reconnaître leurs bienfaits. La religion est comme un médicament: elle soigne si elle est bien dosée, et elle rend malade et peut même tuer si elle est mal manipulée. Il n’y a aucun concept qui soit un excès par essence. C’est l’être humain qui, par ses abus, peut tuer et se tuer avec n’importe quoi. Vous pensez que l’eau est bonne pour la santé ? En boire trop peut tuer. Tout est une question de dosage, de juste milieu. Des médicaments, un marteau, une voiture, une fenêtre du cinquième étage… Tout peut tuer. C’est l’action de l’Homme qui, par ses décisions, transforme l’objet en danger, le risque en réalité. On ne peut pas supprimer tout ce qui est dangereux car rien ne l’est dans l’absolu. Il serait donc vain de vouloir bannir toutes les religions. C’est l’Homme qui est son propre danger par ses abus. On ne peut que tenter de réguler ses pratiques afin de les maintenir dans un cadre raisonnable (sans danger, sans violence).
S’il est possible de convenir qu’aucune religion n’est fondée sur la violence, il faut également reconnaître qu’aucune religion n’y échappe. Et pourtant les médias semblent se focaliser sur l’Islam comme si c’était la seule source de violence et de terrorisme au monde.

  • La petite fenêtre sur le monde

Compte-tenu de mon expérience personnelle, de mes enquêtes et du hasard de mes rencontres, en France et ailleurs, il me semble que la majorité des Musulmans ont les mêmes aspirations et les mêmes vœux de paix que la majorité des non-Musulmans. Les médias français tiennent-ils un discours similaire ? On peut se poser la question de la conformité entre la représentation des Musulmans dans les médias et ceux que l’on peut croiser, connaître et avec qui on peut nouer des liens dans sa vie professionnelle, privée, dans la rue ou sur internet. Par ailleurs, il serait également facile d’oublier ceux que l’on ne connaît pas, ne rencontre pas, qui ne s’expriment pas et vivent leur Islam dans la discrétion, l’humilité et le silence. Ces Musulmans-là occupent leur place de citoyens, en France ou ailleurs, sans faire de leur spiritualité un combat public, personnel ou politique. Mais on n’entend que ceux qui font du bruit et dont le bruit est rapporté.
Les médias sont un filtre, un œil particulier, un intermédiaire entre le monde qu’il décrit et le public. Ce que l’on sait via les médias est donc orienté, selon les sensibilités idéologiques et les choix des rédacteurs en chef des journaux d’information. On considère qu’il y a des journaux qui ont des traditions d’engagement politique, par exemple à droite pour Le Figaro et à gauche pour Libération. Si on se limite à une seule source d’informations, on prend le risque d’injecter dans sa réflexion personnelle des éléments partiaux dont la source est subjective donc partiale donc contestable. Si on a un interlocuteur unique, on ne peut pas décider si on accepte ou rejette ce qui est dit: sans élément de comparaison, sans connaissance d’une contradiction possible, on n’a aucune raison de penser différemment car aucun moyen intellectuel de faire preuve de recul, de sens critique. Afin de ne pas se faire enfermer malgré soi dans le paradigme d’une idéologie qui nous abreuverait d’informations orientées politiquement, il est donc nécessaire de multiplier ses sources d’informations pour repousser les limites de ses préjugés. De plus, la nature des informations relayées par les médias sont souvent négatives quand il s’agit de politique internationale. Cette fenêtre anxiogène sur le monde est également un parti pris, pessimiste. Il faudra donc aller regarder ailleurs que dans le feu de l’actualité pour étudier au calme la culture musulmane et l’histoire des pays islamiques. En sortant du conditionnement médiatique occidental, on a alors une chance de comprendre pourquoi les médias se focalisent sur un risque islamique.

  • La victime était un Anglais

Un des deux meurtriers a expliqué avoir agi en représailles: « Nous jurons par Allah tout puissant que nous n’arrêterons jamais de vous combattre. Les seules raisons pour lesquelles nous avons fait ceci, c’est parce que des musulmans meurent chaque jour. Ce soldat britannique, c’est oeil pour oeil, dent pour dent. Nous nous excusons que des femmes aient vu ceci aujourd’hui mais dans nos pays nos femmes sont obligées de voir la même chose. Vous, peuple, ne serez jamais à l’abri. Changez vos gouvernants. Ils ne prennent pas soin de vous ». Ces criminels sont comparés à des « loups solitaires » plus qu’à des membres d’organisations terroristes. Toutefois leurs motivations se veulent politiques et ont un certain retentissement dans un contexte de guerre opposant d’une certaine façon le camp de l’Occident, mené entre autres par le Royaume-Uni, aux Musulmans.
Ces revendications font écho aux conflits entre l’Occident et le monde Arabomusulman (l’Afrique et le Moyen Orient) qui ont démarré en 2001. Depuis, 9000 militaires britanniques ont été envoyés en Afghanistan. Après les Etats-Unis, c’est le Royaume-Uni qui fournit le plus de soldats à l’OTAN. Les deux pays marchant conjointement dans les guerres menées contre le terrorisme, chaque action militaire américaine est non seulement cautionnée mais également soutenue par le gouvernement britannique. C’est cet actif soutien que les deux criminels dénoncent. De plus, en Libye, avec le concours de la France et des Etats-Unis, la Grande-Bretagne aurait procédé à des tortures et des meurtres, et il est même question de massacres de combattants pro-Kadhafi selon des méthodes qui semblent avoir inspiré les deux criminels de Woolwich. Expliquer les mécanismes logiques qui les ont conduits à commettre leur crime n’est en aucune façon une excuse de ce crime. Il n’est pas concevable d’excuser un crime, et essayer de le comprendre ne peut pas être assimilé à une tentative de justification.

  • Un humanisme qui utilise la violence

Tous ces crimes de sang, en Europe ou ailleurs, sont à condamner sans nuance. La position philosophique de toute personne se revendiquant humaniste universaliste ne peut déboucher que sur une condamnation de toute sorte de violence, sans être plus conciliant avec un type de victime plutôt qu’une autre, car un humanisme universel n’autorise pas le deux poids deux mesures d’un humanisme sélectif, qui est un humanisme à exceptions. Cet humanisme relatif est fermement récusé par les pacifistes car c’est un courant de pensée qui, par une hiérarchisation de l’importance des vies humaines, justifie le colonialisme, autorise moralement les guerres de colonisation contre une civilisation considérée inférieure.
En 1550, lors de la Controverse de Valladolid, s’opposèrent deux formes d’humanisme qui défendaient deux approches de la colonisation de l’Amérique. L’humanisme religieux de Sépulveda était moralisateur: il jugeait les pratiques des indigènes comme dangereuses pour eux-mêmes et défendait le concept de « justes causes de guerres » quand il s’agissait de faire changer en bien des Hommes. Au contraire, l’humanisme religieux de Las Casas était bienveillant: il ne souhaitait qu’une démarche prosélyte pacifiste. Las Casas voulait convertir les Indiens au nom de valeurs chrétiennes et fut quelque peu désappointé d’apprendre que la colonisation avait finalement totalement occulté cet aspect évangélique en bafouant les principes-mêmes de la religion en tuant et en réduisant les autochtones à l’esclavage.
Il fut conforté dans sa position humaniste par les déclarations d’Alonso de Zorita, juge espagnol ayant officié au Mexique, qui remettait en cause le qualificatif de barbare qu’attribuait le conquistador Cortès à la civilisation aztèque. En effet, selon la définition de la Bible, un barbare était un non-chrétien à convertir. Mais pour Zorita la définition de ce mot se devait d’être revue après sa réévaluation de la culture des colonisés: « Pourquoi les Aztèques sont-ils des barbares ? Si ce sont eux qui me parlent et que je ne comprends pas, je serai pour eux un barbare. »
Dans une lettre à Charles Quint, Motolinia, un des opposants à Las Casas, réclamait des conversions de force si c’était nécessaire: « Ceux qui ne voudraient pas recevoir de bon gré le saint Évangile de Jésus-Christ, qu’on le leur impose par la force ». Son totalitarisme religieux s’explique par son urgence de voir de nouveaux fidèles rejoindre le courant catholique pour l’aider à lutter face au nouveau courant protestant, né d’une scission du christianisme qui fut initiée par la réforme luthérienne démarrée au début des années 1520. On peut ainsi mieux comprendre son impatience quand il énonce son principe totalitaire: « mieux vaut un bien accompli de force qu’un mal perpétré librement. »

  • Les nouveaux conquistadors de l’Occident

Las Casas comparait les sacrifices humains aux combats de gladiateurs. Finalement, quelle civilisation était la plus barbare ? Selon lui, si la civilisation européenne de l’époque avait quelque chose à apprendre aux Indiens, c’était à eux de s’en inspirer de leur propre initiative, pas sous la contrainte de lois qu’ils ne reconnaîtraient pas puisqu’elles viendraient d’une autre civilisation que la leur, avec des valeurs répondant à un autre paradigme que le leur. Il n’avait aucun intérêt à changer leurs règles de vie.
Cinq siècles plus tard, on retrouve les mêmes ingrédients ethnocentriques de la colonisation religieuse de l’Amérique par les Espagnols: pour le bien des populations opprimées par des dictatures islamiques violentes qui appliquent des châtiments corporels, l’Occident veut convertir les pays musulmans à la démocratie. Cela pourrait se faire de manière pacifique, en traitant commercialement avec eux, leur faisant une place sur l’échiquier économique pour les faire sortir de la pauvreté et donc améliorer les conditions de vie de leurs peuples.
L’Occident et l’OTAN, à la manière d’un Motolinia, ont opté pour une solution moins pacifique: ils bombardent les hôpitaux, ils utilisent des armes atomiques au rayonnement radioactif dangereux pour l’environnement, ils bombardent des enfants en Afghanistan, ils tuent 100000 civils en Irak , ils tuent un porte-parole pacifiste et détruisent l’ensemble des bâtiments civils (hôpitaux, écoles, universités, routes) en Libye  tout en présentant une note de frais de 480 milliards de dollars pour reconstruire ces infrastructures de première nécessité qu’ils ont détruites eux-mêmes. La démocratie dans ces pays, tout comme la religion chrétienne en Amérique, devait apporter davantage de justice. La démocratisation et l’évangélisme ont tué comme les dictatures islamiques et les rites de sacrifice humain chez les Indiens. Ceux qui refusaient de mourir de la main de leurs bourreaux, sont-ils ingrats de protester quand ils meurent de la main de leurs sauveurs ?

  • Guerres démocratisantes: échec politique et échec philosophique

« Mieux vaut un bien accompli de force qu’un mal perpétré librement ». Voyons le résultat des guerres démocratiques menées par l’Occident, pour mesurer le bien accompli de force.
Aujourd’hui, la Libye a instauré la charia, c’est-à-dire la loi islamique utilisant les châtiments corporels. En avril 2013, un sondage annonce que 99% des Afghans veulent que la charia soit la loi de leur pays. L’an dernier, il y a eu 130 exécutions en Irak, on utilise la torture, la majorité des prisons sont en surcapacité, les veuves sont en proie à la prostitution…  En 2013, la majorité des musulmans sont favorables à la charia tout en estimant que la violence au nom de l’Islam n’est jamais justifiée .
Manifestement, les guerres n’ont pas converti leurs survivants au mode de vie occidental: ils semblent attachés à la logique de châtiments corporels. Cela confirme que la charia fait partie de leur culture et ne leur est pas imposée par leurs dirigeants. Si l’on veut voir la charia disparaître des pays musulmans, ce n’est pas son interdiction par un autre peuple qui fera changer les mentalités mais, tout comme la France en 1789, c’est un changement de mentalité qui aboutira à l’abolition de la charia.
Aujourd’hui, la France est fière de sa révolution car elle s’est déroulée en cohérence avec son Histoire et sa tradition philosophique qui avait fait son chemin. Il y avait une logique sociologique. Aucun autre peuple n’a aidé, épaulé, initié ce mouvement révolutionnaire d’origine spontané. Pour faire évoluer les mentalités, on utilise la guerre pour gagner du temps. Or cela relève d’une fainéantise intellectuelle puisqu’on remplace la pédagogie qui influence par la force qui contraint. Le bon choix doit être décidé par l’individu lui-même. Si on lui impose le bon choix de quelqu’un d’autre, on entrave sa liberté de conscience, même si ce bon choix convient à celui qui l’impose. Tout le monde veut être libre, mais il y a une contradiction à vouloir imposer aux autres sa propre façon d’être libre. La liberté, c’est la possibilité de choisir. La paix ne peut pas être imposée de l’extérieur par la violence, elle doit naître à l’intérieur par la réflexion.
On peut alors remettre en question la pertinence de ces guerres vu que les situations de départ, qui ont officiellement motivé ces interventions militaires, se retrouvent encore aujourd’hui. On peut également s’étonner du silence de l’OTAN au sujet de l’Arabie Saoudite, qui est une dictature violente mais qui n’a jamais été menacée ou même condamnée pour ses dérives.

  • Quel camp défendre ?

C’est le caractère exceptionnel en Europe du crime de Woolwich qui le rend si symbolique. Les dizaines de milliers de morts en Afghanistan, en Irak et en Libye représentent une quantité déshumanisée: il est plus simple pour un individu de s’identifier à un autre individu seul plutôt qu’à un nombre qu’il est difficile de se représenter intellectuellement. C’est un Européen qui est mort, donc les Européens s’identifient à lui car ils se reconnaissent dans cette victime dont ils visualisent une culture commune, un quotidien plus similaire aux leurs que celui d’un Afghan ou un Libyen.
On connaît également son nom: Lee Rigby. Son âge: 25 ans. Sa situation familiale: père d’un fils de 2 ans. Et un bout de son passé: il a servi en Afghanistan, en Allemagne et à Chypre. Dans l’autre camp, on ne parle que de civils, d’inconnus flous, sans visage et sans nom, sans statut social et sans passé, sans famille et sans vie. Le piège du manichéisme serait de prendre parti pour certaines victimes et pas d’autres, offensant ceux qui prennent parti pour d’autres victimes et pas certaines.
– Plutôt que de chercher à confronter numériquement cet unique soldat britannique aux nombreuses victimes des guerres démocratisantes, au nom des mathématiques;
– Plutôt que de vouloir prendre parti pour le pays ou le continent où l’on est né, au nom de la géographie;
– Plutôt que de vouloir prendre parti contre une culture, au nom de l’ethnocentrisme;
– Plutôt que de ne condamner que l’auteur des crimes de l’autre camp, au nom d’un humanisme sélectif;
– Plutôt que de vouloir convertir l’autre en soi et annihiler celui qui veut rester différent, au nom de la peur,
il semble plus juste de déplorer et dénoncer toutes les morts violentes, sans jamais justifier le moindre crime de sang ou agression physique de quelque nature que ce soit. Si nous arrivons à justifier certains de nos crimes, alors nous offrons un cadeau rhétorique à tous les humains qui peuvent à leur tour justifier des crimes en utilisant la même justification. Dire que nous pouvons tuer cautionne explicitement les assassinats de nos ennemis. Il faut être lucide et savoir ce qu’un deux poids deux mesures implique.
Les Etats-Unis, la France, l’Inde, le Pakistan et Israël détiennent la bombe atomique. Mais quand l’Iran veut développer son nucléaire domestique, tous les détenteurs de la bombe atomique s’insurgent. Il y aurait donc des pays qui méritent la bombe atomique et certains qui en feraient un mauvais usage et qui doivent en être privé. Si l’Iran possédait la bombe atomique, l’Occident le sanctionnerait d’une guerre préventive, pour se prémunir d’une agression qui n’a pas encore eu lieu, comme en Irak, en Afghanistan, en Libye et, plus récemment, en Syrie. Une guerre préventive, c’est la première agression, et son auteur ne peut donc pas invoquer la légitime défense car aucune attaque n’avait été lancée au préalable. Si vous vous faites attaquer pour quelque chose que vous pourriez faire, alors on se trouve en plein dans le procès d’intention.

Entre la violence religieuse musulmane et la violence politique occidentale, je refuse de choisir qui a raison. Pour résoudre un problème, il faut en analyser les causes. On peut expliquer sans justifier. Le meurtre de Woolwich, inadmissible et intolérable, est l’expression d’une révolte contre les actions militaires de l’Occident. Que se passerait-il si l’Occident arrêtait son ingérence dans les pays musulmans ? Si le but de cette ingérence était de convertir les peuples à la démocratie, c’est raté, cela ne fonctionne pas. Pourquoi continuer ? Les Etats-Unis ont souvent menti sur leurs motivations pour faire des guerres, alors cette excuse de démocratisation des pays islamiques pourrait n’être qu’un alibi pour avoir le support du peuple, nécessaire aux actions militaires à l’étranger. Aujourd’hui l’Occident riposte mais il subit peu d’agressions. Pour légitimer ses offensives, il anticipe des attaques d’un camp adverse. De peur d’être attaqué, l’Occident attaque en premier. Si on accorde le droit à l’Occident d’attaquer préventivement, pourquoi refuser aux pays musulmans de riposter ? Si l’Iran menait une guerre préventive, je ne vois pas comment argumenter contre sans expliquer que notre civilisation occidentale doit garder le privilège de la violence, au nom d’une supériorité civilisationnelle. L’Occident n’est pas contre l’usage de la violence puisqu’il l’utilise. L’Occident ne juge les violences comme monstrueuses que lorsqu’il en est la victime. Finalement, pour éviter la réalisation du fantasme d’une colonisation mondiale par les pays islamiques, l’Occident prend les devants, au nom du bien, et déclare la guerre à tous les pays islamiques.

Ceux qui prétendent tout savoir et tout régler finissent toujours par tout tuer.
– Albert Camus

Surinterprétation – A la recherche du vrai sens des mots

Lors d’une conversation avec mon camarade Mohamed, il m’a dit avec humour que je devrais viser la simplicité dans mes raisonnements. Quand j’étais en CP, on me disait déjà que j’avais « l’esprit biscornu ». Depuis, rien ne s’est arrangé, tout s’est empiré, jusqu’à me faire adopter des attitudes analytiques tantôt psychologiquement effrayantes pour les uns, tantôt intellectuellement absurdes pour les autres. Dans un premier temps, j’ai voulu confirmer cette complication intellectuelle, qui semble être le noyau dur de ma personnalité, malgré le temps qui passe. « Je préfère la complexité à la simplicité ». Toutefois, esclave de cet esprit biscornu que je voulais revendiquer avec amusement, j’ai décidé de jouer sur les sonorités proches des mots « complexité », « complicité » et « simplicité » : « je préfère la complicité à la simplicité ».
Est-ce que cette nouvelle phrase avait le même sens que ma phrase précédente ? Est-ce qu’il y avait encore du sens dans cette deuxième phrase ?

Si l’on peut facilement accepter de concevoir la différence entre les stricts opposés « complexité » et « simplicité », il est intéressant (si si, ça l’est) de mettre en parallèle les termes « complicité » et « simplicité » : est-ce qu’il y a la possibilité de faire une dissociation entre ces deux mots ?
A priori, « complicité » et « simplicité » ne sont pas les contraires l’un de l’autre. Cependant, l’usage du verbe « préférer » présuppose un choix, donc une dissociation entre deux mots qui n’ont pas le même sens, sinon on ne pourrait pas préférer l’un à l’autre car il n’y aurait aucune différence. Une préférence implique une dissociation sémantique, elle en est une.
Pour comprendre les différences entre deux mots, il faut d’abord comprendre les mots séparément. Remonter au point zéro de l’histoire du mot se fait par l’analyse de sa racine étymologique.
« Complicité » et « simplicité » ont le même radical : « plexplicis », qui désigne « un tout divisé en parties » (comme un pliage composé de plusieurs parties). On remarque alors que « complexe » / « complexité » et « complice » / « complicité » ont la même étymologie. « Complice » a été utilisé pour la première fois en 1327 (avec l’orthographe « complisse ») pour désigner « celui qui s’associe à quelqu’un pour commettre un méfait », donc l’union de deux personnes pour constituer un ensemble. La première occurrence du mot « complexe » remonte à 1564, faisant quant à lui référence à « un ensemble » de plusieurs critères : un concept est « complexe » quand on le qualifie avec plusieurs données. Plus tard, en 1927, Freud utilise le mot « complexe » pour désigner un système analytiquement déconstruit en plusieurs parties, ce système étant celui de la pensée humaine en psychanalyse.
La dissociation sémantique (ou différence de sens) entre « complice » et « complexe » est ténue puisqu’ils expriment tous les deux la même idée, celle d’ « une partie en relation avec une autre pour faire un tout ». Malgré leur dénotation similaire, l’existence des mots se justifie par leurs connotations (contextualisation) différentes : l’un juge la relation entre deux personnes au travers d’un regard moral, l’autre associe des entités au travers d’un regard sans jugement moral.

Puisque « complicité » et « simplicité » ont le même radical (l’idée de divisions, de « pliage »), on peut s’attendre alors à trouver tout naturellement une distinction s’opérant au niveau de leur préfixe.
Si le préfixe « com- », dans « complice » et « complexe », annonce des concepts « complexes » (il est assez cavalier d’expliquer un préfixe en utilisant un mot qui l’utilise lui-même) qui sont intellectualisés et divisés en sous-concepts, « sim- » devrait exprimer au contraire des concepts qui sont non-intellectualisés et non-divisés en sous-concepts, et donc désigner des choses « simples » et non-plurielles. C’est alors que l’on fait une découverte pour le moins inattendue.
« Complicité » et « simplicité » n’ont pas le même préfixe. Le premier utilise le préfixe latin « cum », qui signifie « avec ». Mais le second utilise le préfixe grec « syn », qui signifie également « avec »Eh bah ça alors ! Si les deux analyses étymologiques révèlent deux fois le même sens, « un tout avec plusieurs parties »,  il est étonnant que les deux mots ne soient en fait pas de parfaits synonymes. La seule différence morphologique étant l’origine du préfixe, latin pour l’un et grec pour l’autre, voyons si l’origine du préfixe a une incidence sur sa valeur lexicale dans le mot.
Le mot et l’idée, c’est un peu comme l’œuf et la poule. Sans le mot pour exprimer l’idée, l’idée n’a pas de consistance linguistique compacte. Mais sans la volonté de compacter des idées en un seul signe linguistique, l’existence au préalable du mot n’aurait pas de sens : on a besoin de mots pour exprimer des idées et on a besoin d’idées pour exprimer des mots (sauf dans quelques cas télévisuellement recensés). Nos mots donc nos idées et nos idées donc nos mots constituent notre culture civilisationnelle. Nous puisons notre conception du monde dans l’héritage linguistique et philosophique de nos ancêtres Gréco-Romains. Du XIIème au VIIIème siècle avant notre ère, la Grèce Antique a été le premier grand pôle d’influence à l’échelle de l’Europe. Ensuite, de -27 à 476 après J.-C., c’est l’Empire Romain qui a repris le flambeau de la suprématie continentale, tant militaire que philosophique.
Au début du Moyen-Âge, le monde des idées se redynamise et on a besoin de nouveaux mots : on décide alors de se référer à la culture latine. Ainsi, « complicité », avec le préfixe latin « cum », a été inventé en 1420, soit 20 ans avant l’invention de l’imprimerie de Gutenberg, première date transitoire proposée par les historiens pour délimiter Moyen-Âge et Renaissance. A la Renaissance, une nouvelle mode se popularise : on réexplore la culture grecque à son apogée, d’où on tire alors l’inspiration pour créer des nouveaux mots, parmi lesquels « simplicité », avec le préfixe grec « syn », qui a été créé en 1538, soit 21 ans après l’initiative de reforme du protestantisme par Martin Luther, dernière date transitoire proposée par les historiens pour délimiter Moyen-Âge et Renaissance.
Il y a une symétrie morphologique : les préfixes ainsi que les radicaux des termes « complicité » et « simplicité » répondent à l’équation étymologique « avec +  un rassemblement d’unités ». Les préfixes, d’origines linguistiques différentes, s’expliquent donc par l’époque de création des termes. Pour comprendre comment les concepts, pluriel de « complicité » et singulier de « simplicité », réussissent à être des contraires malgré leur concordance étymologique, il faut adopter un recul philosophique de type dialectique.

Un groupe d’unités implique deux concepts : le groupe et l’unité. D’un point de vue externe, un groupe n’est pas l’unité qu’il contient mais, par définition, est ce qui contient plusieurs unités. D’un point de vue interne, un groupe ne peut être une unité vide d’autres unités, il faut plusieurs unités pour constituer un groupe. Mais si on adopte un point de vue externe de niveau supérieur, un groupe est également  une unité : non plus une unité similaire à ce qu’il contient, mais une unité en parallèle à d’autres unités avec lesquelles il constitue un groupe.
Qu’est-ce qui est simple et complexe ? Est-ce que cette question est simple ou complexe ? Rien n’est simple ou complexe par essence. La seule différence entre « simple » et « complexe » réside dans le point de vue : ce qui est complexe peut être simple pour quelqu’un d’autre, ce qui est simple peut être complexe pour quelqu’un d’autre. Ce qui est simple est considéré comme compris, maîtrisé. Ce qui est complexe empêche cette impression de maîtrise, créant un malaise intellectuel. Afin de résoudre ce malaise, il faudra réaliser un travail intellectuel à l’issue duquel on pourra s’expliquer ce qui n’était pas maîtrisé. Une fois compris, le concept apparaîtra moins complexe, plus simple. En fait, quelque chose de simple n’est rien d’autre qu’une chose complexe comprise. Celui qui trouve quelque chose complexe, et pas simple, a déjà commencé un travail d’analyse malgré lui mais n’est pas arrivé au bout du processus de compréhension. Celui qui comprend quelque chose de complexe peut trouver également cette chose simple : un professeur pourra expliquer quelque chose de complexe et le rendre simple aux yeux de ses élèves qui auront compris quelque chose de complexe et donc, en la considérant comme maîtrisée, trouveront la chose simple.
Pourtant on peut trouver des choses simples, les comprendre et être en paix, et se faire dire que l’on se trompe dans son adhésion à une perspective « trop simple », simpliste. Les athées réfutent les théories religieuses car ils contestent la compréhension du monde au travers de concepts religieux. Comprendre n’est pas détenir la vérité absolue, c’est une approche intellectuelle qui considère quelque chose comme simple et qui donc fait cesser le questionnement, donc le malaise intellectuel causé par l’instabilité des idées. Quand on considère quelque chose comme simple, il n’y a pas de malaise intellectuel. C’est pourquoi chaque explication à laquelle on adhère nous semble être la bonne puisqu’elle apaise intellectuellement. Si le doute est chassé, on ne le recherchera pas car le doute fait souffrir intellectuellement en troublant l’image que l’on a du monde. Sans image claire du monde, on n’a pas d’inspiration pour décider comment entrer en interaction avec lui. Pour avoir une image claire du monde, on a besoin de mots pour réfléchir et exprimer cette réflexion. Les mots « simples » et « complexes » sont des réflexions subjectives de leurs créateurs qui se servent de la langue pour exprimer un point de vue et commenter leur exploration intellectuelle du monde, se révélant à la fois à l’échelle de leur discours mais également à l’échelle du mot choisi.

C’est sur ce rejet du doute que les idéologies se fondent, en proposant des réponses, répondant à des principes, des dogmes. Ces dogmes offrent une perspective : on ne peut pas remettre en question les dogmes car cela voudrait dire que l’on a une perspective différente et que donc on n’y adhère plus. Les réponses empêchent de se reposer les questions. Les seules questions qui peuvent protéger une idéologie sont des questions présupposant cette idéologie, les questions orientées. Si la réponse ne convient pas, on reposera la question, autrement, pour avoir une autre réponse. Le philosophe adopte une démarche de questionnement systématique et ne peut donc, en théorie, adhérer à aucune idéologie qui le maintiendrait en position immobile.
Le philosophe qui ne donne que des réponses cesse d’en être un et devient un prêcheur de vérité, comme un prêtre ou un chef de parti politique. Si le philosophe peut être un militant, alors tout le monde est philosophe. La condition sine qua non pour être un philosophe est de ne pas avoir une opinion exprimée de manière autoritaire comme étant la seule acceptable et qui, donc, ne cherchera pas à faire changer d’avis les autres. Ma définition est la suivante : le philosophe est la personne qui n’utilise jamais la violence et cherchera à la désamorcer dans chacun de ses discours, car la violence est ce qui empêche les gens d’être libres d’être des philosophes comme lui. La censure par la violence physique (emprisonnement, peine de mort) ou le conditionnement (propagande des médias, pression conduisant à l’autocensure) est du totalitarisme qui ne sert qu’une seule idéologie. Il est partial et aisé de soutenir un totalitarisme qui est de son côté. Le philosophe, à mon sens, doit être quelqu’un de suffisamment pacifique pour ne pas céder au manichéisme séparant le monde en deux camps : ceux qui pensent comme lui et ceux qui pensent contre lui. Le philosophe qui refuse d’être dans un camp ne sera jamais en opposition violente contre quiconque. En faisant l’effort de comprendre ce qui est différent, le philosophe n’utilisera jamais la violence pour punir la différence.
Celui qui a pensé le mot et le concept de « complexité » a voulu définir une situation similaire à celui qui a pensé le mot et le concept de « simplicité ». Si le premier individu ne connaissait pas le mot du second, c’est le hasard qui l’a fait construire un mot sur le même schéma : préfixe « avec » (grec/latin) + radical « plusieurs éléments/pliage ». Toutefois, l’usage d’un préfixe grec et d’un radical latin peut sembler incohérent. On peut alors penser que le créateur du mot « simple » a, certes, exprimé la même idée que celui qui a créé le mot « complexe », mais il a refusé de partager son point de vue, et a donc opéré une nuance morphologique, le préfixe grec « syn » au lieu du préfixe latin « cum », faisant écho à l’antique rivalité entre Grecs et Romains.
De la même manière, j’ai voulu exprimer « je préfère la complexité à la simplicité » mais j’ai refusé de sortir cette phrase qui m’aurait associé à une masse de personnes. J’ai voulu mettre en avant ma singularité. La phrase que je voulais dire me semblait manquer de relief, manquer de caractère. Je l’ai trop entendue et, à force, son aspect subversif s’est galvaudé. J’ai donc utilisé le mot « complicité » qui, en ressemblant à « complexité », ne cryptait pas trop la phrase. Donc on comprenait ce que je voulais dire. J’ai exprimé la même chose mais autrement. J’ai seulement voulu être original afin d’affirmer mon identité en ne disant pas ce que « n’importe qui » aurait dit. J’ai probablement anticipé un procès d’intention (en réalisant moi-même un procès d’intention, par la même occasion) par des gens qui auraient trouvé la phrase peu originale, et m’auraient donc trouvé moi-même peu original. Mais en faisant cela, je n’ai pas pu empêcher des gens de me trouver prétentieux ou faussement original. L’attitude idéale, en excluant l’autocensure, est donc de ne pas fuir l’irrespect ou le mépris fantasmés, mais de dire ce qu’on veut comme on veut, avec ignorance et innocence, et de voir ensuite s’il y a des conséquences et matière au dialogue.

Il faut garder à l’esprit que je n’ai rien voulu exprimer dans ma phrase. J’ai juste voulu faire un jeu de mots. J’ai changé le mot « complexité » en « complicité », parce qu’il rimait avec « simplicité ». De la même façon, j’aurais pu garder « complexité » et changer « simplicité » en « simplexité », mais je ne connaissais pas ce mot.
Une analyse intellectuelle est une interprétation personnelle de ce que l’énonciateur a dit. Une interprétation, c’est la création d’un sens, une appropriation des mots. Si on ne demande pas son avis à l’énonciateur, si on n’étudie pas sa façon de penser, on est dans le fantasme, le transfert : on s’exprime soi-même via l’interprétation d’un texte qui importe peu puisqu’il est instrumentalisé comme un prétexte. En cherchant un sens profond à ma phrase, on surinterprète mon propos. Je n’ai réfléchi qu’à la forme, mon attention portée sur le fond était dérisoire. Seul moi-même pouvais écrire cet article et émettre des hypothèses viables dans la mesure où elles n’auraient pas trahi la réalité autant qu’une pseudo-psychanalyse par quelqu’un d’autre. C’est d’ailleurs le conseil des professeurs de lettres : ne pas psychologiser les personnages ou le narrateur ou l’auteur, car on en dirait plus sur soi-même que sur eux. J’étais le seul à être sûr à 100% qu’aucun message profond n’était véhiculé dans cette phrase.
Tout travail sur le sens d’un message s’apparente à un procès d’intention qui, tout comme un vrai procès dans un tribunal, s’appuie sur des éléments concrets, des matériaux tangibles qui peuvent peser dans la balance pour défendre une interprétation plutôt qu’une autre. A l’issue d’un procès ou de n’importe quel processus analytique, on arrête de douter car on a fini de réfléchir pour décréter un angle d’interprétation d’un propos : on peut juger et se tromper, mais on en a au moins la légitimité intellectuelle puisqu’on est passé par le doute.
Le procès d’intention peut faire insulter un auteur considéré comme nazi sans se préoccuper du texte lui-même (qui ne sera jamais honnêtement lu) : lire de la poésie écrite par Robert Brasillach est aujourd’hui devenu un acte de provocation. Ce ne plus être dans la critique littéraire mais le jugement humain. Celui qui lit du Brasillach est suspect, celui qui aime sa poésie est devenu carrément un criminel. Est-ce qu’un bon travail artistique ne l’est plus si le jugement personnel sur l’auteur change ? Peut-être que tous les artistes, intellectuels et scientifiques que vous respectez ont eu un passé de nazi ou ont des propos que des nazis auraient pu tenir. Cette remise en question des vies entières des gens est devenue une grande modeLes jugements rétrospectifs, sans la compréhension du contexte historique ou connaissance de la vie privée, conduisent à avoir une opinion sur la moralité de personnes qui n’avaient pourtant jusque là jamais posé de souci. En conséquence, on se met à refuser d’avoir un avis objectif sur leurs compétences professionnelles et techniques car on a peur de devenir ou sembler trop conciliant avec la moralité de la personne. Pour les fanatiques idéologiques, ne pas être contre et être pour est la même chose. A cause de cette pression morale, on doit se défendre à coups de malhonnêteté intellectuelle, défendre une thèse pré-établie, pour que l’interprétation d’un texte soit supportable pour l’auditoire. En France, c’est ce qu’on appelle la bien-pensancec’est une opinion à apprendre, une pensée orientée. Pas une réflexion libre.
Toutefois, il n’existe pas que des procès d’intention qui sanctionnent. Il y en a des flatteurs : dans le cadre, par exemple,  de la surestimation intellectuelle d’un auteur. Un étudiant peut aller très loin dans l’analyse personnelle d’un texte. Son interprétation peut paraître délirante. S’il est dans le vrai, il a tout compris à l’auteur. S’il se trompe, il devient un nouveau créateur de sens. Mais, à moins d’avoir l’avis de l’auteur, on ne peut pas savoir. Si on veut rester humble et mesuré, une interprétation n’est rien d’autre qu’une nouvelle création, en réaction à un stimulus intellectuel.

En analysant ma propre phrase, anodine et sans la moindre profondeur intentionnelle, j’ai pensé aux monochromes et aux tableaux contemporains réalisés à base d’excréments. Est-ce que les vrais génies ne sont pas ceux qui regardent du caca et y voient du sens sans même connaître l’intention de celui qui a déféqué sur sa toile ? Est-ce que les vrais créateurs ne sont pas ceux qui sont capables d’écrire des articles entiers inspirés par un carré rouge qui a été peut-être peint en deux minutes avec un rouleau de peintre en bâtiment ? Vouloir étudier les intentions de l’auteur, est-ce que ce ne serait pas se leurrer en présupposant qu’il en avait vraiment ? Est-il plus important de trouver la vérité d’un texte ou d’une œuvre d’art, ou bien d’en tirer des bienfaits intellectuels et spirituels, quelle qu’en soit l’issue ? Faut-il avoir raison dans sa compréhension ou être heureux de son interprétation ? N’est-il pas plus utile de faire de l’art que de le juger ?

Paranorateurs – Le procès d’intention par Caroline Fourest

La peur forge une position de victime chez l’individu qui va vouloir se prémunir d’agressions. L’agression présuppose une menace dont les ambassadeurs sont des ennemis à identifier. Ainsi, pour anticiper une menace et déterminer de qui vient cette menace, un regard analytique va réaliser des procès d’intention. Par exemple,  l’homme qui n’adhère pas aux idées féministes est perçu comme un machiste, cautionnant par son silence une situation dénoncée par les féministes. Est-ce juste, pertinent ?

L’impartialité est une position plus floue qu’un engagement partial pour une cause. Par exemple, défendre un droit d’expression absolu implique que l’on accorde ce droit également à des militants du Front National. Vouloir protéger le droit d’expression pour tous pose un problème à certains humanistes qui diabolisent les fascistes. L’humanisme antifasciste hiérarchise et divise l’humanité, comme toutes les idéologies, car toute idéologie présuppose un ennemi. Dans ce paradigme pseudo-philosophique réducteur, celui qui ne défend pas une cause appartient forcément à l’opposition. L’impartialité n’étant pas concevable au travers du spectre idéologique, la seule raison de ne pas défendre une cause, c’est d’y être opposé.
Dans une conception manichéenne du monde, l’inexistence de preuve d’appartenance à un camp idéologique est interprétée comme une preuve d’appartenance à l’idéologie contraire. Pourtant, si on ne participait pas à une manifestation en faveur du Mariage pour Tous, cela ne voulait pas dire que l’on était contre. D’un autre côté, il est également logique de ne pas participer à une manifestation défendant cette cause si on y était opposé. On ne peut donc pas savoir ce que les gens pensent s’ils ne s’expriment pas.

Un dogme est un principe fondamental qui définit l’identité d’un mouvement politique, religieux ou philosophique. Adhérer à une religion présuppose de ne pas remettre en question les fondements de cette religion, sinon il y a blasphème. Ceux qui considèrent la religion au travers d’une autre grille de lecture, par exemple une position athée, auront la possibilité philosophique de questionner les fondements de la religion, pour remettre en question la légitimité d’une autorité religieuse qui non seulement ne défendrait pas leur idéologie politique ou philosophique, mais pourrait donc, au nom du manichéisme, en être un ennemi : les défenseurs de la laïcité voient en la religion un ennemi, et inversement.
Le juge d’un procès d’intention, soumis à un dogme, est partial. L’idéologie partiale (pléonasme) est la loi qui juge un point de vue. Le procès d’intention repose sur l’extrapolation de ce qu’un individu pense et donc pourrait faire. S’il refuse de manière universelle le recours à la violence, peut-être veut-il s’accaparer ce droit pour dominer les autres à qui sa morale aura interdit l’usage de la même violence. Le procès d’intention n’est pas un procès d’action : l’agression n’a pas été commise. Le procès d’intention considère que le cheminement intellectuel aboutissant à une action peut être retracé, donc que des pensées peuvent annoncer des actions : on pourrait donc prévoir l’agression. Or, des pensées non-exprimées ne peuvent pas être connue, et une pensée exprimée peut être maladroitement énoncée ou mal comprise. Dans le procès d’intention, il n’y a aucun quiproquo dans la communication : il n’y a pas de communication.
Le juge d’un procès d’intention est le garant idéologique d’un dogme qu’il ne peut que protéger puisqu’il y est soumis. Pour celui qui adhère à une idéologie, rien ne peut remettre en cause son dogme car il définit son idéologie. L’idéologie façonne le point de vue de l’individu, lui constitue une grille de lecture, un outil de compréhension du monde. Remettre en question cet outil, c’est remettre en question ses propres pensées. Au nom de la protection du dogme, l’individu est conciliant avec tous les orateurs de son camp idéologique, même si c’est un sophiste qui utilise un raisonnement fallacieux dans le but de grossir les rangs de leur mouvement de pensée. Si le militant idéologique active son sens critique, il peut être en désaccord avec la forme d’un discours d’un piètre orateur défendant pourtant une cause commune, avec le même fond.

Refuser la validité rhétorique de la position victimaire de Caroline Fourest dans un débat d’idées, quand elle déclare avoir été « passée à tabac », ce n’est pas être le défenseur de ses agresseurs si on est contre toute forme de violence, quelles qu’en soient la motivation et les acteurs (les victimes et les agresseurs). C’est ici juste un questionnement de la valeur argumentative que semble impliquer la position de victime. Dans un débat, cette position peut être instrumentalisée comme argument d’autorité, pas argument intellectuel : la symbolisation d’un combat idéologique personnifié en une victime, c’est un martyr. A partir de ce moment-là, le débat intellectuel est faussé par de l’émotion.
Une critique de forme relève d’une déontologie intellectuelle impartiale idéologiquement, pas une déontologie idéologique. Son procès d’intention la fait traiter Béatrice Bourges de « négationniste » et de « folle-à-lier », la jugeant « monstrueuse » de son point de vue. La violence des insultes est à la mesure de sa panne argumentaire. Elle est en effet désarmée car aucune preuve irréfutable de son agression n’existe. Caroline Fourest utilisera donc un procès d’intention, suggérant peut-être que Béatrice Bourges a une filiation idéologique avec les Nazis, par l’utilisation de mots connotés qui ont une résonance culturelle particulière, dans le but de décrédibiliser la parole de son interlocutrice. Mais, même si on était dans un débat, et que le but est de décrédibiliser la parole de l’autre, on ne peut pas être sûr que l’usage de ces allusions étaient exactement l’intention de Caroline Fourest, donc cela doit rester une supposition prudente pour ne pas être un procès d’intention. Par ailleurs, il est tout à fait possible d’attribuer à Béatrice Bourges une intention de décrédibiliser la parole de Caroline Fourest, puisque toutes les deux étaient invitées sur ce plateau de télévision pour opposer deux idéologies, deux camps politiques qui se faisaient « la guerre ». Mais voir un procès d’intention dans la démarche de Béatrice Bourges peut devenir, une nouvelle fois, un autre procès d’intention.

Si on refuse de gagner un débat par une manipulation rhétorique qui nous semble malhonnête selon ses principes, on est prêt à démystifier les mécanismes intellectuels d’un allié idéologique. Cela peut également faire partie d’une manœuvre d’un camp idéologique, purgeant ainsi les orateurs les plus fragiles, que l’on peut facilement prendre en défaut dans un débat : une cause mal défendue est une cause sabotée qui donne l’impression de valider le bien-fondé de la thèse opposée, sans que l’opposition n’ait eu à faire quoi que ce soit. Que l’on dénonce un orateur de son camp ou que l’on soit un mauvais orateur desservant son propre camp, on est alors considéré comme un traître passé de “l’autre côté”, devenu un agent du Mal, donc un virus à éliminer.
Voilà pourquoi ceux qui partagent les idées de Caroline Fourest vont peut-être présupposer que cet article est à charge contre Caroline Fourest, alors que je ne l’ai prise que comme exemple pour expliquer le procès d’intention, exemple choisi un peu par hasard puisqu’il était le plus récent dont je me souvenais. Ceux qui partagent les idées de Caroline Fourest vont peut-être présupposer que je voulais décrédibiliser sa parole en m’attaquant à ses méthodes, alors que seule la forme m’intéressait, pas le fond. Ceux qui partagent les idées de Caroline Fourest vont présupposer que mon but était de servir la cause contre laquelle elle se bat, cause à laquelle j’aurais prêté allégeance.
Si vous pensez ainsi, vous êtes la meilleure des illustrations pour cet article qui parle du procès d’intention.

Le procès d’intention est le fantasme de l’issue violente d’une confrontation d’idées, alors que les idées de l’interlocuteur ne sont pas connues clairement. Une fois jugé, le coupable se trouve alors lésé philosophiquement et peut, en réaction à la menace d’être diabolisé, ressentir de la peur, forgeant ainsi une position de victime qui va vouloir se prémunir d’une agression, d’un agresseur se référant à une lecture idéologique du monde. Le condamné va donc se mettre en opposition à l’idéologie qui l’a jugé. En conséquence, le procès d’intention se justifie rétrospectivement car il a bel et ben condamné un opposant idéologique. Cet opposant idéologique n’avait pourtant pas de positionnement idéologique, ni pour ni contre, avant le procès d’intention. Le procès d’intention a donc un pouvoir auto-réalisateur : on fabrique et entretient ce qu’on craint.