Corps de l’article

Aussi étonnant que cela puisse paraître, la philosophie québécoise constitue l’un des angles morts de la pratique historienne de la philosophie au Québec. En effet, aucun programme universitaire n’affiche actuellement un seul cours complet sur la question, que ce soit au baccalauréat, à la maîtrise ou au doctorat. Une telle situation est préoccupante : quelle mémoire notre discipline se donne-t-elle les moyens de conserver et quelle perspective offre-t-elle pour dégager sa trajectoire si elle voue sa propre histoire à l’oubli ? De fait, la méconnaissance de l’histoire philosophique du Québec est telle que de grandes problématiques actuelles semblent surgir de nulle part, alors qu’elles s’enracinent en fait dans l’histoire longue, celle de la mémoire nationale. C’est par exemple le cas de la promotion et de la défense de la laïcité, un combat séculaire qui a ponctué de loin en loin notre passé intellectuel. Cette amnésie collective n’est pas sans conséquences : certains nient l’intérêt théorique de la philosophie québécoise, mettant en cause sa légitimité, tandis que d’autres vont même en contester l’existence avant la Révolution tranquille. Dans « Sens commun et philosophie québécoise : quelques considérations méthodologiques », Claude Panaccio propose un exemple montrant à quelles conditions certains des textes produits au Québec avant 1960 peuvent présenter, aujourd’hui encore, un intérêt proprement philosophique. Pour ce faire, il développe deux idées clés rendant possible une juste appréciation de la portée philosophique de ce corpus : la coréférence et l’usage de la thèse logico-linguistique. Il offre ainsi une illustration de la richesse de notre patrimoine intellectuel.

Une seconde forme d’invisibilité se superpose à ce premier pan thématique : le recours aux approches numériques en philosophie. Les trois textes suivants de notre dossier exploitent ce vaste domaine.

Comme chacun sait, nous vivons présentement une période de transition. Certes, l’usage de l’ordinateur a déjà modifié en profondeur le travail intellectuel : moteurs de recherche, tableurs, idéateurs et éditeurs de documents, sans oublier les logiciels de traitement de texte, de calcul, de modélisation, de dessin, de présentation et de communication ; bref, déjà copieuse, la liste de ces outils intellectuels s’allonge de jour en jour. Ainsi, on fait couramment appel à l’ordinateur pour préparer, présenter ou suivre ses cours, écrire ses textes, expédier des courriels, naviguer sur la Toile, utiliser les réseaux sociaux et, depuis le début de la pandémie, tenir des rencontres et des activités virtuelles. Mais, malgré leur ampleur, ces développements devenus indispensables n’atteignent pas le coeur du travail intellectuel et ils risquent de paraître bien pâles dans un avenir rapproché. En effet, qu’on parle de l’apprentissage-machine (machine learning), des réseaux de neurones artificiels (neural networks) ou de l’apprentissage profond (deep learning), les promesses de l’intelligence artificielle font rêver. D’ores et déjà, des programmes informatiques peuvent conduire une voiture, reconnaître et décoder des formes (dont les visages humains), écrire ou traduire des textes, composer de la musique, réaliser des tableaux artistiques, servir d’assistant personnel, en plus de soutenir une conversation et de simuler, voire de dépasser l’expertise humaine dans divers secteurs. Or, certains de ces progrès spectaculaires touchent directement la littérature, la philosophie et, de manière générale, les disciplines de sciences humaines ou sociales, dessinant les contours d’un domaine en émergence rapide : les « humanités numériques » (digital humanities). En effet, de nombreux algorithmes permettent aujourd’hui la fouille de données (data mining) ou de textes (text mining), la modélisation thématique (topic modeling) ou encore la vectorisation des textes et le plongement textuel (word embedding). Si bien des philosophes ignorent l’existence de cette famille de techniques informatiques, c’est que le travail méthodique sur les données massives (big data) n’a pas encore pignon sur rue. Mais sans trop de risque d’erreur, on peut parier que cet outillage intellectuel fera bientôt partie de la panoplie du chercheur, en particulier la LACTAO, la lecture et l’analyse conceptuelle de textes assistées par ordinateur, car elle permet un forage des données rendant possible le traitement d’immenses corpus, tout en créant des formes d’accessibilité inédites, qui modifient la méthodologie même de la recherche, en philosophie comme ailleurs.

C’est ce qu’illustre le texte de Jean-Guy Meunier. Dans « Le numérique, la lecture et l’analyse de textes philosophiques », il présente en effet une riche réflexion sur ce sujet à la fois complexe et novateur. On sait à quel point l’exploration des concepts est essentielle, tant au niveau collégial qu’universitaire ; on peut d’ailleurs affirmer qu’elle constitue un des index les plus représentatifs du travail philosophique. Aussi son article rappelle-t-il pourquoi les projets de recherche qui mobilisent intensivement l’informatique ne peuvent faire abstraction de la modélisation conceptuelle. Il montre également pour quelle raison les approches computationnelles requièrent une attention particulière aux questions liées à la textualité et à la discursivité, entre autres en philosophie.

Les humanités numériques, disions-nous, abordent de manière originale et heuristique le contenu sémantique et conceptuel de ce type de pratique épistémique. Mais, polymorphes, les analyses y varient en fonction des méthodes mobilisées pour les mettre en oeuvre. Mon article, « Un exemple d’humanités numériques : l’analyse de la revue Philosophiques », retient comme corpus, non des échantillons de l’histoire longue du Québec, mais l’ensemble des textes de l’actuelle revue depuis ses origines. En appliquant des outils numériques de base, j’y étudie les douze thématiques qui, dans le milieu philosophique québécois, ont marqué l’entrée dans la modernité. Présentée sous cet angle particulier, l’histoire de la revue offre une illustration claire — du moins, je l’espère — de l’efficacité et de la portée des humanités numériques.

Cela dit, le travail sur le concept peut être exploré plus avant, tant est complexe la relation avec son expression linguistique dans les textes. En effet, grâce à l’apprentissage-machine, on peut maintenant entraîner un ordinateur à reconnaître des concepts philosophiques dans un corpus, même quand ils n’y sont pas exprimés de manière canonique. Dans une analyse prometteuse, « Approche computationnelle de l’analyse conceptuelle : présentation opérationnelle et approfondissement méthodologique de la détection d’un concept dans des extraits textuels », Francis Lareau utilise, pour ce faire, les réseaux de neurones et le plongement textuel. En tablant lui aussi sur la même base de données, les textes de la revue Philosophiques, il propose un usage exploratoire de ces outils encore peu connus en les appliquant au concept de cognition, central en philosophie de l’esprit.

Les deux derniers textes montrent comment l’usage des nouvelles technologies complète et permet de préciser les résultats obtenus par les méthodes classiques. Plus largement, en braquant les projecteurs sur l’histoire de notre discipline grâce à des approches variées et complémentaires, les quatre articles ici réunis entendent frayer des avenues nouvelles. Chacun à sa manière, ils proposent une réflexion de nature méthodologique sur le travail en philosophie. Plus que des contributions historiques ponctuelles ou des synthèses (qui restent à faire), ils expliquent et défendent en effet des approches novatrices et en illustrent la fécondité. Ils rappellent en outre la pertinence d’un objet d’étude : la production philosophique au Québec, peu importe son type d’écriture ou son appartenance institutionnelle. Ils éclairent du coup un vaste monde immergé, un continent présent depuis quelques siècles dans la vallée du Saint-Laurent, continent qu’on peut considérer comme un impensé majeur de la pratique philosophique actuelle.