The work of Piaget, particularly on the development of intelligence in children, provides a valuable framework for examining the interactions between these different forms of intelligence. This seminar will allow us to compare these intelligences and explore how artificial intelligence, with its ability to process massive amounts of data using algorithms and data models, differs from or resembles animal and human intelligence, which evolves through experimentation, error, and adaptation. For this occasion, we have decided to give the floor to psychologists, neuroscientists, philosophers, mathematicians, computer scientists, and educators from different countries.
The seminar takes place in room 1170 at Uni Mail.
All lectures are recorded and will be available on our YouTube channel afterwards.
Admission is free and open to the public.
La conférence abordera la notion d’intelligence d’un point de vue psychologique, en mettant en lumière ses origines et les défis qu’elle soulève dans ce domaine, à travers une analyse approfondie de l’œuvre de Jean Piaget. L’intelligence y est définie comme la capacité à résoudre des problèmes et à construire les instruments nécessaires à cette résolution, une conception qui éclaire aussi les débats contemporains sur l’intelligence artificielle (IA). Contrairement à l’intelligence humaine, qui repose sur la coordination des actions, d’abord réelles puis symboliques, et sur la création autonome de nouveauté, l’IA ne construit pas d’outils d’adaptation et dépend entièrement de la programmation pour exécuter des tâches ciblées, sans compréhension de ses actions. Bien qu’elle puisse simuler efficacement des interactions humaines, ses performances s’améliorent uniquement grâce au machine learning, un processus dépendant de vastes ensembles de données qui sectorisent son action et diffèrent des stades de développement humain. Toutefois, une continuité apparaît dans la conception piagétienne de l’intelligence comme coordination schématique et forme d’équilibration. Notre réflexion s’appuie en particulier sur les instruments algorithmiques développés dans le cadre du projet ENOP (Édition Numérique des Œuvres Complètes de Jean Piaget) du Centre Jean Piaget, qui vise à informatiser l’œuvre complète de Piaget et à permettre des analyses approfondies de son corpus textuel. Grâce à ces outils, il est possible de définir précisément ce que Piaget entend par intelligence, de situer ses travaux dans l’histoire de l’intelligence artificielle et de comparer systématiquement les critères de démarcation entre l’intelligence humaine et les intelligences artificielles. L’une des questions centrales que nous nous poserons sera : en quoi les travaux de Piaget permettent-ils non seulement de redéfinir la spécificité de l’intelligence humaine mais aussi d’éclairer les potentialités et les limites des intelligences artificielles ?
Quel est le rapport entre l’intelligence humaine et l’intelligence artificielle (IA) actuelle fondée sur des réseaux de neurones artificiels ? D’où vient la révolution actuelle de l’IA ? Quels en sont les principes fondamentaux ? Quels sont les derniers développements, perspectives mais aussi les limites éthiques de l’utilisation de ces IA ? Ce séminaire visera à favoriser une meilleure compréhension des liens entre ces formes d’intelligence, tout en encourageant l’exploration de nouvelles perspectives sur leurs interactions futures et les défis à anticiper.
La présence d’une intelligence générale chez l’humain pose un problème majeur pour l’évolution de la cognition, ce qui a conduit à un intérêt accru pour l’étude de sa présence chez les animaux non humains. Les données récentes suggèrent qu’au-delà des primates proches de l’humain, des espèces peu renommées pour leur intelligence comme les insectes, les poissons ou les oiseaux (« cervelle de moineau ! ») démontrent des capacités insoupçonnées. Dans cette présentation, je chercherai à mettre en lien des données animales qui suggèrent l’existence d’une intelligence générale chez les animaux avant de m’intéresser plus spécifiquement aux à des cas particuliers, notamment dans le cadre de l’apprentissage. L’intelligence culturelle, qui en découle, permet des apports sociaux cruciaux à la survie. Cette variété dans les types d’intelligence nous force à nous interroger sur l’évolution de notre propre cognition, et de son organisation modulaire ou non.
Après l'énorme succès du livre de Goleman « Emotional Intelligence » publié en 1995, des dizaines de publications populaires sur l’intelligence émotionnelles sont apparues, chacune avec une définition du concept plus ou moins originale et souvent avec une approche idiosyncratique basé sur l’expérience subjective de l’auteur. Cet énorme succès chez le public et les affirmations de certains auteurs n'était toutefois pas encore étayé par des définitions précises et des évidences scientifiques claires ; en conséquence, pendant longtemps la communauté scientifique a été en grande partie réticente à l’accepter dans la littérature scientifique. Trente ans plus tard, après des centaines d'articles de recherche publiés dans des contextes très différents, le concept d'intelligence émotionnelle et ses implications sont beaucoup plus clairs. Dans cette présentation, nous commencerons par introduire les deux principales conceptions de l'intelligence émotionnelle (IE) présentes dans la littérature scientifique - l'IE en tant qu'ensemble de compétences liées à l'intelligence cognitive et l'IE en tant qu'ensemble de dispositions liées à la personnalité. Nous passerons en revue certaines des principales recherches disponibles dans la littérature scientifique, en nous référant en particulier à quelques méta-analyses récentes concernant l'importance de l'IE dans le contexte scolaire, professionnel et de la santé. Dans la dernière partie de la présentation, en adoptant une approche plus spéculative et dans le but de stimuler la discussion, nous aborderons certaines des questions les plus récentes concernant la possibilité que l'IA puisse avoir une certaine forme d'intelligence émotionnelle. En effet, certaines recherches récentes semblent suggérer cette possibilité, mais dans quels sens.
Depuis le premier modèle de l’intelligence proposé par Charles Spearman en 1904, et la première échelle métrique de l’intelligence développée par Alfred Binet et Théodore Simon en 1905, des centaines de recherches ont exploré la nature et le fonctionnement de l’intelligence humaine, son développement, ainsi que les différences individuelles dans les performances intellectuelles. De nombreuses et de nombreux spécialistes considèrent cette accumulation de connaissances comme l’une des plus grandes réussites de la psychologie. Pourtant, malgré l'abondance de données empiriques, des mythes et des idées fausses sur l'intelligence et son évaluation persistent (y compris parmi les psychologues). Parmi ces croyances erronées, on retrouve l’idée que les tests d’intelligence seraient biaisés ou sans lien avec la « vie réelle », remettant en cause l’intérêt sociétal de l’évaluation de l’intelligence. Certains mythes et fausses croyances ont conduit à des choix discutables dans le domaine de l’éducation. Cette présentation vise à déconstruire certains mythes entourant l’intelligence humaine et à clarifier les limites et la pertinence des tests d’intelligence et du quotient intellectuel (QI).
Les modèles de langage de grande taille (LLM) sont rapidement devenus un sujet central en IA et en sciences cognitives, en raison de leurs performances sans précédent dans une vaste gamme de tâches. En effet, certains y voient même des "étincelles d'intelligence artificielle générale" dans leur faculté apparemment illimitée de conversation et de raisonnement. Leurs facultés émergentes sophistiquées, qui n'avaient pas été initialement anticipées par leurs concepteurs, ont déclenché un débat urgent sur la question de savoir si, et dans quelles circonstances, nous devrions attribuer la conscience à des entités artificielles en général et aux LLM en particulier. Le consensus actuel, fondé sur le fonctionnalisme computationnel, propose que la conscience soit attribuée selon un principe d'équivalence computationnelle. L'objectif de cet article d'opinion est de critiquer cette approche actuelle et de plaider en faveur d'un principe alternatif : le "principe d'inférence comportementale". Nous pensons que ce principe d'inférence comportementale fournira un critère épistémologiquement impartial et opérationnalisable pour évaluer la conscience des machines.
Nous faisons de plus en plus appel à l’assistance de systèmes d’intelligence artificielle générative (SIA) pour toutes sortes d’activités dans toutes les sphères de notre vie. Cette utilisation croissante suscite des inquiétudes, notamment quant à la dépendance qu’elle pourrait engendrer : ne plus se sentir suffisamment compétent-es pour réaliser une tâche pourtant simple sans passer par un dialogue avec un système d’IA (par exemple, écrire un email), ou encore utiliser un agent conversationnel pour chercher une information qui pourrait être obtenue tout aussi facilement via un moteur de recherche classique (comme choisir un matelas). Une telle dépendance pourrait avoir des répercussions négatives à plusieurs niveaux – individuel, social, sociétal, environnemental – dont la nature et l’ampleur restent encore difficiles à anticiper. La recherche pointe déjà des risques tels qu’une possible « paresse » métacognitive chez les apprenant-es (Fan et al., 2024) ou une érosion progressive de compétences dans le monde professionnel (Sutton et al., 2018).
Le questionnement sur les conséquences que l’automatisation par les technologies peut avoir sur les compétences humaines n’est pas nouveau. Il prend son origine au moment de l’industrialisation, lorsque l’introduction de technologies comme le métier à tisser mécanique a entraîné une dégradation du travail artisanal, remplaçant un travail hautement qualifié par un travail non qualifié, simple et routinier. Cette déqualification (deskilling ; Braverman, 1998) n’est pas un processus uniforme : selon le dispositif sociotechnique dans lequel elle émerge, elle peut coexister avec le développement de nouvelles compétences (upskilling).
Depuis, le monde du travail et celui de la formation ont connu plusieurs transformations technologiques liées aux différentes générations d’outils du numérique, et évoluent encore sous l’influence des systèmes d’IA. Ce qui distingue ces outils de leurs prédécesseurs est leur capacité à traiter de vastes corpus de données et à générer du contenu comparable à celui qu’un humain pourrait produire. Les systèmes d’IA peuvent prendre en charge des tâches telles que la synthèse de texte, l’analyse de données ou encore la rédaction de notes. Ils possèdent ainsi le potentiel de transformer des professions jusque-là épargnées par l’automatisation, notamment celles impliquant la manipulation de savoirs conceptuels.
Dans cette conférence, nous nous associerons aux réflexions des chercheur-es comme Rafner et collaborateur-trices (2022) ou encore Reinmann (2023), et nous nous interrogerons sur la façon dont l’utilisation des systèmes d’IA va transformer les compétences dans l’enseignement supérieur. Par ailleurs, nous introduirons le concept d’intelligence hybride autour duquel se développe un nouvel axe de recherche dont le but est de comprendre comment concevoir des dispositifs technologiques qui favorisent la coévolution de l’intelligence humaine et de l’intelligence artificielle (Järvelä et al., 2025). Nous analyserons comment de tels dispositifs peuvent contrecarrer les risques de pertes de compétences et répondre aux enjeux éthiques liés à l’intégration des systèmes d’IA en éducation. Enfin, nous élargirons ces réflexions non seulement à la dimension cognitive, mais également aux dimensions affectives et motivationnelles qui vont être touchées par l’usage de ces technologies.
Références
Fan, Y., Tang, L., Le, H., Shen, K., Tan, S., Zhao, Y., ... & Gašević, D. (2024). Beware of metacognitive laziness: Effects of generative artificial intelligence on learning motivation, processes, and performance. British Journal of Educational Technology.
Järvelä, S., Zhao, G., Nguyen, A., & Chen, H. Hybrid intelligence: Human–AI coevolution and learning. British Journal of Educational Technology, 0, 1-4.
Rafner, J., Dellermann, D., Hjorth, A., Verasztó, D., Kampf, C., Mackay, W., & Sherson, J. (2022). Deskilling, upskilling, and reskilling: a case for hybrid intelligence. Morals & Machines, 1(2), 24-39.
Reinmann, G. (2023). Deskilling durch Künstliche Intelligenz? Potenzielle Kompetenzverluste als Herausforderung für die Hochschuldidaktik (Deskilling through AI” Potential loss of competencies as challenge for HE didactics)'. Diskussionspapier Nr. 25/Oktober 2023-retrieved from https://hochschulforumdigitalisierung. de/wpcontent/uploads/2023/10/HFD_DP_25_Deskilling. pdf. on 6 November 2023.
Sutton, S. G., Arnold, V., & Holt, M. (2018). How much automation is too much? Keeping the human relevant in knowledge work. Journal of emerging technologies in accounting, 15(2), 15-25.
Les progrès spectaculaires de l’intelligence artificielle brouillent des distinctions que l’on croyait bien établies entre l’homme et la machine. Cette révolution trouve son origine dans la cybernétique, cadre de pensée né dans les années 1940 s’intéressant à la formalisation logique des systèmes afin d’optimiser la réalisation de leurs objectifs. Information, contrôle, pilotage, rétroaction ou homéostasie sont autant d’éléments que l’on retrouve aussi bien chez l’homme que la machine, réduits tous deux à des systèmes dotés d’une certaine autonomie. Mais alors, si l’être humain se retrouve avalé par la matière, qu’est-ce qui le distingue d’une machine ? Où est l’homme dans l’homme ? Ces questions deviennent très concrètes depuis que l’IA est capable de réaliser des tâches cognitives complexes et résoudre des problèmes que l’on pensait à jamais rester le propre de l’homme. La présentation traitera cette question sous l’angle de l’ascension de l’IA dans la chaîne des buts, phénomène qui accompagne l’externalisation croissante de nos capacités cognitives. En effet, automatiser, c’est déléguer des tâches subalternes ou intermédiaires en vue d’accomplir efficacement un objectif fixé. Jusqu’où l’IA peut-elle être autonome dans ce processus et remonter dans la chaîne des objectifs ? Cette question est cruciale pour comprendre l’intelligence. Nous montrerons que si l’IA peut résoudre des problèmes, exécuter et optimiser des objectifs donnés avec précision, elle ne semble pas, pour l’instant, capable de remonter la chaîne jusqu’aux buts premiers. L’homme, parce qu’il est incarné dans un corps en lien avec son environnement, reste le seul à pouvoir donner du sens et identifier, malgré la prodigieuse variabilité des contextes, ce qui fait problème, point de départ pour définir des buts premiers et les adapter en fonction de l’évolution de la situation. Pourtant, cette différence ontologique ne nous empêche pas de laisser l’IA assumer un rôle grandissant dans l’élaboration de nos buts. L’IA assistante devient alors conseillère et peut-être demain agent. Comment préserver cette capacité humaine unique dans un univers où nous laissons, par confort et efficacité, des algorithmes piloter nos existences ? Comment garantir que l’intelligence humaine, aussi unique soit-elle, reste pertinente et souveraine dans un environnement technicien de plus en plus complexe ?
L’histoire occidentale est remplie d’une longue série de mythes parlant de créatures artificielles et, dans certains cas, d’humains tentant d’usurper la place de Dieu en se lançant dans le processus de création. Il y a 20 ans, quand j’ai commencé à travailler sur les questions de genre en informatique, je me suis intéressée aux créatures artificielles, car il m’est apparu l’ordinateur avait été rêvé comme faisant partie de cette grande famille. Quand ils ont conçu l’ENIAC, les pères de l’informatique ne cherchaient pas réellement à produire une grosse machine à calcul, même si c’est ce qu’ils ont fait. L’ordinateur des années 1950, qui était pourtant très loin des performances de ChatGPT, était vu comme une étape vers le but ultime de la science : une duplication du cerveau humain.
Si je relie ces fantasmes à la question « Genre », c’est parce que tous les créateurs de créatures artificielles sont des hommes et que tous trouvent une solution pour créer un être nouveau sans passer par la reproduction sexuée, c’est-à-dire sans l’aide des femmes. Ces fantasmes se prolongent dans la littérature de science-fiction : après les robots, est-ce qu’on ne serait pas plutôt en train de créer un Dieu artificiel ?
Les systèmes multi-agents font partie du domaine de l’intelligence artificielle distribuée. Ils permettent d’une part de modéliser des systèmes complexes (e.g. bancs de poissons, développements urbains, etc.), et d’autre part de développer des systèmes et services numériques artificiels comme la robotique en essaim ou des services collectifs permettant d’exploiter les objets connectés. Cette présentation illustre avec des cas concrets issus de projets de recherche, aussi bien la modélisation de systèmes naturels biologiques ou urbains (dictyostelium, transports publics); que le développements de services artificiels (grille électrique intelligente, discussions avec des oeuvres d’art).
Notre société met en avant les personnes ayant un Haut Potentiel Intellectuel, que ce soit à travers la littérature de vulgarisation (e.g. « Je pense trop » de Petitcollin ou « La femme surdouée » de Huon de Kermadec ou « Trop intelligent pour être heureux » de Siaud Facchin ou encore « Les philo-cognitifs » de Sappey Marinier, Nusbaum et Revol), mais également les séries télévisées (e.g. HPI) ou les films (e.g. « Le monde de Nathan » de Morgan Matthews ou « Le petit homme » de Jodie Foster ou « Will Hunting » de Gus Van Sant). L’objectif de ce séminaire est de revenir sur quelques mythes associés au Haut Potentiel Intellectuel qui suintent à travers les fictions ainsi que dans ce que les réseaux sociaux véhiculent. Ainsi, nous reviendrons notamment sur l’hypersensibilité, l’échec scolaire ou encore la « pensée en arborescence », en prenant appui sur les données probantes de la recherche.