top of page
  • Photo du rédacteurArielle Castellan, Guillaume Sibout, et Aurélie Jean

Un algorithme pourra-t-il penser un jour ? Les réponses de Leibniz, Kant et Arendt


Le Penseur de Rodin recréé par IA par Guillaume Carreno


Depuis quelques années, l'ampleur médiatique spectaculaire entourant l'IA, et l'IA générative en particulier depuis la mise en service de ChatGPT fin 2022, a ravivé sur le devant de la scène certaines interrogations, voire certaines craintes, sur l’idée qu’une machine pourrait, dans un futur plus ou moins proche, penser et avoir une conscience. Cette hypothèse de la pensée consciente des machines, et donc des algorithmes, est portée entre autres par ceux qui défendent le concept de singularité technologique[1]. En pratique, chez ces derniers, les sémantiques de “pensée” ou de “conscience” font référence aux algorithmes qui constituent l’intelligence de la machine. Le modèle algorithmique constituerait alors pour ces mêmes personnes une sorte de “cerveau” capable de réfléchir par lui-même, indépendamment de l’intervention humaine. Cette théorie de la singularité, largement controversée, affirme que les progrès technologiques exponentiels de notre civilisation déclencheront l’émergence d'une intelligence artificielle forte, une “supra intelligence”, capable d'améliorations autonomes, et qui dépassera de très loin les capacités cognitives humaines incluant les capacités intellectuelles de la connaissance. “Pensée” et “connaissance” étant deux concepts souvent confondus dans les débats lorsqu’on parle de “conscience” des algorithmes. Depuis longtemps et pour notre plus grand bonheur, la Science-fiction s’est emparée de cette théorie fantasmagorique et les exemples cinématographiques, ou littéraires, sont pléthoriques en la matière.


Néanmoins, cette hypothèse possède des implications sérieuses dans le champ philosophique et métaphysique. On considère ici la Métaphysique en tant que discipline académique de la Philosophie, se référant à la réflexion sur la nature de la pensée humaine, à ses concepts, à son essence, à la création, l’existence, autrement dit la manière dont nous concevons le monde, la réalité et ses catégories.


En effet, poser l’hypothèse métaphysique d’un algorithme qui pourrait penser à travers la capacité qu’il aurait de connaître par lui-même la réalité des choses, mène à la problématique suivante : la manière dont les algorithmes calculent, via les méthodes d'apprentissage profond par exemple, dépasse largement les capacités analytiques humaines. Cette aptitude nous renvoie donc à notre finitude humaine et aux champs limités de nos connaissances. Que peut connaître alors un algorithme au-delà du champ de l'expérience possible ? Un algorithme peut-il connaître une réalité qui dépasserait l’entendement humain ? Et peut-il penser au-delà de nos propres pensées ? Confronter cette interrogation au domaine métaphysique est lourd de répercussions dans le domaine pratique, c’est-à-dire moral et politique : un algorithme pourrait-il modéliser par lui-même une conception du monde grâce à une pensée autonome ? Autrement dit, un algorithme pourrait-il engendrer le meilleur des mondes possibles par sa pensée, voire un monde parfait pour l’humanité ?



Leibniz et le Dieu algorithmicien : l’existence du monde est le résultat d’une modélisation algorithmique


Étonnamment, cette idée d'un algorithme capable de penser et connaître au-delà des limites de la cognition humaine n'est pas nouvelle : elle trouve déjà son esquisse métaphysique dans la pensée de Gottfried W. Leibniz (1646-1716). La question qui gouverne la pensée leibnizienne est la suivante : pourquoi existe-t-il quelque chose plutôt que rien ?[2] À l'instar de la plupart de ses contemporains, en rationaliste convaincu, il n'envisage pas que l'existence du monde soit dépourvue de raison. Mais il ne suffit pas de poser qu'il y a une raison à toute chose, il faut aussi comprendre comment et pourquoi le monde est advenu.


A cette fin, même si Leibniz ne parle pas strictement d’algorithmes, il pose comme fondement métaphysique ce que nous pourrions interpréter comme l'algorithme des algorithmes, à savoir Dieu. Car le Dieu leibnizien est bien mathématicien : il a la capacité d'inventer une infinité de mondes possibles, une infinité de variations entre ces différents mondes. Il est donc celui qui “calcule” tous les scénarios possibles. A cet égard, on pourrait affirmer que Leibniz est le premier philosophe à avoir envisagé la compréhension de l’existence du monde comme le résultat d’une modélisation algorithmique dont Dieu est le concepteur. Mais cette modélisation n'est pas vaine puisqu'elle permet justement la configuration du meilleur des mondes possibles, c’est-à-dire le nôtre ainsi qu'il l'explique : “Et comme dans les mathématiques, quand il n’y a point de maximum ni de minimum, rien enfin de distingué, tout se fait également ; ou quand cela ne se peut, il ne se fait rien du tout : on peut dire de même en matière de parfaite sagesse, qui n’est pas moins réglée que les mathématiques, que s’il n’y avait pas le meilleur (optimum) parmi tous les mondes possibles, Dieu n’en aurait produit aucun”[3].


Ainsi, la toute-puissance de Dieu a fait qu’il a été en mesure de concevoir une infinité de mondes possibles et de variations d’événements. Parmi l’éventail infini des possibilités, il y a eu une configuration qui était supérieure aux autres et c’est justement celle que Dieu a porté à l’existence. Sa bonté fait qu’il n’a pu faire naître autre chose que le meilleur de ces mondes possibles. En ce sens, le dieu leibnizien est comparable à un algorithme qui “pense” : il a “calculé” une infinité de scénarios possibles et parmi cette infinité, une possibilité s’est présentée comme la meilleure.


Il faut alors en déduire deux propriétés de notre monde : d’une part, en tant qu’il existe, il est unique puisqu’il est le meilleur parmi une infinité de mondes possibles. Les autres mondes possibles n’ont d’existence que purement logique dans l’entendement de Dieu. Le corollaire est qu’il n’y a pas de nostalgie à avoir d’un monde meilleur, différent ou autre, puisque celui-ci est justement le meilleur résultat généré. D’autre part, la deuxième propriété de ce monde est que rien ne peut y être changé : tout est déjà prévu ou calculé par Dieu et ce qui s’y déroule se passe nécessairement, même si d’autres configurations étaient à l’origine possibles.


Néanmoins, cette métaphysique leibnizienne de la conception du monde par un dieu “algorithmicien” porte en elle une ambiguïté qui se répercute dans le champ moral.  Selon Leibniz, ce meilleur des mondes possibles est le lieu d'une  perfection : “Tout est donc certain et déterminé par avance dans l’homme comme partout ailleurs, et l’âme humaine est une espèce d’automate spirituel, quoique les actions contingentes en général, et les actions libres en particulier, ne soient point nécessaires pour cela d’une nécessité absolue, laquelle serait véritablement incompatible avec la contingence.(...) Ainsi ce qui est contingent et libre, ne le demeure pas moins sous les décrets de Dieu, que sous la prévision.[4]


On voit ici se dessiner deux difficultés réelles. La première, purement métaphysique, est que la liberté humaine ne serait qu'un mot : ce dieu algorithmicien a déjà tout calculé, ce qui nous renvoie au rang “d'automate spirituel”. Or la question mérite d'être posée : à suivre aveuglément (et donc sans s’interroger) un calcul algorithmique, n'est-ce pas devenir un automate également ? Comme lire un contenu sur un réseau social, le site internet d’un journal ou encore un site de commerce en ligne, sans s’interroger sur les raisons d’une telle suggestion pourtant déterminante dans notre comportement. On parle d’algorithmes de suggestion ou de recommandation qui prennent des formes diverses selon leur type de conception (explicite ou implicite - apprentissage machine -), et leur objectif.  La deuxième difficulté relève du bon sens moral :  dire qu’une solution est “meilleure” qu’une autre ne peut, dans le champ de l’efficacité pratique, en aucun cas nous permettre de dire que cette solution est parfaite. Le meilleur n’est pas le parfait. De plus, la notion de “meilleur” est interrogeable selon le référentiel qu’on se donne : meilleur en fonction de quels critères ? Ce Dieu leibnizien porte en lui un double biais, à la fois de sélection et de confirmation : il sélectionne ce qu’il confirme comme étant le meilleur considéré comme parfait. Mais de quelle perfection parle-t-on ici ? D'une perfection métaphysique ? Morale ? Ce qui ne saurait manquer de nous interroger sur le caractère potentiellement dangereux de ces biais présents dès la conception d’un algorithme, et qui orientent nécessairement le résultat. On peut citer les premiers algorithmes de reconnaissance faciale dans les années 2010 qui ne reconnaissaient pas les visages à peau foncée[5] car les jeux de données destinés à entrainer l’algorithme ne contenaient pas de photos d’individus de couleur (certainement dû à un biais cognitif des concepteurs majoritairement - voire uniquement - blancs).


Le modèle métaphysique du Dieu leibnizien doit nous inviter à la prudence parce qu'il met en évidence deux prétentions contestables. D’une part la prétention à viser la “perfection” alors qu’elle ne peut pas échapper aux biais. D’autre part, la prétention à résoudre des problèmes d’ordre métaphysique, existentiel, par la modélisation algorithmique. Aussi sophistiquée que puisse être l'idée géniale d'expliquer rationnellement pourquoi et comment le monde est advenu à l'existence par la modélisation algorithmique, cette vision donne un exemple philosophique de ce qui alimente notre crainte aujourd’hui face à l'intelligence artificielle : celle d’un algorithme capable de déterminer par la pensée, au-delà de toute capacité cognitive humaine, ce que seraient la perfection et la raison d’exister des choses.


Cette prudence face à la vision de Leibniz doit nous amener à circonscrire le champ d'application d’un algorithme tout comme elle a amené Emmanuel Kant (1724-1804) à remettre en cause la capacité de la raison humaine à déduire des connaissances métaphysiques par la spéculation pure, en se coupant totalement de l’expérience sensible.  Dans la Critique de la Raison Pure[6], Kant nous invite à restreindre le champ de la métaphysique à celui de la pensée, lui retirant toute prétention à connaître des d’objets au-delà de l’expérience possible. Cette perspective critique nous permet également de mettre en lumière ce qui relève de la connaissance et ce qui relève de la pensée lorsqu’on parle d’algorithmes.

 


Kant et le champ limité de la connaissance : un algorithme “connaît” les choses mais ne “pense” rien du monde 


À l’époque, parce que son entreprise critique a été très mal reçue et interprétée comme un scepticisme de plus, Kant s’est attaché, dans la préface de la deuxième édition de la Critique de la Raison Pure[7], à expliquer sa démarche pour montrer qu’il ne s’agit pas pour lui de nier la possibilité de la connaissance, mais de contester la capacité de la métaphysique à se poser comme une science au même titre que les autres, c’est-à-dire comme permettant une acquisition de connaissances. Afin de l’exposer, il clarifie à quelles conditions on peut reconnaître qu’une science en est bien une, et, pour le faire, expose le cas de la logique, des mathématiques et de la physique. Sans entrer dans des considérations trop techniques pour notre propos, retenons que Kant pose d’emblée que « S’il y a de la raison dans ces sciences ; il faut aussi qu’il y ait quelque connaissance a priori »[8], c’est-à-dire que la connaissance des objets ne fait pas intervenir ces seuls objets mais aussi notre raison par le biais de connaissance a priori, c’est-à-dire indépendante de l’expérience. En d’autres termes, il est établi que la sensibilité[9] seule ne peut permettre la connaissance, cela contre un empirisme naïf qui ne nous conduit qu’au scepticisme. Mais contre un rationalisme excessif, cette affirmation permet à Kant - et c’est précisément l’objet de la Critique de la Raison Pure - de souligner que les concepts seuls, sans intuition possible de leur objet, rendent impossible la connaissance. Il s’esquisse alors une distinction que Kant ne formule pas exactement dans ces termes, mais qui est importante ici, entre penser et connaître. Dans l’Analytique des concepts, Kant l’explique ainsi : « La sensibilité nous donne des formes (de l’intuition), alors que l’entendement nous donne des règles. […] L’entendement n’est donc pas seulement un pouvoir de se forger des règles par comparaison des phénomènes : il est lui-même la législation pour la nature […] »[10]. En d’autres termes, l’entendement est ce qui permet la connaissance des phénomènes puisqu’il les ordonne et leur donne la régularité des lois. Pour qu’une connaissance soit possible, il faut que l’entendement puisse unifier le divers de l’expérience sensible par le biais de concepts a priori (ou a posteriori)[11] : l’entendement est donc une sorte de régulateur. C’est ce que nous appelons connaître. La connaissance chez Kant est celle qui émerge de l’interaction régulatrice entre l’intellect et la sensibilité. Pour résumer, d’un point de vue épistémique, nous ne connaissons du monde que ce qui est limité dans le champ de l’expérience possible régulé par l’entendement.


Mais Kant observe que la Raison se donne aussi des Idées, c’est-à-dire des concepts qui dépassent les limites de l’expérience sensible, qu’elle ne peut pas rapporter au réel et qui ne peuvent en aucun cas être le lieu d’une connaissance identique au modèle de la connaissance qui précède. Par exemple, je peux bien penser Dieu, ou penser l’immortalité de l’âme, ou encore penser la liberté, mais je ne peux pas les connaître en soi par l’affirmation de leur existence parce que je n’ai pas d’intuition sensible possible de ces Idées (c’est là l’erreur de la métaphysique classique à laquelle appartient Leibniz). En d’autres termes, je ne peux jamais déduire l’existence d’un concept pur tel que Dieu, l’âme ou la liberté dans la mesure où je ne peux rien connaître au-delà des limites de l’expérience possible. Toutefois, ces Idées ne sont pas vaines, elles sont même essentielles puisqu’elles sont régulatrices. Kant précise ainsi[12] : « J’entends par Idée un concept nécessaire de la raison auquel aucun objet qui lui correspond ne peut être donné dans les sens. »  Ces Idées sont nécessaires[13] : « Mais elles ont un usage régulateur qui est excellent et indispensablement nécessaire, à savoir celui d’orienter l’entendement vers un certain but en vue duquel les lignes directrices de toutes ses règles convergent en un point qui, bien qu’il soit certes simplement une Idée (focus imaginarius), […] sert pourtant à leur procurer, outre la plus grande extension, la plus grande unité. » Ainsi, pour le formuler plus simplement, la raison se donne des Idées qui sont nécessaires pour orienter l’entendement, mais dont elle ne peut pas prétendre avoir une connaissance. C'est ce que nous appelons penser.


Appliqué aux algorithmes, on comprend d’emblée que cette distinction permet de mettre en lumière, l’affirmation suivante : si un algorithme peut tout à fait connaître des phénomènes inobservables à l’œil humain ou imperceptibles par l’usage d’outils de mesure par exemple, ou au-delà des capacités cognitives humaines, grâce à sa puissance calculatoire notamment, il n’est jamais en mesure de pouvoir penser une Idée régulatrice qui lui permettrait de s’orienter dans sa recherche. Prenons un exemple simple pour illustrer ce point. Si l’homme peut penser et se servir du concept pur de Dieu pour déterminer une cohérence du monde qui orienterait sa recherche sur les lois de la nature et de l’univers - l’idée de Dieu lui permettant de postuler une cohérence des lois physiques, quoi qu’elle soit indémontrable -, le concept de Dieu pour une IA n’aura jamais cette fonction régulatrice. Cela restera un concept qu’elle reçoit comme une donnée, ou une information comme les autres, qu’elle traitera de manière univoque.


Aussi, si la raison est limitée dans ses prétentions épistémiques, elle ne l’est pas sur le plan moral. Si nous ne pouvons pas affirmer l’effectivité de la liberté dans la mesure où elle échappe au champ de la causalité auquel nous appartenons tous, elle demeure néanmoins un postulat métaphysique fondateur que nous pouvons et que nous devons penser : ”Je puis penser la liberté, c’est-à-dire que l’idée n’en contient du moins aucune contradiction (…) »[14]. Or c’est un résultat bien plus positif qu’il n’y paraît : « la morale peut garder sa position pendant que la physique conserve la sienne”[15]. Il y a donc deux ordres de vérités : les vérités démontrées, scientifiques, relatives à la connaissance humaine, et les Idées qui nous guident (Dieu, la Liberté, l'immortalité de l'Âme), qui ne relèvent pas du domaine de la connaissance mais que l’on peut néanmoins penser, et que l’on doit même postuler. Car non seulement elles ne sont pas contradictoires, mais elles permettent de rendre compte de cette autre dimension qu’est la vie morale de chacun d’entre nous. La raison a donc un champ pratique à investir. C’est ici que s’articule une autre conséquence en rapport direct avec les algorithmes : ils sont un outil très puissant du champ de la connaissance parce qu’ils permettent, en outre, d’aller bien au-delà de ce que l’empirisme immédiat permet de connaître. Mais ils ne peuvent en aucun cas se substituer à la dimension métaphysico-morale qui est l’autre caractéristique propre à la raison humaine uniquement. Un algorithme peut nous aider à connaître un phénomène d’une façon bien meilleure que ce que nous connaissons, mais il ne peut pas penser une chose ou une idée qui serait au-delà de toute détermination empirique, au-delà des conditions qu’on lui pose. Il ne peut rien penser de ce qui échappe à la relation de causalité des phénomènes du monde : en cela, l’algorithme est incapable de penser une idée métaphysique telle que la liberté qui est au fondement de la morale. C’est pourquoi il ne pourra jamais prendre une décision à notre place au sens moral du terme, car il n’est pas en mesure de s’abstraire du champ épistémique qui est le sien et de fonder ses choix sur un impératif moral détaché de tout rapport de cause à conséquence. On retrouve ici un éternel dilemme contemporain : un algorithme peut affirmer par le calcul qu’il vaut mieux tuer un homme plutôt que d’en voir cent mourir, il n’en reste pas moins que sur le plan moral, du point de vue de Kant, ce « calcul » ne peut jamais devenir la maxime universelle d’une action juste.


C’est pourquoi l’usage des algorithmes et l’évaluation de leur efficacité ne doivent jamais dépasser leur champ d'application : ils nous permettent de savoir au-delà de notre intelligence humaine, mais sans jamais penser à notre place. L'erreur philosophique, et scientifique aussi, serait de croire que les algorithmes peuvent s'approprier ou investir le champ de la pensée. Une machine peut connaître beaucoup mieux qu'un être humain, mais un être humain pensera toujours au-delà du savoir d'une machine : c’est là le propre de la raison humaine. On comprend alors pourquoi demander, par exemple, à un algorithme de prouver l'existence de Dieu, ou ce qu’il faudrait croire, de définir ce qu'est le bien et le mal, de juger la réalité, de penser à notre place ce que devrait être notre liberté ou encore la politique à mener dans un pays, sont des non-sens métaphysiques et une grave dérive épistémique. Pire, c’est un danger politique et une faute morale.


Aujourd’hui, des scientifiques et ingénieurs cherchent, à raison, à étendre le champ de résolution d’un algorithme initialement conçu pour résoudre un type de problème en particulier. L’algorithme devenant alors moins spécifique et plus général. Néanmoins, contrairement à ce que certains acteurs affirment, maîtriser des corrélations statistiques à un ordre supérieur pour permettre cette généralisation n’induit en aucun cas la maîtrise par l’algorithme d’une intelligence pratique ou d’un quelconque bon sens. L’algorithme ne pense pas les concepts et les corrélations qu’il maîtrise par sa logique analytique (et statistique), il ne fait que les connaitre.    



Hannah Arendt et les algorithmes appliqués à la politique : l’affaire des Pentagon Papers


Dans son opuscule Du mensonge en politique[16], que Hannah Arendt (1906-1975) écrit à l’occasion de la publication par la presse américaine des Pentagon Papers sur l’implication politique et militaire des Etats-Unis durant la guerre du Vietnam, la philosophe et politologue dénonce le danger de l’automatisation des décisions politiques. Ces documents avaient été rédigés par des “experts” militaires et civils appartenant à des services gouvernementaux[17] dans le but d'influencer le processus décisionnel du gouvernement dans sa politique de guerre. Ils étaient constitués de scénarios spéculatifs et mensongers à des fins de propagande[18], de rapports chiffrés donnant lieu à des calculs de solutions voulues à l’avance et sans vérifications des faits[19]. Hannah évoque la théorie des jeux[20] pour exprimer la mécanique intellectuelle de ces “experts” qui calculaient des projets d’opérations militaires en optimisant les chances de réussite mais en dehors de tout rapport à la réalité, imprégnés d’un coriace “processus d'auto-suggestion[21] - que nous appellerions aujourd’hui un biais de confirmation -, et qui “ont commencé par s’illusionner eux-mêmes[22]. Selon Hannah Arendt, ces scénarios de guerre, fondés sur des calculs et des pourcentages de risques, auraient été conçus de façon à donner “l’impression que l’Asie du Sud-Est a été prise en charge par un ordinateur plutôt que par des hommes responsables des décisions[23]. Autrement dit, les méthodes d’influence et de prises de décisions politiques révélées par le scandale des Pentagon Papers, s’apparentaient selon Arendt à un processus de modélisation algorithmique avant l’heure. Arendt décrit ces experts du calcul comme des « spécialistes de la résolution des problèmes »[24]: « Ils ne se contentaient donc pas de faire preuve d’intelligence, mais se targuaient en même temps de leur « rationalisme », et leur amour de la « théorie », de l’univers purement intellectuel, leur faisant rejeter tout « sentimentalisme » à un point assez effrayant. Ils aspiraient à la découverte de formules, exprimées de préférence en langage pseudo-mathématique, susceptibles d’unifier les phénomènes les plus disparates que la réalité pouvait leur offrir ; autrement dit, ils s’efforçaient de découvrir des lois permettant d’expliquer l'enchaînement des faits historiques et politiques et de le prévoir, comme s’il s’agissait d’une réalité aussi nécessaire et non moins certaine que les phénomènes naturels l’étaient autrefois pour les physiciens. »[25]


Une telle attitude se heurte à la contingence des actions humaines qui peuvent être prévisibles certes, mais jamais calculées avec une précision “absolue” : elle n’est jamais que relative alors même qu’elle était tenue pour absolue. Or non seulement cette prétention était vaine d’un point de vue épistémique, mais elle comportait une conséquence inquiétante : « Les spécialistes de la solution des problèmes ont quelque chose en commun avec les menteurs purs et simples : ils s’efforcent de se débarrasser des faits et sont persuadés que la chose est possible du fait qu’il s’agit de réalités contingentes. »[26]


Cette affaire politique et médiatique des Pentagon papers présage un double danger contemporain : fonder une décision politique sur un modèle algorithmique. D’une part, la tentation de modéliser ce qui serait posé comme étant le meilleur et donc le plus parfait des scénarios possibles sur les opérations à conduire au Vietnam (en écho à Leibniz). Et, d’autre part, la tentation de fabriquer de toute pièce un discours spéculatif sur l’idéologie de guerre à propager, dont le niveau de rationalisation excessive dépasserait toutes les limites du champ de l’expérience possible et souhaitable (en écho à Kant). Or un algorithme peut au mieux et uniquement nous permettre d’envisager des scénarios possibles sans avoir pourtant l’intelligence politique des relations humaines. Plus inquiétant encore, un tel usage algorithmique pourrait servir à nier ou déformer la réalité à des fins purement politiques. Mais aussi, et c’est l’une des conséquences, la diminution voire la privation des libertés, à travers la manipulation des données des individus, ou en orientant l'opinion publique par rapport à cette réalité, comme ce fut le cas dans l’affaire des Pentagon Papers. En d’autres termes, c’est laisser courir le danger qu’une intelligence artificielle puisse inventer des « faits » qui n’ont jamais existé afin de justifier une décision politique, sociale ou économique aux conséquences humaines potentiellement graves. Plus généralement, les statistiques peuvent selon leur analyse qu’on décide, fournir une tendance en particulier qui n’est pas nécessairement le résultat d’une objectivation du monde pourtant attendue mais une lecture déformée des faits. Cela s’applique bien évidemment aux algorithmes.


Le champ de l’activité humaine pensante débordera toujours le champ de la connaissance épistémique, et ce n’est pas la seule connaissance analytique d’un algorithme qui doit nous guider dans toutes nos décisions humaines : penser une société libre est irréductible à toute connaissance modélisée d’un point de vue algorithmique. En aucun cas un modèle abstrait ne saurait se substituer au réel et sa contingence, quel que soit le meilleur des mondes possibles dans lequel nous voudrions vivre.  L’histoire en est le témoin.  




Arielle Castellan est professeur de philosophie en CPGE, autrice notamment de Plotin, l'ascension intérieure (Michel Houdiard éditeur).



Aurélie JEAN, Ph.D.

Docteure en sciences, entrepreneure, et autrice,

spécialiste en modélisation algorithmique


Aurélie JEAN navigue depuis près de vingt ans dans la modélisation algorithmique appliquée à de nombreux domaines. Aurélie vit et travaille entre les USA  et la France, où elle partage son temps entre le conseil, la R&D, l’écriture et l’enseignement continu. En 2016, elle fonde une agence de conseil et de développement en algorithmique et en data. Elle dirige également une deep tech startup en intelligence artificielle dans le domaine de la détection précoce du cancer du sein. Aurélie est l’autrice de plusieurs essais à succès et chroniqueuse pour Le Figaro et France Culture.


Google Scholar    -    Linkedin  -  Linktree



Guillaume Sibout est diplômé de Sciences Po Paris en humanités numériques, de l'Ecole des hautes études en sciences de l'information et de la communication (Celsa), et de philosophie à Sorbonne Université.




Notes

[1] The technological singularity, par Murray Shanahan, ed. The Mit Press, 2015 ; voir aussi Le mythe de la Singularité.  Faut-il craindre l’intelligence artificielle ?, par Jean-Gabriel Ganascia, ed. Seuil, 2017

[2] Principes de la nature et de la grâce fondés en raison, par Leibniz, §7 ed. GF, 1996

[3] Essais de Théodicée sur la bonté de Dieu, la liberté de l’homme et l’origine du mal, par Leibniz, §8 ed. GF, 1969 

[4] Ibid., §52

[5] Algorithmes : la bombe à retardement, par Cathy O'Neil, ed. Les Arènes, 2018 (initialement publié en anglais en 2016).

[6] Critique de la raison pure, par Emmanuel Kant, (1781-1787) ed. GF, trad. Alain Renaut, 2021

[7] Ibid., Préface de la deuxième édition, p.73 à 92

[8] Ibid., p. 74

[9] C’est-à-dire l’intuition possible de la réception des données sensorielles provenant du monde extérieur. La “sensibilité” au sens philosophique chez Kant n’a donc aucun rapport avec le sens psychologique, ou affectif, que nous lui attribuons dans le langage courant.

[10] Op.Cit., Critique de la raison pure, Analytique des concepts, Livre I, La Logique transcendantale, p.194-195

[11] Les concepts a priori ne dépendent pas de l’expérience comme la cause et l’effet. Les concepts a posteriori, eux, ne dépendent que de l’expérience (comme les couleurs par exemple).

[12] Op.Cit., Critique de la raison pure, Deuxième division de la logique transcendantale : la dialectique transcendantale, Livre I : Des concepts de la raison pure, Deuxième section : des Idées transcendantales, p.350

[13] Op.Cit., Critique de la raison pure, Appendice à la dialectique transcendantale, De l’usage régulateur des Idées de la raison pure, p. 561

[14] Op.Cit., Critique de la raison pure, Préface de la deuxième édition, p. 84

[15] Ibid., p. 84

[16] Du mensonge en politique dans Du mensonge à la violence. Essais de politique contemporaine, par Hannah Arendt, Le Livre de Poche, Calmann-Lévy, 1972

[17] Ibid., p.20

[18] Ibid., p.25

[19] Ibid., p. 54

[20] Ibid., p.20

[21] Ibid., p. 52

[22] Ibid., p. 52

[23] Ibid., p. 55

[24] L’expression d’origine vient du journaliste Neil Sheehan, citée par Arendt, cf. Op. cit., p. 20 note 1

[25] Ibid., p. 22

[26] Ibid., p. 24

Comments


Commenting has been turned off.
bottom of page