Revue de presse » **** Introduction : Le design de l’« intelligence artificielle » à l’épreuve du vivant

**** Introduction : Le design de l’« intelligence artificielle » à l’épreuve du vivant

C’est en pleine « crise » du COVID 19 que nous achevons la préparation de ce numéro. Un hasard ? Pas tout à fait …

Un « simple » petit être vivant invisible secoue l’humanité. Cependant que le devenir imprévisible du coronavirus met à l’épreuve tout l’arsenal techno-symbolique d’Homo, la doxa semble manquer l’occasion de questionner nos rapports au vivant. Non seulement elle ignore le lien entre les pratiques hors sol qu’elle génère et l’émergence d’une telle situation mais encore elle parie sur les « innovations » en « intelligence artificielle » pour « sauver » l’humanité invitée à « entrer en guerre » contre le virus. Traquer, tracer, contrôler, telle est l’obsession des pouvoirs en place çà et là dans le monde comme si l’IA était « la » solution pour pallier les « défauts » de l’intelligence humaine non programmable, imprévisible, créatrice et donc pas maîtrisable à coup sûr …

Et si nous portions attention aux liens que les designs de l’« intelligence artificielle » entretient avec le vivant dont Homo ? C’est ce à quoi ce numéro nous invite.

… Ceci est un article de Nicole PIGNIER et Lina LIÑÁN DURÁN publié le 3 Juin 2020 sur Interfaces numériques

Calque de l’expression « artificial intelligence » inventée en 1955 par le chercheur américain en Informatique Mc Carthy, l’« intelligence artificielle » (IA) désigne la conception de systèmes ayant pour visée la simulation des facultés cognitives humaines. Cette expression nomme davantage un processus qu’un ensemble de propriétés ; simuler, c’est « prendre l’apparence de », « copier », « imiter » mais aussi « feindre », « laisser croire que ». Le jeu de simulation de l’intelligence humaine qui anime l’IA amène à comparer les systèmes conçus (designés)1 avec les êtres vivants humains et non-humains, tous doués à des degrés variés d’intelligence voire de diverses formes d’intelligence.

Ainsi Yann le Cun, considéré comme l’un des fondateurs de l’« apprentissage profond » ou « deep learning »2 asserte que les capacités des systèmes d’IA actuels à « traiter de l’information », « résoudre des problèmes », « communiquer avec leur environnement et s’adapter à ses changements » s’inscrivent dans la « plus belle histoire de l’intelligence » (Le Cun, 2018). L’« apprentissage profond », méthode d’IA très connue et utilisée, permet au système designé de s’affranchir partiellement du programmeur. Cela, pour établir de nouvelles règles de calcul à partir de la « couche neuronale » précédente. Chaque couche N prend en compte des caractéristiques plus abstraites, plus fines que la strate N-1. Dans une interview au journal Le Monde, Yann Ollivier, chercheur en deep learning, donne l’exemple de la « reconnaissance » d’un visage. Pour reconnaître ce dernier à partir d’une pluralité d’images, la machine décompose les données du plus général vers le plus précis : d’abord le visage, les cheveux, la bouche, puis elle va vers des propriétés de plus en plus fines, comme le grain de beauté3. Cette faculté permise par le design de systèmes en « couches neuronales » amène la philosophe Catherine Malabou à reconnaître aux IA une « plasticité » similaire à celle du cerveau humain et, dans le même temps à asserter que finalement l’« intelligence » des IA n’est pas si artificielle que l’on pourrait le croire.4

Yann Le Cun se réjouit à l’idée que les IA soient dotées de capacités à s’émouvoir c’est-à-dire, selon lui, à « anticiper, prédire, calculer par le cerveau ». Communication, émotion vont dans l’IA de pair avec les capacités de mémoire définies alors comme l’aptitude « à stocker pour projeter ». Ainsi s’esquisse un trio qui donne aux IA l’apparence de l’intelligence du vivant. On dit communément que l’IA possède une capacité mémoire plus fiable et plus élevée que celle du cerveau humain, une capacité de calcul nettement plus puissante et plus rapide mais pour le moment une capacité émotionnelle plus faible.

Ce faisant, l’on oublie que « simuler », c’est « feindre », « donner l’apparence de », mais aussi « cacher », « dissimuler ». Par exemple, dans le vocabulaire juridique, depuis le XVIIème siècle, « simuler » signifie « feindre pour dissimuler ses intentions », son dessein. Sur quelles finalités éthiques justement le dessein de l’IA fonde-t-il sa conception, les dessins par lesquels elle advient et prend forme ? Sur quelle conception du mieux-vivre, du mieux-être individuel et collectif se fonde ce dessein ? Les « partisans » de l’IA et du mouvement posthumain qu’elle laisse envisager considèrent que le mieux-être individuel et collectif repose sur la capacité des humains à s’affranchir des limites, notamment celles de la maladie, de la fatigue physique, mentale et de la mort. Selon le médecin Laurent Alexandre, des systèmes d’IA intégrés à nos corps hybrides permettraient de nous rendre la vie meilleure et pour l’éternité (Alexandre, 2016). À cela, le philosophe Jean-Michel Besnier rétorque que ce sont précisément nos limites, en particulier la mort, qui nous rendent capables de donner un sens à notre existence, les facultés créatives émergeant selon lui, avant tout avec la conscience de la mort (Besnier, 2026).

La question des limites se pose en effet mais la plupart du temps soit en termes factuels – la voiture « autonome » est-elle plus sécurisante que la voiture avec conducteur ? La mémoire augmentée ne représente-t-elle pas de risque pour le cerveau ? – soit en termes normatifs – doit-on reconnaître la voiture autonome et son IA comme personne morale ? L’enfant doté d’une mémoire augmentée peut-il être considéré comme les autres élèves ? –. Ces interrogations sont toutes légitimes même si de telles limites restent toujours relatives et controversées (Larrère, 2016).

Les limites factuelles et morales ne doivent cependant pas occulter, dissimuler la limite sémiotique sur laquelle se fonde le design de l’IA. En effet, « l’intelligence », « la mémoire », « les émotions », « la communication » se retrouvent circonscrites dans l’IA à un monde composé de systèmes de signes arbitraires, tous traités en signaux – par exemple le capteur de la voiture autonome qui « détecte » la présence d’une personne et envoie des « données » sous forme de codes, des 0 et des 1, l’opération de calcul qui se réduit à la capacité à pousser des chiffres, la « mémoire » du système qui accumule les « données ». Et si des chercheurs tel Luc Julia, le vice-président de l’innovation chez Samsung, considèrent qu’aujourd’hui, « l’intelligence artificielle n’existe pas », ils fondent leurs propos sur des comparaisons quantitatives mais s’inscrivent en continuité avec la limite sémiotique de l’IA5.

Si en IA, communiquer devient la seule aptitude à « capter » des indicateurs exprimés en codage, la communication peut être appréhendée tout autrement, comme la faculté que nous avons de « mettre et être en commun » (Bougnoux, 2001), de sortir de soi pour aller vers l’Autre, d’exister en tant qu’êtres vivants qui dans leurs interrelations créatives avec la Terre ont laissé émerger une conscience et des facultés artistiques (Denton, 1995). Si Bruno Bachimont a par ailleurs précisé le mouvement de coupure sémiotique qui sous-tend les big data (Bachimont, 2015 ; 2018), il reste à considérer dans quelles mesures la visée éthique du design de l’IA, consistant à circonscrire les signes dans un univers techno-symbolique, coupe la communication et ses notions connexes du vivant, de l’oikos, ce terme grec désignant la maison qui accueille, en l’occurrence la Terre qui accueille le vivant, la biosphère reliée au cosmos.

Que peuvent les Sciences de la Communication mais aussi les autres disciplines qui mobilisent la notion de communication telles que l’Architecture, l’Informatique, l’Anthropologie, les Sciences de l’Education, la Sémiotique, la Mésologie pour dépasser cet impensé ? C’est-à-dire pour sortir de ce présupposé posé en tant que fait par lequel la communication servirait à « faire dialoguer des machines » par signaux interposés, à prélever des signaux à partir du réel pour en faire de l’information, des données auxquelles on applique des calculs pour « résoudre des problèmes » et « s’adapter à son environnement » ?

Certains courants en SIC et en sémiotique situent la communication dans le versant du vivant. Selon Daniel Bougnoux, la communication se fonde sur l’énonciation, cette aptitude à situer dans l’expérience de la vie nos énoncés sur nous et sur le monde. L’énonciation, notion que nous devons à Benveniste (Benveniste, 1966), serait ce qui ancre la communication « dans le milieu ou la continuité du vivant, force de liaison et de participation où nos frontières individuelles s’estompent » (Bougnoux, 2001). L’énonciation, la communication s’ancreraient dans le « niveau primaire » alors que l’énoncé, produit de la langue, en serait coupé, relevant du « niveau secondaire », symbolique. Cette discontinuité entre d’une part, communication/énonciation et, d’autre part, langue/énoncé/information se retrouve en sémiotique chez Claude Zilberberg et Jacques Fontanille (1998)6.

Mais dans le cas de l’IA comme dans l’approche de Daniel Bougnoux n’a-t-on pas affaire à une aporie qui consiste à couper l’énonciation, la communication, de l’intelligence, du symbolique et vice-versa ? Selon l’IA, la communication constitue la phase techno-arbitraire durant laquelle on traduit le réel en données mais tant que les algorithmes n’ont pas « parlé », les lieux, les « données » ne font sens pour personne. Dans l’autre cas, l’énonciation-communication appartient à la continuité du vivant ou/et du réel, des lieux mais l’aptitude à se représenter l’absent, à symboliser le réel pour en faire notre monde, se trouve du côté de la langue et de l’énoncé. Et pourtant, la communication, fondée sur l’énonciation, cette capacité à manifester des énoncés (Greimas, 1993), à coénoncer7 avec l’Autre, avec le vivant (Pignier, 2018), ne nécessite-t-elle pas une continuité/réciprocité entre des lieux, des moments ancrés dans le vivant, dans l’oikos et des techniques, des langues et/ou autres modalités expressives, symboliques ?

Les lieux où nous vivons en interrelation avec les êtres vivants humains et non-humains, où nous coénonçons ne sont-ils pas pétris de continuité, d’ajustement entre l’oikos et le techno-symbolique ? Les échanges autour de l’arbre à palabres, sur la place du village, le long des bords de fleuve, les cours en amphithéâtre de plein air, les maisons blotties autour d’un édifice, au pied d’une montagne ne constituent-ils pas des exemples parmi tant d’autres de lieux où les façonnages architecturaux, paysagers ouvrent vers un dehors, une altérité – celle des Autres, du vivant, de la terre – au sein de laquelle nous vivons, tissons des relations entre humains (Ingold, 2018 ; Berque, 2014) ?

Le dessein qui fonde le dessin de tels lieux (design) ne permet-il pas justement une force communicationnelle, coénonciative entre humains parce qu’il prend acte de l’altérité des matériaux, du vivant, de l’Histoire ? Communiquer, c’est se confronter à l’altérité, celle de l’Autre comme le suggère Dominique Wolton (Wolton, 2009) mais aussi celle des lieux, celle du vivant, celle de la Terre. Cela suppose réciproquement que les langues, les techniques grâce auxquelles nous tissons nos relations constituent des lieux de passage également non réductibles à l’arbitraire des signes car en prise avec l’oikos, le cosmos (Berque, 2016).

Au croisement des Sciences de la Communication, de la Sémiotique, de l’Art, de l’Histoire, de la Philosophie des Sciences, de la Philosophie, de l’Informatique, de l’Anthropologie, de la Biologie, ce numéro de la revue Interfaces Numériques questionne la réduction sémiotique que les designs de l’IA opèrent, les épistémologies dans lesquelles cette dernière s’ancre, les opportunités réflexives qu’elle offre. Deux entretiens ouvrent le présent dossier. Le psychanalyste et philosophe Miguel Benasayag nous invite à revivre le mythe à l’origine de l’IA ; l’illusion fascinante qu’enfin les « systèmes multi-agents » feraient la lumière sur « l’auto-organisation de la vie, du cerveau et de la pensée ». Miguel Benasayag, à qui nous reprenons ces mots, explique en quoi ce courant dont son parcours est témoin, exclut le sens, l’éthique mais aussi les singularités du vivant telles que l’ancrage historique et la limite organique. Selon le philosophe, il importe de sortir du solutionnisme technologique pour apprendre à construire des « hybridations territorialisantes » consistant à « refaire pied sur le territoire » et à intégrer la technique avec sagesse. Cela nécessite de reconnaître fondamentalement les singularités du vivant, de la culture, des affects, ces choses qu’aucune technologie numérique ne peut « capturer » ni modéliser. Dans un second entretien, la commissaire d’exposition, Dominique Truco, explique en quoi, selon elle, l’IA ne peut donner lieu à une œuvre d’art que si l’artiste, en tant qu’être éco-techno-symbolique, initie le processus d’énonciation artistique, le vit, le donne en partage. Autrement dit, l’IA ne peut donner lieu à l’œuvre d’art que dans un cheminement coénonciatif humain, vivant, esthétique et sensible. Indépendamment, elle ne peut produire que des figures « fantômatique[s] et opportuniste[s] », pour reprendre les mots de notre invitée.

La contribution de Franck Renucci, Benoît Le Blanc, David Galli fait écho par l’exemple et l’analyse aux propos de Dominique Truco. Les auteurs y restituent le « récit de vie » de l’artiste franco-canadien Grégory Chatonsky dans lequel l’IA occupe une place centrale. Ce dernier met en place des réseaux génératifs antagonistes (GAN en anglais) qu’alimentent les big data dans le but de constituer la « mémoire du futur », c’est-à-dire les « traces » de l’espèce humaine dont l’extinction est à venir. Les images que produit l’IA, d’un style réaliste sont générées artificiellement. Cependant, dans un tel dispositif, c’est bien la main de l’artiste qui reste fondatrice et décisive ; elle borne les données, évalue la pertinence des résultats, bricole, manipule, initie un processus artistique apte à créer de l’imprévu et de l’imaginaire. En ce sens, l’artiste designe l’IA afin qu’elle ne nous enferme plus sur le passé ; l’art nous invite à mettre à l’épreuve le design habituel des « réseaux de neurones formels » qui prédisent l’avenir exclusivement à partir des « données » du passé. Franck Renucci, Benoît Le Blanc et David Galli rappellent qu’en outre, les figures produites ne peuvent devenir œuvres qu’une fois choisies comme telles par des humains. Si l’artiste et l’IA deviennent des partenaires comme le sculpteur et la pierre, le peintre et la peinture, ce corps à corps met l’IA à l’épreuve du vivant et réciproquement. L’aptitude sensible propre à l’IA peut fasciner, plus que tout autre matériau-partenaire du fait de l’interactivité, de la réactivité, de la puissance calculatoire, pour autant, dans ce cas concret, elle laisse émerger le contraste entre la singularité phénoménologique, existentielle imaginaire, mémorielle d’Homo et celle représentative, calculatoire de la machine.

Le lien entre l’art et l’IA est également l’objet de la réflexion proposée par Óscar et Henry Flantrmsky, doctorants en Philosophie de l’Université Industrial de Santander, en Colombie. Dans leur contribution « La posibilidad del arte en agentes artificiales. Una aproximación desde Turing y Deleuze », les auteurs ne cherchent pas à savoir s’il existe « un art naturel » et « un art artificiel » mais ils s’interrogent sur les capacités de l’IA : Une machine designée et programmée est-elle capable de produire une œuvre qui puisse être considérée comme artistique ? Les doctorants s’efforcent de bâtir un cadre dialogique dans lequel la technologie et la philosophie puissent s’enrichir mutuellement. Selon les postulats de Turing, dans sa publication de 1950 « Computing machinery and intelligence », la possibilité de l’intelligence des machines est associée à un « jeu d’imitation ». Pour Deleuze, l’art est un procédé créatif de la pensée, indépendant de la matière, du créateur et du spectateur. Il s’agit d’une création de blocs de sensations – un composé de percepts et d’affects – que le spectateur n’avait jamais ressenti auparavant. Dans le cas hypothétique où une machine « intelligente », grâce au jeu de l’imitation pourrait produire une œuvre, cette dernière suivrait une logique traditionnelle gardant le bon sens, une sorte de définition universelle, une façon homogène de concevoir l’art. Dans la perspective deleuzienne, l’art n’est pas réductible à une pure et simple imitation. Il n’y a pas de place pour la mimèsis dans une telle conception de l’art car il est autonome, il s’agit de la création d’un monde à partir de la sensation. Ainsi, le propre de l’art est de rompre avec le bon sens, d’esquisser de nouveaux mondes possibles. À son époque, Deleuze considérait que l’IA n’était pas un objet de réflexion. Cependant, Óscar et Henry Flantrmsky suggèrent que le philosophe français apporte un cadre théorique philosophique qui pourrait enrichir et faire avancer l’Intelligence Artificielle.

Mais d’où vient l’IA ? Dans quelle histoire s’inscrit-elle ? Fabien Ferri, en écho avec le témoignage de Miguel Banasayag, explicite la dynamique de formalisation et d’abstraction mathématiques dans laquelle se situe le design de la machine de Turing, premier système consistant à traiter des signes par le calcul automatique. C’est dans la lignée de l’épistémologie cognitiviste que les designers des technologiques numériques appréhendent « l’information » comme tout ce qui peut être émis, transmis par des signaux. Notons que l’information ainsi comprise se voit privée de son fondement sémiotique énonciatif. La puissance calculatoire de l’IA vient justement du fait que le symbolisme des systèmes formels automatiques est emprunté à la langue naturelle. Ainsi, si le processus de traitement des signes est a-sémiotique, il donne lieu malgré tout à des résultats interprétables par les humains.

Pour autant, l’humanité de l’IA ne va pas de soi … C’est ce que démontre la contribution de Bruno Bachimont. L’IA fait preuve d’intelligence par l’artifice, c’est-à-dire qu’elle emprunte une autre voie que celle de l’intelligence. Comme l’indique Fabien Ferri, elle manipule des symboles « vides de sens », de façon a-sémiotique, sans compréhension ni interprétation. Il y a là une coupure radicale du calcul avec le sens qui certes permet la puissance calculatoire mais au prix d’une « débauche de moyens » … Le texte de Bruno Bachimont, intitulé « L’IA, le brin d’herbe, la caresse et le regard » donne le ton en pointant l’irréductibilité du vivant, dont Homo, à la machine. L’auteur nous invite alors à designer des systèmes dans lesquels notre participation « à la construction d’un sens partagé » est essentielle au lieu de designer des systèmes auxquels on délègue la complexité de la vie. Car la dynamique de » prolétarisation intellectuelle » à laquelle nous assistons réduit l’humain à une position « que la machine peut précisément occuper ». Un tel design des systèmes d’IA, au nom de l’efficacité pratique, s’avère pourtant, existentiellement, scientifiquement et concrètement contre-productif ; on ne peut ni évaluer la pertinence des résultats des calculs appliqués au big data ni voir aboutir les processus techniques de l’IA qui reposent sur une récursivité inintelligible. Ce faisant, on augmente le contrôle d’Homo par des systèmes incontrôlables … Ne gagnerait-on pas à designer des systèmes contrôlables ouverts à l’incommensurabilité du vivant ? Mais de quoi est faite cette dernière ?

Les processus de perception que nous déployons, non pas de manière passive mais dans une concrescence, c’est-à-dire dans une capacité à croître avec notre milieu, phénoménologiquement comme biologiquement constituent l’incommensurabilité d’Homo comme être vivant sur Terre. L’IA à l’épreuve du vivant, ce n’est donc ni une question métaphysique, ni un problème vitaliste mais c’est une réalité écosémiotique. Les machines pourvues d’« I.A. » n’apprécient pas le milieu dans lequel elles se situent ; elles le captent en tant qu’ensemble de données que poussent les règles de calcul. Augmenter le contrôle d’homo par des systèmes incontrôlables, c’est l’amener à survivre sans concrescence. La contribution de Nicole Pignier, « Le sens, le vivant ou ce qui nous relie à la Terre », questionne justement ce qui fait concrescence, à savoir les processus de perception que nous déployons, par lesquels nous habitons sur la Terre et nous sommes habités par elle. L’auteure y décrypte les dynamiques, schèmes universels mettant en tension continue et réciproque des pôles tels que « Nature/Culture » ; « Individu/collectif » ; « Féminin/Masculin » ; « Haut/Bas » ; « Ouverture/fermeture » … Elle précise en quoi chaque schème relève du biologique mais aussi du terrestre, du cosmique et en quoi cela nous différencie de la machine, aussi performante soit-elle. En amont et au sein de la doxa moderne, ces schèmes universels ont été réduits à des catégories sémantiques idéologiques, opposées, binaires ; Nicole Pignier montre que ce découpage, cette réduction de sens ont fait passer la plupart des sociétés humaines de l’esthésie à l’anesthésie, au hors sol. Un tel travail invite à des innovations éco-techno-symboliques, c’est-à-dire à des changements de paradigme aptes à reconcrétiser nos perceptions, sensibilités, gestes, pratiques avec des déploiements techniques et symboliques en phase avec l’oikos.

Reconcrétiser nos gestes, nos perceptions, cela nécessite une capacité à accueillir les facultés appréciatives des êtres vivants animaux comme végétaux, à les comprendre. Afin de reconnaître aux plantes un statut éthique, Sylvie Pouteau, biologiste éthicienne interroge la « raison végétale » dans toute sa complexité, sa singularité, sa poïesis. Or, que reconnaît-on de la singularité des plantes lorsque l’on parle à leur propos d’une « intelligence naturellement artificielle » ? L’auteure précise dans cet opus qu’un tel oxymore émanant de la neurobiologie des plantes se réfère aux schémas des sciences cognitives et des TIC, réduisant la concrescence végétale à un système chimique et bio-électrique d’émission-transmission-réception. Certes, la thèse d’une « intelligence minimale végétale » invite à dépasser la réduction du vivant à une machine ; elle reconnaît aux plantes une plasticité primordiale qui leur permet de se « recomposer » dans l’interrelation avec leur milieu. Mais « l’intelligence minimale naturellement artificielle des plantes » opère à nouveau une réduction de sens en substituant au milieu éco-phénoménologique un milieu technologique hors-sol, celui des bio-informaticiens pour qui l’IA est fondatrice de toute relation. Un tel milieu ne permet en effet pas la concrescence mais il pose un fonctionnement idéel par interconnexion nécessitant une débauche de moyens ; l’analyse de Sylvie Pouteau rejoint là celle de Bruno Bachimont. « L’intelligence minimale naturellement artificielle des plantes » exclut le sens de notre relation concrète, existentielle et poétique aux plantes ; elle abolit « la coénonciation du vivant » pour reprendre l’expression de Nicole Pignier.

Remerciements :

Gérard Chandès, Université de Limoges, Anne Beyaert-Geslin, Université de Bordeaux-Montaigne, Gino Gramaccia, Université de Bordeaux 3, Christian Marcon, Université de Poitiers, Eleni Mitropoulou, Université de Haute-Alsace, Justin Ouoro, Université de Ouagadougou, Rocío Rueda Ortiz, Université Pédagogique et technologique Nationale de Colombie

Notes :

1 – Le design est un processus d’orchestration entre un dessin – plan, esquisse, croquis ou autres expressions graphiques qui impliquent le geste corporel – et un dessein, à savoir un but, un objectif mais aussi une visée éthique, c’est-à-dire une conception du mieux-être individuel et collectif (Pignier, 2017, 12-13).

2 – Cf. https://www.legifrance.gouv.fr/affichTexte.do ?cidTexte =JORFTEXT00003 7783813 : Définition de l’apprentissage profond : « Apprentissage automatique qui utilise un réseau de neurones artificiels composé d’un grand nombre de couches dont chacune correspond à un niveau croissant de complexité dans le traitement et l’interprétation des données ». Un réseau de neurones est un « ensemble de neurones artificiels interconnectés qui constitue une architecture de calcul ». L’apprentissage profond est notamment utilisé dans la détection automatique d’objets au sein d’images et dans la traduction automatique.

3 – Interview de Yann Ollivier par Morgane Tual. Cf. « Comment le « deep learning » révolutionne l’intelligence artificielle », Journal Le Monde, article du 28 juillet 2015. Cf. https://www.lemonde.fr/pixels/article/2015/07/24 /comment-le-deep-learning-revolutionne-l-intelligence-artificielle_4695929_4 408996.html

4 – Cf. « L’intelligence pas si artificielle », Catherine Malabou, invitée d’Olivia Gesbert, « La Grande Table », France Culture le 5 septembre 2017, https://www.franceculture.fr/emissions/la-grande-table-2eme-partie/lintelli gence-pas-si-artificielle-de-catherine-malabou

5 – Cf « L’intelligence artificielle n’existe pas », interview de Luc Julia par Anne Cagan, le 24 janvier 2019, https://www.journaldugeek.com/dossier /lintelligence-artificielle-nexiste-interview-de-luc-julia-cocreateur-de-siri/ :» Donc il n’y pas d’intelligence, c’est simplement une masse de données et un peu de statistiques. Il suffit d’ailleurs de regarder les chiffres : DeepMind, c’est 1500 CPU, environ 300 GPU, quelques TPU et 440 kWh. L’humain en face, c’est 20 Wh. Et lui sait faire bien d’autres choses que de jouer au go ! Cela prouve qu’il s’agit d’approches complètement différentes et qu’il est ridicule de penser qu’on est proche de l’intelligence. […] Or, si on veut arriver à de la vraie intelligence artificielle, il faudra recourir à d’autres méthodes que celles utilisées aujourd’hui. S’agira-t-il de méthodes avec de la biologie, de la physique, du quantum … sans doute un mix de tout cela. »

6 – « [L]’énonciation est une praxis dans l’exacte mesure où elle donne un certain statut de réalité […] aux produits de l’activité de langage : la langue se détache du « monde naturel » mais la praxis énonciative l’y plonge à nouveau, faute de quoi les actes de langage n’auraient aucune efficacité dans ce monde-là. Il y a bien deux activités sémiotiques, les activités verbales et les activités non-verbales, mais elles relèvent d’une seule et même « praxis » » (Fontanille et Zilberberg, 1998).

7 – Le sujet qui perçoit une information est impliqué mentalement et physiquement, il convoque ses pratiques et sa culture. En suivant le linguiste Dominique Maingueneau reprenant les travaux du linguiste Culioli, nous disons d’ailleurs que le sujet percevant un énoncé est un co-énonciateur et non pas un simple récepteur.

Pour citer ce document :

Pignier Nicole et Liñán Durán Lina, « Introduction Le design de l’« intelligence artificielle » à l’épreuve du vivant », Interfaces numériques, 2020, vol. 9, n°1, consulté le 08/06/2020, URL : http://dx.doi.org/10.25965/interfaces-numeriques.4085

  … Vers le dossier complet !

Vignette de l’article : Couverture du dossier Volume 9 – N° 1 | 2020 : Le design de l’« intelligence artificielle » à l’épreuve du vivant

Pertinence et intérêt de l’article selon [[[[ designer.s ]]]] :

***** Exceptionnel, pépite
**** Très intéressant et/ou focus
*** Intéressant
** Faible, approximatif
* Mauvais, très critiquable
(i) . Informatif