Exercice 1.1
Définition de l'intelligence
Capacité à donner l'illusion de la prise de décision.
Un comportement intelligent est un comportement qui n'est pas explicable de manière triviale, par des "conséquences naturelles". Pour l'expliquer il faut faire référence à un modèle abstrait, et imaginer que l'agent à "décidé" de faire ci ou ça.
Exemple: une pierre tombe, elle rebondit sur des obstacles. On explique la chute, les rebonds, à l'aide de simples lois physiques, rien de mystérieux. D'un certain point de vue, la pierre n'a pas le choix, elle tombe et subit les lois implacables de la physique, en rebondissant sur les obstacles de manière inéluctable. En revanche, un chat qui tombe est suffisamment intelligent pour essayer de se remettre sur ses pattes. Sa chute obéit en partie à des lois physique simples (attraction terrestre, résistance de l'air). En revanche tout le contrôle de ses pattes, de sa queue, pour l'amener à revenir à une position dite "verticale" est calculé, en grande partie par son cerveau. Mais ce cerveau étant lui aussi régit par des lois physiques, on pourrait considérer que le chat, de toutes façons, est contrôlé en fait à 100,00% par des lois physiques. C'est ce que je pense. Simplement c'est notre compréhension limitée du chat qui nous invite à modéliser sa chute, son comportement, en deux éléments distincts. D'une part les lois simples par lesquelles il est tout à fait identifiable à une pierre, d'autre part des lois peut-être tout aussi simples, mais mises en oeuvres de manière si complexe qu'on renonce à les expliquer. On considère ainsi par commodité que le chat a décidé de mettre sa queue et ses pattes dans telle ou telle position. Il a réagit de manière intelligente en comprenant qu'il allait tomber et se faire mal.
Cette définition de l'intelligence dépend donc complètement du degré de compréhension de celui qui juge la présence ou pas d'intelligence. D'ailleurs, à ne pas s'y tromper, nombre de comportements tout à fait naturels, tel que la course du soleil, les tempêtes, ont été avant l'avancée de la science considérés comme relevant du divin, pilotés donc par une ou plusieurs créatures intelligentes. Ces phénomènes ont été démystifiés. Reste aujourd'hui le dernier bastion de l'intelligence, celui où personne ne conteste qu'il y ait de l'intelligence, le cerveau humain. On n'a pas élucidé son mystère, mais le jour où l'on arrivera à le faire, et qu'on pourra expliquer comment s'effectue l'apparente prise de décision humaine, l'intelligence de l'homme sera assimilée à un mécanisme, et, vraisemblablement, elle aura perdu son aura, voire son sens.
Cela ne remet en aucun cas l'existence de la conscience. Ce sont deux notions distinctes. La conscience est nécessaire - ou bien est-elle une conséquence? - à partir d'un certain niveau d'intelligence, mais elle ne disparaîtra pas lorsqu'on décortiquera jusqu'au bout la mécanique humaine.
Dernière remarque : ma définition de l'intelligence peut laisser entendre que "tout ce qui n'est pas explicable simplement est intelligent". C'est un raccourci hasardeux. Et ce n'est pas ce que j'ai dit. Il faut que le comportement inexpliqué donne l'illusion de la prise de décision, ce point est fondamental.
C'est ainsi que les programmes informatiques - au moins les programmes classiques écrits par des programmeurs humains - sont non-intelligents au sens où leur prédictabilité est implicite.
De la notion de libre arbitre.
Définition de l'intelligence artificielle
Intelligence qui n'est pas humaine. Plus exactement, un dispositif mis en place par l'homme et qui remplace ou surclasse l'homme dans des tâches réputées demander de l'intelligence, est un dispositif qui dispose d'une intelligence artificielle.
En se référant à ma définition précédente, on peut conclure que ce type de dispositif, entre autres les programmes informatiques dont on sait expliquer le fonctionnement - la majorité d'entre eux j'imagine - n'est pas, ou plutôt, n'est plus, intelligent. Ce n'est plus de la vraie intelligence, c'est de l'intelligence artificelle. Un dispositif doté d'IA démystifie le comportement intelligent, il le remplace par quelque chose de déterministe, qui est au mieux aléatoire, mais où la notion de libre arbitre n'est réellement plus de la fête... D'ailleurs, c'est ce que fait naturellement le grand public, dès que l'IA, en tant que science, fait une avancée, on considère cette avancée comme un n-ième dispositif technique, et non pas comme la "vraie" intelligence.
Vraisemblablement, l'homme n'est pas réellement préparé à accepter de n'être lui-même qu'un dispositif technique. Il se sentirait bien bête.
Encore une fois, la notion de libre arbitre est au coeur du débat.
Mon point de vue est très matérialiste, je le reconnais, et il suppose implicitement la possibilité de la création d'une intelligence artificielle globale (AGI pour les anglophones), qui passe avec succès, par exemple, le test de Turing.
Ne pas compter sur moi pour croire que l'homme a un je-ne-sais-quoi, un petit quelque chose, une âme, qui fait la différence. On n'a pas encore compris, voilà tout. Les exemples fourmillent d'explications vaseuses faisant appel au divin pour justifier les domaines complexes, a fortiori lorsqu'ils font peur. Cela devrait suffir à nous dissuader, au XXIème siècle, de recourir à ce type d'explications qui, s'il satisfaisait l'homme des cavernes et continue à émerveiller le bigot moyen, est une insulte au bon sens, à la science et à l'Histoire.
Définition d'un agent
Element qui, en fonction de son environnement, agit.
Selon ma définition de l'intelligence, l'agent intelligent prend une décision avant d'agir. L'agent non-intelligent se contente de réagir.
Evidemment, tout dépend de la modélisation qu'on choisit. On peut arbitrairement, ou plutôt, selon son propre degré de compréhension du domaine qu'on modélise, décider qu'un agent est intelligent ou pas. Dans une modélisation idéale, tous les agents sont non-intelligents, et le comportement intelligent est démystifiée, expliqué jusqu'au moindre détail.
Exercice 1.2
Reflexion sur l'article de Turing sur l'IA (1950)
http://loebner.net/Prizef/TuringArticle.html
1) L'objection théologique qui met en avant l'âme et le Créateur comme fondements de l'intelligence ne vaut pas un pet de lapin. Je me demande même si ça vaut le coup de prendre le temps d'y répondre. Plus sérieusement, j'ai lu une intéressante contestation du pari de turing et on y lit que l'hypothèse qu'"un chimpanzé apprenne un jour à parler ou à lire ... n’est pas moins plausible que celle de l’intelligence de l’ordinateur". Je suis bien d'accord! Or donc, il est possible qu'un chimpanzé apprenne à parler ou à lire. Si si, relisez Darwin. On peut peut-être même apprendre à parler ou à lire à une bactérie. Enfin, je veux dire, à ses (lointains!) descendants. Evidemment, il faut du temps... Du chimpanzé à l'homme, il y en a une palanquée de générations, d'évolutions nécessaires, de crêpage de chignon. Je ne dis pas que l'homme descend du chimpanzé, mais, parmi ses ancêtres, se trouve inconstestablement un maillon qui n'était pas beaucoup plus subtil que nos chimpanzés modernes. Clairement, l'ordinateur "intelligent" ne verra pas facilement le jour, et on ne peut pas prouver qu'il existera un jour. A moins de savoir prédire l'avenir, ce qui poserait de nombreux paradoxes - l'univers dans sa globalité aurait du mal à contenir des informations exhaustives sur lui-même, de même qu'un ordinateur a du mal à s'auto-simuler dans un espace mémoire fini. Mais revenons à nos moutons : l'existence du brin d'herbe ne garantit qu'un jour un autre être vivant apparaîtra, suffisamment complexe, bénéficiant des conditions initiales ad hoc, pour produire... un homme. Ou, à défaut, quelque chose d'aussi "intelligent". Certes. Mais de mon point de vue, l'existence même de l'homme est la preuve irréfutable que des phénomènes tout à fait improbables peuvent se produire. Evidemment, rien de garanti. Encore moins d'immédiat. En tous cas les arguments du type "ce n'est pas raisonnable" sont très faibles, car ils ne font que traduire l'incrédulité de ceux qui les brandissent, sans jamais formellement démontrer aucune impossibilité théorique ou pratique.
2) Sur la peur associée à l'émergence d'une intelligence concurrente, voire supérieure, à celle de l'homme, et la perte de repères, voir du contrôle des opérations, je ne suis pas certain de regretter certaines décisions des hommes. Massacre de la St Barthélémy, Hiroshima, toutes les condamnations à mort proférées au cours de l'Histoire, viols, tortures, les exemples de "mauvaises" décisions ne manquent pas. Que perd on? En tant que "plouc" de base, il y a plein de décisions qui m'échappent. Qu'elles m'échappent au profit d'un milliardaire investisseur cynique ou d'une machine au coeur de silicium et qui chauffe dur, ça me laisse de glace. Il aurait fallu que l'Humanité soit parfaite pour qu'on puisse être certain de la regretter. Plus important, je pense que l'attitude qui consiste à poser des principes et les respecter est hautement suspecte. Je soupçonne que c'est un résidu des 10 commandements qui nous habitue à nous conduire de la sorte. Mais il n'y a fondamentalement aucune bonne raison pour que nous nous imposions, aujourd'hui, les réponses à certaines questions, en supposant implicitement que nos décisions ultérieures seront moins bonnes. En clair, je remets en cause la notion fondamentale de principe. Enfin, plutôt, oui aux principes lorsqu'ils permettent d'accélérer et de structurer la réflexion en nous évitant de perdre un temps fou à répondre aux mêmes questions fondamentales. Mais non aux principes lorsqu'ils sclérosent la pensée en imposant des réponses construites dans le passé au mépris des évolutions présentes ou futures, qui impliquent - c'est inévitable - des réponses différentes. Pensez à la physique newtonienne qu'il a fallu remettre en cause dans certains contextes, à la terre qui n'est plus plate, et toutes ces choses. Typiquement, je pense que les principes des robots d'Asimov sont tout bonnement inutiles - et par ailleurs bafoués dès aujourd'hui, dans la mesure où les équipements militaires qui sont à la pointe de la technologie sont très vraisemblablement des précurseurs des robots de demain, font appel à , toutes les technologies de l'IA, et n'ont qu'un but: anéantir des hommes. Dont acte. Cette disgression sur la notion de principe n'a d'autre but que de montrer que si, réellement, les machines sont plus intelligentes que nous, elles prendront vraisemblablement de meilleurs décisions. En tous cas, à moins d'adopter une attitude dogmatique ou d'entretenir le culte de la bêtise et de l'ignorance - ce que fait n'importe quel curé, au passage - il n'y a pas de raison de penser que les décisions des machines seront plus mauvaises que les nôtres.
3) A propos du théorème d'indécidabilité, et le fait que l'obligation de répondre dans un temps fini soit incompatible avec l'utilisation d'un automate déterministe. Eh quoi? Etes-vous bien certain, vous, humain, d'apporter une réponse parfaite à chacune des questions qu'on vous pose? Répondez-vous - sincèrement - sans aucune forme d'ambiguïté, sans avoir jamais besoin de réviser votre avis, à des questions comme "l'intelligence est-elle au service de l'homme, ou l'inverse?". Rien n'empêche de programmer un ordinateur pour qu'au bout d'un certain temps, il donne une réponse, dont il estime qu'elle est la meilleure, quitte à ce qu'elle soit imparfaite. D'ailleurs, les hommes, lorsqu'ils sont honnêtes, répondent simplement "je ne sais pas". C'est un mythe de penser qu'une machine ne pourrait pas le faire. Jusqu'ici nous employons les machines - et c'était encore plus vrai à l'époque de Turing, ça l'est moins aujourd'hui - pour résoudre des problèmes de manière exacte, mais rien n'interdit de leur demander de travailler au jugé, en acceptant une bonne part d'imprécision, une économie de calcul au profit d'une réponse plus rapide.
4) Sur la notion de conscience, je suis bien d'accord que si la machine est suffisamment intelligente, elle devrait pouvoir écrire des poèmes. Maintenant, la question de savoir si une machine est consciente ou pas est extrêmement pernicieuse, car à proprement parler, il nous est impossible de formellement prouver que quelqu'un, qu'un autre homme, a une conscience. Moi-même, je sais que je suis conscient. Mais je ne peux pas savoir si vous, vous l'êtes. Un réseau de conjectures, le fait que l'hypothèse la plus crédible est que je suis un humain comme vous et que vous fonctionnez comme moi me pousse à croire que vous êtes, tout comme moi, conscient, et que vous ressentez des choses similaires. Mais rien ne me le prouve. De même, je ne sais pas si quand vous voyez du rouge vous voyez réellement la même chose. Je sais que nous parlons tous deux du rouge, mais peut-être que vous éprouvez la même sensation que quand je vois du vert. Par définition, il est impossible - ou tout au moins extrêmement difficile - de répondre à cette question. La vraie question intéressante, c'est de savoir si la conscience est une conséquence de notre intelligence ou si elle est un pré-requis pour acquérir un niveau suffisant d'intelligence. Je ne sais pas. Dans tous les cas, si le chimpanzé peut apprendre à parler, je ne vois pas pourquoi il n'aurait pas une conscience. Le point à élucider, c'est, l'a-t'il déjà ? J'aurais tendance à dire que oui. J'aime aussi réfléchir sur la notion de conscience collective. Existe-t'il une conscience qui émergerait d'une ville, d'une communauté, d'une entreprise, d'Internet? On personnifie souvent ces éléments "Paris a condamné l'exécution d'untel...". Et si "Paris" était réellement conscient? Vaste débat.
5) Les objections de type "même pas cap'" sont assez faibles, finalement, du temps des pharaons, si on n'avait expliqué qu'on irait sur la lune dans un bout de feraille, ça n'aurait pas été très crédible. Ce sont en général des arguments sur la complexité, sur le volume de fonctionnalités à avoir, pas sur la faisabilité intrinsèque des choses.
6) Sur le fait que les ordinateurs soient déterministes et ne fassent "que ce qu'on leur dit de faire" la situation a évolué dans le "bon" sens du point de vue de Turing. Je veux dire par là que de plus en plus, émergent des comportements des ordinateurs qui n'étaient pas prévus dans le manuel... Particulièrement depuis qu'ils sont en réseau et que les programmes sont complexes. Par ailleurs, tous les algorithmes génétiques, les réseaux de neurones, les systèmes à apprentissage non supervisé, sont d'excellents exemples de programmes qui font "des trucs" sans qu'un homme leur ait jamais expliqué exactement comment faire. Une fois de plus on ramènera avantageusement le débat sur la question du libre arbitre... Je soutiens que l'homme, lui aussi, ne fait que ce qu'il a à faire. Pas plus, pas moins. Cela ne veut pas nécessairement dire que l'Histoire est déjà écrite. Elle s'écrit au fur et à mesure que nous vivons, nous la découvrons au fil du temps. L'univers "est".
7) L'objection qui met en avant le caractère discret de l'ordinateur et analogique de l'homme ne me paraît pas fondamental. Pour peu qu'on numérise suffisamment finement, on peut simuler des comportements analogiques. Vous écoutez toujours des disques vyniles vous?
8) Sur l'impossibilité de modéliser le comportement humain, je conçoit tout à fait qu'il nous soit impossible, à nous, humains, de le faire. Il est même possible - quoique je ne puisse pas le prouver, loin s'en faut - que ce soit absolument impossible. Pour autant, quand on dit cela, on pense généralement à des règles de haut niveau. Nous utilisons ces règles de haut niveau car elles correspondent à la modélisation de la logique, du raisonnement, qui nous paraît la plus claire. Mais rien ne dit, et je suis plutôt porté à croire le contraire, que l'énoncé explicite et exhaustif de ces règles soit indispensable à l'émergence d'une intelligence. Par exemple, les lois de la thermodynamique ne sont pas "inscrites" dans l'Univers, au sens où les gaz, par exemple, évoluent avec des comportements cohérents et simples à l'échelle macroscopique, mais ces comportements se déduisent de règles qui oeuvres à l'échelle microsocopique. Revoilà notre débat entre les "neats" et les "scruffies". Cet argument ne prouve pas que des concepts de haut niveau soient inutiles lors de la création d'un système intelligent. Bien au contraire. Néanmoins il ne sont pas non plus indispensables. En tous cas, de nombreux contre exemples montrent que la compréhension du modèle de haut niveau n'est pas indispensable à la mise en place d'une structure organisée. Pensez fourmilière. Réfléchissez à ce que devient l'oeuf humain tout juste fécondé.
9) Je suis consterné que Turing ait pris ne serait-ce que le temps de répondre aux arguments faisant appel au surnaturel, à la télépathie et autres conneries du genre. J'espère qu'on arrivera un jour à se débarasser de tous les manipulateurs qui colportent ces balivernes. J'ai de la peine pour ceux qui y croient et se laissent mener en bateau. Des preuves! Des vraies!
Finalement la plus grande difficulté à surmonter pour produire une intelligence artificielle à partir d'une machine de Turing reste l'effort de programmation considérable, et, vraisemblablement, le "coup de pot" qui va bien et qui nous met sur la bonne piste. La question reste assez philosophique, si on compare ce "coup de pot" à celui qu'il a fallu pour produire l'homme à partir d'assemblages primitifs, une "soupe originelle" encore plus simple que notre flore intestinable (prout!), on se dit qu'à tout prendre, on a déjà eu tellement de chance d'en arriver là , ça pourrait bien continuer. L'autre vision est de considérer que l'arrivée de l'homme était inévitable. Auquel cas, celle de l'intelligence programmée l'est vraisemblablement aussi.
Sur la probabilité qu'en 2000, un ordinateur fasse illusion pendant 5 minutes au test de Turing, pour peu que l'examinateur soit non qualifié, je pense que 30% est exagérément optimiste. En fait, l'ordinateur n'a à mon avis aucune chance car - si j'ai bien compris le test de Turing - il faudrait encore qu'il parle de manière cohérente, et la maîtrise du langage est un domaine extrêmement complexe. Turing l'a vraisemblablement sous-estimé, mon idée est que pour maîtriser le langage il faut maîtriser la sémantique. Je pars du point de vue qu'en 2000 les traducteurs automatiques étaient si mauvais que franchement, faire une machine qui fasse des réponses construites cohérentes... Hum. A part ça le psy d'Emacs est rigolo 8-)
Il faudrait que j'en lise plus - et surtout que je réfléchisse - au fameux problème de la "chinese room", ces histoires de maîtrise du langage, et toute la discussion sur "qu'est-ce que comprendre?" est passionnante.
Exercice 1.3
Prix Loebner
http://loebner.net/Prizef/loebner-prize.html
En 2006, c'est Rollo Carpenter qui a gagné le prix Loebner avec "Joan", une émanation de JabberWacky, et ce pour la seconde année consécutive. Pas mal 8-)
J'ai dialogué un peu avec le bousin. Assez déçu au début, j'ai fini par être relativement impressionné. En fait, on peut réellement dialoguer avec le machin, les réponses sont cohérentes. Disons que pour un test de Turing réel, j'imagine qu'un humain en face ferait vraiment la différence. Mais en l'abscence de comparaison...
Apparemment le projet date de 1988, mis en ligne en 1997, et se base sur une technique "unique" non dérivée d'autres techniques d'IA (je ne n'en suis pas si certain, la technique utilisée fait AMHA partie du périmètre de l'IA, mais bon, plutôt "scruffies" que "neats" on va dire). L'idée est donc de fonctionner uniquement par apprentissage, le système n'a aucune règle pré-enregistrée et se contente d'essayer de trouver la meilleure réplique parmi un panel de répliques qu'il a apprise en mode non supervisé, lors de conversations précédentes. Du moins, c'est ce que j'ai compris.
Une preuve tangible que l'apprentissage fait des miracles, tout comme l'entraînement en course à pied 8-)
Exercice 1.4
Réflexion sur l'indécidabilité
L'indécidabilité de certains problèmes rend-elle l'IA impossible? C'est un point abordé par Turing. Mon point de vue est que ça n'a rien à voir. Les décisions humaines, intelligentes par définition, peuvent tout à fait - et c'est très souvent le cas - être prises de manière totalement imparfaites. Jusqu'ici a primé le soucis de perfection dans l'implémentation des systèmes informatiques, mais ce n'est pas une fatalité. On peut toujours imaginer recourir à des erreurs volontaires, utiliser des générateurs de nombres aléatoires pour trancher certains points en un temps fini, recourir à l'entropie ambiante disponible à volonté sur Internet, bref, les ressources ne manquent pas.
Mon côté philosophe me porte à penser que la créativité, la capacité à apprendre, à formuler des abstractions nouvelles est indisociable de la possibilité de se tromper. Une des meilleures preuves est justement le manque de créativité, la non-confiance en son propre jugement qu'on obtient d'un enfant lorsqu'on lui interdit l'erreur et qu'on essaye d'en faire le "disciple parfait". L'éducation des enfants et les ecueils à éviter (dirigisme, projection de ses propres limitations et/ou ambitions frustrées...) nous en enseigne un rayon sur la notion d'apprentissage.
Exercice 1.5
QI et IA
Si le programme ANALOGY d'Evans avait un QI de 200, serait-il plus intelligent qu'un homme?
Question un brin sournoise et même pas drôle qui tend un piège simple en laissant sous-entendre que le QI est un bon indicateur de l'intelligence. La prétendue intelligence mesurée par un test de QI n'est qu'une facette des capacités cognitives, et ne prend pas en compte un tas d'aspects très utiles dans la "vraie vie". Je ne dis pas ça parce que je suis invariablement mauvais à ce genre de test - en tous cas bien plus médiocre que ce que j'espèrerais - mais sérieusement, le test de QI, en général, mesure surtout une capacité d'association d'idées, d'analogies. Le test de QI met aussi très en valeur la rapidité - domaine dans lequel les ordinateurs nous surclasseront, à terme, forcément - sans s'attacher à la complexité, aux capacité à se représenter un problème complexe, structuré. Il mesure les "petites briques" élémentaires qui forment l'intelligence sans prendre en compte l'intégration de ces éléments, fondamental pour dépasser les simples problèmes... de tests de QI. Par ailleurs la plupart des tests de QI que je connais (tous, en fait...) sont composées de questions fermées, type QCM, quand ce sont les questions ouvertes "que pensez-vous de l'évolution darwinienne?" qui sont les plus profondes.
Exercice 1.6
Introspection
Puis-je me tromper sur ce que je pense?
J'ai longtemps pensé que l'intelligence était la capacité à "reboucler" sur soi-même (lire Hofstadter à ce sujet) et disposer donc des moyens de réfléchir sur son propre processus de réflexion. J'en suis revenu.
Bien que je sois convaincu que l'humanité puisse avoir un jour une connaissance très approfondie, voire totale, du fonctionnement d'un être humain en général, je doute fortement qu'un individu puisse appréhender cette complexité, encore moins lorsqu'il s'agit de lui-même.
Concernant la pensée - vraisemblablement l'élément le plus complexe - je pense qu'à l'instar d'un ordinateur à mémoire finie, l'homme ne peut pas avoir une connaissance objective et encore moins complète de sa propre pensée. Donc, il se trompe. Nécessairement. Le processus qui consiste à extraire la pensée et la formuler afin d'en laisser une trace est intrusif et modifie la pensée elle-même. Application concrète: le vieil adage qui dit qu'il faut tourner 7 fois sa langue dans sa bouche avant de l'ouvrir. Par ailleurs, l'acte d'écrire, en particulier lorsqu'il s'agit d'élucubrations philosophiques, dénature la pensée. Essayez de vous relire, par exemple... Evidemment, on pourrait rétorquer qu'il suffit de ne pas écrire, que la pensée existe en tant qu'abstraction. Oui, mais tant qu'elle est non-formulée, elle n'existe pas. Existe peut-être une sensation, un sentiment, mais la pensée - j'en suis convaincu - a besoin du langage pour prendre forme, et avoir un sens. Elle se projette sur le plan verbal, avec donc, comme toute opération de projection, une perte d'information, une déformation.
Exercice 1.7
Les ordinateurs savent-ils faire ces tâches?
Jouer au ping-pong
Oui, les ordinateurs sont capables de jouer au ping-pong. Lire à ce sujet le bouquin :
A ROBOT PING-PONG PLAYER Russell L. Andersson ISBN-10: 0262011018 ISBN-13: 978-0262011013
Apparemment c'est un tour de force, mais ça date déjà de 2003.
Conduire au Caire
J'ai lu il y a quelques temps que des scientifiques avait fait parcourir plusieurs milliers de km à une voiture en Amérique du Nord, pilotée 98% du temps par un ordinateur. Pour ce qui est de conduire au Caire ou à Argenteuil (!), j'ai l'impression que cet article nous indique que ce n'est pas pour aujourd'hui, peut-être pour demain.
Faire les courses hebdomadaires au supermarché
Bon, alors je vais être clair: pour faire les courses au supermarché, au sens où je l'entends, un robot devrait déjà savoir me décrypter, déjà que ma femme a l'impression d'être Champollion quand elle tente de lire la liste des courses... Plus sérieusement, je pense que les problèmes d'intendance (se déplacer dans les rayons, identifier les produits) sont suffisamment dissuasifs pour qu'un ordinateur, un robot, capote. D'ailleurs j'ai idée que si les robots pouvaient avoir une connaissance et une capacité opérationnelle suffisante en rayon, ils remplaceraient rapidement les magasiniers. C'est le cas dans certains entrepôts, mais pas dans mon supermarché.
Faire la même chose en ligne
AMHA les fonctionnalités du type "réutiliser mon panier de la semaine dernière" disponibles chez tout bon marchand en ligne sont les prémisses de l'informatisation, de l'automatisation de ces tâches. Je sais c'est très modeste et ça paraît ridicule mais je suis sûr et certain qu'avec un peu de data-mining et de personnalisation - et d'ailleurs, ils y travaillent vraisemblablement déjà - on arriverait facilement à faire en sorte, moyennant finance, que tous les bons produits arrivent sur le pas de votre porte le bon jour, via une commande web. Dans le même ordre d'idée, je ne commande jamais de fioul, c'est toujours le vendeur qui me téléphone, 15 jours avant la date butoir, pour m'en proposer.
Mais bon, un ordinateur ne pourra vraisemblablement pas choisir à ma place, je ne peux pas déléguer totalement les courses. Mais c'est une tâche informatiquement outillable, et déjà outillée.
Jouer au bridge (niveau pro)
Apparemment les ordinateurs qui jouent au bridge font leurs premiers pas, et ça déménage pas mal. Le sujet semble plus vaste que les échecs car on ne dispose pas d'une information complète au moment de la prise de décision. Quoi qu'il en soit, le niveau atteint par les automates est déjà plus que correct. Ca me fait penser au Go dont on dit qu'il est trop complexe pour les ordinateurs, pour autant le moindre programme potable qui joue au Go joue suffisamment bien pour m'atomiser.
Découvrir, démontrer des nouveaux théorèmes
Je n'ai pas les références sous la main, mais clairement, oui, démontrer des théorèmes, voire en découvrir, fait partie du champ des tâches réalisées en IA. Pas très étonnant d'ailleurs que ce domaine d'application des mathématiques théoriques ait suscité des vocations.
Ecrire une histoire drôle
Pas réussi à trouver ça sur le Net. Ceci étant j'imagine qu'on peut générer de la blagounette par ordinateur. Maintenant arriver à inventer un nouveau style d'humour, à faire preuve de cette finesse qui fait les grands humoristes, j'en doute. Mais la plupart des humains en sont eux-même totalement incapables. Alors...
Donner un conseil juridique
Typiquement un domaine dans lesquels les systèmes experts doivent faire des ravages. Pas de soucis, je suis certain qu'on trouve des programmes spécialisés dans ce genre de tâche, de même qu'ils existent en médecine - depuis longtemps.
Traduire en temps réel, à l'oral, de l'anglais vers le suédois
Les ordinateurs savent:
- produire de l'anglais écrit à partir d'anglais parlé (reconnaissance orale)
- traduire de l'anglais écrit vers le suédois écrit (outils en ligne)
- produire du suédois parlé à partir de suédois écrit (synthèse vocale)
Aucune de ces tâches n'est exécutée parfaitement mais je suis convaincu qu'on peut au moins donner à un auditeur suédois une idée de ce qui se trame. Des phrases idiomatiques seront mal traduites, certaines subtilités qui - et c'est là un point important - ne peuvent être traduites que lorsqu'on a totalement compris le sujet, et pas seulement les mots.
J'ai tendance à dire que l'ordinateur sait le faire, mais pas aussi bien qu'un traducteur professionnel, et que ce "petit bout qui manque" risque de coûter très cher... et d'être le plus passionnant ;)
Réaliser une opération chirurgicale
Voilà un domaine dans lequel on outille énormément, y compris avec des équipements informatiques qui font appel à des techniques d'IA.
Pour autant, le pilotage de train est aujourd'hui automatisé, mais à ma connaissance pas les opérations chirurgicales. Le pire obstacle sera vraisemblablement - comme ça a été le cas pour le train - davantage le risque perçu par les malades que les risques réels.
Exercice 1.8
IA et capacités cognitives de "haut niveau"
Pourquoi délaisse-t'on la perception de l'environnement, les actions "de base" au détriment de tâches apparemment plus "nobles"? AMHA les tâches conceptuellement plus complexes ne sont pas nécessairement les plus indispensables à la vie humaine.
Ceci étant il est logique que l'IA s'intéresse à ces tâches en priorité. Je ne pense pas qu'il soit indispensable de disposer de mains, de pieds, d'un corps, pour être doué d'intelligence. Le meilleur exemple: toutes ces personnes handicapées, à qui il manque des membres, des sens, voire la parole, et qui prouvent invariablement leur intelligence et leur forte similitude avec l'homme moyen. Donc, certes il faut des capteurs pour recevoir des infos et des moyens d'agir pour être un véritable "agent" et prétendre à l'intelligence, néanmoins la nature de ces capteurs importe peu, au moins en théorie. En pratique il va de soi qu'il est plus facile de se déplacer avec 4 membres que sans. Donc la réflexion sur la nature des capteurs, des émetteurs, et d'une manière générale des interfaces dont on devrait doter un robot, est loin d'être caduque. Mais c'est juste un aspect qui fera gagner en temps et en efficacité, sans pour autant révolutionner le domaine. C'est mon avis.
Exercice 1.9
Evolutions et systèmes rationnels?
Pourquoi l'évolution tendrait-elle vers la rationalité? But suivi? On voit ici poindre l'idée du Créateur, je trouve. La question d'un but à l'évolution, à l'humanité, à <remplacez-ici-par-votre-concept-favori> est intéressante. Pour ma part, je ne pense pas qu'il y ait un but de ce type. Nous allons, le monde va, nécessairement quelque part. C'est clair. Maintenant est-ce prévu? Y-a-t'il une conception sous jacente? Je ne vois pas pourquoi. C'est notre cerveau humain, habitué à planifier et à mettre les plans à éxecution qui trouble notre perception et biaise notre point de vue. Pourquoi faudrait-il nécessairement qu'il y ait une logique derrière le monde? L'idée même de l'abstrait est quelque chose que nous avons inventé, qui a quelque part émergé à un moment ou un autre, mais supposer que tout ceci existait avant et que la notion de but pouvait exister avant que l'évolution - au sens de Darwin par exemple - ne s'active, cela me paraît douteux.
Maintenant on peut constater qu'une conséquence de l'évolution est que les êtres plus intelligents dament le pion aux autres, la domination de l'homme sur terre en est une bonne illustration. Mais il est impossible de dire, et vraisemblablement, ça n'a pas de sens, que l'évolution, par nature, favorise la rationnalité. Il se trouve que c'est le cas depuis un certain temps. Pour la suite, qui vivra verra...
Exercice 1.10
Reflexes
Un reflexe est-il rationnel? Est-il intelligent?
D'après ma définition de l'intelligence, retirer sa main de la poêle parce qu'elle est brûlante n'est pas un comportement intelligent, dans la mesure où il est évident qu'on ne peut y échapper. Peut-être du point de vue d'un mollusque cela paraît-il très malin, futé et imprévisible que de coordonner sa main, son bras, ses jambes (équilibre) et de pousser un juron, mais de mon point de vue, c'est une réaction qui est le pendant directe de la moule qui s'ouvre ou se ferme selon qu'on l'a ou pas déjà plongée dans l'eau bouillante.
Exercice 1.11
Déterminisme des ordinateurs
- "les ordinateurs ne sont pas intelligents"
- "ils font ce qu'on leur dit"
La 2ème proposition est vraie, tant qu'on est capable de comprendre ce qu'on leur a demandé. Maintenant un système à apprentissage supervisé, un système qui lance des random() à tout va, fait-il réellement "ce qu'on lui a dit". Dans un certain sens oui, car il ne font qu'exécuter le programme qu'on leur a mis sous la dent. Mais à partir de ça peuvent émerger des comportements (n'importe qui ayant développé un code interragissant fortement en réseau devrait en convenir) totalement imprévisibles. On ne peut à ce stade pas parler de créativité, certes. Mais tout de même. Le fait qu'un ordinateur, dans un cas simple, ne fasse qu'exécuter une séquence de commandes ne prouve pas qu'à une échelle supérieure des comportements innovants puissent arriver. Regardez ce qui se passe lors d'un bouchon automobile. Le bouchon se crée, se déplace, vit, meurt. Aucun des conducteurs y participant n'a la conscience de ce qui se passe à l'échelle globale de la route. Pourtant le bouchon évolue, et de manière suffisamment imprévisible pour que Bison Fumé peine à deviner ce qui se passera. Et remplacer les conducteurs humains par des robots de changerait vraisemblablement rien au problème. Donc, oui, les ordinateurs ne font que ce qu'on leur demande. Mais ils peuvent néanmoins nous surprendre, ce n'est pas exclusif.
La 2ème proposition implique-t'elle la 1ère? Absolument pas. Nous-même nous obéissons aux lois de la physique, nous ne faisons que ce qu'elles nous commandent, et pourtant nous avons l'illusion du l'intelligence et du libre arbitre.
Exercice 1.12
Déterminisme des animaux
De même, les animaux obéissent aux lois de la physique, dont dérivent les lois de la génétique.
Cela ne les prive pas d'être intelligents.
Exercice 1.13
Déterminisme des hommes
L'homme n'étant qu'un animal un plus perfectionné que la moyenne au niveau du cerveau, il obéit lui-même aux lois physiques, et ce à toute les échelles (particule, atome, molécule, ADN, cellule, organe...).
Et pourtant, il est intelligent.
Ne pas compter sur moi pour aller chercher le "je ne sais quoi", le "petit quelque chose" qui fait la différence entre nous et le reste du monde animal. S'il y a une différence entre le singe et l'homme, c'est vraisemblablement des milliers et des milliers d'années d'évolution, de luttes sans pitié, de compétition. Voilà ce qui à fait l'Homme. Et certainement pas un quelconque Créateur juché dans les nuages ou je ne sais quel monde parallèle teinté de romantisme mystique.