Laboratoire SUPINFO d'étude en robotique

L’intelligence Artificielle : première partie

L’intelligence Artificielle : première partie

13 mar, 2014

Dans le domaine de la robotique, nous sommes souvent amené à parler d’intelligence artificielle et à travailler sur celles ci.

Cependant, savons nous réellement ce que l’intelligence artificielle implique?

 

Ce que nous appelons intelligence artificielle est en réalité un composé de deux types d’intelligence artificielle : L’intelligence artificielle forte et l’intelligence artificielle faible.

Dans un dossier en deux parties, nous parlerons d’abord de l‘intelligence artificielle faible puis de l’intelligence artificielle forte.

 

L’intelligence artificielle faible est une notion proche de l’ingénierie, qui a pour objectif d’automatiser des taches de la manière la plus autonome possible. C’est en réalité un algorithme complexe, qui possède un arbre de possibilités traité à l’aide d’une série de conditions

Prenons l’exemple de SIRI, l’application iOS qui réponds quand on lui parle. Voila un programme qui semble intelligent, mais en réalité, l’application iOS ne fait qu’enregistrer la voix et l’envoie a un serveur d’Apple qui s’occupera du traitement.

Le serveur d’Apple traite alors la phrase reçue à l’aide d’un algorithme d’analyse de paroles qui, par exemple, lui permettra de récupérer le sujet, le verbe et l’attribut via une comparaison avec une base de données et un algorithme d’analyse de la langue.

Prenons un exemple :

« Je cherche un Subway » deviens « Je », « cherche », « Subway ». On vois ici le verbe « chercher » avec le sujet « Je », ce qui implique que la réponse nécessite une recherche. L’application ira alors interroger la base de donnée de, supposons, Google map avec le sujet « Subway » avec la position de la machine ayant fait la requête.

Tout ceci était un exemple, et peut différer légèrement de la réalité, cependant, le principe est la. De la même manière que la réponse à la question « Quel est le sens de la vie? » est « 42 » parmi d’autres, les réponses sont scriptées!

On pourra aussi parler d’ELIZA ou de CLEVERBOT, notamment connu pour  le film « Do You Love Me » de Chris R. Wilson

)

Prenons alors ces programmes, et cachons les dans un échantillon d’hommes. Appelons cet échantillon e1. Prenons ensuite un autre échantillon d’hommes uniquement, et appelons cet échantillon e2.

Faisons à présent parler les membres de e2 aux membres de e1, et donnons leur la mission d‘identifier les programmes cachés dans l’échantillon… Que se passera-t-il ?

Ce test est appelé test de Turing.

Ce test, rédigé par Alain Turing(plus connu pour ses travaux sur Enigma et les premiers ordinateurs) en 1950 a pour objectif de « jauger » l’intelligence d’une machine. Cependant, Turing n’a jamais eu l’intention que son test soit utilisé comme une véritable méthode pour mesurer l’intelligence des programmes d’IA. Il voulait donner un exemple clair et compréhensible pour contribuer à la discussion sur la philosophie de l’intelligence artificielle.

Suivez une conversation avec une machine, puis avec un autre homme. Si vous êtes incapables de déterminer lequel des deux était la machine, et lequel était l’homme, le test de Turing conclue que la machine est « intelligente ».

Vous connaissez sûrement ce test sous une autre forme … Oui, le « Completely Automated Public Turing Test to Tell Computers and Humans Apart », aussi appelé CAPTCHA!

Le test de Turing est cependant loin d’être sans failles. La première, notamment soulevée par John Searle (professeur en philosophie du language et en philosophie de l’esprit) est que la réponse de l’ordinateur, aussi poussée soit-elle, ne nécessite pas la compréhension de la question.

Mr. Searle a alors proposé l’argument de la « Chambre Chinoise » pour expliquer son argument, et procède tel quel :

Mettez un homme dans une salle fermée, et donnez lui une documentation sur le traitement de symboles.

Envoyez lui ensuite une série de symboles. A l’aide de la documentation, l’homme pourra à son tour renvoyer une suite de symboles.

La documentation fournie sur les caractères était en réalité une documentation sur le chinois, et l’homme aurait ainsi répondu à une phrase. Cependant, la présence d’une réponse ne signifie pas qu’une « discussion » a été tenue. En effet, l’homme a bien répondu, mais ne sais toujours pas que c’est du chinois, et ne sais encore moins la signification de sa « réponse ».

De la même manière, Joseph Weizenbaum, l’auteur d’ELIZA, insiste dans son livre sur le fait que même si ELIZA réponds « Je comprends… » à titre de protocole de politesse programmé, il s’agit évidemment d’une déclaration abusive : ELIZA ne comprend en réalité rien, il se contente de former des phrases à partir de modèles pré établis, enrichis par les mots clés trouvés dans les réponses de l’interlocuteur. La phrase « Je comprends… » est d’ailleurs une des réponses à utiliser quand le programme n’a rien trouvé dans la phrase précédente lui permettant de construire une réponse plus adaptée.

On pourra aussi prendre l’exemple de Deep Blue, l’ordinateur qui a battu le champion du monde d’échec en 1997.

Deep Blue a utilisé une puissance de calcul phénoménale pour calculer de manière récursive les coups possibles, mais ces calculs suivent des règles préprogrammées et l’ordinateur ne « savait » pas qu’il jouait aux échecs.

La deuxième faille de ce test est que ce test pars de l’hypothèse que l’examinateur connait la différence entre le comportement humain et le comportement d’une machine, compétence que la plupart des gens n’ont pas. En effet, un examinateur du test de Turing devrait avoir des connaissances en bas niveau, c’est à dire savoir comment fonctionne un ordinateur.

La troisième faille se situe au niveau de l’utilité de ce test :

L’objectif de ce test n’a que peu de corrélation avec les axes de la recherche et des applications de l’IA. Comme indiqué plus haut, les objectifs actuels de l’intelligence artificielle sont de pouvoir exécuter de la manière la plus efficace possible des actions dans un milieu complexe, et non de pouvoir tromper un humain avec ses capacités de discussion.

Pour cette raison, peu d’intéret est porté à ce test dans les milieux de la recherche, et on entendra plus parler de ce test pour impressionner un public plus large, et généralement peu en contact avec le monde informatique.

 

 

Pour étayer cet argument, on pourra notamment prendre l’exemple de Peter Norvig, directeur de recherche de Google:

Le développement de l’aviation n’a pas pour objectif de faire un avion ressemblant tellement à un pigeon que même les pigeons s’y tromperaient. Le test d’un avion se quantifie en fonction de son vol.

 

Conclusion :

L’intelligence artificielle faible n’a pas pour objectif d’être « intelligente ». En effet, elle existe afin d’allouer la grande puissance de calcul des ordinateurs à une tache complexe, en divisant cette tanche en une série de sous-taches élémentaires et calculables en logique élémentaire.

Mais… Est-ce la la seule facette de l’intelligence artificielle? Un ordinateur peut-il être intelligent?

Nous aurons l’occasion de développer ce sujet dans un deuxième post, qui traitera de l’intelligence artificielle forte!

FacebookTwitterGoogle+

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Vous pouvez utiliser ces balises et attributs HTML : <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>