Ce que l'intelligence artificielle peut réellement faire aujourd'hui
Ce que l'intelligence artificielle peut réellement faire aujourd'hui
Anonim

Alerte spoiler: C'est encore long avant le soulèvement des machines.

Ce que l'intelligence artificielle peut réellement faire aujourd'hui
Ce que l'intelligence artificielle peut réellement faire aujourd'hui

Quand Elon Musk présente le robot humanoïde Tesla Bot, il semble qu'une nouvelle révolution scientifique soit à nos portes. Un peu plus - et l'intelligence artificielle (IA) surpassera l'humain, et les machines nous remplaceront au travail. Cependant, les professeurs Gary Marcus et Ernest Davis, tous deux experts renommés en IA, sont priés de ne pas se précipiter vers de telles conclusions.

Dans Artificial Intelligence Reboot, les chercheurs expliquent pourquoi la technologie moderne est loin d'être idéale. Avec l'autorisation de la maison d'édition "Alpina PRO", Lifehacker publie un extrait du premier chapitre.

À ce stade, il y a un énorme fossé - un véritable gouffre - entre notre ambition et la réalité de l'intelligence artificielle. Ce gouffre est survenu en raison de la non-résolution de trois problèmes spécifiques, dont chacun doit être traité honnêtement.

Le premier d'entre eux est ce que nous appelons la crédulité, qui repose sur le fait que nous, les humains, n'avons pas vraiment appris à faire la distinction entre les humains et les machines, ce qui nous permet de nous tromper facilement. Nous attribuons l'intelligence aux ordinateurs parce que nous avons nous-mêmes évolué et vécu parmi des personnes qui fondent largement leurs actions sur des abstractions telles que des idées, des croyances et des désirs. Le comportement des machines est souvent superficiellement similaire au comportement des humains, donc on assigne rapidement aux machines le même type de mécanismes de base, même si les machines n'en ont pas.

Nous ne pouvons pas nous empêcher de penser aux machines en termes cognitifs (« Mon ordinateur pense que j'ai supprimé mon fichier »), peu importe la simplicité des règles que les machines suivent réellement. Mais les conclusions qui se justifient lorsqu'elles sont appliquées aux humains peuvent être complètement fausses lorsqu'elles sont appliquées aux programmes d'intelligence artificielle. Par respect pour un principe de base de la psychologie sociale, nous appelons cela l'erreur de validité fondamentale.

L'un des premiers cas de cette erreur s'est produit au milieu des années 1960, lorsqu'un chatbot nommé Eliza a convaincu certaines personnes qu'il comprenait vraiment ce qu'elles lui disaient. En fait, Eliza a simplement choisi des mots-clés, répété la dernière chose que la personne lui avait dite et, dans une situation sans issue, elle a eu recours à des astuces de conversation standard telles que "Parlez-moi de votre enfance". Si vous parliez de votre mère, elle vous poserait des questions sur votre famille, même si elle n'avait aucune idée de ce qu'est réellement la famille ou pourquoi elle est importante pour les gens. Ce n'était qu'une série d'astuces, pas une démonstration de véritable intelligence.

Malgré le fait qu'Eliza ne comprenait pas du tout les gens, de nombreux utilisateurs ont été trompés par les dialogues avec elle. Certains ont passé des heures à taper des phrases au clavier, à parler de cette manière avec Eliza, mais à mal interpréter les astuces du chatbot, à confondre le discours du perroquet avec des conseils utiles, sincères ou de la sympathie.

Joseph Weisenbaum Créateur d'Eliza.

Les gens qui savaient très bien qu'ils parlaient à une machine ont vite oublié ce fait, tout comme les amateurs de théâtre ont un temps mis de côté leur incrédulité et ont oublié que l'action dont ils sont témoins n'a pas le droit d'être qualifiée de réelle.

Les interlocuteurs d'Eliza demandaient souvent la permission d'avoir une conversation privée avec le système et après la conversation insistaient, malgré toutes mes explications, que la machine les comprenait vraiment.

Dans d'autres cas, l'erreur d'appréciation de l'authenticité peut être fatale au sens littéral du terme. En 2016, un propriétaire d'une voiture Tesla automatisée s'est tellement fié à l'apparente sécurité du mode pilote automatique que (selon les histoires) il s'est complètement immergé dans le visionnage des films Harry Potter, laissant la voiture faire tout toute seule.

Tout s'est bien passé - jusqu'à ce qu'à un moment donné, cela se soit détérioré. Après avoir parcouru des centaines voire des milliers de kilomètres sans accident, la voiture est entrée en collision (dans tous les sens du terme) avec un obstacle inattendu: un camion blanc a traversé l'autoroute et Tesla s'est précipité juste sous la remorque, tuant le propriétaire de la voiture sur le coup.. (La voiture a semblé avertir le conducteur à plusieurs reprises de prendre le contrôle, mais le conducteur a semblé trop détendu pour réagir rapidement.)

La morale de cette histoire est claire: le fait qu'un appareil puisse paraître "intelligent" pendant un instant ou deux (et même six mois) ne veut pas du tout dire qu'il le soit vraiment ou qu'il puisse faire face à toutes les circonstances dans lesquelles une personne réagirait de manière adéquate.

Le deuxième problème que nous appelons l'illusion d'un progrès rapide: confondre les progrès de l'intelligence artificielle, associés à la résolution de problèmes faciles, pour des progrès, associés à la résolution de problèmes vraiment difficiles. C'est par exemple arrivé avec le système IBM Watson: sa progression dans le jeu Jeopardy ! semblait très prometteur, mais en fait, le système s'est avéré beaucoup plus éloigné de la compréhension du langage humain que les développeurs ne l'avaient prévu.

Il est possible que le programme AlphaGo de DeepMind suive le même chemin. Le jeu de go, comme les échecs, est un jeu d'information idéalisé où les deux joueurs peuvent voir l'ensemble de l'échiquier à tout moment et calculer les conséquences des coups par force brute.

Dans la plupart des cas, dans la vraie vie, personne ne sait rien avec une certitude absolue; nos données sont souvent incomplètes ou déformées.

Même dans les cas les plus simples, il y a beaucoup d'incertitude. Quand on décide d'aller chez le médecin à pied ou de prendre le métro (puisque la journée est nuageuse), on ne sait pas exactement combien de temps il faudra attendre la rame de métro, si la rame s'enlise sur la route, si nous nous entasserons dans la voiture comme du hareng dans un tonneau ou nous nous mouillerons sous la pluie dehors, n'osant pas prendre le métro, et comment le médecin réagira à notre retard.

Nous travaillons toujours avec les informations dont nous disposons. Jouant au Go avec lui-même des millions de fois, le système DeepMind AlphaGo n'a jamais géré l'incertitude, il ne sait tout simplement pas ce qu'est un manque d'informations ou son incomplétude et son incohérence, sans parler des complexités de l'interaction humaine.

Il y a un autre paramètre qui rend les jeux d'esprit comme très différents du monde réel, et cela a encore à voir avec les données. Même les jeux complexes (si les règles sont suffisamment strictes) peuvent être modélisés presque parfaitement, de sorte que les systèmes d'intelligence artificielle qui les jouent peuvent facilement collecter les énormes quantités de données dont ils ont besoin pour s'entraîner. Ainsi, dans le cas du Go, une machine peut simuler un jeu avec des personnes en jouant simplement contre elle-même; même si le système a besoin de téraoctets de données, il les créera lui-même.

Les programmeurs peuvent ainsi obtenir des données de simulation complètement propres avec peu ou pas de frais. Au contraire, dans le monde réel, les données parfaitement propres n'existent pas, il est impossible de les simuler (puisque les règles du jeu changent constamment), et d'autant plus difficile de collecter de nombreux gigaoctets de données pertinentes par essai et erreur.

En réalité, nous n'avons que quelques tentatives pour tester différentes stratégies.

Nous ne sommes pas en mesure, par exemple, de répéter une visite chez le médecin 10 millions de fois, en ajustant progressivement les paramètres de décisions avant chaque visite, afin d'améliorer considérablement notre comportement en termes de choix de transport.

Si les programmeurs veulent former un robot pour aider les personnes âgées (disons, pour aider à coucher les malades), chaque bit de données vaudra de l'argent réel et du temps humain réel; il n'y a aucun moyen de collecter toutes les données requises à l'aide de jeux de simulation. Même les mannequins de crash test ne peuvent pas remplacer de vraies personnes.

Il est nécessaire de collecter des données sur de vraies personnes âgées présentant différentes caractéristiques de mouvements séniles, sur différents types de lits, différents types de pyjamas, différents types de maisons, et ici vous ne pouvez pas vous tromper, car laisser tomber une personne même à une distance de plusieurs centimètres du lit serait un désastre. Dans ce cas, l'enjeu est un certain progrès (jusqu'ici le plus élémentaire) dans ce domaine qui a été réalisé en utilisant les méthodes de l'intelligence artificielle étroite. Des systèmes informatiques ont été développés qui jouent presque au niveau des meilleurs joueurs humains dans les jeux vidéo Dota 2 et Starcraft 2, où à un moment donné, seule une partie du monde du jeu est montrée aux participants et, ainsi, chaque joueur fait face à la problème de manque d'information - qu'avec la main légère de Clausewitz on appelle "le brouillard de l'inconnu". Cependant, les systèmes développés restent encore très étroitement ciblés et instables en fonctionnement. Par exemple, le programme AlphaStar qui joue dans Starcraft 2 n'a appris qu'une race spécifique d'une grande variété de personnages, et presque aucun de ces développements n'est jouable comme n'importe quelle autre race. Et, bien sûr, il n'y a aucune raison de croire que les méthodes utilisées dans ces programmes sont adaptées pour faire des généralisations réussies dans des situations réelles beaucoup plus complexes. de vraies vies. Comme IBM l'a découvert non pas une fois, mais déjà deux fois (d'abord aux échecs, puis dans Jeopardy !), le succès dans les problèmes d'un monde fermé ne garantit pas du tout le succès dans un monde ouvert.

Le troisième cercle du gouffre décrit est une surestimation de la fiabilité. Encore et encore, nous voyons que dès que les gens avec l'aide de l'intelligence artificielle trouvent une solution à un problème qui peut fonctionner sans échec pendant un certain temps, ils supposent automatiquement qu'avec la révision (et avec une quantité de données légèrement plus importante) tout fonctionnera de manière fiable. Mais ce n'est pas nécessairement le cas.

Nous reprenons des voitures sans chauffeurs. Il est relativement facile de créer une démo d'un véhicule autonome qui roulera correctement le long d'une voie clairement balisée sur une route calme; cependant, les gens ont pu le faire pendant plus d'un siècle. Cependant, il est beaucoup plus difficile de faire fonctionner ces systèmes dans des circonstances difficiles ou inattendues.

Comme Missy Cummings, directrice du Humans and Autonomy Laboratory de l'Université Duke (et ancienne pilote de chasse de l'US Navy), nous l'a dit dans un e-mail, la question n'est pas de savoir combien de kilomètres une voiture sans conducteur peut parcourir sans accident, mais dans la mesure où auxquels ces voitures sont capables de s'adapter à des situations changeantes. Selon Missy Cummings, e-mail aux auteurs le 22 septembre 2018., les véhicules semi-autonomes modernes "ne fonctionnent généralement que dans une gamme très étroite de conditions, qui ne disent rien sur la façon dont ils peuvent fonctionner dans des conditions moins qu'idéales".

Avoir l'air complètement fiable sur des millions de kilomètres d'essai à Phoenix ne signifie pas être performant pendant la mousson à Bombay.

Cette différence fondamentale entre le comportement des véhicules autonomes dans des conditions idéales (comme les journées ensoleillées sur les routes de banlieue à plusieurs voies) et ce qu'ils pourraient faire dans des conditions extrêmes peut facilement devenir une question de succès et d'échec pour toute une industrie.

Avec si peu d'accent sur la conduite autonome dans des conditions extrêmes et que la méthodologie actuelle n'a pas évolué dans le sens de garantir que le pilote automatique fonctionnera correctement dans des conditions qui commencent tout juste à être considérées comme réelles, il pourrait bien devenir bientôt clair que des milliards de dollars ont été consacrés à des méthodes de construction de voitures autonomes qui ne parviennent tout simplement pas à offrir une fiabilité de conduite semblable à celle d'un humain. Il est possible que pour atteindre le niveau de confiance technique dont nous avons besoin, des approches fondamentalement différentes de celles actuelles soient nécessaires.

Et les voitures ne sont qu'un exemple parmi tant d'autres similaires. Dans la recherche moderne sur l'intelligence artificielle, sa fiabilité a été globalement sous-estimée. Cela s'explique en partie par le fait que la plupart des développements actuels dans ce domaine impliquent des problèmes très tolérants aux erreurs, tels que la recommandation de publicité ou la promotion de nouveaux produits.

En effet, si nous vous recommandons cinq types de produits, et que vous n'en aimez que trois, aucun mal ne se produira. Mais dans un certain nombre d'applications d'IA critiques pour l'avenir, y compris les voitures sans conducteur, les soins aux personnes âgées et la planification des soins de santé, la fiabilité humaine sera essentielle.

Personne n'achètera un robot domestique capable de transporter en toute sécurité votre grand-père âgé au lit seulement quatre fois sur cinq.

Même dans les tâches où l'intelligence artificielle moderne devrait théoriquement apparaître sous le meilleur jour possible, de graves échecs se produisent régulièrement, parfois très amusants. Un exemple typique: les ordinateurs, en principe, ont déjà assez bien appris à reconnaître ce qui est (ou se passe) dans telle ou telle image.

Parfois, ces algorithmes fonctionnent très bien, mais ils produisent souvent des erreurs complètement incroyables. Si vous montrez une image à un système automatisé qui génère des légendes pour les photographies de scènes de tous les jours, vous obtenez souvent une réponse remarquablement similaire à ce qu'un humain écrirait; par exemple, pour la scène ci-dessous, où un groupe de personnes joue au frisbee, le système de génération de sous-titres très médiatisé de Google lui donne exactement le bon nom.

Figure 1.1. Groupe de jeunes jouant au frisbee (légende photo plausible, générée automatiquement par l'IA)
Figure 1.1. Groupe de jeunes jouant au frisbee (légende photo plausible, générée automatiquement par l'IA)

Mais cinq minutes plus tard, vous pouvez facilement obtenir une réponse absolument absurde du même système, comme cela s'est produit, par exemple, avec ce panneau de signalisation, sur lequel quelqu'un a collé des autocollants: l'ordinateur appelé Les créateurs du système n'ont pas expliqué pourquoi cette erreur s'est produite, mais de tels cas ne sont pas rares. Nous pouvons supposer que le système dans ce cas particulier a classé (peut-être en termes de couleur et de texture) la photographie comme similaire aux autres images (dont il a appris) étiquetées comme "un réfrigérateur rempli de beaucoup de nourriture et de boissons". Naturellement, l'ordinateur n'a pas compris (ce qu'une personne pourrait facilement comprendre) qu'une telle inscription ne conviendrait que dans le cas d'une grande boîte métallique rectangulaire contenant divers (et même pas tous) objets à l'intérieur. cette scène est "un réfrigérateur avec beaucoup de nourriture et de boissons".

Riz. 1.2. Réfrigérateur rempli de nourriture et de boissons (titre totalement invraisemblable, créé par le même système que ci-dessus)
Riz. 1.2. Réfrigérateur rempli de nourriture et de boissons (titre totalement invraisemblable, créé par le même système que ci-dessus)

De même, les voitures sans conducteur identifient souvent correctement ce qu'elles « voient », mais elles semblent parfois ignorer l'évidence, comme dans le cas de Tesla, qui a régulièrement percuté des camions de pompiers stationnés ou des ambulances sur pilote automatique. Les angles morts comme ceux-ci peuvent être encore plus dangereux s'ils sont situés dans des systèmes qui contrôlent les réseaux électriques ou sont chargés de surveiller la santé publique.

Pour combler le fossé entre l'ambition et les réalités de l'intelligence artificielle, nous avons besoin de trois choses: une conscience claire des valeurs en jeu dans ce jeu, une compréhension claire des raisons pour lesquelles les systèmes d'IA modernes ne remplissent pas leurs fonctions de manière suffisamment fiable, et, enfin, une nouvelle stratégie de développement pensée machine.

Étant donné que les enjeux de l'intelligence artificielle sont très élevés en termes d'emplois, de sécurité et de tissu social, il est urgent pour nous tous - professionnels de l'IA, professions apparentées, citoyens ordinaires et politiciens - de comprendre la véritable situation. dans ce domaine afin d'apprendre à évaluer de manière critique le niveau et la nature du développement de l'intelligence artificielle d'aujourd'hui.

Tout comme il est important pour les citoyens intéressés par l'actualité et les statistiques de comprendre à quel point il est facile de tromper les gens avec des mots et des chiffres, voici un aspect de plus en plus important de la compréhension afin que nous puissions comprendre où se trouve l'intelligence artificielle. où est-ce réel ? ce qu'il est capable de faire maintenant, et ce qu'il ne sait pas comment et, peut-être, n'apprendra pas.

Le plus important est de réaliser que l'intelligence artificielle n'est pas magique, mais juste un ensemble de techniques et d'algorithmes, dont chacun a ses propres forces et faiblesses, convient à certaines tâches et ne convient pas à d'autres. L'une des principales raisons pour lesquelles nous avons décidé d'écrire ce livre est qu'une grande partie de ce que nous lisons sur l'intelligence artificielle nous semble être un fantasme absolu, né d'une confiance infondée dans le pouvoir presque magique de l'intelligence artificielle.

Pendant ce temps, cette fiction n'a rien à voir avec les capacités technologiques modernes. Malheureusement, la discussion sur l'IA parmi le grand public a été et est fortement influencée par la spéculation et l'exagération: la plupart des gens n'ont aucune idée à quel point il est difficile de créer une intelligence artificielle universelle.

Clarifions la discussion. Bien que clarifier les réalités associées à l'IA nécessitera de sérieuses critiques de notre part, nous-mêmes ne sommes en aucun cas des opposants à l'intelligence artificielle, nous aimons beaucoup ce côté du progrès technologique. Nous avons vécu une partie importante de notre vie de professionnels dans ce domaine et nous souhaitons qu'il se développe le plus rapidement possible.

Le philosophe américain Hubert Dreyfus a écrit un jour un livre sur les sommets que, selon lui, l'intelligence artificielle ne pourra jamais atteindre. Ce n'est pas le sujet de ce livre. Il se concentre en partie sur ce que l'IA ne peut pas faire actuellement et pourquoi il est important de la comprendre, mais une partie importante parle de ce qui pourrait être fait pour améliorer la pensée informatique et l'étendre à des domaines où elle a maintenant du mal à faire les premières étapes.

Nous ne voulons pas que l'intelligence artificielle disparaisse; nous voulons qu'elle s'améliore d'ailleurs radicalement, afin que nous puissions réellement compter sur elle et résoudre avec elle les nombreux problèmes de l'humanité. Nous avons beaucoup de critiques sur l'état actuel de l'intelligence artificielle, mais notre critique est une manifestation d'amour pour la science que nous faisons, pas un appel à tout abandonner et tout abandonner.

Bref, nous pensons que l'intelligence artificielle peut en effet transformer sérieusement notre monde; mais nous pensons également que de nombreuses hypothèses de base sur l'IA doivent changer avant que nous puissions parler de progrès réels. Notre proposition de "reset" de l'intelligence artificielle n'est pas du tout une raison pour mettre un terme à la recherche (bien que certains puissent comprendre notre livre exactement dans cet esprit), mais plutôt un diagnostic: où sommes-nous bloqués maintenant et comment s'en sortir la situation d'aujourd'hui.

Nous pensons que la meilleure façon d'avancer peut être de regarder à l'intérieur, face à la structure de notre propre esprit.

Les machines vraiment intelligentes n'ont pas besoin d'être des répliques exactes des humains, mais quiconque regarde honnêtement l'intelligence artificielle verra qu'il y a encore beaucoup à apprendre des humains, en particulier des jeunes enfants, qui sont à bien des égards bien supérieurs aux machines dans leur capacité à absorber et à comprendre de nouveaux concepts.

Les scientifiques médicaux caractérisent souvent les ordinateurs comme des systèmes « surhumains » (d'une manière ou d'une autre), mais le cerveau humain est encore largement supérieur à ses homologues en silicium dans au moins cinq aspects: nous pouvons comprendre le langage, nous pouvons comprendre le monde, nous pouvons faire preuve de souplesse. s'adapter à de nouvelles circonstances, nous pouvons rapidement apprendre de nouvelles choses (même sans grandes quantités de données) et raisonner face à des informations incomplètes et même contradictoires. Sur tous ces fronts, les systèmes d'intelligence artificielle modernes sont désespérément derrière les humains.

Redémarrage de l'intelligence artificielle
Redémarrage de l'intelligence artificielle

Intelligence artificielle: Reboot intéressera les personnes qui souhaitent comprendre les technologies modernes et comprendre comment et quand une nouvelle génération d'IA peut améliorer notre vie.

Conseillé: