Google aurait créé la première de l’intelligence artificielle généralisée, « concurrente » de l’esprit humain

⇧ [VIDÉO] Vous pourriez aussi aimer ce contenu partenaire (après la pub)

DeepMind, société (appartenant à Google) spécialisée dans l’intelligence artificielle, présente actuellement une nouvelle intelligence artificielle nommée « Gato ». Contrairement aux IA « classiques », spécialisé dans une marque précise, Gato est capable d’effectuer plus de 600 marques, souvent bien mieux que les humains. La polémique est lancée quand les gens en prennent connaissance après la première de “l’intelligence artificielle généralisée” (IAG). Les experts restent sceptiques quant à l’annonce de DeepMind.

L’intelligence artificielle a changé, positivement, de trois noms de discipline. D’incroyables réseaux neuronaux spécialisés permettent aujourd’hui de produire des résultats bien au-delà des capacités humaines dans de nombreux domaines.

L’un des grands défis dans le domaine de l’IA est la réalisation d’un système qui intègre une intelligence artificielle généralisée (IAG), ou intelligence artificielle forte. Un tel système doit pouvoir comprendre et maîtriser toute tâche dont un être humain serait capable. Elle serait donc en mesure de rivaliser avec l’intelligence humaine, et même de développer un certain degré de conscience. En début d’année, Google avait devoilé un type d’IA capable de coder comme un programmeur moyen. Nouvellement, dans cette course à l’IA, DeepMind a annoncé la création de Gato, une intelligence artificielle présentée en première mondiale IAG. Les résultats sont publiés dans dans arXiv.

Un modèle d’agent généraliste inédit

Un système d’IA unique capable de résoudre de nombreuses tâches n’est pas quelque chose de nouveau. Par exemple, Google a récemment commencé à utiliser un système de recherche du « modèle unifié multitâche ».

D’ailleurs, le vice-président senior Prabhakar Raghavan à quatre un exemple impressionnant de MUM en action, en utilisant la requête de recherche simulée : « J’ai fait une randonnée sur le Mont Adams et je veux maintenant faire une randonnée sur le Mont Fuji l’automne prochain, que dois-je faire différemment pour me préparer ? ». MUM avec la permission de Google Search pour voir les différences et les similitudes entre le mont Adams et le mont Fuji. Il a également fait apparaître des articles traitant de l’équipement nécessaire à l’ascension de ce dernier. Rien de bien impressionnant vous diriez-vous, plus spécifiquement avec Gato, ce qui est innovant est la diversité des tâches que sont proposées et la méthode de formation, d’un seul et unique système.

Le principe de conception directeur de Gato est de se renseigner sur la plus grande variété de données pertinentes possible, et d’acheter diverses applications leur racontant images, texte, proprioception, couples articulaires, pressions sur boutons et autres observations et actions discrètes et continues.

Pour permettre le traitement des données multimodales, les scientifiques les codent dans une séquence de « jetons ». Ces jetons servent à représenter les données d’une manière que Gato peut comprendre, permettant au système, par exemple, d’appréhender quelle combinaison de mots dans une phrase à un sens grammatical. Ces séquences sont regroupées et utilisées par un transformateur réseau neuronal, généralement utilisé dans le traitement des langues. Le même réseau, avec les mêmes poids, est utilisé pour les tâches différentes, contrairement aux réseaux neuronaux classiques. En effet, dans ces derniers, à chaque neurone est attribué un poids particulier et donc une importance différente. En termes simples, cela peut vous permettre de déterminer les informations entre dans le réseau et de calculer une donnée de sortie.

Dans cette représentation, Gato peut être formé et échantillonné à partir d’un modèle de langage standard à grande échelle, sur un gran nombre d’ensembles de données comprenant l’expérience des agents dans des environnements simulés et réels, en plus d’une variété d’ ensembles de données en langage naturel et d’images. Lors de son fonctionnement, Gato utilise le contexte pour l’assembleur de ces jetons échantillonnés afin de déterminer la forme et le contenu de leurs réponses.

Exemple d’exécution de Cat. Le système « consomme » une séquence de jets d’observations et d’actions précédemment échantillonnées pour produire l’action suivante. La nouvelle action est appliquée, par l’agent (Chat), à l’environnement (une console de jeu dans cette illustration), un nouvel ensemble d’observations est obtenu et le processus est répété. © S. Reed et al., 2022.

Les résultats sont hétérogènes. En matière de dialogue, Gato est loin de rivaliser avec les prouesses de GPT-3, le modèle de génération de texte d’Open AI. Il peut donner des réponses erronées lors de conversations. Par exemple, disons que Marseille est la capitale de la France. Les auteurs soulignent que cela pourrait probablement être amélioré avec une mise à l’échelle supplémentaire.

Néanmoins, il s’est tout de même des domaines extrêmement montrés capables dans d’autres. Ses concepteurs affirment que, la moitié du temps, font mieux que des experts humains dans 450 des 604 tâches rejetées dans l’article de recherche.

Exemples de tâches effectuées par Gato, sous forme de séquences de jetons. © S. Reed et al., 2022.

« Le jeu est terminé », vraiment ?

Certains chercheurs en IA considèrent l’IAG comme une catastrophe existentielle pour l’homme : un système “super intelligent” qui surpasse l’intelligence humaine pour remplacer l’humanité sur Terre, selon les scénarios. D’autres experts estiment qu’il ne sera pas possible au cours de notre vie, de voir l’émergence de ces IAG. C’est l’opinion pessimiste que Tristan Greene a fait valoir dans son éditorial sur le site LeProchainWeb. Il a expliqué qu’il est facile de confondre Gato avec un véritable IAG. La différence, cependant, est qu’une intelligence générale pourrait apprendre à faire de nouvelles choses sans formation préalable.

La réponse à cet article n’est pas celle d’y assister. Sud TwitterNando de Freitas, chercheur chez DeepMind et professeur d’apprentissage automatique à l’université d’Oxford, a déclaré que la partie était terminée (« Le jeu est terminé ») dans la longue quête de l’intelligence artificielle généralisée. L’avenant : « Il s’agit de rendre ces modèles plus grans, plus sûrs, plus efficaces en matière de calcul, plus rapides à l’échantillonnage, avec une mémoire plus intelligente, plus de modalités, des données innovantes, en ligne/hors-ligne… C’est en résolvant ces défis qu’il obtiendra l’IAG ».

Néanmoins, les auteurs mettent en garde face au développement de ces IAG : « Bien que les agents généralistes ne croient pas qu’un domaine de recherche émerge, leur impact potentiel sur la société appelle une analyse interdisciplinaire approfondie de leurs risques et bénéfices. […] Les outils d’atténuation des méfaits des agents généralistes sont relativement sous-développés et élargis des recherches supplémentaires avant que ces agents ne soient déployés ».

De plus, les agents généralistes, capables d’effectuer des actions dans le monde physique, ont augmenté de nouveaux défis nécessitant de nouvelles stratégies d’atténuation. Par exemple, l’incarnation physique pourrait conduire à l’utilisation de l’anthropomorphiser l’agent, conduisant à une confiance mal placée dans le cas d’un système défaillant.

Outre ces risques de voir basculer l’IAG dans un fonctionnement efficace pour l’humanité, bien qu’ils ne montrent pas actuellement la capacité de produire des résultats solides de manière cohérente. Ceci est notamment dû au fait que les problèmes humains sont souvent difficiles, n’ayant pas toujours une solution unique, et pour lesquels aucun entraînement préalable n’est possible.

Tristant Greene, gâté la réponse de Nando de Fraitas, a soutenu tout aussi lors de leur avis, sur LeProchainWeb : « Ce n’est rien de moins que miraculeux de voir une machine réalise des exploits de détournement et de prestidigitation à la Copperfield, surtout quand je comprends que ladite machine n’est pas plus intelligente qu’un grille-pain (et manifestement plus stupide que la souris la plus stupide) ».

Que l’on soit d’accord or not avec ces propos, ou que l’on soit plus optimiste face au développement des IAG, il semble néanmoins que la mise à grande échelle de telles intelligences, concurrençant nos esprits humains, soit encore loin d ‘être achevée, et les controverses apaisées.

Source : arXiv

Leave a Comment