De Wikipedia:

AIXI [« ai̯k͡siː] est un formalisme mathématique théorique pour lintelligence artificielle générale. Il combine linduction de Solomonoff avec la théorie de la décision séquentielle. AIXI a été proposé pour la première fois par Marcus Hutter en 2000 [1] et les résultats ci-dessous sont prouvés dans le livre de Hutter « Universal Artificial Intelligence » de 2005 [2]

Bien que non calculables, des approximations sont possibles, comme AIXItl . Trouver des approximations dAIXI pourrait être un moyen objectif de résoudre lIA.

Est-ce que AIXI est vraiment un gros problème dans la recherche sur lintelligence artificielle générale ? Peut-il être pensé comme un concept central pour le domaine? Si tel est le cas, pourquoi navons-nous pas plus de publications sur ce sujet (ou peut-être que nous en avons et je ne les connais pas)?

Réponse

 » La recherche actuelle sur lintelligence artificielle « est un domaine assez large. Doù je suis assis, dans un domaine principalement CS, les gens se concentrent sur une intelligence étroite qui peut effectuer un travail économiquement pertinent sur des tâches étroites. (Cest-à-dire prédire quand les composants échoueront, prédire sur quelles publicités un utilisateur cliquera, etc.)

Pour ce type doutils, la généralité dun formalisme comme AIXI est une faiblesse au lieu dun force. Vous navez pas besoin de prendre une IA qui pourrait en théorie calculer quoi que ce soit, puis de lentraîner lentement à se concentrer sur ce que vous voulez, alors que vous pourriez simplement façonner directement un outil qui est le miroir de votre tâche.

Je ne suis pas aussi familier avec la recherche AGI elle-même, mais jai limpression quAIXI est, dans une certaine mesure, lidée la plus simple qui pourrait fonctionner – elle prend toute la partie la plus difficile et la pousse dans le calcul, donc cest juste un défi dingénierie. « (Il sagit de » trouver des approximations dAIXI. « ) La question devient alors, commence à AIXI et essaie de se rapprocher dun chemin de recherche plus ou moins fructueux que de partir de quelque chose de petit et fonctionnel, et dessayer à construire?

Mon impression est que ce dernier est beaucoup plus courant, mais encore une fois, je ne vois quun petit coin de cet espace.

Commentaires

  • Vous ‘ ne répondez pas réellement aux questions du message actuel . Première question est AIXI est-il vraiment un gros problème dans la recherche en intelligence artificielle générale ? « . La question porte strictement sur limportance dAIXI dans la AGI recherche , elle ne demande pas si vous pensez que dautres outils spécifiques sont meilleurs pour les tâches correspondantes au lieu de restreindre les approximations de lAGI modèles aux mêmes tâches spécifiques. Dans larticle, une autre question est:  » pourquoi don ‘ t nous avons plus de publications sur ce sujet?  » Aucune réponse à cette question dans votre message.

Réponse

AIXI est-il vraiment un gros problème dans la recherche en intelligence artificielle générale?

Oui, cest une excellente théorie contribution à AGI. AFAIK, cest la tentative la plus sérieuse de construire un cadre théorique ou une base pour lAGI. Des travaux similaires sont Schmidhuber « s Gödel Machines et architecture SOAR .

AIXI est un cadre abstrait et non – anthropomorphique pour AGI qui sappuie sur le champ dapprentissage par renforcement, sans quelques hypothèses habituelles (par exemple, sans Markov et hypothèses ergodicité , qui garantissent que l’agent peut facilement se remettre des erreurs qu’il a commises dans le passé). Même si certaines propriétés d’optimalité d’AIXI ont été prouvées, il est (Turing) non calculable (il ne peut pas être exécuté sur un ordinateur), et donc dune utilité pratique très limitée. Néanmoins, dans le livre de Hutter Universal Artificial Intelligence: Sequential Decisions based on Algorithmic Probability (2005), où plusieurs propriétés dAIXI sont rigoureusement prouvées, une version calculable mais intraitable dAIXI, AIXItl, est également décrite . En outre, dans larticle A Monte Carlo AIXI Approximation (2009), de Joel Veness et al., A calculable et traitable dAIXI est introduite. Donc, il y a eu quelques tentatives pour rendre AIXI pratiquement utile.

Larticle Quest-ce quAIXI? – An Introduction to General Reinforcement Learning (2015), par Jan Leike, qui est lun des contributeurs au développement et à lévolution du framework AIXI, donne une introduction douce à lagent AIXI.Voir aussi Larchitecture AIXI dans lEncyclopédie de philosophie de Stanford pour une introduction éventuellement plus douce à AIXI.

Peut-il être considéré comme un concept central pour le champ?

Oui, lintroduction dAIXI et des recherches associées ont contribué à lévolution du domaine AGI. Il y a eu plusieurs discussions et articles publiés, après son introduction en 2000 par Hutter dans larticle A Theory of Universal Artificial Intelligence based on Algorithmic Complexity .

Voir par exemple section 7, «Exemples de superintelligences», de larticle Intelligence générale artificielle et modèle mental humain (2012), par Roman V. Yampolskiy et Joshua Fox. Voir aussi https://wiki.lesswrong.com/wiki/AIXI qui contient une discussion concernant quelques problèmes liés à AIXI, qui doivent être résolus ou éventuellement évités dans les futurs cadres AGI. En outre, consultez également cet et cet articles.

Si oui, pourquoi navons-nous pas plus de publications sur ce sujet (ou peut-être que nous en avons et que je » nen suis pas conscient)?

Il y a eu plusieurs publications, principalement par Marcus Hutter et des chercheurs associés. Vous pouvez voir les publications de Marcus Hutter sur la page Web suivante: http://www.hutter1.net/official/publ.htm .

Si vous souhaitez contribuer à cette théorie, il existe plusieurs moyens. Si vous êtes bien instruit en mathématiques, vous pouvez tenter de résoudre certains des problèmes décrits ici ( qui sont également mentionnés dans le livre 2005 de Hutter mentionné ci-dessus). De plus, vous pouvez également contribuer à de nouvelles approximations ou à des améliorations dapproximations existantes de lagent AIXI. Enfin, vous pouvez créer votre nouveau framework AGI en évitant les problèmes associés au framework AIXI. Voir aussi projets promus par Hutter . Il peut être judicieux de prendre également en compte par ex. Gödel Machines et travaux connexes, avant dessayer dintroduire un nouveau framework (à condition que vous en soyez capable).

Je pense que cette théorie na pas attiré plus de monde probablement parce quelle est très technique et mathématique (donc elle nest pas très facile à comprendre à moins davoir une solide expérience en apprentissage par renforcement, théorie des probabilités, etc.). Je pense également que la plupart des gens (dans la communauté de lIA) ne sont pas intéressés par les théories, mais ils sont principalement guidés par des résultats pratiques et utiles.

Réponse

AIXI est vraiment un cadre conceptuel. Tout le travail acharné de la compression réelle de lenvironnement reste encore.

Pour approfondir la question soulevée dans la réponse de Matthew Graves: étant donné notre niveau limité actuel de capacité à représenter des environnements complexes, il me semble que ce nest pas le cas  » Cela fait une grande différence pratique, que vous commenciez avec AIXI en définissant le «sommet» du système et en descendant (par exemple via des méthodes de compression supposées généralisées) ou que vous commenciez par le «bas» et que vous essayiez de résoudre des problèmes dans un seul domaine via le domaine- méthodes spécifiques qui (vous lespérez) peuvent être ultérieurement abstraites pour fournir une compression inter-domaines.

Commentaires

  • Le deuxième paragraphe est le résultat de votre seul opinion. Vous ne donnez aucune argumentation / explication pour laquelle vous pensez ainsi. Pour moi,  » étant donné notre niveau limité actuel de capacité à représenter des environnements complexes  » nest certainement pas une explication ou une argumentation suffisante.
  • @nbro Pour citer un célèbre chercheur en IA:  » Nous navons pas encore représenté ne serait-ce quun seul concept sur un ordinateur « , certainement pas avec le genre de malléabilité qui vient naturellement aux humains. Ainsi, en pratique, il est difficile de déterminer lutilité dAIXI car nous navons ‘ pas une forte notion des types de représentations quil a besoin de manipuler, ou comment il pourrait les manipuler utilement.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *