Aus Wikipedia:

AIXI [„ai̯k͡siː] ist ein theoretischer mathematischer Formalismus für künstliche allgemeine Intelligenz. Es kombiniert Solomonoff-Induktion mit sequentieller Entscheidungstheorie. AIXI wurde erstmals von Marcus Hutter im Jahr 2000 vorgeschlagen [1] und die folgenden Ergebnisse sind in Hutters 2005 erschienenem Buch Universal Artificial Intelligence [2]

Obwohl nicht berechenbar, sind Annäherungen wie AIXItl möglich. Das Finden von Annäherungen an AIXI könnte ein objektiver Weg zur Lösung von KI sein.

Ist AIXI wirklich eine große Sache in der künstlichen allgemeinen Intelligenzforschung? Kann es als zentrales Konzept für das Feld gedacht werden? Wenn ja, warum haben wir nicht mehr Veröffentlichungen zu diesem Thema (oder vielleicht haben wir und ich bin mir ihrer nicht bewusst)?

Antwort

“ Aktuelle Forschung im Bereich der künstlichen Intelligenz „ist ein ziemlich weites Feld. Von meinem Sitzplatz aus konzentrieren sich die Leute in einem hauptsächlich CS-Bereich auf enge Intelligenz, die wirtschaftlich relevante Arbeit an engen Aufgaben leisten kann. (Das heißt, vorauszusagen, wann Komponenten ausfallen, auf welche Anzeigen ein Nutzer klicken wird usw.)

Für diese Art von Tools ist die Allgemeinheit eines Formalismus wie AIXI eine Schwäche anstelle von a Stärke. Sie müssen keine KI nehmen, die theoretisch etwas berechnen kann, und sie dann langsam trainieren, um sich auf das zu konzentrieren, was Sie wollen, wenn Sie einfach direkt ein Werkzeug formen können, das der Spiegel Ihrer Aufgabe ist.

Ich bin mit der AGI-Forschung selbst nicht so vertraut, aber ich habe den Eindruck, dass AIXI bis zu einem gewissen Grad die einfachste Idee ist, die funktionieren könnte – es nimmt den ganzen schwierigen Teil und schiebt ihn in die Berechnung, also ist es einfach eine technische Herausforderung. „(Hier geht es darum,“ Annäherungen an AIXI zu finden „.) Dann stellt sich die Frage, ob man bei AIXI beginnt und versucht, einen mehr oder weniger fruchtbaren Forschungspfad zu approximieren, als bei etwas Kleinem und Funktionalem zu beginnen und es zu versuchen

Mein Eindruck ist, dass Letzteres viel häufiger vorkommt, aber ich sehe auch hier nur eine kleine Ecke dieses Bereichs.

Kommentare

  • Sie ‚ sprechen die Fragen im aktuellen Beitrag nicht wirklich an. Die erste Frage ist ist AIXI wirklich eine große Sache in der Forschung zur künstlichen allgemeinen Intelligenz ? „. Die Frage fragt streng nach der Bedeutung von AIXI in der AGI Forschung . Sie fragt nicht, ob Sie der Meinung sind, dass andere spezifische Tools für die entsprechenden Aufgaben besser sind, anstatt die Annäherungen an AGI einzugrenzen Modelle für die gleichen spezifischen Aufgaben. In dem Beitrag lautet eine weitere Frage: “ Warum ‚ haben wir keine weiteren Veröffentlichungen zu diesem Thema? “ Keine Antwort auf diese Frage in Ihrem Beitrag.

Antwort

Ist AIXI wirklich eine große Sache in der Forschung zur künstlichen allgemeinen Intelligenz?

Ja, es ist eine großartige theoretische Beitrag zur AGI. AFAIK, es ist der schwerwiegendste Versuch, einen theoretischen Rahmen oder eine Grundlage für AGI zu schaffen. Ähnliche Arbeiten sind Schmidhubers Gödel Machines und SOAR-Architektur .

AIXI ist ein abstraktes und nicht anthropomorphes Framework für AGI, das ohne einige übliche Annahmen (z. B. ohne Markov und Ergodizitätsannahmen , die garantieren, dass sich der Agent leicht von Fehlern erholen kann, die er in der Vergangenheit gemacht hat. Auch wenn einige Optimalitätseigenschaften von AIXI nachgewiesen wurden, ist dies der Fall (Turing) nicht berechenbar (es kann nicht auf einem Computer ausgeführt werden), und daher ist es von sehr begrenztem praktischem Nutzen. Dennoch ist im Hutter-Buch Universelle künstliche Intelligenz: Sequentielle Entscheidungen basierend auf algorithmischer Wahrscheinlichkeit (2005), bei denen mehrere Eigenschaften von AIXI streng bewiesen werden, wird auch eine berechenbare, aber nicht umsetzbare Version von AIXI, AIXItl, beschrieben . Darüber hinaus wurde in der Veröffentlichung A Monte Carlo AIXI Approximation (2009) von Joel Veness et al. Eine berechenbare und tractable Approximation von AIXI wird eingeführt. Es gab also einige Versuche, AIXI praktisch nützlich zu machen.

Der Artikel Was ist AIXI? – Eine Einführung in das allgemeine Reinforcement Learning (2015) von Jan Leike, einer der Mitwirkenden an der Entwicklung und Weiterentwicklung des AIXI-Frameworks, gibt eine sanfte Einführung in den AIXI-Agenten.Siehe auch Die AIXI-Architektur in der Stanford Encyclopedia of Philosophy für eine möglicherweise sanftere Einführung in AIXI.

Kann es als zentrales Konzept für das Feld angesehen werden?

Ja, die Einführung von AIXI und verwandter Forschung hat zur Entwicklung des AGI-Feldes beigetragen. Nach seiner Einführung im Jahr 2000 durch Hutter in der Veröffentlichung Eine Theorie der universellen künstlichen Intelligenz basierend auf algorithmischer Komplexität gab es mehrere Diskussionen und veröffentlichte Artikel.

Siehe z Abschnitt 7, „Beispiele für Superintelligenzen“, der Veröffentlichung Künstliche Allgemeine Intelligenz und das menschliche mentale Modell (2012) von Roman V. Yampolskiy und Joshua Fox. Siehe auch https://wiki.lesswrong.com/wiki/AIXI , das eine Diskussion über einige Probleme im Zusammenhang mit AIXI enthält, die gelöst oder möglicherweise vermieden werden müssen in zukünftigen AGI-Frameworks. Siehe auch this und this Artikel.

Wenn ja, warum haben wir nicht mehr Veröffentlichungen zu diesem Thema (oder vielleicht haben wir und ich bin mir dessen nicht bewusst)?

Es gab mehrere Veröffentlichungen, hauptsächlich von Marcus Hutter und assoziierten Forschern. Sie können die Veröffentlichungen von Marcus Hutter auf der folgenden Webseite sehen: http://www.hutter1.net/official/publ.htm .

Wenn Sie daran interessiert sind, zu dieser Theorie beizutragen, gibt es mehrere Möglichkeiten. Wenn Sie mathematisch gut ausgebildet sind, können Sie versuchen, einige der hier beschriebenen Probleme zu lösen. ( die auch in dem oben erwähnten Buch von Hutter aus dem Jahr 2005 erwähnt werden). Darüber hinaus können Sie auch zu neuen Annäherungen oder Verbesserungen bestehender Annäherungen des AIXI-Agenten beitragen. Schließlich können Sie Ihr neues AGI-Framework erstellen, indem Sie die mit dem AIXI-Framework verbundenen Probleme vermeiden. Siehe auch Projekte, die von Hutter gefördert werden. Es kann eine gute Idee sein, z. Gödel Machines und verwandte Arbeiten, bevor Sie versuchen, ein neues Framework einzuführen (vorausgesetzt, Sie sind dazu in der Lage).

Ich denke, dass diese Theorie wahrscheinlich nicht mehr Menschen angezogen hat, weil sie hochtechnisch und mathematisch ist (so ist es) ist nicht sehr einfach zu verstehen, es sei denn, Sie haben einen sehr soliden Hintergrund im Bereich des Verstärkungslernens, der Wahrscheinlichkeitstheorie usw.). Ich denke auch, dass die meisten Leute (in der KI-Community) nicht an Theorien interessiert sind, sondern sich hauptsächlich an praktischen und nützlichen Ergebnissen orientieren.

Antwort

AIXI ist wirklich ein konzeptioneller Rahmen. Die ganze harte Arbeit, die Umgebung tatsächlich zu komprimieren, bleibt bestehen.

Um die in Matthew Graves aufgeworfene Frage weiter zu diskutieren: Angesichts unserer derzeit begrenzten Fähigkeit, komplexe Umgebungen darzustellen, scheint es mir, dass dies nicht der Fall ist. “ Es macht keinen großen praktischen Unterschied, ob Sie mit AIXI beginnen, indem Sie die „Oberseite“ des Systems definieren und nach unten arbeiten (z. B. über vermeintlich verallgemeinerte Komprimierungsmethoden) oder mit der „Unterseite“ beginnen und versuchen, Probleme in einer einzelnen Domäne über die Domäne zu lösen. Spezifische Methoden, die (wie Sie hoffen) anschließend abstrahiert werden können, um eine domänenübergreifende Komprimierung zu ermöglichen.

Kommentare

  • Der zweite Absatz ist das Ergebnis Ihrer einzigen Sie geben keine Argumente / Erklärungen an, warum Sie so denken. Für mich ist “ angesichts unserer derzeit begrenzten Fähigkeit, komplexe Umgebungen darzustellen, “ ist definitiv keine ausreichende Erklärung oder Argumentation.
  • @nbro Um a zu zitieren berühmter KI-Forscher: “ Wir müssen noch sogar ein einziges Konzept auf einem Computer darstellen „, schon gar nicht mit der Art von Formbarkeit, die für Menschen natürlich ist. In der Praxis ist es daher schwierig, den Nutzen von AIXI zu bestimmen, da wir ‚ keine genaue Vorstellung davon haben, welche Arten von Darstellungen manipuliert werden müssen oder wie sie sinnvoll manipuliert werden könnten.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.