De Wikipedia:
AIXI [«ai̯k͡siː] es un formalismo matemático teórico para inteligencia artificial general. Combina la inducción de Solomonoff con la teoría de decisiones secuenciales. AIXI fue propuesto por primera vez por Marcus Hutter en 2000 [1] y los resultados a continuación se prueban en el libro de 2005 de Hutter Universal Artificial Intelligence. [2]
Aunque no son computables, las aproximaciones son posibles, como AIXItl . Encontrar aproximaciones a AIXI podría ser una forma objetiva de resolver la IA.
¿Es AIXI realmente un gran problema en la investigación de inteligencia general artificial? ¿Puede pensarse como un concepto central para el campo? Si es así, ¿por qué no tenemos más publicaciones sobre este tema (o tal vez las tenemos y yo no las conozco)?
Responder
» La investigación actual sobre inteligencia artificial «es un campo bastante amplio. Desde donde me siento, en un ámbito principalmente de informática, la gente se centra en una inteligencia limitada que puede realizar un trabajo económicamente relevante en tareas limitadas. (Es decir, predecir cuándo fallarán los componentes, predecir en qué anuncios hará clic un usuario, etc.).
Para ese tipo de herramientas, la generalidad de un formalismo como AIXI es una debilidad en lugar de una fuerza. No es necesario tomar una IA que, en teoría, podría calcular cualquier cosa y luego entrenarla lentamente para que se concentre en lo que desea, cuando podría simplemente dar forma a una herramienta que es el espejo de su tarea.
No estoy tan familiarizado con la investigación de AGI en sí, pero mi impresión es que AIXI es, hasta cierto punto, la idea más simple que podría funcionar; toma toda la parte difícil y la lleva a la computación, por lo que es simplemente un desafío de ingeniería «. (Esta es la parte sobre» encontrar aproximaciones a AIXI «). La pregunta entonces es, es comenzar en AIXI y tratar de aproximarnos por un camino de investigación más o menos fructífero que comenzar en algo pequeño y funcional, e intentar para construir?
Mi impresión es que lo último es mucho más común, pero nuevamente, solo veo una pequeña esquina de este espacio.
Comentarios
- Usted ‘ no está abordando las preguntas de la publicación actual . La primera pregunta es ¿Es AIXI realmente un gran problema en la investigación de inteligencia artificial general ? «. La pregunta pregunta estrictamente sobre la importancia de AIXI en la investigación de AGI investigación , no pregunta si cree que otras herramientas específicas son mejores para las tareas correspondientes en lugar de limitar las aproximaciones de AGI. modelos para las mismas tareas específicas. En la publicación, otra pregunta es: » ¿por qué no ‘ t tenemos más publicaciones sobre este tema? » No hay respuesta a esta pregunta en su publicación.
Respuesta
¿Es AIXI realmente un gran problema en la investigación de inteligencia artificial general?
Sí, es un gran teórico contribución a AGI. AFAIK, es el intento más serio de construir un marco teórico o fundamento para AGI. Obras similares son la Gödel Machines y la arquitectura SOAR de Schmidhuber.
AIXI es un marco abstracto y no antropomórfico para AGI que se basa en el campo del aprendizaje por refuerzo, sin algunas suposiciones habituales (por ejemplo, sin Markov y suposiciones de ergodicidad , lo que garantiza que el agente pueda recuperarse fácilmente de los errores que cometió en el pasado). Aunque se han demostrado algunas propiedades de optimización de AIXI, es (Turing) incomputable (no se puede ejecutar en una computadora), por lo que tiene una utilidad práctica muy limitada. No obstante, en el libro de Hutter Inteligencia artificial universal: decisiones secuenciales basadas en la probabilidad algorítmica (2005), donde se prueban rigurosamente varias propiedades de AIXI, también se describe una versión computable pero intratable de AIXI, AIXItl . Además, en el artículo A Monte Carlo AIXI Approximation (2009), de Joel Veness et al., Un manejable de AIXI. Por tanto, ha habido algunos intentos de hacer que AIXI sea prácticamente útil.
El artículo ¿Qué es AIXI? – Una introducción al aprendizaje por refuerzo general (2015), de Jan Leike, que es uno de los contribuyentes al desarrollo y la evolución del marco AIXI, ofrece una suave introducción al agente AIXI.Consulte también La arquitectura AIXI en la Enciclopedia de Filosofía de Stanford para una introducción posiblemente más suave a AIXI.
¿Se puede considerar como un concepto central para el campo?
Sí, la introducción de AIXI y la investigación relacionada ha contribuido a la evolución del campo AGI. Ha habido varias discusiones y artículos publicados, después de su introducción en 2000 por Hutter en el artículo Una teoría de la inteligencia artificial universal basada en la complejidad algorítmica .
Consulte, por ejemplo, sección 7, «Ejemplos de superinteligencias», del artículo Inteligencia general artificial y el modelo mental humano (2012), de Roman V. Yampolskiy y Joshua Fox. Consulte también https://wiki.lesswrong.com/wiki/AIXI , que contiene una discusión sobre algunos problemas relacionados con AIXI, que deben resolverse o posiblemente evitarse en futuros marcos AGI. Además, consulte también los artículos this y this .
Si es así, ¿por qué no tenemos más publicaciones sobre este tema (o tal vez las tenemos y no las conozco)?
Ha habido varias publicaciones, principalmente de Marcus Hutter e investigadores asociados. Puede ver las publicaciones de Marcus Hutter en la siguiente página web: http://www.hutter1.net/official/publ.htm .
Si está interesado en contribuir a esta teoría, hay varias formas. Si tiene una buena educación matemática, puede intentar resolver algunos de los problemas descritos aquí ( que también se mencionan en el libro de 2005 de Hutter mencionado anteriormente). Además, también puede contribuir a nuevas aproximaciones o mejoras de las aproximaciones existentes del agente AIXI. Finalmente, puede construir su nuevo marco AGI evitando los problemas asociados con el marco AIXI. Consulta también proyectos promovidos por Hutter . También puede ser una buena idea tener en cuenta, por ejemplo, Gödel Machines y trabajos relacionados, antes de intentar introducir un nuevo marco (siempre que seas capaz de hacerlo).
Creo que esta teoría no ha atraído a más gente probablemente porque es altamente técnica y matemática (por lo que no es muy fácil de entender a menos que tenga una sólida formación en aprendizaje reforzado, teoría de la probabilidad, etc.). También creo que la mayoría de las personas (en la comunidad de IA) no están interesadas en las teorías, pero se guían principalmente por resultados prácticos y útiles.
Respuesta
AIXI es realmente un marco conceptual. Aún queda todo el arduo trabajo de comprimir el entorno.
Para discutir más a fondo la pregunta planteada en la respuesta de Matthew Graves: dado nuestro nivel limitado actual de capacidad para representar entornos complejos, me parece que no es así » No hace una gran diferencia práctica si comienza con AIXI definiendo la «parte superior» del sistema y trabajando hacia abajo (por ejemplo, a través de métodos de compresión supuestamente generalizados) o comienza desde el «fondo» y trata de resolver problemas en un solo dominio a través de dominio- métodos específicos que (esperas) se puedan resumir posteriormente para proporcionar compresión entre dominios.
Comentarios
- El segundo párrafo es el resultado de tu único opinión. No das argumentos ni explicaciones por qué piensas así. Para mí, » dado nuestro nivel limitado actual de capacidad para representar entornos complejos » definitivamente no es una explicación o argumentación suficiente.
- @nbro Para citar un famoso investigador de IA: » Todavía tenemos que representar ni siquiera un concepto único en una computadora «, ciertamente no con el tipo de maleabilidad que es natural para los humanos. Así, en la práctica, es difícil determinar la utilidad de AIXI porque no ‘ no tenemos una noción sólida de los tipos de representaciones que necesita manipular, o cómo podría manipularlas de manera útil.