Was ist Solomonoff Induktion?

Solomonoff Induktion ist eine mathematisch rigorose, idealisierte Form der Induktion d.h. voraussagt, was zukünftig gegründet auf vorherigen Erfahrungen geschieht. Es ist ein Teil der algorithmischen Informationstheorie. Dieser Induktionsentwurf ist theoretisch optimal, d.h. genügende Daten gegeben, ist es immer in der Lage, Wahrscheinlichkeiten zukünftigen Ereignissen mit der maximalen möglichen erlaubten Genauigkeit zuzuweisen. Das einzige Problem mit Solomonoff Induktion ist, dass es unberechenbar ist, d.h. es einen Computer mit endloser Verarbeitungsleistung zu laufen erfordern würde. Jedoch alle erfolgreichen induktiven Entwürfe und Maschinen -- einschließlich Tiere und Menschen -- sind Näherungswerte der Solomonoff Induktion.

Jedes mündliche Argument, das Rat für bessere Induktion enthält, soweit dass es wirklich funktioniert, arbeitet, indem es den Zuhörer in die Abänderung seiner oder induktiver Strategie überredet, sodass es besser Solomonoff Induktion approximiert. Die Idee, dass Induktion mathematisch auf diese Art formalisiert werden kann, ist ziemlich profund und viele Erzeugungen der Logistiker und der Philosophen sagte, dass sie nicht erfolgt werden könnte. Solomonoff Induktion wuchs aus Arbeit heraus durch Ray Solomonoff, Andrey Kolmolgorov und Gregory Chaitin in den sechziger Jahren. Ihr zugrunde liegender Beweggrund war, Wahrscheinlichkeitstheorie zu formalisieren und Induktion using Axiome, ebenso diese Algebra und Geometrie sind formalisiert worden. Solomonoff Induktion basiert auf einer induktiven Richtlinie, die Bayes Theorem genannt wird, das eine exakte mathematische Weise beschreibt, den Glauben zu aktualisieren, der auf ankommenden Daten basiert.

Eine Schwäche Bayes im Theorem ist, dass sie von einer vorherigen Wahrscheinlichkeit für ein bestimmtes Ereignis abhängt. Z.B. kann die Wahrscheinlichkeit einer asterischen auswirkenden Masse in den folgenden 10 Jahren auf der Grundlage von historische Daten über asterische Auswirkungen gegeben werden. Jedoch wenn die Mustergröße der vorherigen Ereignisse niedrig ist, wie die Zahl Zeiten, die ein Neutrino in einer Neutrinofalle, es ermittelt worden ist, sehr schwierig, die Wahrscheinlichkeit des Ereignisses vorauszusagen wird das Vorkommnis wieder nur basiert auf vorhergehender Erfahrung.

Dieses ist, wohin Solomonoff Induktion hereinkommt. Using ein objektives Maß Kompliziertheit benannte Kolmogorov Kompliziertheit, kann Solomonoff Induktion eine gebildete Vermutung über die Wahrscheinlichkeit etwas zukünftigen Ereignisauftretens bilden. Kolmogorov Kompliziertheit basiert auf einer benannten Grundregel Länge Minimumdescription (MDL), die die Kompliziertheit einer Schnur der Spitzen festsetzt, die auf dem kürzesten Algorithmus basieren, der diese Schnur ausgeben kann. Obgleich Kolmogorov Kompliziertheit zuerst auf nur bitstrings zutraf, sie kann übersetzt werden, um die Kompliziertheit von Ereignissen und von Gegenständen zu beschreiben.

Solomonoff Induktion integriert Kolmogorov Kompliziertheit in die bayesische Argumentation und gibt uns, rechtfertigte priors für Ereignisse, die nie sogar geschehen sein können. Der vorherigen Wahrscheinlichkeit eines willkürlichen Ereignisses wird gegründet nach seiner Gesamtkompliziertheit und Besonderheit beurteilt. Z.B. ist die Wahrscheinlichkeit von zwei gelegentlichen Regentropfen in einem Sturm, der das gleiche Quadratmeter schlägt, aber viel höher als die Wahrscheinlichkeit von 10 oder hundert gelegentliche Regentropfen, die dieses Quadratmeter schlagen ziemlich niedrig.

Einige Wissenschaftler haben Solomonoff Induktion im Rahmen der Neuroanatomie studiert und gezeigt, wie optimale Induktion eine organisierende Grundregel in der Geschichte der Tiere ist, die genaue Induktion für Überleben benötigen. Wenn zutreffende künstliche Intelligenz verursacht wird, sind die Grundregeln der Solomonoff Induktion eine wahrscheinliche Inspiration, die seinem Aufbau zugrunde liegt.