Als eines der wenigen klaren Gedankenexperimente, die jemals von Ökonometrikern durchgeführt wurden, zeigt das „Roter Bus-Blauer Bus“-Problem einen zentralen Nachteil, der mit der statistischen Schätzung einhergeht, um die Wahrscheinlichkeit zu quantifizieren, dass eine Person eine bestimmte Wahl trifft, wenn sie mehreren Alternativen gegenübersteht. Stellen Sie sich während des Gedankenexperiments vor, dass es Ihnen gleichgültig ist, entweder ein Auto oder einen roten Bus zur Arbeit zu nehmen. Aufgrund Ihrer Gleichgültigkeit ist eine Schätzung Ihrer Wahrscheinlichkeit, eine der Optionen zu wählen, ein Münzwurf. Es besteht eine 50-prozentige Chance, dass Sie mit dem Auto und 50 Prozent mit dem roten Bus fahren. Somit stehen Ihre Auswahlchancen eins zu eins.
Führen Sie nun eine dritte Transportoption in zwei verschiedenen Szenarien ein und nehmen Sie an, dass der Reisende zwischen alternativen Optionen gleichgültig bleibt. Im ersten Szenario wird eine neue Bahnstrecke eröffnet, so dass die Alternativen für den apathischen Reisenden Auto, roter Bus und Bahn sind. Die geschätzten Wahrscheinlichkeiten sind jetzt ein Drittel Auto, ein Drittel roter Bus und ein Drittel Zug. Die Quoten sind die gleichen wie beim Zwei-Wahl-Szenario, eins-zu-eins-zu-eins.
Im zweiten Szenario wird anstelle eines roten Busses angenommen, dass der Bus blau sein könnte. Der Reisende hat also die Wahl, ein Auto zu nehmen, einen roten Bus zu nehmen oder einen blauen Bus zu nehmen. Gibt es einen wirklichen Unterschied zwischen einem roten Bus und einem blauen Bus? Nein, es ist effektiv die gleiche Wahl. Die Wahrscheinlichkeiten sollten sich dann auf 50 Prozent Auto, 25 Prozent Roter Bus, 25 Prozent Blauer Bus und Quoten von zwei zu eins zu eins aufteilen.
Dies liegt daran, dass die tatsächliche Wahl genau die gleiche ist wie beim ersten Zwei-Auswahl-Szenario, dh Auto oder Bus nehmen. Mit anderen Worten, ein roter Bus und ein blauer Bus stehen für dieselbe Wahl. Die Farbe des Busses ist für die Verkehrsmittelwahl des Reisenden unerheblich. Die Wahrscheinlichkeit, dass ein apathischer Reisender entweder einen roten oder blauen Bus wählt, ist also nur die Hälfte der Wahrscheinlichkeit, dass die Person den Bus nimmt. Die Methode, mit der diese Wahrscheinlichkeiten geschätzt werden, ist jedoch nicht in der Lage, diese irrelevanten Alternativen zu entschlüsseln. Der Algorithmus kodiert Auto, roter Bus, blauer Bus als eins-zu-eins-zu-eins wie im Szenario mit der Bahn.
Implizites Wissen
Algorithmische Mängel
Die (Nicht-)Auswahl roter Bus/blauer Bus ist ein gutes Beispiel dafür, wie algorithmische Berechnungen scheitern können. In ihrer Rohform können Modelle keine Feinheiten der sprachlichen Beschreibung unterscheiden, die Menschen kaum oder gar nicht begreifen können. Für einen Menschen ist es intuitiv, warum der rote Bus und der blaue Bus bei der Betrachtung von Transportalternativen identisch sind. Es ist sicherlich intuitiv, dass es einen Unterschied in der Auswahl gibt, wenn ein Zug eingeführt wird gegenüber einem blauen Bus. Andererseits ist es äußerst schwierig zu beschreiben, warum die Busfarbe als programmierbare Regel in einem algorithmischen Prozess irrelevant ist. Warum ist dies der Fall?
Dieses Rätsel ist ein Beispiel für Polanyis Paradoxon, benannt nach dem Physiker Michael Polanyi. Das Paradoxon, einfach ausgedrückt, lautet: „Wir wissen mehr, als wir sagen können“. Genauer gesagt lautet das Paradoxon: „Wir wissen mehr, als wir sagen können, dh viele der von uns ausgeführten Aufgaben beruhen auf stillschweigendem, intuitivem Wissen, das schwer zu kodifizieren und zu automatisieren ist.“ Polanyis Paradoxon tritt immer dann ins Spiel, wenn eine Person etwas tun kann, aber nicht beschreiben kann, wie sie es tut.
In diesem Fall impliziert „etwas tun“ ein quantifizierbares oder allgemein verstandenes Ergebnis, das ein Mensch durch die Ausführung einer Aufgabe erreicht, die nicht durch eine wiederholbare Regel kodifiziert werden kann. Polanyi nennt diese Art menschlicher Leistung „stillschweigendes Wissen“. Er unterscheidet diesen Typ von abstraktem Wissen, das beschreibbar, regelgebunden und wiederholbar ist.
Der Ökonom David Autor erklärt mit Polanyis Paradox, warum Maschinen nicht alle menschlichen Karrieren übernommen haben. Er schlägt vor, dass, wenn die Automatisierung nicht auf den abstrakten Bereich des Wissens beschränkt wäre, Maschinen alle menschlichen Aufgaben an sich gerissen hätten und die menschliche Beschäftigung seit den 1980er Jahren eingebrochen wäre. Die Automatisierung hat jedoch nicht zu diesem Ergebnis geführt, da genaue Regeln festgelegt werden müssen, um Computern mitzuteilen, welche Aufgaben ausgeführt werden sollen. Implizites Wissen lässt sich jedoch nur schwer oder gar nicht formal ausdrücken, da der Mensch die Fähigkeiten, aus denen es besteht, evolutionär entwickelt hat, bevor formale Kommunikationsmethoden aufkamen.
Evolutionäre Fähigkeiten
Stillschweigende, unbeschreibliche Fähigkeiten sind der Kern eines anderen Paradoxons, das von den Forschern Hans Moravec, Rodney Brooks und Marvin Minsky formalisiert wurde. „Moravecs Paradoxon“ besagt in kompakter Form, dass
-
Wir sollten davon ausgehen, dass die Schwierigkeit des Reverse-Engineering jeder menschlichen Fähigkeit ungefähr proportional zu der Zeit ist, in der sich diese Fähigkeit bei Tieren entwickelt hat.
-
Die ältesten menschlichen Fähigkeiten sind weitgehend unbewusst und erscheinen uns daher mühelos.
-
Infolgedessen sollten wir erwarten, dass Fähigkeiten, die scheinbar mühelos zu entwickeln sind, schwierig zu rekonstruieren sind, aber Fähigkeiten, die Anstrengung erfordern, müssen nicht unbedingt schwer zu entwickeln sein.
Paradoxerweise erfordern mentales Denken und abstraktes Wissen nur sehr wenig Rechenleistung, aber sensomotorische Fähigkeiten, die Visualisierung zukünftiger Ergebnisse und Wahrnehmungsschlussfolgerungen erfordern riesige Mengen an Rechenressourcen. Wie Moravec in seinem Buch zu diesem Thema feststellte: „Es ist vergleichsweise einfach, Computern bei Intelligenztests oder Damespielen eine Leistung auf Erwachsenenniveau zu verleihen, und es ist schwierig oder unmöglich, ihnen die Fähigkeiten eines Einjährigen in Bezug auf Wahrnehmung und Mobilität.”
Die Paradoxien von Polanyi und Moravec in ein gemeinsames Thema zu integrieren, hat der Mensch erst in den letzten paar tausend Jahren abstraktes Denken entwickelt, und es erscheint unserer Spezies schwierig, weil seine relativ schnelle Entwicklung es neu und von Natur aus schwer zu begreifen macht. Alternativ haben Menschen im Laufe unserer Evolutionsgeschichte stillschweigende, intuitive, aber unbeschreibliche Fähigkeiten entwickelt. Sie basieren auf unserer Umgebung, sind durch Erfahrung erworben und gehen der Explikation voraus.
Die Zukunft der KI ist komplementär
Für künstliche Intelligenz bilden diese Paradoxien also eine kontraintuitive Schlussfolgerung, die zu einer grundlegenden Frage der Ressourcenallokation führt. Wenn die einfachsten Fähigkeiten für den Menschen diejenigen sind, die für Maschinen am schwierigsten sind, und wenn diese stillschweigenden Fähigkeiten schwer oder unmöglich zu kodifizieren sind, dann erfordern die einfachsten Aufgaben, die Menschen unbewusst ausführen, enorme Mengen an Zeit, Mühe und Ressourcen, um sie zu lehren zu Maschinen.
Es entsteht eine umgekehrte Beziehung zwischen der Leichtigkeit, mit der eine Fertigkeit von einem Menschen ausgeführt werden kann, und sowohl ihrer Beschreibbarkeit als auch ihrer Replizierbarkeit durch Maschinen. Die wichtigste wirtschaftliche Frage lautet also: Lohnt es sich, KI zu entwickeln, um intuitive menschliche Aufgaben zu erfüllen? Warum immer mehr Ressourcen investieren, um eine KI zu entwickeln, die immer einfachere Aufgaben erfüllt?
Dies deutet auf eine natürliche Verlangsamung der allgemeinen KI-Entwicklung hin. Auch wenn das Mooresche Gesetz auf die Billion-fache Zunahme der Rechenleistung von Computern hinweist, hat sich die Logik, nach der wir mit Computern kommunizieren, seit den 1970er Jahren nicht wesentlich geändert. Wenn es in Bezug auf die Opportunitätskosten der KI-Forschung, die es Maschinen ermöglicht, immer einfachere menschliche Aufgaben zu erfüllen, zu teuer wird, wird sich die Entwicklung verlangsamen, da die Erträge sinken.
Im Idealfall liegt die Zukunft der KI, wie Autor vorschlägt, in ihrer Komplementarität mit menschlichen Fähigkeiten und nicht in ihrer Ersetzbarkeit. Bis zur Computerrevolution der 1970er und 1980er Jahre beschäftigten Statistiker beispielsweise regelrechte Armeen von Doktoranden, um riesige Papierdaten von Hand zu zusammenfassenden Statistiken wie Mittelwerten, Medianen und Standardabweichungen zu verarbeiten. Mit dem Aufkommen von elektronischen Taschenrechnern und später von Computern konnten Statistiken, die früher Stunden oder Tage menschlicher Anstrengung erforderten, in Sekundenschnelle berechnet werden.
Mit dieser Änderung der Rechenmittel waren Maschinen in der Lage, Teams von Statistikforschern zu ergänzen, indem sie die niedrigen, wiederholbaren arithmetischen Verpflichtungen der Schüler absorbieren. Dies gab Statistikern und ihren Studenten als Team enorm viel Zeit, um eher nebulöse, offene statistische Probleme zu lösen. Genau die Typen, die kreatives Denken erfordern, sind Computer nicht gut. Die aktuelle Sichtweise von KI und ihrer Interaktion mit menschlichen Fähigkeiten erfordert ein ernsthaftes Umdenken in Bezug auf die Art der Probleme, für die sie entwickelt wird. Brauchen wir denn wirklich KI, um uns sagen zu können, dass rote Busse gleich blauen Bussen sind?