Überlegungen nach dem Alpha Test

Wolfram Alpha habe ich ja nun wirklich ausgiebig getestet und werde dies auch weiterhin tun. Es ist in meinen Augen vor allem die wahrscheinlich noch nicht umfangreich genug angelegte Datenbasis, die eine derzeitige Bewertung so schwierig macht.

Inzwischen kam mir aber ein anderer Gedanke, nämlich der, ob es wirklich (nur?) die Datenbasis ist? Faktenwissen zusammenzutragen ist das eine. Die Verknüpfung ist das andere. Ich denke mal weiter. Kann man Wissen berechnen?

Erstmal muss ich sagen, habe ich mich nicht eingehender mit der Technik hinter der Alpha beschäftigt. Ich weiß nicht mal, wie viel davon nach außen gesickert ist. Und ich habe mich schon lange nicht mehr ernsthaft mit Semantik und mit Künstlicher Intelligenz beschäftigt.

Um noch einmal auf mein Sinus Beispiel zurück zu kommen. Ich gehe davon aus, dass Wolfram Alpha alles nur erdenkliche zu trigonometrischen Funktionen weiß, damit auch zu Sinus und Cosinus. Es ärgere mich, habe ich geschrieben, vielmehr wundere ich mich aber, dass meine Eingabe “Sinus Cosinus” in keiner nur erdenklichen Anfragevariante die beiden Begrifflichkeiten zusammenbringt, sondern in meine Wissensanfrage eine Funktion sin(cos(x)) interpretiert. Da kann ich noch so viele zusätzliche Begrifflichkeiten reinbringen - das Ergebnis ist dann lediglich die Antwort, man könne die Suchanfrage nicht interpretieren.

An der Stelle wäre es (bei der Alpha) interessant, an der “Mathematica Form” - dem, was Wolfram Alpha interpretiert-  umformulieren zu können, um die Anfrage in Mathematica-verständlicher Form (nennen wir es mal Suchanfragesprache) in die gewünschte Richtung zu lenken. Gut. Das erfordert die Kenntnis der Sprachsyntax, ist aber eine Chance, sowohl für den Benutzer als auch die Qualität der Alpha. Ich meine damit nicht, den Benutzer dazu zu zwingen, eine komplexe Syntax zu verwenden. Die Chance aber, die Suchanfragen selbst zur Verbesserung zu nutzen- wär das nicht was? Der nächste Schritt wäre eine Verfeinerung der Suchanfrage durch den Nutzer…

Der Gedanke dahinter ist mehr als simpel: Die Sammlung von Wissen und Information, maschinell oder intellektuell, ist ein aufwändiger, dennoch aber einfacher Prozess. Auch die Auszeichnung der Daten mit Metadaten ist verhältnismäßig einfach. Die Verknüpfung, ich hatte das schon geschrieben, ist der komplexe Prozess. Es ist nicht nur eine Frage der Semantik, Fakten korrekt zu verknüpfen. Es steht davor der Schritt, Fragestellungen generell zu verstehen.

Während Wikipedia auf ein Prinzip setzt, bei dem Menschen durch aktive Mitarbeit und Erweiterung eines “Wissenskatalogs” Fakten zusammentragen und verlinken (und das ist einem sehr konventionellen Sinn), setzt Wolfram ja - und das ist das eigentlich bemerkenswerte daran und macht den großen Unterschied zu allem dagewesenen aus- auf Semantik und auf Relation und auf Berechnung von Zusammenhängen. Zwei Faktoren, die sehr “menschlich” sind und das Feld der künstlichen Intelligenz so schwer machen. Faktoren, die auch hier zeigen, wie sehr die Erfolgsgeschichte der AI (oder KI) noch am Anfang steht. KI- ist Wolfram KI? Kann man bei einer Berechnung von Wissen von künstlicher Intelligenz sprechen?

Vielleicht kennt ja jemand noch . Ein hübsches Experiment, in gewisser Weise sicher auch bahnbrechend. Leider aber mit deutlichen Grenzen. Eliza konnte ziemlich schnell in den Wahnsinn getrieben werden und reagierte daraufhin ausschließlich mit “Mist”. Auch Suchanfragen, insbesondere aber Wissensanfragen, sind natürliche Sprache.  Wolfram Alpha legt sogar Wert genau darauf. Google kann damit überhaupt nicht umgehen. (Jeder, der ein Weblog führt und dort ein Analysetool installiert hat, kennt die Absurdität manch einer Suchanfrage, die dann kurioserweise auch noch auf die eigene Seite führt - auch hier würde Alpha sich wahrscheinlich auch in Jahren noch die Zähne ausbeißen -aber das ist eine andere Sache.)

Wissen generieren ohne den Bedarf zu kennen?

Warum lässt man eine Wissensmaschine dann nicht lernen? Warum sollte ich lernen, wie ich eine Wissensmaschine zu bedienen habe? Wäre es nicht eher Aufgabe der Wissensmaschine, zu lernen, wie Menschen denken und formulieren? Wissen kann man nicht ausschließlich berrechnen.
Im ersten Schritt stünde damit die Anpassung der Syntax durch den Benutzer, im zweiten die Verarbeitung und Nutzung dieser manuellen Änderung durch die Maschine. Insgesamt Auswertung aller Eingaben.  Sprich: der Nutzer wird mit seiner Suchanfrage Teil des Wissensbestands. Sammlung von Wissen nicht durch Datenmassen wie beim Prinzip Wikipedia. Sammlung von Wissen nicht nur durch die permanente Erweiterung eines Datenbestands sondern zusätzlich durch den Aufbau einer Basis an Verknüpfungen (in einem nicht-konventionellen Sinn), die dazu dienen könnten, im Hintergrund weitere Verknüpfungen zu erzeugen. Die Anzeige der Interpretation einer einzelnen Suchanfrage schreit geradezu nach dieser Idee. Insbesondere dann, wenn kein oder ein unerwartetes Ergebnis kommt, möchte man ja schreien, hey, du hast mich falsch verstanden. Insbesondere aber ist für mich die Information der “Mathematica Form” nicht relevant, so lange ich daran nichts ändern sondern nur erkennen kann, dass hier scheinbar etwas schief gelaufen sein könnte. Vielleicht wären auch Alternativvorschläge denkbar?

Das ist dann auch der Unterschied zu Google und Alphas aller Art. Google geht auf die Masse - und da sind wir ja noch jenseits jeglicher Deep Web Search Engines. Finde ich hier nichts, dann kann ich vermuten, eine der wenigen mit einem ziemlich “blöden” Problem zu sein. Wissen - das suggeriert mir dann doch, hier müsse ich irgendwas zurück bekommen. Werde ich dann auch noch falsch verstanden, handelt es sich um ein Kommunikationsproblem.

Im übertragenen Sinn die Vorstellung einer riesigen Bibliothek mit einem Pool an verschiedenen “Wegen”, Informationen zu einem Thema zusammenzusuchen. Wikipedia erhöht den Buchbestand und pappt PostIt Notes auf einzelne Inhaltsverzeichnisse und verweist dabei auf andere Regale und weitere Bücher im Bestand. Eine Wissensmaschine wie Alpha erhöht zwar auch den Buchbestand, protokolliert aber die Wege der Besucher und die Kombinationen an Ausleihen.

Nun gut, vielleicht ist genau das das Plan, vielleicht wäre das auch was für die Alpha Final? Nach längerem Überlegen glaube ich nicht nur, dass wir daraus lernen können, was Menschen an Informationen brauchen, um Wissen zu generieren, ich glaube, wir können auch daraus lernen wie sie lernen. Berechnen kann ich nicht, wie andere Leute denken…

Ein paar Viz-Gedanken

Okay. Geht alles nicht? Ich habe keine Ahnung, was inzwischen schon alles geht und was nicht. Wie gesagt. Aber würde das nicht zeigen, dass wir einfach noch nicht so weit sind? Macht ja nichts. Eigentlich - und vielleicht ist das das Spannende hinter Wolfram Alpha, zeigt sie uns ganz klar die Grenzen und wirft eine Menge Fragen auf, die zumindest mir Lust drauf machen, drüber nachzudenken. Klasse, irgendwie. Daher hatte ich jetzt auch einfach einen Moment Lust, einfach mal weiterzudenken.

Die Zukunft im Web ist und muss semantisch sein. Was wir an Masseninfo bereits jetzt zur Verfügung haben, zeigt ja unter anderem schon Google. Nur wie viele “gefühlten Lichtjahre” wir davon noch entfernt sind?

 

Auch was dazu sagen?