Mittwoch, 1. November 2023

Katharina Zweig über KI

 Katharina A. ZweigDroht KI den Menschen zu ersetzen?

"[...] Das größte Problem an den regelbasierten Systemen aber war ihre mangelnde Wartbarkeit: Wenn ein Fehler in der Übersetzung auftrat, war den Entwicklerteams einfach nicht mehr klar, an welcher Schraube sie drehen mussten, um ihn zu beheben. 

Zur Auflösung der Fußnote[1] Um zu verstehen, ob sich die Situation heute grundlegend geändert hat, ist es hilfreich, sich die Technologie hinter den neuen KI-Systemen näher anzusehen.[...]

Die neuen KI-Systeme, die wir seit den 2000er Jahren im Aufwind sehen, funktionieren grundlegend anders als die regelbasierten Systeme der 1980er Jahre: Sie nutzen Daten der Vergangenheit, um darin mit statistischen Methoden nach Mustern zu suchen, die man dann für die Zukunft verwenden kann. Diese Methoden nennt man maschinelles Lernen. Hier werden die Regeln, nach denen die Welt funktioniert, also nicht von uns Menschen vorgegeben, sondern die Maschine extrahiert sie mit statistischen Methoden aus Daten. Das hat zu der irritierenden Formulierung geführt, dass die Maschinen hier „selbst lernen“. Aber von einem „Selbst“, einem intendierten Lernen mit selbst gesteckten Zielen kann überhaupt nicht die Rede sein: Die Maschinen werden von Menschen programmiert. Sie bekommen eine Methode, die im Wesentlichen zählt, was wie oft in den vorliegenden Daten auftaucht. Die Methode legt auch fest, in welcher Form die gefundenen Muster oder Regeln gespeichert werden. [...]

Wenn beispielsweise ein Bilderkennungssystem trainiert wird, bekommt jedes Neuron alle Pixel des Originalbildes als Zahlen präsentiert. Diese werden gewichtet, und daraus wird eine neue Zahl berechnet. Die Gewichte werden bei jedem Bild im Trainingsdatensatz so angepasst, dass eine korrekte Antwort wahrscheinlicher und eine inkorrekte Antwort weniger wahrscheinlich wird. Wenn die Maschine also im Training ein Bild eines Hundes bekommt, aber eine Pyramide „erkennt“, werden die Gewichte von allen Formeln (Neuronen) verändert, sodass sie beim nächsten Mal etwas wahrscheinlicher einen Hund erkennt. [...]

Mit sehr vielen Trainingsdaten und sehr vielen Trainingssessions können dabei Systeme entstehen, die tatsächlich mit einiger Verlässlichkeit Objekte auf Bildern erkennen können. Am besten werden diese neuronalen Netzwerke aber, wenn die Neuronen in Schichten angeordnet sind. Die erste Schicht bekommt dabei die Originalpixel zu sehen. Die zweite bekommt die Resultate der ersten Schicht zu sehen und verarbeitet die weiter. Die dritte Schicht bekommt die der zweiten und so weiter. Die letzte Schicht gibt dann die berechnete Antwort aus. Dadurch bestehen neuronale Netzwerke aus sehr vielen mathematischen Formeln mit einer großen Anzahl von Gewichten, die alle durch die Daten gelernt werden müssen. Auch hier gibt es wieder eine große Varianz an der genauen Form der mathematischen Gleichungen – niemand weiß so genau, welche Schicht an Neuronen am besten welche Form von Gleichungen verwenden soll. Solange die Qualität des Systems noch nicht stimmt, kann man aber an dem genauen Aufbau der Schichten arbeiten, und natürlich auch an der Form der Trainingsdaten und deren Menge und Qualität.

Es gibt also auch hier keinen Weg, der Objektivität garantiert: Jede Entscheidung würde zu anderen Antworten führen. Damit stellt sich die Frage danach, wann KI-Systeme in ihren Berechnungen verlässlich und nachvollziehbar sind, denn nur dann könnten sie Menschen ersetzen. [...]

Was uns diese Methoden aber nicht erlauben, ist, die Beweggründe für eine computergenerierte Entscheidung zu verstehen. Schließlich wurden nur statistische Auffälligkeiten in den Trainingsdaten gespeichert: Ob diese aber wirklich relevant oder nur eine sogenannte statistische Korrelation sind, also eine statistische Auffälligkeit, die für das zu verstehende Phänomen kausal keine Rolle spielt, kann uns keiner sagen. Die Maschinen sind in diesem Sinne black boxes, also undurchdringliche Systeme.

Darin sind sie unseren Haustieren und selbst der Lieblingskollegin nicht ganz unähnlich: Am Ende können wir auch bei unserem Hund niemals vollständig vorhersagen, was er tun wird oder warum er etwas getan hat. Aber unsere jeweilige Intelligenz hat eine gemeinsame Basis, auf der wir aufbauen können – diese fehlt mit den Maschinen. Bei der Lieblingskollegin kommen weitere Aspekte hinzu, mit der wir ihre Entscheidungen nachvollziehen können: Unsere jeweilige Ausbildung hat Prozesse zur Verfügung gestellt, mit der Entscheidungen nachvollziehbar werden, und wir haben eine gemeinsame Sprache, um uns unsere Beweggründe für eine Entscheidung verständlich zu machen. Dass es dabei immer noch Lücken gibt und wir uns als Menschen selbst gar nicht immer sicher sind, warum wir etwas entschieden haben, und dies vielleicht nur im Nachhinein rationalisieren, sei einmal dahingestellt. Trotzdem bleibt uns diese gemeinsame Basis der Entscheidungsprozesse und Kommunikation über Entscheidungen, die bei KI-Systemen fehlen. Damit komme ich zu der eingangs gestellten Frage: Können KI-Systeme uns ersetzen? [...]

Maschinen können uns basierend auf maschinellem Lernen grundsätzlich keine Begründung für ihre Entscheidungen geben. Daher können sie uns in unseren Entscheidungen nur dann ersetzen, wenn wir diese wenigstens auf Verlässlichkeit prüfen können. Dies ist nur bei faktischen Entscheidungen und in eingeschränkter Form bei Risikobewertungen der Fall. Werturteile und insbesondere singuläre Entscheidungen, wie sie in der Politik gang und gäbe sind, können nicht von Maschinen ersetzt werden. [...]

Im Bereich Kreativität kann die Maschine Ideen dort ersetzen, wo es um Assoziationen geht, die nahe am Offensichtlichen sind. Wirklich kreativ können sie nicht werden, weil sie den feinen Unterschied zwischen Offensichtlichem und Absurdem nicht erkennen, den kreativen sweetspot nicht treffen können. Ganz sicher aber wird der Mensch, der die Möglichkeiten und Limitationen von KI-Systemen für seine Arbeit erkennt, diejenige Person ersetzen, die dies nicht tut."

Keine Kommentare:

Kommentar veröffentlichen