Katharina A. Zweig: Droht KI den Menschen zu ersetzen?
"[...] Das größte Problem an den regelbasierten Systemen aber war ihre mangelnde Wartbarkeit: Wenn ein Fehler in der Übersetzung auftrat, war den Entwicklerteams einfach nicht mehr klar, an welcher Schraube sie drehen mussten, um ihn zu beheben.
Mit sehr vielen Trainingsdaten und sehr vielen Trainingssessions können dabei Systeme entstehen, die tatsächlich mit einiger Verlässlichkeit Objekte auf Bildern erkennen können. Am besten werden diese neuronalen Netzwerke aber, wenn die Neuronen in Schichten angeordnet sind. Die erste Schicht bekommt dabei die Originalpixel zu sehen. Die zweite bekommt die Resultate der ersten Schicht zu sehen und verarbeitet die weiter. Die dritte Schicht bekommt die der zweiten und so weiter. Die letzte Schicht gibt dann die berechnete Antwort aus. Dadurch bestehen neuronale Netzwerke aus sehr vielen mathematischen Formeln mit einer großen Anzahl von Gewichten, die alle durch die Daten gelernt werden müssen. Auch hier gibt es wieder eine große Varianz an der genauen Form der mathematischen Gleichungen – niemand weiß so genau, welche Schicht an Neuronen am besten welche Form von Gleichungen verwenden soll. Solange die Qualität des Systems noch nicht stimmt, kann man aber an dem genauen Aufbau der Schichten arbeiten, und natürlich auch an der Form der Trainingsdaten und deren Menge und Qualität.
Es gibt also auch hier keinen Weg, der Objektivität garantiert: Jede Entscheidung würde zu anderen Antworten führen. Damit stellt sich die Frage danach, wann KI-Systeme in ihren Berechnungen verlässlich und nachvollziehbar sind, denn nur dann könnten sie Menschen ersetzen. [...]
Was uns diese Methoden aber nicht erlauben, ist, die Beweggründe für eine computergenerierte Entscheidung zu verstehen. Schließlich wurden nur statistische Auffälligkeiten in den Trainingsdaten gespeichert: Ob diese aber wirklich relevant oder nur eine sogenannte statistische Korrelation sind, also eine statistische Auffälligkeit, die für das zu verstehende Phänomen kausal keine Rolle spielt, kann uns keiner sagen. Die Maschinen sind in diesem Sinne black boxes, also undurchdringliche Systeme.
Darin sind sie unseren Haustieren und selbst der Lieblingskollegin nicht ganz unähnlich: Am Ende können wir auch bei unserem Hund niemals vollständig vorhersagen, was er tun wird oder warum er etwas getan hat. Aber unsere jeweilige Intelligenz hat eine gemeinsame Basis, auf der wir aufbauen können – diese fehlt mit den Maschinen. Bei der Lieblingskollegin kommen weitere Aspekte hinzu, mit der wir ihre Entscheidungen nachvollziehen können: Unsere jeweilige Ausbildung hat Prozesse zur Verfügung gestellt, mit der Entscheidungen nachvollziehbar werden, und wir haben eine gemeinsame Sprache, um uns unsere Beweggründe für eine Entscheidung verständlich zu machen. Dass es dabei immer noch Lücken gibt und wir uns als Menschen selbst gar nicht immer sicher sind, warum wir etwas entschieden haben, und dies vielleicht nur im Nachhinein rationalisieren, sei einmal dahingestellt. Trotzdem bleibt uns diese gemeinsame Basis der Entscheidungsprozesse und Kommunikation über Entscheidungen, die bei KI-Systemen fehlen. Damit komme ich zu der eingangs gestellten Frage: Können KI-Systeme uns ersetzen? [...]
Maschinen können uns basierend auf maschinellem Lernen grundsätzlich keine Begründung für ihre Entscheidungen geben. Daher können sie uns in unseren Entscheidungen nur dann ersetzen, wenn wir diese wenigstens auf Verlässlichkeit prüfen können. Dies ist nur bei faktischen Entscheidungen und in eingeschränkter Form bei Risikobewertungen der Fall. Werturteile und insbesondere singuläre Entscheidungen, wie sie in der Politik gang und gäbe sind, können nicht von Maschinen ersetzt werden. [...]
Im Bereich Kreativität kann die Maschine Ideen dort ersetzen, wo es um Assoziationen geht, die nahe am Offensichtlichen sind. Wirklich kreativ können sie nicht werden, weil sie den feinen Unterschied zwischen Offensichtlichem und Absurdem nicht erkennen, den kreativen sweetspot nicht treffen können. Ganz sicher aber wird der Mensch, der die Möglichkeiten und Limitationen von KI-Systemen für seine Arbeit erkennt, diejenige Person ersetzen, die dies nicht tut."
Keine Kommentare:
Kommentar veröffentlichen