Zu dem Thema gibt es sehr viele Diskussionen schon allein auf der Wikipedia, aber natürlich auch in der allgemeinen KI-Diskussion, die natürlich längst für jeden Normalmenschen unüberschaubar ist. - Ich plane hier gelegentlich aus diesen Diskussionen zu berichten. Diese Berichte werden natürlich verschlagwortet.
"[...] Ich sehe das Ziel der WP darin, Wissen zu vermitteln. Zum Wissen gehört aber auch, die Grenzen des Wissens aufzuzeigen. KI-Systeme, jedenfalls soweit ich sie kenne, sind dagegen darauf abgerichtet, Fragen zu beantworten, ein Ergebnis zu liefern. Reicht die Basis an Information dafür nicht aus, ist der Algorithmus gefragt, der dann die Antwort generieren muss.
- In meinem früheren Beruf als Jurist ist mir diese Problematik durchaus geläufig. In gar nicht so seltenen Fällen reichen die zusammengetragenen Informationen nicht aus, um eine Rechtssache entscheiden zu können. Manchmal liegen auch die gewünschten Informationen in der Zukunft, und manchmal ist die Informationsbeschaffung schlicht zu teuer. Trotzdem muss die Rechtssache entschieden werden und zwar zeitnah in der Gegenwart. Hier treten nun die Regeln auf den Plan, insbesondere Beweislastregeln, denen im Informatikbereich die Algorithmen entsprechen. In der Jurisprudenz sind die Regeln wohldefiniert und publiziert, im Bereich der KI eher nicht. Hier in der WP sind wir auch nicht angehalten, auf alle Fragen eine Antwort zu finden, die KI ist aber darauf trainiert, dem Prompt zu entsprechen. --Hajo-Muc
- Bereichsspezifik von Wissensvermittlung ist ein wichtiger Punkt. Und wo es noch kein Wissen gibt, sollte auch die KI keins finden ohne Halluzinationen (ausser vorhandenes Wissen zu verknüpfen, wo ich auch schon fragen würde, ob KI das kann). "Kunden" der Chatbos dürfte in der Mehrzahl Leute sein, die eine unbeantwortete Frage habe - trivial oder nahe an einem Fachgebiet. Und die KI beantwortet die eben auch - kurz und fokussiert, statt auf Wikipedia zu verweisen, wo man quasi alles dazu erfährt, aber mehr lesen muss. Abgesehen von Halluzinationen ist KI einfach "radikalinklusionistisch". Relevant ist, was dazugehört - aber eben nur insofern stimmt, wie es in der Quelle selber stimmt. Dort würde die menschliche Kuratierung von Wissen zumindest so lange sinnvoll sein, wie die KI nicht selber solche Prüfungsalgorithmen (Widerspruchsfreiheit) entwickelt, was auch in der Pipeline ist. --Wortulo" (WP-Kurierdiskussion)
- Zum gegenwärtigen Stand des Projektes: WikiProjekt KI und Wikipedia
Status Quo: "Gegenwärtig ist KI nur in einer Richtlinie erwähnt - Wikipedia:Belege (Grundsätzliches, Punkt 8): -
- Sprach-KI sind derzeit nicht in der Lage, korrekt belegte Beiträge zu erstellen. Beiträge, die damit erstellt werden, verstoßen daher unter anderem gegen WP:Keine Theoriefindung, WP:Belege, WP:Urheberrechtsverletzung, WP:Neutraler Standpunkt; ihre Verwendung ist daher derzeit generell unerwünscht.
- Eng ausgelegt bezieht sich "Beiträge" sowohl auf KI-erstellte Artikel, auch als Teile von Artikeln
- Der Einsatz generativer KI als Hilfsmittel (z.B. für die Recherche, Übersetzungen, sprachliche Verbesserungen, Zusammenfassungen,...) ist insofern jetzt mit gemeint, wie damit erstellte Textteile als Beiträge verwendet werden.
Fakt ist, dass der Punkt als Löschbegründung für erkannte KI genutzt wird, es fallen abervor allem qualitativ schlechte Beiträge auf.
Eine neue Lage bezüglich KI ergibt sich durch die Verbesserung der Leistungsfähigkeit und formalen Qualität der Formulierungen von KI, ihre zunehmende Verbreitung und Nutzung im realen Leben und auch Befürwortungen des Einsatzes innerhalb der Wikipedia, weil sie immer mehr genutzt wird. Die einfache Erkennbarkeit als KI-generiert wird geringer, es fallen nur noch schlechte Anwendungen auf (die gelöscht werden). Eine vergleichende Untersuchung legt eine Dunkelziffer nahe, wo solche Teile nicht erkannt werden. Diese wird vermutlich wachsen - jüngere Neuautoren lernen den Umgang mit KI in der Schule.
Es bleibt als ernstes Problem: die "Halluzinationsrate" (nicht vorhandene Quellen, falsche Fakten), die laut Literatur zwischen 5 und 10% betragen kann und noch eine Weile anhalten wird (als eine Art "Systemschwäche").
Verantwortungsvoller Einsatz bedeutet Prüfung durch den "Verwender" von KI, dass die Quelle selbst existiert und die verwendeten Fakten wirklich so in der Quelle stehen. Wenn man die verantwortungsvolle Nutzung von KI als Hilfsmittel zulassen will, bedarf es einer Anpassung der erwähnten Richtlinie im Konsens (wo aber die Ziele selber vorher noch klarer herausgearbeitet werden müssten).
Mögliche Verstösse gegen WP:Keine Theoriefindung, WP:Belege, WP:Urheberrechtsverletzung, WP:Neutraler Standpunkt bedürften einer genaueren Erläuterung, inwiefern das bei verantwortungsvoller Nutzung wirklich noch zutrifft.
Widerstände gibt es aus verschiedenen Richtungen, Wikipedia soll Garant für menschlich kuratiertes Wissen bleiben, KI sei nur ein vorbeigehender Hype (u.a.) - was bis zur Forderung eines generellen Verbotes der Nutzung von KI geht.
Man muss die neuen Nutzungsmöglichkeiten genauer danach definieren, inwieweit sie anfällig für Halluzinationen oder andere Fehler sind und ob der verantwortungsvolle Umgang auch durch bessere Richtlinien geregelt werden kann.
Diskutiert wird, dass Autoren den verantwortungsvollen Einsatz selbst auf ihrer Benutzerseite deklarieren können (sprich dass sie sich der Probleme bewusst sind, wenn sie KI einsetzen).
Diskutiert wird auch, wie mit Artikeln und Autoren umgegangen wird, wo Zweifel im Zusammenhang mit verantwortungsvoller Nutzung von KI aufgekommen sind (AI Cleanup der englischsprachigen WP als ein Beispiel). Die Gefahr des unkritischen Einsatzes bis zum Missbrauch oder Austestens der Wikipedia, ob das bemerkt wird, scheint realistisch.
Die auf der AdminCon 2025 gestartete Initiative kann dazu ausgebaut werden, weil Erfahrungen systematisch gesammelt werden sollten, Administratoren die Löschentscheidungen treffen und der Umgang etwas mehr vereinheitlicht werden sollte. Daraus würden sich auch Formulierungen in unseren Richtlinien ergeben, wenn man dort zuerst einen Konsens findet."
- Sprach-KI sind derzeit nicht in der Lage, korrekt belegte Beiträge zu erstellen. Beiträge, die damit erstellt werden, verstoßen daher unter anderem gegen WP:Keine Theoriefindung, WP:Belege, WP:Urheberrechtsverletzung, WP:Neutraler Standpunkt; ihre Verwendung ist daher derzeit generell unerwünscht.