Macht die KI Aufklärung unmöglich?
Wir haben es im deutschen Sprachraum einigermaßen geschafft, über den Nationalsozialismus, der NS-Faschismus eine solide Aufklärungsarbeit zu leisten. Man könnte immer noch mehr tun, aber wer willens ist zu wissen, der oder die kann das.
KI verändert die Sache offensichtlich: „Massenhaft KI-generierte Bilder zum Holocaust fluten Social Media. Experten warnen nun vor Geschichtsfälschung“.
Das stimmt sicherlich und es wird sehr schwer sein, da dagegen zu halten. Aber welche Rolle spielt die KI da?
Die KI ist an sich nicht faschistisch. Sie ist auch nicht „intelligent“; sie ist lediglich schnell und kann aus verschiedenen Quellen Wissen ansammeln, gruppieren und darstellen. Sie sammelt das, was sie findet. Wenn da dann Faschistoides herauskommt, liegt es daran, dass viele Leute Faschistoides ins Netz … schreiben. Ja, die asozialen Medien begünstigen autoritaristisches Denken (oder „Fühlen“); antidemokratisches Denken kommt mit sehr simplen „Argumentationsstrukturen“ aus. Oder umgekehrt: differenziertes Argumentieren ist für asoziale Medien nicht so gut „geeignet“ und man muss schon recht geschickt sein, wenn man diese Medien für Aufklärung im weiteren Sinn einsetzen will. Man muss da „gegen die Systemlogik arbeiten“. (Desto spannender sind dann oft die Ergebnisse.)
Was ist zu tun?
Eines:

Mehr Bildung schadet natürlich nie, aber ich denke, das alleine wird nicht reichen, um den LLM-Dreck unter Kontrolle zu kriegen. Sondern da brauchts auf jeden Fall ergänzende direkte Maßnahmen, um die LLM-Hersteller wie OpenAI, xAI, Google etc. in die Pflicht zu nehmen, damit sie ihren LLMs quasi „endlich Manieren beibringen“. Und wenn das nicht reicht, dann wird man eben auch konkret über Verbote und Sperren reden bzw. selbige einführen müssen. D.h. wenn jemand wie z.B. Elon Musk glaubt, er könne mit Grok einfach so und ohne Konsequenzen seine weltweite Lügenpropaganda verbreiten – dann muss man ihm eben die EU (und… Mehr »
ja, eh. seh aber wenig chance.