Macht die KI Aufklärung unmöglich?
Wir haben es im deutschen Sprachraum einigermaßen geschafft, über den Nationalsozialismus, der NS-Faschismus eine solide Aufklärungsarbeit zu leisten. Man könnte immer noch mehr tun, aber wer willens ist zu wissen, der oder die kann das.
KI verändert die Sache offensichtlich: „Massenhaft KI-generierte Bilder zum Holocaust fluten Social Media. Experten warnen nun vor Geschichtsfälschung“.
Das stimmt sicherlich und es wird sehr schwer sein, da dagegen zu halten. Aber welche Rolle spielt die KI da?
Die KI ist an sich nicht faschistisch. Sie ist auch nicht „intelligent“; sie ist lediglich schnell und kann aus verschiedenen Quellen Wissen ansammeln, gruppieren und darstellen. Sie sammelt das, was sie findet. Wenn da dann Faschistoides herauskommt, liegt es daran, dass viele Leute Faschistoides ins Netz … schreiben. Ja, die asozialen Medien begünstigen autoritaristisches Denken (oder „Fühlen“); antidemokratisches Denken kommt mit sehr simplen „Argumentationsstrukturen“ aus. Oder umgekehrt: differenziertes Argumentieren ist für asoziale Medien nicht so gut „geeignet“ und man muss schon recht geschickt sein, wenn man diese Medien für Aufklärung im weiteren Sinn einsetzen will. Man muss da „gegen die Systemlogik arbeiten“. (Desto spannender sind dann oft die Ergebnisse.)
Was ist zu tun?
Eines:

Schreibe einen Kommentar