Digitale Wege gegen Hass: Wie St. Pöltens Hochschule das Netz menschlicher macht

St. Pölten – Im digitalen Alltag treffen viele auf Hass und Beleidigungen. Forscherinnen und Forscher an der University of Applied Sciences St. Pölten setzen auf eine ungewöhnliche Mischung aus smarter Technik und gesellschaftlichem Engagement, um virtuelle Räume freundlicher und sicherer zu machen. Zwei innovative Projekte zeigen: Zivilcourage und KI können sich wunderbar ergänzen.

09.12.25 10:34 Uhr | 12 mal gelesen

Es ist schon paradox: Die freiheitlichen Möglichkeiten des Internets, die einst als Hoffnungsträger für eine offene Gesellschaft galten, sind längst zum Tummelplatz für Beschimpfungen, Angriffe und gezielte Ausgrenzung geworden. Besonders Jugendliche erleben diese Schattenseiten: Hassrede und Cybermobbing gehören beinahe zum Alltag. Große Plattformen kontern mit rigorosen Sperren. Doch ist das der Weisheit letzter Schluss? Forschende der FH St. Pölten glauben das nicht und probieren mutig neue Wege. 'Counter Speech: Young People Against Online Hate' und 'HaSPI: Hate Speech Prevention through Imitation' – die Namen der Projekte klingen sperrig, aber ihr Ansatz ist erfrischend. Digitale Zivilcourage zu stärken und KI-basierte Werkzeuge zu entwickeln, ist das Ziel. Nicht, indem man alles einfach löscht – nein, mit Gegenrede, mit Transparenz, mit Mut. Die App 'CounterHelp' etwa richtet sich direkt an junge Leute, die auf TikTok unterwegs sind. Eigener Hasskommentar entdeckt? Mit wenigen Klicks schlägt die App verschiedene Gegenredestile vor, analysiert den Kontext und liefert Anregungen von nüchtern bis hin zur Portion Humor. Eine Nutzerstudie zeigte: Das Tool kommt an. Sogar eine internationale Auszeichnung hat es abgeräumt. In einer Welt, in der KI-Modelle oft geheimnisvoll bleiben, setzt das Team auf nachvollziehbare, am Menschen orientierte Erklärmuster. Statt abstrakter Algorithmenbezeichnungen steht da: 'provokant', 'liebevoll', 'sexistisch'. Das sind Begriffe mit Alltagstauglichkeit. Eine kluge Idee, denn wie soll man Technik ernst nehmen, wenn sie nur Eingeweihten verständlich ist? HaSPI, das zweite Projekt, nimmt sich der automatisierten Erkennung von Hassrede im Deutschsprachigen an. Viele Systeme ticken weiter im Englischmodus – hier aber beobachten Maschinen, wie erfahrene Moderatorinnen und Moderatoren Texte bewerten, und lernen mit. Die Datenbasis: Zehntausende reale Forenbeiträge. Das Ziel ist ein moderner Moderationsassistent, der regionalsprachliche Feinheiten erfasst. Warum? Weil Beleidigung nicht überall gleich klingt und im Netz oft Zwischentöne entscheidend sind. HaSPI soll mittelfristig frei verfügbar werden, damit mehr Plattformen wirklich handeln können. Bemerkenswert ist dabei: Forschung bedeutet nicht nur Technik, sondern betrifft auch gesellschaftlichen Wandel. Die Debatte ums Promotionsrecht für Fachhochschulen in Österreich ist zum Beispiel eng mit Innovation und praktischer Relevanz verknüpft. Akademische Titel sind nicht bloß Zier – sie schaffen Räume für Pionierarbeit wie in St. Pölten. Letzten Endes bleibt die bittere Erkenntnis: Digitale Angriffe verschwinden nicht von allein. Aber Projekte wie diese zeigen, dass smarte Technik, Mut zur Diskussion und gute Ideen die dunklen Ecken des Internets tatsächlich ein Stück heller machen können.

Die Forschung an der FH St. Pölten setzt mit den Projekten 'Counter Speech' und 'HaSPI' auf eine Kombination aus digitaler Zivilcourage und KI-Technologien, um Hass im Netz zu bekämpfen. In 'Counter Speech' lernen junge Menschen, gezielt und kreativ mit Hassbotschaften umzugehen – unterstützt von der App 'CounterHelp', die auf TikTok Gegenrede-Vorschläge generiert. Das HaSPI-Projekt fokussiert sich hingegen auf maschinelles Lernen mittels deutschsprachiger Datensätze und entwickelt so ein eigens auf regionale Besonderheiten abgestimmtes Moderationswerkzeug, das bald frei verfügbar sein soll. Online kursieren derzeit viele Debatten und Forschungsbeiträge zu KI im Kampf gegen digitale Hetze – nicht zuletzt, weil Fälle von Hate Speech auch in Europa weiter steigen. Aktuelle Berichte zeigen, dass viele Plattformen mit klassischen Moderationsmethoden überfordert sind; KI-gestützte Tools werden als Hoffnungsträger betrachtet. Der gesellschaftliche Diskurs dreht sich dabei zunehmend auch um ethische Aspekte und um die Frage, wie digitale Zivilcourage wirksam und nachhaltig gefördert werden kann.

Schlagwort aus diesem Artikel