Ostschweiz

Programm soll Cybermobbing erkennen – wehren muss man sich trotzdem selbst

Künstliche Intelligenz

Programm soll Cybermobbing erkennen – wehren muss man sich trotzdem selbst

· Online seit 20.04.2023, 14:51 Uhr
Ist nur ein frecher Kommentar unter meinem Foto oder schon Cybermobbing? Das soll ein neues KI-Programm der Ostschweizer Fachhochschule OST erkennen. Doch bis das Tool fehlerfrei funktioniert, ist es noch ein langer Weg.
Anzeige

Die Schikane im Internet hat einen Namen: Cybermobbing. Seit 2019 haben die Delikte im digitalen Raum signifikant zugenommen. Die Schweizerische Kriminalprävention (SKP) stellt fest, dass sich soziale Interaktionen und Konflikte immer häufiger in den virtuellen Raum verlagern – und die Betroffenen werden immer jünger. Bereits jeder vierte 8-Jährige verfügt über ein Smartphone.

Gemäss dem Bildungsbericht Schweiz 2023 wurde ein Viertel aller Jugendlichen bereits im Internet persönlich angefeindet. Herausfordernd ist, dass diese Art von Mobbing keinen juristisch klar definierten Begriff darstellt. Ab wann ist es nicht mehr nur ein böser Kommentar?

Cybermobbing ist komplex, die Eingrenzung schwierig und geschieht meistens über einen längeren Zeitraum. Viele Täter verstecken sich dabei hinter der Anonymität des Internets. Zudem verschwimmt oft die eindeutige Trennschärfe zwischen Spass und Diffamierung. Zurück bleiben Betroffene, welche sich verzweifelt und alleine gelassen fühlen – und sich selten Hilfe. 

Programm steckt noch in den Kinderschuhen

Forschende der Ostschweizer Fachhochschule (OST) sehen die Vorfälle des Onlinemobbings als «gesellschaftliches Problem» an, sagt Patrick Binder, Mitarbeiter am Institut für Organisation und Leadership. Sie verfolgen nun einen neuen Ansatz für Betroffene und ihre Betreuungspersonen. 

Die Idee: Auf einer frei zugänglichen Plattform sollen Betroffene Chatverläufe und Kommentare überprüfen lassen können, um festzustellen, ob es sich dabei wirklich um Mobbing und Hate Speech handelt. Das Tool kann Diskriminierungs-Schlagwörter erkennen, beispielsweise bezüglich Herkunft, Geschlecht oder Alter. Im Anschluss wird ein Scoring angezeigt. Je höher der Prozentsatz, desto wahrscheinlicher handelt es sich um Cybermobbing.

Eine erste Vorstudie habe gezeigt, dass Beschimpfungen im Netz bereits zuverlässig identifiziert werden können. «Nun werden weitere Textfragmente bezüglich Diskriminierung und Beleidigungen eingespielt, um das System weiter zu trainieren und verfeinern», sagt Binder. Zudem fehlen bisher noch geeignete Datensätze für Erpressung und übler Nachrede. Eine weitere Herausforderung stellt die Tatsache dar, dass die Kommentare auf Schweizerdeutsch verfasst würden. Dies erschwere dem KI-Programm die Übersetzung.

Mut zur Eigeninitiative fördern

Die niederschwellige Bedienung des Programms soll den Opfern helfen, diskriminierende Sachverhalte frühzeitig festzustellen. Das Tool soll ermutigen, für sich einzustehen und sich proaktiv Hilfe zu holen. «Letztendlich kann man dann selbst entscheiden, was man mit den Ergebnissen machen will», erklärt Patrick Binder.

Laut Medienmitteilung soll das Tool künftig unter anderem in der Rechtsberatung zur Einschätzung von Cybermobbing-Verdachtsfällen eingesetzt werden können. Damit das gelingt, suchen die OST-Forschenden nun für die nächsten Schritte Partnerorganisationen, die «juristisch einwandfrei zuordbare Textfragmente von Cybermobbing» zur Verfügung stellen können.

(mnu)

veröffentlicht: 20. April 2023 14:51
aktualisiert: 20. April 2023 14:51
Quelle: FM1Today

Anzeige
Anzeige