Taking Care of the Internet: Wie Milliarden Posts moderieren? Und wo kann KI (nicht) helfen?

Anna Ricarda Luther, Hendrik Heuer, David Hartmann

Zusammenfassung
Hassrede in sozialen Medien kann Diskriminierungen verstärken, sozialen Zusammenhalt bedrohen und zu Angriffen führen. Wir diskutieren die Grenzen von Moderation durch Mensch und KI und stellen technische und politische Forderungen für eine effektivere und fairere Bekämpfung von Hassrede.
Atrium 2
Gespräch
Deutsch
Conference

Die enorme Menge an Inhalten stellt soziale Medien und ihre Nutzenden schon lange vor große Herausforderungen. Hassrede ist ein massives Problem: Sie stört den Diskurs, bedroht den sozialen Zusammenhalt und führt zu Diskriminierung und Gewalt. Wir diskutieren die Grenzen automatisierter Erkennung von Hassrede und machen Moderationsprozesse transparent. Dabei problematisieren wir die menschliche Arbeit, die hinter diesen Prozessen steckt und beleuchten die negativen Folgen dieser Arbeit.  Zudem hinterfragen wir, ob einheitliche Moderationsansätze den vielfältigen kulturellen, normativen und sozialen Kontexten der Milliarden von Nutzenden überhaupt gerecht werden können. Wir sprechen darüber wie Kontext besser einbezogen werden kann, wo Nutzende mehr Kontrolle brauchen und warum unabhängige Untersuchungen wichtig sind. Unsere Forderungen: Faire Arbeitsbedingungen, transparente Prozesse und mehr Kontrolle für Nutzende – für eine inklusivere, sicherere und freiere digitale Kommunikation.