Inhalt

 

Die Autorin

Ein Mädchen mit langen Haaren lächelt in die Kamera

Milena Zwerenz (22)
studiert Anglistik und Germanistik

Community-Redakteur
Online-Benehmen lernen

18.03.2016 |

Löschen, antworten, User sperren – Medien müssen täglich entscheiden, wie sie mit zweifelhaften Online-Kommentaren umgehen. Warum die Kommentarfunktion trotz Hass und Hetze wichtig ist, hat uns Community-Redakteur David Schmidt erzählt.

Mann mit Brille

David Schmidt: "Es gibt auf jeden Fall eine Zunahme problematischer Kommentare und auch rechtsextremer Positionen in den Debatten." – © privat

Herr Schmidt, welchen Hasskommentar mussten Sie heute schon lesen?

Noch keinen. Ich moderiere ja selber nicht. Ich bin aber sicher, dass unser Team bereits über den einen oder anderen gestolpert ist. Aber es gibt sehr viele verschiedene Arten von Kommentaren, Hasskommentare machen bei uns eine verschwindend geringe Menge aus.

Was ist das eigentlich genau, ein Hasskommentar oder Hetze im Netz?

Hasskommentare sind Kommentare, in denen Gruppen diskriminiert oder heruntergemacht werden, zum Beispiel aufgrund ihrer Herkunft, ihres Geschlechts, ihrer Hautfarbe, ihrer sexuellen Orientierung oder ihrer Überzeugungen.

Welche Themen werden bei Ihrem Medium allgemein stark kommentiert?

Die meisten Kommentare fallen deutlich auf die tagesaktuelle Berichterstattung und auf das, was unsere Leser gerade bewegt. Das sind aktuell die Flüchtlingsdebatte, genauso der Rechtsruck in Deutschland und der Wahlkampf in den USA. Positiv hervorzuheben sind Debatten, in denen es um unsere Lebenswelt und Entscheidungen geht: Unsere Werte, unsere Familie, Karriere, Bildung und Chancen, Konsum und Mediennutzung zum Beispiel. Was haben wir erlebt? Was wünschen wir uns für unsere und die Zukunft der deutschen Gesellschaft? Wenn unsere Leser aus ihrem eigenen Erleben heraus erzählen können, ist das oft besonders bereichernd.

Wie sind Sie als Team in Sachen Community Management aufgestellt?

Wir haben eine 24-Stunden-Moderation, das heißt, wir betreuen die Kommentarbereiche rund um die Uhr. Dafür sind 15 Moderatoren und zwei Redakteure zuständig. Die Moderatoren arbeiten in der Regel zu zweit. Die Kommunikation im Team ist sehr wichtig, weil die wenigsten Verstöße eindeutig sind. Vieles bewegt sich im Graubereich und muss von den Moderatoren alltäglich neu diskutiert und entschieden werden. Darum gelten wir in der Redaktion wohl auch als besonders gesprächig. Bei uns geht es aber bei Weitem nicht nur darum, Hasskommentare zu entfernen, sondern auch die vielen tollen Beiträge hervorzuheben, die unsere Leser verfassen. Sie sichtbar zu machen für andere Leser oder sie an Redakteure weiterzuleiten, wenn sie wertvolle Hinweise oder Anregungen enthalten.

Im Bundestag wurde gerade über Hetze gegen Flüchtlingshelfer diskutiert. Haben Sie das auch schon beobachten können?

Ja, natürlich. Gerade zu Beginn der sogenannten Flüchtlingskrise gab es eine sehr breite Debatte über die Solidarität in Deutschland und damit auch die Helfer.

Haben Sie das Gefühl, dass Hasskommentare im letzten Jahr mit Beginn der Flüchtlingskrise zugenommen haben?

Ja, im Grunde schon, es gibt auf jeden Fall eine Zunahme problematischer Kommentare und auch rechtsextremer Positionen in den Debatten. Weniger bei uns auf der Seite, als zum Beispiel bei Facebook. Von einer prozentualen Zunahme will ich aber nicht sprechen. Unsere Community wächst wahnsinnig schnell. Darum gibt es zwar auch mehr problematische Kommentare. Aber das bedeutet ja nicht, dass es auch anteilig mehr geworden sind. Das Phänomen "Hasskommentare" gab es schon immer, nur das Subjekt wechselt. Und diese Verschiebung hin auf die Flüchtlinge ist noch recht neu und besonders schmerzlich zu lesen.

Wie gehen Sie allgemein mit rassistischen oder beleidigenden Kommentaren um?

Man stellt sich vielleicht vor, dass jemand hartes Vokabular benutzt und wir deshalb einen Kommentar entfernen. Das kommt mal vor, ist aber eigentlich die absolute Ausnahme. Bei uns auf Zeit Online diskutieren die Leser auf einem sehr hohen Niveau und, wie bereits gesagt, mit sehr vielen Graustufen. Das heißt, dass wir manchmal Probleme haben, zu entscheiden, ob ein Kommentar die Grenze bereits übertreten hat oder nicht. Wir haben eine Netiquette, so etwas wie Hausregeln, in der wir unseren Lesern erklären, welche Art von Kommentaren wir zulassen und welche nicht. Wenn sie dagegen verstoßen, wird der Kommentar entfernt. Wenn jemand regelmäßig gegen diese Netiquette verstößt, wird er von uns über kurz oder lang gesperrt. Auf der anderen Seite belohnen wir konstruktive Beiträge und heben sie gesondert hervor. Und wir begründen unsere Eingriffe öffentlich und geben unseren Lesern so ein Feedback, aus dem sie für die Zukunft lernen können, und zeigen Präsenz.

Ist eine Diskussion auch schon mal aus dem Ruder gelaufen?

Ja. Das kommt immer mal vor. Wenn uns ein Geschehen überrascht, beispielsweise ein Flugzeug abstürzt, dann verlaufen die Debatten zunächst sehr aufgeregt. Irgendetwas passiert in der Welt und die Leser wissen das noch nicht einzuordnen, genauso wenig wie wir. Dann kann es sein, dass eine sich spontan und unerwartet ergebende Debatte unsere Kapazität zunächst übersteigt und aus dem Ruder läuft.

Was für Leute sind das eigentlich, die online Hasskommentare schreiben?

Unsere Stammleser sind das nicht. Es kommt eher vor, dass eine organisierte Gruppe versucht, eine Debatte zu kapern. Das heißt, es registriert sich eine Gruppe von Nutzern neu auf der Seite und versucht beispielsweise, rechtsradikale Ansichten durchzubringen. Dann ist es an den Moderatoren, sie wieder einzufangen. Dass das organisiert passiert, ist zumindest unser Eindruck – beweisen können wir das streng genommen nicht.

Inwiefern sollten sich Soziale Netzwerke Ihrer Meinung nach selbst mehr um solche Kommentare kümmern?

Das Problem ist ja, dass wir beispielsweise sehr von Facebook abhängig sind, da es zur größten Debattenplattform in Deutschland geworden ist. Einerseits sehe ich Facebook sehr wohl in einer Verantwortung, sich um gemeldete Hasskommentare zu kümmern. Auf der anderen Seite wünsche ich mir eine unabhängige Instanz, die kontrolliert, dass dieses Großunternehmen seine Machtposition uns Usern gegenüber nicht missbraucht.

Nicht nur im Internet gibt es Rassismus und Hasskommentare. Welche Regeln können aus der Internetkommunikation ins echte Leben übertragen werden?

Alles, was wir im Internet an Kommunikationsverhalten beobachten, hat es schon immer gegeben. Ob es jetzt das sogenannte 'Trollen' ist, das man in der Face-to-Face-Begegnung eher als hämisches Ärgern, als Piesacken oder in schlimmen Fällen als Mobbing bezeichnen würde. Oder ob es die Diskriminierung ist, die wir online dann 'Hate Speech' nennen. Eigentlich sind wir darauf geschult, mit unserem Gegenüber respektvoll umzugehen. Da wir online nicht sehen, mit welcher Mimik, Gestik und Betonung jemand anderes etwas sagt, gibt es dort so viele Missverständnisse. Ich glaube, dass wir online erst neu lernen müssen, uns zu benehmen.

Über David Schmidt:

David Schmidt, 34, arbeitet seit über drei Jahren als Community-Redakteur bei Zeit Online. Er ist für das Moderationsteam zuständig und betreut die Leserdebatten.

Kommentare

 
 

Dein Kommentar



Artikel bewerten: