Serverabkommen: Automatisierte Moderation

Im Serverabkommen steht folgendes:

Ein Fedimin verpflichtet sich, dass die Moderation durch Menschen durchgeführt wird und nicht über automatisierte Verfahren.

Für mich würde das bedeuten, dass automatisierter Spamfilter dem Konsens widsprechen. Sehe ich das richtig?

Persönlich halte ich den Punkt dann für sehr kritisch, denn ich würde mir keine Moderation ohne Spamfilter oder auch andere Moderationshilfen vorstellen können. Zumindest Pixelfed und GoToSocial haben ja auch entsprechende Spamfilter eingebaut.

Aus meiner Sicht müssten da verschiedene Fälle automatisierter Moderation beachtet werden:

  • [a] Automatisiertes Verstecken eines Posts/Users aufgrund von Vermutetem Spam/Regelverstoß und anschließende manuelle Prüfung. Das wäre analog der Mod-queue die durch die Filter-Aktion des Automods in Reddit ausgelöst wird.
  • [b] Automatisiertes Löschen/Blocken eines Users ohne manuelle Prüfung
  • [c] Automatisieretes Löschen von Beiträgen in aktuellem Ereignis. Ein Beispiel wäre in einer akuten Spamwelle einen automatisierten Filter alle Beiträge anderer Server prüfen zu lassen. Der Filter löscht automatisiert Beiträge die Spam sein könnten und macht dabei auch Fehler.
  • [d] Automatisiertes Melden von Beiträgen sodass Moderator*innen anschließend manuell handeln

Es gibt sicher noch eine Menge andere Bespiele, ich wollte aber erstmal die Diskussion anstoßen und von Menschen hören die sich bzgl. des Abkommens mehr Gedanken gemacht haben :slight_smile:

Hi, erst mal willkommen im Forum.

Also unter automatisierte Verfahren verstehe ich eher Scipte/KI denen ich sage “Filter mir alles Böse heraus” nun weiß man ntürlich nicht was genau passiert.
Moderation durch Menschen verstehe ich so, dass bewusst etwas gemacht wird. Heißt, wenn ich einen bestimten Hashtag oder Ähnliches ausfiltere weiß ich, was genau passiert und kann dies auch publizieren.

Damit wären a und d i.O. aber b und c nicht.

Ja der Begriff “Automatisierung” ist sehr weitreichend. Es geht hauptsächlich darum das nichts ohne das wissen des Moderators passiert.

1 „Gefällt mir“

Danke!

Also unter automatisierte Verfahren verstehe ich eher Scipte/KI denen ich sage “Filter mir alles Böse heraus” nun weiß man ntürlich nicht was genau passiert.

Ja, das dachte ich mir, dass es eher in die Richtung gemeint war

Es geht hauptsächlich darum das nichts ohne das wissen des Moderators passiert.

Die Absicht verstehe ich gut und finde ich richtig.

Damit wären a und d i.O. aber b und c nicht.

Ja ich denke so kann man das Abkommen schon verstehen!

Vielleicht wäre es zur Klarheit gut einen Satz hinzuzufügen wie “Automatisierte Verfahren sind erlaubt, sofern eine manuelle Prüfung aller automatisierten Entscheidungen vorgenommen wird.”?

Eventuell ergänzend: “User*innen werden transparent über automatische Moderationsverfahren informiert”

Da gefällt mir dann das Wort automatisiert darin nicht. Ich sehe das nämlich nicht als Automatisiert, wenn man nur Worte/Hastags etc blockiert.

Verstehe ich. Ich glaube da gehen vielleicht auch unsere Meinungen auseinander?

Persönlich wäre ich auch mit relativ hoher Komplexität okay, wenn sie von Moderator*inne überprüft wird. Der GoToSocial Filter ist ja schon deutlich komplexer als einzelne Worte/Hashtags. Pixelfed nutzt Autospam/Naive Bayes auf eine, für mich okaye, Art.

Das fast schon ein wenig grenzwertig. Gut ist das ein Mensch am ende drüberschauen kann/soll/muss?