Eine 83-jährige schwerbehinderte Frau wandte sich vor wenigen Tagen über das Kontaktformular von aufgedeckt24 an mich. Sie berichtete, dass ihr Facebook-Konto nach über zwei Jahrzehnten plötzlich gesperrt wurde. Nach eigenen Angaben hatte sie das Konto hauptsächlich genutzt, um Nachrichten zu lesen, gelegentlich zu chatten und mit anderen Menschen in Kontakt zu bleiben. Gerade weil sie aufgrund ihrer gesundheitlichen Situation stark an ihr Zuhause gebunden ist, war Facebook für sie eine der wenigen Möglichkeiten, soziale Kontakte zu pflegen.
Vor zwei Tagen änderte sich das schlagartig. Das Konto wurde gesperrt. Als Begründung erhielt sie lediglich den Hinweis „Betrug und Richtlinienverstoß“. Was genau ihr konkret vorgeworfen wird, wurde ihr nicht mitgeteilt. Eine detaillierte Erklärung gab es nicht. Ebenso wenig gab es eine Möglichkeit, mit einem Mitarbeiter von Facebook Kontakt aufzunehmen, um die Situation zu klären.
Der Fall ist deshalb besonders bemerkenswert, weil er ein Problem zeigt, das längst kein Einzelfall mehr ist. Auf aufgedeckt24 habe ich bereits mehrfach über ähnliche Situationen berichtet. In einem früheren Beitrag ging es um Facebook-Konten, die ohne nachvollziehbaren Grund gesperrt wurden und bei denen die betroffenen Nutzer praktisch keine Chance hatten, die Entscheidung überprüfen zu lassen. In einem weiteren Artikel habe ich beschrieben, wie Facebook Nutzer teilweise dazu zwingt, ihre Identität per Video zu bestätigen – mit der Drohung, dass das Konto andernfalls dauerhaft gelöscht wird. Doch selbst wenn eine solche Identitätsprüfung durchgeführt wird, bedeutet das keineswegs, dass ein Konto anschließend wieder freigeschaltet wird.
Genau hier liegt eines der größten Probleme. Facebook ist heute für viele Menschen nicht nur eine Unterhaltungsplattform. Für manche ist es eine wichtige Kommunikationsmöglichkeit, um mit Freunden, Bekannten oder Familienmitgliedern in Kontakt zu bleiben. Wird ein Konto gesperrt, verschwinden nicht nur ein Benutzername und ein Profilbild. Mit einem einzigen Klick können plötzlich sämtliche Kontakte, Nachrichtenverläufe und Gruppenmitgliedschaften verloren gehen. Für die Betroffenen bedeutet das oft, dass ein Teil ihres sozialen Netzwerks von einem Moment auf den anderen nicht mehr erreichbar ist.
Im Fall der 83-jährigen Frau hat die Sperre genau diese Folgen. Sie schrieb in ihrer Nachricht, dass sie soziale Kontakte hatte, die sie nun nicht mehr pflegen kann. Gerade für Menschen, die aufgrund gesundheitlicher Einschränkungen nicht mehr regelmäßig außer Haus gehen können, ist der digitale Austausch oft eine wichtige Verbindung zur Außenwelt. Wenn eine Plattform diese Verbindung plötzlich kappt, hat das reale Auswirkungen auf das Leben der Betroffenen.
Facebook begründet solche Entscheidungen in der Regel mit Verstößen gegen die eigenen Gemeinschaftsstandards oder mit dem Verdacht auf betrügerische Aktivitäten. Das Problem dabei ist, dass diese Begründungen häufig sehr allgemein formuliert sind. Begriffe wie „Betrug“ oder „Richtlinienverstoß“ sagen für den betroffenen Nutzer zunächst einmal sehr wenig aus. Ohne eine konkrete Beschreibung des angeblichen Fehlverhaltens bleibt unklar, was tatsächlich passiert sein soll.
Hinzu kommt ein weiteres grundlegendes Problem: die Rolle automatisierter Systeme. Bei Plattformen mit Milliarden Nutzern werden viele Entscheidungen zwangsläufig von Algorithmen getroffen. Automatische Systeme analysieren Aktivitäten, vergleichen Muster und entscheiden anschließend, ob ein Konto möglicherweise gegen Regeln verstoßen hat. Aus technischer Sicht ist das nachvollziehbar, denn eine manuelle Prüfung jedes einzelnen Kontos wäre bei dieser Größenordnung kaum möglich.
Doch genau hier zeigt sich die Kehrseite dieser Automatisierung. Jeder Programmierer weiß, dass es keinen zu hundert Prozent fehlerfreien Code gibt. Software enthält immer potenzielle Fehlerquellen, falsche Interpretationen oder Grenzfälle. Wenn Algorithmen Entscheidungen treffen, sind Fehlentscheidungen daher unvermeidlich. Das eigentliche Problem entsteht nicht durch die Existenz solcher Systeme, sondern durch das Fehlen einer funktionierenden Korrekturinstanz.
Wenn ein automatisches System ein Konto fälschlicherweise als problematisch einstuft, müsste es eigentlich eine einfache Möglichkeit geben, die Entscheidung von einem Menschen überprüfen zu lassen. Doch genau diese Möglichkeit fehlt bei Facebook für normale Nutzer in vielen Fällen. Wer nicht gerade Werbekunde ist oder über besondere Kontakte verfügt, hat praktisch keine Chance, einen Ansprechpartner zu erreichen. Stattdessen endet der Prozess häufig in einer automatisierten Sackgasse: Formular abgeschickt, Entscheidung getroffen, Vorgang beendet.
Selbst wenn Facebook eine Identitätsprüfung verlangt – etwa durch das Hochladen von Ausweisdokumenten oder durch eine Video-Identifikation – ist das keine Garantie dafür, dass ein Konto anschließend wieder freigeschaltet wird. Betroffene berichten immer wieder, dass sie die geforderten Schritte durchgeführt haben und ihr Konto trotzdem dauerhaft gesperrt blieb. In solchen Fällen gibt es anschließend oft keine weitere Möglichkeit mehr, gegen die Entscheidung vorzugehen.
Für Unternehmen ist Automatisierung natürlich verlockend. Ein Programm arbeitet rund um die Uhr, verursacht keine Gehaltskosten, benötigt keinen Urlaub und wird nicht krank. Bei einer Plattform mit Milliarden Nutzern liegt es nahe, möglichst viele Entscheidungen automatisierten Systemen zu überlassen. Doch je stärker solche Systeme eingesetzt werden, desto wichtiger wird ein funktionierender menschlicher Support, der Fehlentscheidungen korrigieren kann.
Genau hier liegt eines der zentralen Probleme. Für normale Facebook-Nutzer existiert bei Kontosperren kein erreichbarer Support. Betroffene landen stattdessen in automatisierten Formularprozessen, ohne jemals die Möglichkeit zu erhalten, mit einem Mitarbeiter zu sprechen.
Dass Facebook-Nutzer nach einer Sperre praktisch keine Möglichkeit haben, eine Entscheidung überprüfen zu lassen, ist keine theoretische Annahme. Ich habe diese Erfahrung selbst gemacht.
Die Facebook-Seite von aufgedeckt24 wurde zunächst gesperrt – mit dem Hinweis, eine Identitätsprüfung durchführen zu müssen. Dazu sollte ich per Video bestätigen, dass ich ein echter Mensch bin. Die Prozedur bestand darin, in die Kamera zu schauen und den Kopf nach links, rechts, oben und unten zu bewegen.
Nachdem diese Prüfung abgeschlossen war, folgte kurze Zeit später die nächste Mitteilung von Facebook: Das Konto sei dauerhaft gesperrt beziehungsweise gelöscht. Eine Begründung, warum die Seite trotz der durchgeführten Identitätsprüfung gelöscht wurde, gab es nicht. Ebenso wenig gab es eine Möglichkeit, diese Entscheidung mit einem Mitarbeiter zu klären.
Der Fall der 83-jährigen Frau zeigt diese Problematik besonders deutlich. Sie war mehr als zwei Jahrzehnte bei Facebook registriert. Nach eigenen Angaben nutzte sie das Netzwerk vor allem, um mit anderen Menschen zu kommunizieren. Von einem Tag auf den anderen verlor sie den Zugang zu ihrem Konto und damit auch zu ihren Kontakten. Eine genaue Erklärung erhielt sie nicht. Eine Möglichkeit, die Entscheidung mit einem Mitarbeiter zu klären, existiert offenbar ebenfalls nicht.
Facebook ist heute eines der größten sozialen Netzwerke der Welt und verbindet Milliarden Menschen miteinander. Gerade deshalb sollte man erwarten dürfen, dass Entscheidungen über Kontosperren transparent sind und überprüft werden können. Doch immer wieder zeigen Fälle wie dieser, dass zwischen dieser Erwartung und der tatsächlichen Realität eine erhebliche Lücke besteht.
Solange automatisierte Systeme über die Konten von Millionen Menschen entscheiden, wird es zwangsläufig auch Fehlentscheidungen geben. Umso wichtiger wäre es, dass Betroffene im Zweifelsfall einen erreichbaren Ansprechpartner haben, der solche Fälle prüfen kann. Doch genau daran scheint es bei Facebook weiterhin zu fehlen.
Der Fall der 83-jährigen Frau zeigt ein grundlegendes Problem moderner Plattformen: Entscheidungen mit teilweise erheblichen Folgen für die Betroffenen werden automatisiert getroffen, während gleichzeitig kein erreichbarer Ansprechpartner existiert, der mögliche Fehler überprüfen könnte. Wer von Facebook gesperrt wird, verliert unter Umständen nicht nur ein Onlinekonto, sondern auch den Zugang zu seinen sozialen Kontakten. Wenn ein Unternehmen mit Milliarden Nutzern solche Entscheidungen trifft, ohne den Betroffenen eine realistische Möglichkeit zur Klärung zu geben, ist das kein technisches Detail – sondern ein strukturelles Problem.
In ihrer Antwort auf den Artikelentwurf schrieb sie noch einen Satz, der das Problem vielleicht besser beschreibt als jede technische Diskussion über Algorithmen oder Plattformregeln:
„Ich befürchte nur, dass wegen meines fortgeschrittenen Alters und krankheitsbedingt einige Kontakte denken, ich sei verstorben.“
