Wenn die KI entscheidet: Wie Meta die Zukunft der Social-Media-Sicherheit gestalten will

Meta will bei einem wichtigen Thema vermehrt Künstliche Intelligenz statt Menschen einsetzen. Laut eines Berichts von News Public Radio (NPR) soll die Änderung die Datenschutz- und Integritätsprüfungen betreffen, die für neue Features bei Instagram, Whatsapp und Facebook obligatorisch sind.
In 90 Prozent der Fälle soll künftig die KI entscheiden, ob Softwarefunktionen potenziell mit Gefahren für einzelne User:innen oder die Gesellschaft einhergehen oder nicht. Gemeint sind damit etwa Verletzungen des Datenschutzes, die Gefährdung von Minderjährigen oder eine Verbreitung von schädlichen oder irreführenden Inhalten.
Nur wenige menschliche Püfer:innen sollen bleiben
NPR bezieht sich auf interne Dokumente, nach denen Meta den geplanten Einsatz der KI-Systeme als Steigerung der Effizienz bezeichnet. Davon profitieren sollen vor allem die hauseigenen Produktentwickler:innen, die neue Funktionen und Updates auf diese Weise viel schneller als bisher veröffentlichen können sollen.
Die Zahl der Mitarbeiter:innen, die aktuell mit der Prüfung beschäftigt sind, soll laut Bericht drastisch reduziert werden. Dagegen soll Meta in den internen Unterlagen betonen, dass „neuartige und komplexe Themen“ auch weiterhin von menschlichen Expert:innen beurteilt werden sollen.
Kritiker:innen sprechen der KI den Weit- und Durchblick ab
Während die KI-Systeme laut Meta lediglich Entscheidungen mit geringem Risiko alleine treffen soll, wittern Kritiker:innen in Gestalt von ehemaligen und aktuell beschäftigten Angestellten von Meta ein durchaus großes Gefahrenpotenzial. Sie bezweifeln, dass die KI in der Lage ist, die Reichweite von potenziellen Folgen bestimmter Funktionen in der realen Welt korrekt einzuschätzen.
Was ihnen vor allem Sorgen bereitet, ist der Umstand, dass Meta der KI auch besonders sensible Themen anvertrauen will. So soll laut der internen Dokumente beispielsweise der Jugendschutz automatisiert werden.
In der EU gelten andere Regeln
Ebenfalls im Verantwortungsbereich der KI lägen dann Entscheidungen, die gezielt falsche oder gewalttätige Inhalte betreffen. Anders als zum Beispiel in den USA als Heimatland des US-Konzerns gelten in der EU schärfere Schutzmaßnahmen für die User:innen.
Die EU-Kommission hat bereits ein Verfahren gegen Meta eingeleitet, bei dem es um verschiedene Vorwürfe geht. In dessen Rahmen wird nun geprüft, ob Meta gegen EU-Regeln im Umgang mit politischer Werbung verstoßen hat, ob Nutzer:innen adäquate Möglichkeiten zur Verfügung stehen, sich über bestimmte Inhalte zu beschweren und ob Meta unabhängigen Forscher:innen Zugang zu Daten gewährt.