So schützen unsere Abwehrsysteme unsere Mitglieder vor missbräuchlichen Inhalten

Unser Trust & Safety (TnS) Team sorgt dafür, dass unsere Plattform eine sichere und vertrauenswürdige Umgebung für unsere Mitglieder bleibt, indem es Inhalte, die nicht unseren Community-Richtlinien entsprechen, von LinkedIn fernhält. In diesem Blogbeitrag zeigen wir Ihnen, wie wir gewährleisten, dass der Austausch auf unserer Plattform respektvoll und professionell bleibt.

Auf LinkedIn werden jede Minute große Mengen an Inhalten erstellt und geteilt, von Artikeln und Nachrichten bis hin zu Bildern und Videos. Um unsere Mitglieder zu schützen, filtern wir Inhalte im Feed und in privaten Nachrichten heraus, die gegen unsere Richtlinien verstoßen. Dabei verfolgen wir einen mehrstufigen Sicherheitsansatz. 

Wie wir Inhaltsverstöße auf LinkedIn abwehren

1. Sicherheitsstufe: Automatisierte Prävention

Die erste Sicherheitsstufe unseres Abwehrsystems ist die automatisierte Prävention. Sobald ein Mitglied Inhalte auf LinkedIn erstellt, werden unsere Machine-Learning-Services mehrfach aktiviert. Sie filtern innerhalb von 300 Millisekunden automatisch nicht konforme Inhalte heraus. Es sieht also nur der:die Autor:in den Inhalt und niemand sonst auf der Plattform. 

Mithilfe künstlicher Intelligenz können wir proaktiv nonkonforme Inhalte herausfiltern und unseren Mitgliedern ein ansprechendes und sicheres Nutzungserlebnis bieten. Inhalte (wie bestimmte Keywords oder Bilder), die bereits als Richtlinienverstöße identifiziert wurden, werden in unser KI-Modell eingespeist. So können wir ähnliche Inhalte leichter finden und ihre zukünftige Verbreitung verhindern. 

Um zu ermitteln, wie viele Inhaltsverstöße erfolgreich verhindert wurden und wie viele problematische Inhalte trotzdem auf die Plattform gelangt sind, stellt unser Data-Science-Team regelmäßig Berechnungen an. Inhalte, die proaktiv bei der Erstellung entfernt wurden, werden über eine Datenpipeline getrackt. Außerdem überprüfen wir unsere präventiven Abwehrsysteme regelmäßig, um den Filtervorgang zu optimieren. Dafür lassen wir einige als problematisch identifizierte Inhalte von unseren Expert:innen überprüfen. So finden wir heraus, wie präzise unser automatisiertes Abwehrsystem ist. Denn gute Inhalte sollen dieser Automatisation nicht zum Opfer fallen.

Wichtige Kennzahlen zur Prävention von Inhaltsverstößen:

  1. Anzahl „abgewandt“ = Inhaltsverstöße, die bei der Erstellung automatisch entfernt wurden

  2. Genauigkeit = korrekterweise entfernte Inhalte geteilt durch Inhalte, die bei der Erstellung automatisch entfernt wurden

  3. Prozentsatz „abgewandt“ = Inhaltsverstöße, die bei der Erstellung automatisch entfernt wurden, geteilt durch alle Inhaltsverstöße auf LinkedIn. Die Gesamtzahl der Inhaltsverstöße ist die Summe aus abgewandten, identifizierten und noch nicht identifizierten Inhalten (geschätzt).

2. Sicherheitsstufe: Kombination aus automatisierter und menschlicher Erfassung

Auf der zweiten Sicherheitsstufe werden Inhalte identifiziert, die mit hoher Wahrscheinlichkeit gegen unsere Richtlinien verstoßen. Jedoch ist der Algorithmus nicht sicher genug, um diese Inhalte automatisch zu entfernen. Deshalb werden diese Inhalte von unseren KI-Systemen gemeldet und müssen von Expert:innen überprüft werden. Stellen diese fest, dass der Inhalt gegen unsere Richtlinien verstößt, wird er von LinkedIn entfernt. 

3. Sicherheitsstufe: Menschliche Erfassung

Die dritte und letzte Stufe unseres Abwehrsystems erfolgt über unsere Mitglieder, die problematische Inhalte auf der Plattform melden. Diese werden dann von unserem Team nochmals überprüft und entfernt, wenn sie tatsächlich gegen unsere Richtlinien verstoßen.

Die zweite und dritte Sicherheitsstufe unseres Abwehrsystems fallen beide in die Kategorie „Erfassung“. Das heißt, Inhaltsverstöße wurden identifiziert und haben sich möglicherweise auf die Nutzungserfahrung unserer Mitglieder ausgewirkt, da einige von ihnen diese Inhalte eventuell gesehen haben, bevor sie entfernt oder ausgeblendet werden konnten. 

Im Rahmen der Erfassung werden Inhalte, die von unseren Expert:innen überprüft und gekennzeichnet wurden, über eine Datenpipeline getrackt. Diese Pipeline erfasst die vorgenommenen Maßnahmen der Prüfer:innen. Ein Teil der bereits gekennzeichneten Inhalte wird außerdem erneut kontrolliert, um die Genauigkeit unserer menschlichen Überprüfung zu messen. Aus dem Vergleich der Ergebnisse der ursprünglichen und kontrollierten Überprüfungen leiten wir die sogenannte Qualitätsbewertung her. Diese Bewertung vergleicht die Kennzeichnungen und Unter-Kennzeichnungen des geprüften Inhalts, sodass wir unsere Genauigkeit beim Erfassen nichtkonformer Inhalte detaillierter messen können.

Wichtige Kennzahlen zur Identifizierung von Inhaltsverstößen:

  1. Anzahl „identifiziert“ = Inhaltsverstöße, die durch menschliche Überprüfung herausgefiltert wurden

  2. Qualitätsbewertung = korrekterweise gekennzeichnete Inhalte geteilt durch alle durch menschliche Überprüfung gekennzeichneten Inhalte

  3. Prozentsatz „identifiziert“ = durch menschliche Überprüfung herausgefilterte Inhaltsverstöße geteilt durch alle Inhaltsverstöße auf LinkedIn

Neben den abgewandten und den identifizierten Inhaltsverstößen gibt es noch die nicht identifizierten Inhaltsverstöße. Da diese Daten nicht getrackt werden können, schätzen wir die Anzahl der nicht identifizierten problematischen Inhalte, indem wir eine Stichprobe aller Inhalte auf der Plattform von unseren Expert:innen überprüfen lassen. Das Ergebnis rechnen wir hoch und erhalten damit eine Schätzung zum Umfang der nicht identifizierten problematischen Inhalte. Bei zufälligen Stichproben bräuchten wir einen extrem großen Stichprobenumfang für diese Schätzung. Daher nutzen wir geschichtete Zufallsstichproben, das heißt wir verwenden die Bewertungen unserer Machine-Learning-Klassifikatoren und erhöhen so die Wahrscheinlichkeit, Inhaltsverstöße in unseren Stichproben zu erfassen. Dadurch können wir den Stichprobenumfang verringern und gleichzeitig die Genauigkeit unserer Schätzung beibehalten.

Wichtige Kennzahlen für nicht identifizierte Inhaltsverstöße:

  1. Anzahl „nicht identifiziert“ = geschätzte Anzahl der Inhaltsverstöße auf LinkedIn

  2. Prozentsatz „nicht identifiziert“ = geschätzte Anzahl der Inhaltsverstöße auf LinkedIn geteilt durch alle Inhaltsverstöße auf LinkedIn

  3. Prozentsatz „Aufrufe nicht identifizierter Inhaltsverstöße“ = geschätzte Anzahl der Aufrufe von nicht identifizierten problematischen Inhalten geteilt durch die Gesamtaufrufe auf LinkedIn

Von „nicht identifiziert“ zu „abgewandt“

Dieser dreistufige Ansatz mit den Ebenen abgewandte, identifizierte und nicht identifizierte Inhalte ist Teil unseres Sicherheitstrichters. Unseren Erfolg definieren wir anhand des Prozentsatzes der abgewandten und identifizierten Inhaltsverstöße. Deshalb arbeiten wir kontinuierlich daran, die Anzahl der nicht identifizierten Inhaltsverstöße zu verringern.

content-violation-funnel-and-key-metrics

Kontinuierliche Verbesserung

Unsere Mission lautet: Fach- und Führungskräfte aus aller Welt vernetzen, damit sie noch leistungsstärker und erfolgreicher sein können. Daher ist uns wichtig, Inhalte, die gegen unsere Richtlinien verstoßen, schnell zu identifizieren und entsprechende Schutzmaßnahmen zu ergreifen, damit unsere Mitglieder und Kund:innen unsere Plattform sicher nutzen können. Diesen Weg verfolgen wir stetig weiter und konnten bereits Erfolge verzeichnen: Unserem neuesten Transparenzbericht zufolge wurden in der ersten Hälfte des Jahres 2021 fast 66,3 Millionen Inhaltsverstöße von der Plattform entfernt (davon wurden 99,6 % über unser automatisiertes Abwehrsystem herausgefiltert). 

Ob beim Schaffen einer sicheren Plattform zur Jobsuche, beim Entfernen unangemessener Profile oder beim Vorgehen gegen beleidigende oder verletzende Inhalte: Es liegt in unserer Verantwortung, eine sichere und vertrauenswürdige Community auf LinkedIn zu fördern. In unserem aktuellen Transparenzbericht erfahren Sie mehr über diese Sicherheitsmaßnahmen.

Danksagungen

Zahlreiche LinkedIn Teams arbeiten gemeinsam an einer sicheren und vertrauenswürdigen Plattform für unsere Mitglieder. Die Teams Trust AI, Trust Infrastructure, Multimedia AI, Trust & Safety, Trust Product, Legal, Public Policy, Content Policy, Trust Data Science, Content Experience und Feed AI leisten alle ihren Beitrag dazu, dass LinkedIn sicher bleibt. Ein besonderer Dank gilt unseren aufmerksamen Mitgliedern, deren geschätzte Mithilfe erheblich zu dieser Sicherheit beiträgt.


Related articles