TECH

Wie YouTube versucht, Milliarden im Zaum zu halten

Sven Krumrey

YouTube, Facebook und viele andere Medien stehen vor einem Problem: Es wird jede Menge Schund über sie verbreitet. Das war nie anders, nahm jedoch bedrohliche Züge an, als Extremisten jeglicher Couleur diese Kanäle zunehmend für Propaganda und gewaltverherrlichende Inhalte nutzten. Weil immer neue Gesetze ein Löschen fordern und Werbekunden massiv Druck machen, stehen die Giganten nun vor einem Problem: Wir wird man mit der puren Masse fertig? Wir reden von Milliarden Postings und Videos, die gesichtet werden müssen, weil sonst Strafen drohen. Das Zauberwort heißt hier künstliche Intelligenz (KI). Doch sind Algorithmen hier wirklich die Lösung?

Kann künstliche Intelligenz gleichwertig den Menschen ersetzen?

Damit klar wird, was hier verwaltet werden soll, ein Beispiel: Pro Minute werden bei YouTube 500 Stunden Videos hochgeladen – Tendenz steigend. Um sie zu sichten und gegebenenfalls zu löschen, wären mehrere hunderttausende Angestellte nötig. Das wäre natürlich eine tolle Möglichkeit, auch ein großer Arbeitgeber zu werden – genug Geld ist im Hause Google allemal da! Statt aktuell bescheidenen 80000 Mitarbeitern weltweit könnte man zusätzlich geschätzte 2500000 Menschen in Lohn und Brot bringen und somit etwas von den verdienten Milliarden wieder zurückgeben. Das macht man natürlich nicht. Die Gewinne würden sinken und die Aktionäre mit Selbstverbrennung drohen, also lässt man es lieber die Technik machen.

Und das geht so: Menschliche Mitarbeiter hatten 2 Millionen Videos markiert, die gelöscht werden sollten. Auch wenn man sich nicht genau in die Karten schauen lässt, dürften diese Videos entsprechend mit Markern versehen worden sein: Weshalb werden sie gelöscht, was wird Verbotenes gezeigt? Selbstlernende Maschinen analysierten dann die komplette Datenmenge. Von ihnen wurden die Texte der Tonspur erforscht, aber auch, was in den Videos gezeigt wird. Menschen, Gegenstände und Zusammenhänge (oder auch Situationen) wurden dabei weitgehend erkannt. Abschließend wurden auch Einblendungen erfasst, so z.B. Symbole politischer oder religiöser Vereinigungen. Was gesucht werden sollte: Gewaltverherrlichende Inhalte, Terrorpropaganda, Hassreden, SPAM und natürlich nackte Tatsachen.

Schon heute ersetzt künstliche Intelligenz viele menschliche Mitarbeiter Schon heute ersetzt künstliche Intelligenz viele menschliche Mitarbeiter

Die Algorithmen werden dabei immer weiter verfeinert. Wo sieht man einen Bombenanschlag, wo ein Hakenkreuz, wo gar eine unverhüllte, weibliche Brust? Während man früher schon blitzschnell bei Pornographie war, rücken nun auch die anderen „verbotenen Bereiche“ in den Vordergrund und werden besser und zahlreicher erkannt. Ist ein Video zu beanstanden, bekommt es einen Marker und wird vom Portal entfernt. Von über 8 Millionen gelöschten Videos waren zuletzt glatte 6,6 Millionen durch die KI erkannt worden, menschliche Mitarbeiter und Tippgeber unter den Zuschauer besorgten den Rest. Viele Videos wurden nicht mal veröffentlicht. Klar, dass YouTube diese Statistik nun abfeiert und sich schon als sicheres, gesetzeskonformes Videoportal ansieht. Doch steckt der Teufel auch hier im Detail.

Denn die Problemfälle häufen sich. Die Technik entscheidet nicht immer wie gewünscht. Filme über Kriegsverbrechen, die in den Bereich der politischen Bildung gehören, wurden ebenso fälschlicherweise gelöscht, wie historische Dokumentationen. Hier erkennen die Algorithmen zwar irgendwie, dass es um Gewalt und die Darstellung menschenverachtender Praktiken geht – erkennen jedoch nicht die Intention hinter den Videos. Genau da liegen (Stand heute) die Grenzen der künstlichen Intelligenz: Sie kann erkennen, dass das Gezeigte grenzwertig ist, versteht aber (noch) nicht den Sinn dahinter. Auch im Bereich freizügiger Inhalte schießt man noch übers Ziel hinaus: Darstellungen von Akten, wie in bildender Kunst üblich, missfielen der virtuellen Jury ebenfalls und wurden gelöscht. Denn wie sollen Algorithmen den Unterschied zwischen Nacktheit in der Kunst und einem obszönen Heimvideo erkennen? Es scheint so, als wenn man auf den gesunden Menschenverstand doch nicht ganz verzichten könnte.

Wo verbergen sich illegale Inhalte in den unzähligen Videos? Wo verbergen sich illegale Inhalte in den unzähligen Videos?

Auch Satire geht über den Horizont der Maschinen hinaus. Wenn Monty Pythons Nazis in Sketchen verulken, können viele Menschen darüber lachen – Computer haben aber keinen Humor. Je näher eine Satire dabei am „Original“ bleibt, desto schneller steht eine automatische Löschung an. Und so sehen zahlreiche Nutzer eine Art digitaler Inquisition heraufziehen. Sie begrüßen es zwar, dass YouTube nicht mehr ein Sammelbecken extremistischer, hasserfüllter oder verwirrter Geister ist, beklagen aber den ungezielten Rundumschlag der künstlichen Intelligenz. Investigative Journalisten oder Organisationen, die Kriegsverbrechen dokumentieren, sehen sich der kompletten Sperrung ihrer Kanäle ausgesetzt. Jugendfreie Videos von Gartenpartys wurden gelöscht, weil die KI nackte Haut falsch interpretierte. Vorsichtige Pädophile, die sämtliche Klippen der KI umschiffen, bleiben hingegen ungeschoren, Ihre Videos sind zu dezent, um automatisch erkannt zu werden. Zwischentöne können mit keinem Algorithmus entschlüsselt werden.

In absehbarer Zukunft wird man auf Menschen nicht verzichten können, wenn es darum geht, Feinheiten einschätzen zu können. Möchte YouTube nicht seine Relevanz verlieren, müssen verbindliche Standards eingehalten werden. Auch Transparenz ist wichtig: Nutzer bekommen derzeit nicht mal gesagt, weshalb ihre Videos gesperrt wurden. Man verspricht aber, Einsprüche gegen Löschungen in Zukunft zeitnah zu beantworten und mehr Einblicke in die Umsetzung der Richtlinien zu geben. Das sollte selbstverständlich sein, ist aber bei YouTube als Fortschritt zu werten. Auch wurde zusätzliches Personal rekrutiert, wenn auch in eher bescheidenem Maße. Man traut seiner KI wohl selbst nicht über den Weg, immerhin eine Art von Selbsterkenntnis.

Was mich interessieren würde: Glauben Sie, dass künstliche Intelligenz hier angebracht ist? Oder braucht es doch den gesunden Menschenverstand?

Zurück zur Übersicht

Kommentar schreiben

Bitte melden Sie sich an, um zu kommentieren.