YouTube, Facebook und viele andere Medien stehen vor einem Problem: Es wird jede Menge Schund über sie verbreitet. Das war nie anders, nahm jedoch bedrohliche Züge an, als Extremisten jeglicher Couleur diese Kanäle zunehmend für Propaganda und gewaltverherrlichende Inhalte nutzten. Weil immer neue Gesetze ein Löschen fordern und Werbekunden massiv Druck machen, stehen die Giganten nun vor einem Problem: Wir wird man mit der puren Masse fertig? Wir reden von Milliarden Postings und Videos, die gesichtet werden müssen, weil sonst Strafen drohen. Das Zauberwort heißt hier künstliche Intelligenz (KI). Doch sind Algorithmen hier wirklich die Lösung?
Damit klar wird, was hier verwaltet werden soll, ein Beispiel: Pro Minute werden bei YouTube 500 Stunden Videos hochgeladen – Tendenz steigend. Um sie zu sichten und gegebenenfalls zu löschen, wären mehrere hunderttausende Angestellte nötig. Das wäre natürlich eine tolle Möglichkeit, auch ein großer Arbeitgeber zu werden – genug Geld ist im Hause Google allemal da! Statt aktuell bescheidenen 80000 Mitarbeitern weltweit könnte man zusätzlich geschätzte 2500000 Menschen in Lohn und Brot bringen und somit etwas von den verdienten Milliarden wieder zurückgeben. Das macht man natürlich nicht. Die Gewinne würden sinken und die Aktionäre mit Selbstverbrennung drohen, also lässt man es lieber die Technik machen.
Und das geht so: Menschliche Mitarbeiter hatten 2 Millionen Videos markiert, die gelöscht werden sollten. Auch wenn man sich nicht genau in die Karten schauen lässt, dürften diese Videos entsprechend mit Markern versehen worden sein: Weshalb werden sie gelöscht, was wird Verbotenes gezeigt? Selbstlernende Maschinen analysierten dann die komplette Datenmenge. Von ihnen wurden die Texte der Tonspur erforscht, aber auch, was in den Videos gezeigt wird. Menschen, Gegenstände und Zusammenhänge (oder auch Situationen) wurden dabei weitgehend erkannt. Abschließend wurden auch Einblendungen erfasst, so z.B. Symbole politischer oder religiöser Vereinigungen. Was gesucht werden sollte: Gewaltverherrlichende Inhalte, Terrorpropaganda, Hassreden, SPAM und natürlich nackte Tatsachen.
Schon heute ersetzt künstliche Intelligenz viele menschliche Mitarbeiter
Die Algorithmen werden dabei immer weiter verfeinert. Wo sieht man einen Bombenanschlag, wo ein Hakenkreuz, wo gar eine unverhüllte, weibliche Brust? Während man früher schon blitzschnell bei Pornographie war, rücken nun auch die anderen „verbotenen Bereiche“ in den Vordergrund und werden besser und zahlreicher erkannt. Ist ein Video zu beanstanden, bekommt es einen Marker und wird vom Portal entfernt. Von über 8 Millionen gelöschten Videos waren zuletzt glatte 6,6 Millionen durch die KI erkannt worden, menschliche Mitarbeiter und Tippgeber unter den Zuschauer besorgten den Rest. Viele Videos wurden nicht mal veröffentlicht. Klar, dass YouTube diese Statistik nun abfeiert und sich schon als sicheres, gesetzeskonformes Videoportal ansieht. Doch steckt der Teufel auch hier im Detail.
Denn die Problemfälle häufen sich. Die Technik entscheidet nicht immer wie gewünscht. Filme über Kriegsverbrechen, die in den Bereich der politischen Bildung gehören, wurden ebenso fälschlicherweise gelöscht, wie historische Dokumentationen. Hier erkennen die Algorithmen zwar irgendwie, dass es um Gewalt und die Darstellung menschenverachtender Praktiken geht – erkennen jedoch nicht die Intention hinter den Videos. Genau da liegen (Stand heute) die Grenzen der künstlichen Intelligenz: Sie kann erkennen, dass das Gezeigte grenzwertig ist, versteht aber (noch) nicht den Sinn dahinter. Auch im Bereich freizügiger Inhalte schießt man noch übers Ziel hinaus: Darstellungen von Akten, wie in bildender Kunst üblich, missfielen der virtuellen Jury ebenfalls und wurden gelöscht. Denn wie sollen Algorithmen den Unterschied zwischen Nacktheit in der Kunst und einem obszönen Heimvideo erkennen? Es scheint so, als wenn man auf den gesunden Menschenverstand doch nicht ganz verzichten könnte.
Wo verbergen sich illegale Inhalte in den unzähligen Videos?
Auch Satire geht über den Horizont der Maschinen hinaus. Wenn Monty Pythons Nazis in Sketchen verulken, können viele Menschen darüber lachen – Computer haben aber keinen Humor. Je näher eine Satire dabei am „Original“ bleibt, desto schneller steht eine automatische Löschung an. Und so sehen zahlreiche Nutzer eine Art digitaler Inquisition heraufziehen. Sie begrüßen es zwar, dass YouTube nicht mehr ein Sammelbecken extremistischer, hasserfüllter oder verwirrter Geister ist, beklagen aber den ungezielten Rundumschlag der künstlichen Intelligenz. Investigative Journalisten oder Organisationen, die Kriegsverbrechen dokumentieren, sehen sich der kompletten Sperrung ihrer Kanäle ausgesetzt. Jugendfreie Videos von Gartenpartys wurden gelöscht, weil die KI nackte Haut falsch interpretierte. Vorsichtige Pädophile, die sämtliche Klippen der KI umschiffen, bleiben hingegen ungeschoren, Ihre Videos sind zu dezent, um automatisch erkannt zu werden. Zwischentöne können mit keinem Algorithmus entschlüsselt werden.
In absehbarer Zukunft wird man auf Menschen nicht verzichten können, wenn es darum geht, Feinheiten einschätzen zu können. Möchte YouTube nicht seine Relevanz verlieren, müssen verbindliche Standards eingehalten werden. Auch Transparenz ist wichtig: Nutzer bekommen derzeit nicht mal gesagt, weshalb ihre Videos gesperrt wurden. Man verspricht aber, Einsprüche gegen Löschungen in Zukunft zeitnah zu beantworten und mehr Einblicke in die Umsetzung der Richtlinien zu geben. Das sollte selbstverständlich sein, ist aber bei YouTube als Fortschritt zu werten. Auch wurde zusätzliches Personal rekrutiert, wenn auch in eher bescheidenem Maße. Man traut seiner KI wohl selbst nicht über den Weg, immerhin eine Art von Selbsterkenntnis.
Was mich interessieren würde: Glauben Sie, dass künstliche Intelligenz hier angebracht ist? Oder braucht es doch den gesunden Menschenverstand?
@Christian: wenn's dem bösen Nachbarn nicht gefällt...., aber ganz klar, wenn ich mal von WW I absehe, irgendwie hat immer ein Verbrecher an der Schraube gedreht
Eine andere Frage die zwar nichts mit der KI zu tun hat aber mir sehr wichtig ist. Es wir oft über "Kriegsverbrechen" gesprochen. Ist ein Krieg nicht ein Verbrechen selbst ?
Eine sehr schöne Frage. Geht man nach Carl von Clausewitz, ist der Krieg ja eigentlich die Fortführung der Politik mit anderen Mitteln. Was es auf jeden Fall ist: Eine Kapitulation des gesunden Menschenverstandes.
Wenn ich mir die voran gegangenen Kommentare so ansehe... Hat jemand schon darüber nachgedacht was passiert wenn die KI sich selbst ins Jenseits befördert in dem sie sich den Lebenswichtigen Elixir (Strom) selbst abstellt.
Das erinnert mich schon an Marvin, den depressiven Roboter von "Per Anhalter durch die Galaxis". :)
Außerdem müssten den Uploadern harte Strafen drohen, wenn sie abartige Videos hochladen..
Bei Dokus über Kriegsverbrechen könnten auch Links gestzt werden, quasi als Referenz/Quellenangaben bzw. Vergleich zum Geschichtsverlauf, usw... es gäbe genug Lösungen...
Google prüft beatimmt auch darauf, wie viele Videos eines Users hochgeladen wurden und ob alles nur Gewaltvideos waren... usw...
Fur Historienfilme könnte man auch Lizenzen vergeben.... etc.. usf...
es wird massig Ideen geben...
Die Masse kann nur über Masse erledigt werden...
Die markierten, selektierten Videos gehören ausgesondert in einem gesperrten Bereich. Registrierte Frewillige (über 21 Jahre) auf der ganzen Welt werden die Videos (like Wikipedia!!) dann bewerten und die Statistik (like Facebook) wird zeigen, welche Videos zulässig sind. Dafür gibt es genug Algorithmen.
Das Risiko der Ausstrahlung muss eingegangen werden. Hier kann der nornale User (Volljährigkeit vorausgesetzt) dann mit bestimmen, abstimmen und frei geben oder sperren.. usw..
Außerdem ersieht man wer die Videos anklickt. Mehr Verifizierung like Finanzonline mit Bürgerkarte. Wer solche Videos sehen will, der muss sich über Bürgerkarte / Signatur einloggen.
die Priorität muss an gewaltfreien Videos hängen, nicht an nackter Haut - typisch puretanischer Zwang in den USA.
Das mit der nackten Haut erscheint vielen Europäern auch als etwas befremdlich. Aber so sind sie halt. Jeder Nippel könnte Zuschauer ja in ewige Verdammnis stürzen. :)
Hochinteressante Beiträge hier. Meiner Auffassung nach besitzt keine KI Empathie. Das wäre aber ein entscheidender Marker, wenn ich automatisierte Prozesse bei Sperrung oder Löschung von YT Clips setze. Algorithmen werden noch Ewigkeiten brauchen, bis das gelingen wird. Es wurde ja schon im Beitrag darauf verwiesen, das Gewalt in einer Doku andere Wertigkeiten haben muss, als Kriegs Greul. Auch das empathische Element der Bewertung eines Clips, der einen gewissen Zeitgeist widerspiegelt, dürfte extrem schwer in ein Programm zu pressen sein. Und da genau liegt das Problem. Wie programmiert man einen Algorithmus der das filigrane erfassen kann, das unausgesprochen zwischen den Zeilen steht. Ich denke, - gar nicht. Hier versagt jede KI und nur Menschen können das. Wie sie es dann wiederum machen, hänt vom jeweiligen Zeitgeist ab und hier schließt sich der Kreis wieder. Es müssen Menschen mit dieser Aufgabe betraut werden, alles andere greift viel zu kurz. Aber wie sagte ein deutscher Literat: erst kommt das fressen, dann die Moral. Genau so wird es auch bei YT oder Google und Co. laufen. Aber besser ein wenig getan, als Garnichts.
eine KI kann und darf nur eine Vorauswahl treffen und dann einen Marker = kritsch setzen. Dann muss ein Mensch dieses Video, diesen Komentar verifizieren.
Aber auch da gibt es eine Krux!
Ob ein Pakistani eine deutsche Satiere auch als solche erkennt?
Ich bestreite das. Ebenso gute und wichtige Dokumentationen.
Viele Grüße vom Niederrhein
R. Huehn
Andreas Schnalke,
sehr interessante Diskussion! Es sollte uns allen klar sein, dass irgendwann die KI über Leben und Tod eines Menschen entscheiden wird oder muß. Dieser zugegeben noch "lange Weg beginnt mit dem ersten Schritt". Ist doch gut wenn wir da bei YT und Co. anfangen, da können wir üben, üben, üben.
Moin Herr Krumrey, Moin zusammen.
Vielen Dank, wieder ein ganz wichtiges Thema.
Der Zug rollt, und niemand wird KI stoppen können.
Mich beruhigt aber ungemein, dass die menschliche Intelligenz von dieser Technik niemals erreicht werden kann.
Das letzte Wort hat immer noch der Mensch und wird es behalten.
Gott sei gepfiffen und getrommelt!
Liebe Grüße aus Flensburg
Dieter Striegel
Moin Herr Striegel, ich frage mich manchmal, ob der Blog, der ja auch gerne mal sarkastisch ist oder Dinge satirisch überspitzt, von einer KI irgendwie in seinem Sinn erfasst werden könnte. Ich tendiere zum Nein.
Das grundsätzliche Problem sehe ich darin, dass hier eine immer stärkere Kontrolle ausgeübt wird und demnächst nur noch Informationen verbreitet werden dürfen, die systemkonform sind. Und ich rede nicht von gewaltverherrlichenden, sexuellen oder rassistischen Informationen, auch eine realistischere Sicht auf weltpolitisches Geschehen als vom Mainstream verbreitet kann dann ganz schnell unterbunden werden.
In wie weit Algorithmen dies alles erledigen können, ist für mich erst die zweite Frage. Zumindest sollten Personen, deren Videos gelöscht wurden, diese zur manuellen Prüfung einreichen können.
Und Danke für diesen mal wieder sehr interessanten Beitrag.
Ein interessantes Thema, dass mich schon lange umtreibt, ist die Automatisierung von Funktionen durch Maschinen. Früher war es z.B. die Dampfmaschine, die den Menschen schwere Arbeit abnahm, ihn aber auch zum Bediener der Maschinen machte. Der Mensch musste die Maschine so bedienen, wie es die Maschine erforderte, er konnte nicht frei entscheiden. Je mehr Fähigkeiten die Maschinen bekamen, umso mehr wurde der Mensch zum Sklaven der Maschinen. Die Arbeit wurde zwar einfacher und leichter, aber durch die Maschinen bestimmt. Wer heute einen Computer oder ein Smartphone benutzt, muss die Regeln, die das Gerät vorgibt, beherrschen, sonst kommt er nicht zum Ziel.
Um es noch bequemer zu machen, werden "Assistenten" entwickelt, die - ganz modern - KI nutzen, z.B Kamera-Apps bei Smartphones. Je mehr Assistenten mir das Leben erleichtern (angeblich!), desto denkfauler werde ich - der Assi wird's schon machen. Der Bewegungsmelder macht das Licht an, die Zeitschaltuhr startet den Kaffeeautomaten und öffnet die Jalousien. Im Auto muss ich nicht auf die Geschwindigkeit beim Kurvenfahren achten, der Assistent regelt das. Demnächst kann ich mit Vollgas auf das Auto vor mir zufahren, der Bremsassistent macht das schon.
Wenn der Mensch immer mehr Verantwortung für sein eigenes Leben an Automaten und Assistenten delegiert, wird er immer unmündiger. Dann erleben wir genau das, was in den Blog beschrieben ist: Automaten entscheiden mit KI, aber ohne Hirn, einzig nach ihren Algorithmen. Die wiederum sind nur so gut wie der Programmierer, der sie geschrieben hat und enthalten ein Wertesystem, das nicht meines sein muss. Das ganze ist aus gesamtgesellschaftlicher und demokratischer Sicht extrem problematisch.
Den Begriff "Künstliche Intelligenz" finde ich nicht so verkehrt. Künstliches setzt eine Kunst voraus - hier ist die Kunst nicht allzu schwer, aber nur von Menschen zu bewältigen. Lediglich die natürliche Intelligenz sollte dabei immer eingeschaltet sein!
Mir gefällt bei diesem Thema ein konservatives Vorgehen - da kommt der Andrenalin-Schub der Panikmacher erst gar nicht zum Zug. Allerdings sind auch die Horrorszenarien nicht ganz von der Hand zu weisen. Wer bereits die Arbeit mit schwacher KI kennengelernt hat, weiß höchstwahrscheinlich, dass der "Turbo-Effekt" durch viele gute Treffer auf den Anwender abfärbt - das Tempo ist rasant, aber bei einem kühlen Kopf definitiv beherrschbar...
Ich glaube, an vielen Stellen ist künstliche Intelligenz das falsche Wort. Ich würde es "maschinelle Intelligenz" nennen, das drückt vielleicht mehr die Grenzen der KI aus. Auch wenn der Vergleich vielleicht hinken mag, eins frage ich mich: Google hat selbstfahrende Autos, schafft es aber nicht bei Videos zu unterscheiden? Was macht dann ein selbstfahrendes Auto, das voll von "maschineller Intelligenz" ist? Wie viele "False Positives" gibt es dort und damit wie viele Tote oder Verletzte? Wenn es die Programmierer nicht schaffen bei Videos die Inhalte zu klassifizieren, wie wollen die denn das bei selbstfahrenden Autos schaffen?
Übrigens... Interessanter Blogbeitrag, der durchaus dazu anregt, sich mit dem Thema zu beschäftigen.
Ach, da hätte ich noch ein Beispiel aus YT: Einmal wurde mir ein eigenes Video wegen Copyrightverletzung bei Musik gesperrt. Alle Einsprüche meinerseits halfen nicht. Der Joke dabei: Ich hatte vom Musiker selber (schriftlich per e-Mail) die Erlaubnis seine Musik zu verwenden und den Film zu veröffentlichen. Die Musik war ausserdem GEMA frei. Zu dem Zeitpunkt hatte aber YT Schwierigkeiten mit der GEMA und hat einfach alles gesperrt, was der Algorithmus "meinte" erkannt zu haben. Ohne Prüfung. Und da sind wir wieder bei Deinem Thema: KI kann so einen Fall nicht lösen, da müssen Leute her, die das prüfen. Und die stellt Google nicht an, sondern löscht einfach.
Ach übrigens, ich "musste" Ende der Siebziger "1984" in der Schule lesen. Damals Science Fiction...
Ich habe eher Schwierigkeiten mit dem Intelligenz-Begriff. :) Denn wirkliche Intelligenz in diesem heiklen Bereich beginnt m.E. erst bei Zusammenhängen, Feinheiten und Abwägungen.
Grundsätzlich bin ich eher ein Befürworter von künstlicher Intelligenz. Die Art von KI, wie sie bisher verwendet wird, kann sowieso viel weniger, als manch ein Verschwörungstheoretiker befürchtet, von selbstständigem Denken und Lernen kann da eigentlich gar nicht die Rede sein, und mit dem bisher gewählten Ansatz wird sich daran auch nichts ändern.
Allerdings ist sie genau deswegen für manche Aufgabenbereiche nicht geeignet. Die Daten zum Lernen und die, über die entschieden werden soll werden mit klassischen Algorithmen aufbereitet, sodass die KI in gewisser Weise über Ähnlichkeit in den einzelnen Aspekten urteilen kann. Mehr macht die KI nicht, sie ist mathematisch gesehen einfach nur eine Funktion, deren Parameter dahingehend angepasst wurden, dass sie für die Trainingsdaten die gewünschten Ergebnisse liefert, für ähnliche Daten liefert sie entsprechend ähnliche Ergebnisse.
Eine Interpretation des Inhaltes ist auf diese Weise vollkommen unmöglich, sie wäre aber im Falle von Youtube nötig, um richtig urteilen zu können. Eine Vorauswahl, welche Inhalte möglicherweise kritisch sind, ist damit aber ziemlich gut zu erreichen, die wenigen Inhalte, die das umgehen, müssen letztendlich aber doch von den Nutzern gemeldet werden.
Ich mag in diesem Zusammenhang nicht mal den Terminus "künstliche Intelligenz", da er m.E. nicht wirklich zutrifft. Versucht man ihn aber zu vermeiden, wird vieles unverständlich, da er extrem verbreitet ist und Menschen sich grob etwas darunter vorstellen können. Also habe ich "künstliche Intelligenz" genommen, obwohl das Vorgehen nicht wirklich intelligent, sondern eher maschinell ist, wie Sie ganz richtig schreiben.
Das Problem an sich, Sven, dass Dinge außer Kontrolle geraten können, wenn man sich auf selbst lernende,"dienstbare" Geister verlässt, ist zumindest seit dem Jahr 1797 in Goethes Ballade "Der Zauberlehrling" niedergelegt. In diesem Zusammenhang wäre eventuell der Link
" https://www.inhaltsangabe.de/goethe/der-zauberlehrling/ "
interessant. Da sind auch aufschlussreiche Auslegungen des Geschehens in dieser Ballade drin.
Seit langem bin ich der Ansicht, dass sich die Menschheit mit der gewissen Bequemlichkeit, nicht selbst denken zu müssen, sondern dies irgendwelchen, wie auch immer gearteten Zombies zu überlassen, keinen sehr großen Dienst oder Gefallen erweist.
Da jedoch der Mensch als Wesen, auch verständlicher Weise und schon genetisch zur Bequemlichkeit neigt, ist er in jeder Hinsicht von einigen, wenigen Machtträgern stark manipulierbar geworden und wird sich auch nicht mehr dagegen wehren können. Er bleibt wahrscheinlich keinesfalls Herr seiner Erfindungen. Er wird im Gegenteil von diesen selbst versklavt.
Das alles ist im höchsten Maße traurig und wohl der Preis für sein bisheriges, bereits in der Vergangenheit liegendes Tun. In dem Maße, wie somit Mensch das Selberdenken verlernt, wird er immer nur noch mehr seiner ganz persönlichen Daten preisgeben und "verglasen". Auch wird leider die Neigung, sich am Unglück anderer zu "erfreuen", stetig zunehmen.
- Und einen "Master"zombie, der alles stoppen könnte, dürfte es wohl jetzt nach der Überschreitung des "Points Of No Return" kaum noch geben.
Sven, viele Grüße aus dem Süden
Wie treffend! Ich musste damals den Zauberlehrling auswendig lernen und denke bei solchen Aktionen stets an die Geister, die man rief und die man nicht mehr los wird. Ich kann ja verstehen, dass man hier den "einfachen" (man kann auch sagen: billigen) Weg gehen will, bezweifle aber sehr, dass hier die Maschine den intelligenten adäquat ersetzen kann. Grüße aus dem Norden!