TECH

Kampf gegen das Böse oder Schritt in die falsche Richtung? – Apples neue Pläne

Sven Krumrey

Apple will unterbinden, dass Bilder von Kindesmissbrauch auf seine iCloud-Server geraten oder Minderjährige erreichen - und hat damit einen Aufruhr quer durch die Fan-Gemeinde verursacht. Denn so nobel und notwendig der Kampf gegen Kindesmissbrauch auch ist, die technische Umsetzung und der unausgesprochene Generalverdacht gegenüber allen Nutzern sorgen für Diskussionen. Doch was plant Apple eigentlich wirklich? Wie weit kann man als Firma dabei gehen und wieso sind Privatunternehmer plötzlich Ermittler? Wie halten es andere Anbieter? Finden wir es heraus!

Mancher Apfel ist von innen faul

Was ist eigentlich passiert?

Apple kündigte an, ab Herbst in den USA drei neue Funktionen auf iPhones, iPads und macOS-Geräten zur Bekämpfung von Kindesmissbrauch und sexueller Belästigung von Kindern einzurichten. Ein Schwerpunkt soll darin liegen, Bilder von Kindesmissbrauch (engl: CSAM = child sexual abuse material) zu erkennen, deren Verteilung zu unterbinden und die Täter an die Behörden zu melden. Eine großartige Sache und kein Anlass zur Beunruhigung? Werfen wir zuerst mal einen Blick auf die drei Maßnahmen, beginnend mit Siri und der Suche. Wer, auf welchen Wegen auch immer, CSAM findet, bekommt über die Suchfunktion nun Informationen zu Meldemöglichkeiten angeboten. Wer tatsächlich aktiv solches Material sucht, wird zukünftig auf die Schädlichkeit dieser Inhalte hingewiesen und bekommt Informationen zu Hilfsangeboten, um mit seinen offensichtlichen Problemen besser umzugehen. Interessanter wird es beim Nachrichtendienst iMessage, hier sollen bei Nutzern unter 13 Jahren ein- und ausgehende Bilddateien lokal auf dem Gerät (also nicht in der Cloud / auf dem Server) auf Missbrauchsbilder gescannt werden. Voraussetzung ist hier ein aktiviertes Family-Sharing und die elterliche Zustimmung. Wird etwas vom System gefunden, so werden diese Inhalte unkenntlich gemacht und erst nach Bestätigung (quasi nach der Freigabe) durch den Nutzer angezeigt. Erst nach der Anzeige bekommen die Eltern optional eine Nachricht darüber, sehen aber das Bild selbst nicht – Apple übrigens auch nicht.

Der Stein des Anstoßes

Sorgten diese zwei Maßnahmen schon genug Aufsehen, erregte die dritte wohl die meiste Aufmerksamkeit. Alle für den iCloud Upload vorgesehen Bilder sollen automatisch auf den Nutzergeräten mit Missbrauchsbildern aus speziellen Datenbanken abgeglichen werden. Und das geht so: Die Bilder werden zunächst lokal gescannt und analysiert. Bei der Analyse wird für jedes Foto mit Hilfe von Apples „NeuralHash“-Verfahren ein sogenannter Hashwert errechnet. Das ist eine Zahlenkombination, mit der ein Bild eindeutig identifiziert werden kann, ähnlich wie uns Menschen ein Fingerabdruck oder die DNA. Die Hashwerte werden dann mit den Hashwerten aus besagten Datenbanken abgeglichen, die bekannte Bilder von dokumentiertem Kindesmissbrauch enthalten. Dabei sollen auch Bilder erkannt werden, die sich z.B. in Größe oder Kompression unterscheiden, aber halt nahezu identisch sind. Wird eine solche Übereinstimmung gefunden, erfolgt noch keine sofortige Eskalation, Apple hat einen Schwellenwert festgelegt. Man spricht von etwa 30 Matches (also Bild-Übereinstimmgen), bevor eine manuelle Sichtprüfung eingeleitet wird und dann zum ersten Mal ein Mensch diese Bilder sieht. Werden diese Bilder nun als CSAM identifiziert, wird die staatliche Einrichtung „National Center for Missing and Exploited Children“ (NCMEC) informiert und somit auch die Strafverfolgungsbehörden. Das Nutzerkonto wird gesperrt, der Kunde erhält aber weder bei der ersten Übereinstimmung, noch beim Überschreiten des Schwellenwerts eine Nachricht.

Apple gibt einen aus: Generalverdacht für alle

Was sagt Apple?

Natürlich beharrt Apple darauf, die optimale Lösung gefunden zu haben, auch für die Privatsphäre des Kunden. Besonders stolz ist man darauf, dass die komplette Analyse auf dem Gerät selbst stattfinde und Apple selbst nur von Treffern, und auch nur nach Überschreiten des Schwellenwerts erfahren werde. Zudem seien Fehlalarme praktisch ausgeschlossen. Auch könne man einer Nutzerkontensperre widersprechen, falls man sich zu Unrecht bestraft fühle. Da man nicht pixelgenau analysiere, sondern durch Machine-Learning Inhalte des Bildes erkenne, sei das System variabel und sicher. Jedes Bild werde zusammen mit einem "kryptografischen Sicherheits-Voucher" (also einer Art Beipackzettel) hochgeladen, der darüber Auskunft gebe, ob das Bild bedenklich sei oder nicht. Nur in jedem billionsten Fall solle es einen Fehlalarm geben. Also alles gut? Die meisten Kritiker fürchten nicht den aktuellen Stand, sondern eher die Entwicklung, welche man damit angestoßen haben könnte.

Selbst bei Apple umstritten

Während interne Vorgänge bei Apple sonst sehr diskret behandelt werden, ist eine nun lebhafte Diskussion unter den Mitarbeitern publik geworden. Auch in Cupertino befürchtet man eine unverhältnismäßige Ausweitung der Maßnahmen, politische Beeinflussung allzu wissbegieriger Regierungen und eine Abkehr von der "What happens on your iPhone, stays on your iPhone"-Maxime, die lange Apples DNA bildete. Die Furcht vor einer Einmischung durch internationale Geheimdienste ist dabei allzu real. In Festland-China laufen die Daten der iCloud bereits jetzt über zwei der dortigen Rechenzentren – der Datenschutz wird hier bestimmt legendär sein. Auch die amerikanischen Behörden befinden sich im Dauerclinch mit allen, was verschlüsselt und für sie nicht zugänglich ist – und die EU steht ihnen dabei in nichts nach. Hier wie dort will man Nachrichten und Chats kontrollieren, massenhaft und unverschlüsselt. Man könnte ja seine Privatsphäre und sein digitales Briefgeheimnis nutzen, um verbotene Dinge anzustellen.

Apple in der großen Privatsphäre-Diskussion

Verschlüsselt gleich verdächtig

Denn Regierungen praktisch aller Länder ist die verschlüsselte Kommunikation zwischen Nutzern schon lange ein Gräuel. Mehrfach trugen die US-Behörden erfolglos an Apple die Forderung heran, iPhones von Verdächtigen der Strafverfolgung zugänglich zu machen. Apple blockte dies immer ab, man wolle keinen Präzedenzfall schaffen oder man sei technisch (z.B. bei verschlüsselten Chats) dazu nicht in der Lage. Mit der Einrichtung eines solchen Scanning-Systems wäre damit wohl Schluss. Der Anfang ist gemacht, eine Instanz zum Scannen von Bildern für iCloud und iMessage wird installiert und kein Geheimdienst lässt sich zukünftig abspeisen, hier sei nichts zu machen. Das Scannen von Bildinhalten lässt mit der Ende-zu-Ende-Verschlüsselung einen heiligen Gral der Kommunikation wackeln. Viele Kritiker sehen hier eine sperrangelweit geöffnete Backdoor: Hat man erstmal eine solche Technik auf dem Rechner etabliert, seien Modifikationen zum Scannen weiterer Inhalte leicht vorstellbar.

Zweifel an der Zuverlässigkeit

So sehr Apple auch darauf beharrt, Fehlalarme seien praktisch ausgeschlossen, bislang sah die Realität leider anders aus. Es gibt immer wieder “False Positives“, wenn künstliche Intelligenz Inhalte vergleichen oder einschätzen soll. In einem solchem Fall würde es (vorausgesetzt, die kritische Schwelle wird überschritten) heißen, dass Betroffene keinerlei Meldung erhalten, sondern schlicht vor ihrem dauerhaft gesperrten Nutzerkonto stehen. Ähnlich ging es schon letztes Jahr einigen Microsoft-Nutzern, die kommentarlos und ohne Warnung gesperrt wurden. Es reichten Bilder der eigenen Kinder beim Baden (mehr oder minder verhüllt oder Babys ohne Windel) auf dem OneDrive, um gebannt zu werden. War ein Bikini hautfarben, solle man besser keine Abos mehr abschließen, spottete man in manchen Foren. Dass diese Bilder z.B. in Deutschland komplett legal sind, und die Nutzer oftmals nicht mal wussten, dass die Synchronisierung ihrer Bilder zu OneDrive aktiviert war – egal. Man versteckt sich für diesen Fall hinter den AGB, die „Nacktdarstellungen, Brutalität und Pornographie“ verbieten und nach Belieben ausgelegt werden können. Ähnliches könnte nun auch Apple-Nutzern drohen. Denn viele wissen gar nicht, dass ihre Daten in eine Cloud synchronisiert werden. Die Anbieter pushen diese Dienste gerne, indem sie als Standard definiert werden oder – natürlich komplett zufällig – plötzlich nach einem Update (re)aktiviert sind. In diesem Fall würde Apples Scan nun loslegen, die besagten Hashwerte der Bilder errechnen und mit den Datenbanken abgleichen.

"What happens on your iPhone, stays on your iPhone" - oder auch nicht "What happens on your iPhone, stays on your iPhone" - oder auch nicht

Und was machen die anderen?

Es gilt die Faustregel: Was man in eine Cloud lädt oder über ein soziales Netzwerk postet, wird auf illegale Inhalte gescannt. Ob Twitter, Facebook und Konsorten oder Dropbox, OneDrive und Google Drive: Microsofts PhotoDNA oder Googles Bedspread Detector sind im Einsatz. Da die Betreiber für die von ihnen gehosteten Inhalte haftbar gemacht werden können, ist dies auch nachvollziehbar. Zahlreiche Mail-Dienstleister handeln nicht anders, auch der E-Mail-Versand über iCloud wird bereits sporadisch überprüft. Gmail als Google-Ableger hat bereits 2014 nach verbotenen Inhalten gescannt und leitete seine Funde an die Behörden weiter.

Zweifel bleiben

Heiligt der Zweck wirklich alle Mittel? Oder werden wir alle hier „für einen guten Zweck“ unter Generalverdacht gestellt und unsere Inhalte gescannt, während jeder halbwegs intelligente Täter eh längst ins Darknet und hinter komplexe Verschlüsselungsverfahren abgetaucht ist? Ich denke, man muss als Bürger kritisch bleiben und darf nicht alles abnicken, nur um nicht als Querulant oder gar „jemand, der etwas zu verbergen hat“ zu gelten. Ebenso ist es wunderlich, weshalb hier Privatfirmen nach Gutdünken werkeln können und erst bei deutlichen Verstößen gegen geltende Gesetzte mit Sanktionen rechnen müssen. Eine internationale, neutrale Instanz könnte beratend tätig sein und Vorgehensweisen evaluieren, doch diese gibt es nicht. Wie steht es rechtlich um das Vorgehen, darf Apple Batterie und Rechenleistung für eigene Zwecke nutzen, zudem auf einem Gerät, welches der Firma gar nicht gehört? Versucht man hier den Kindesmissbrauch zu bekämpfen und stößt dabei die Tür zu einer Überwachung ungeahnten Ausmaßes auf, wie von Edward Snowden befürchtet?

Sie merken, auch ich bleibe in einem Zwiespalt zwischen Für und Wider etwas ratlos zurück, so sehr ich den Kampf gegen Kindesmissbrauch auch unterstütze. Falls Sie sich eine Meinung gebildet haben, würde sie mich sehr interessieren.

Recherche: Manuel Verlaat

Zurück zur Übersicht

Kommentar schreiben

Bitte melden Sie sich an, um zu kommentieren.