Start Apple Tausende unterschreiben einen Brief, in dem Apple aufgefordert wird, Pläne zum Scannen...

Tausende unterschreiben einen Brief, in dem Apple aufgefordert wird, Pläne zum Scannen von Benutzerfotos auf Bilder von Kindesmissbrauch zu verwerfen

4
0


Ein offener Brief, der von Datenschützern, Sicherheitsexperten, Technologieunternehmen und Rechtsexperten unterzeichnet wurde, wurde an Apple gesendet, in dem die Pläne des Unternehmens, die Fotos von Mac-, iPad- und iPhone-Benutzern auf Beweise für Kindesmissbrauch zu scannen, abgelehnt wurden.

Auf den ersten Blick sind die Pläne von Apple „Erweiterter Schutz für Kinder“ zwar eine gute Sache, wurden aber auch heftig kritisiert. Mit der Veröffentlichung von macOS Monterey, iOS 15 und iPad OS 15 implementiert das Unternehmen die CSAM-Erkennung (Child Sexual Abuse Material), die Bild-Hashes daraufhin überprüft, ob sie in Datenbanken mit bekannten Missbrauchsbildern enthalten sind. Es wurde mit dem Erstellen einer Hintertür zu den Dateien der Benutzer verglichen und hat Datenschutzexperten entsetzt.

In einem Beitrag im Bereich Kindersicherheit seiner Website sagt Apple, dass es dazu beitragen möchte, „Kinder vor Raubtieren zu schützen, die Kommunikationsmittel verwenden, um sie zu rekrutieren und auszubeuten, und die Verbreitung von Material über sexuellen Missbrauch von Kindern (CSAM) zu begrenzen“. Vor diesem Hintergrund plant das Unternehmen, über Nachrichten gesendete oder in iCloud hochgeladene Bilder nach „bekannten CSAM-Bildern“ zu scannen.

Oder, wie Apple es ausdrückt:

Apple führt in drei Bereichen neue Kindersicherheitsfunktionen ein, die in Zusammenarbeit mit Kindersicherheitsexperten entwickelt wurden. Erstens werden neue Kommunikationstools Eltern in die Lage versetzen, eine informiertere Rolle bei der Unterstützung ihrer Kinder bei der Online-Kommunikation zu spielen. Die Nachrichten-App verwendet maschinelles Lernen auf dem Gerät, um vor sensiblen Inhalten zu warnen, während private Mitteilungen für Apple unlesbar bleiben.

Als nächstes werden iOS und iPadOS neue Kryptografieanwendungen verwenden, um die Verbreitung von CSAM online zu begrenzen und gleichzeitig die Privatsphäre der Benutzer zu schützen. Die CSAM-Erkennung wird Apple helfen, den Strafverfolgungsbehörden wertvolle Informationen zu Sammlungen von CSAM in iCloud-Fotos zur Verfügung zu stellen.

Schließlich bieten Updates für Siri und Search Eltern und Kindern erweiterte Informationen und Hilfe, wenn sie auf unsichere Situationen stoßen. Siri und Search greifen auch ein, wenn Benutzer versuchen, nach CSAM-bezogenen Themen zu suchen.

Hier gibt es mehrere besorgniserregende Elemente, nicht zuletzt das Potenzial für falsch positive Ergebnisse (da Bild-Hashes nicht einzigartig sind, was bedeutet, dass ein Missbrauchsbild den gleichen Hash haben könnte wie etwas völlig Unschuldiges).

Zu den Sorgen über die Pläne gehört auch Edward Snowden. Er äußerte nicht nur tiefe Bedenken darüber, was Apple beabsichtigt, sondern war auch entsetzt über die Reaktion von Apple auf die negative Reaktion, bei der das Unternehmen diejenigen, die mit seinen Plänen nicht einverstanden waren, als „kreischende Stimmen“ bezeichnete:

Datenschutzbeauftragte EFF (Electronic Frontier Foundation) sagt, dass es eine riesige Verletzung der Privatsphäre ist:

Apples Plan zum Scannen von Fotos, die in iCloud Photos hochgeladen werden, ähnelt in gewisser Weise Microsofts PhotoDNA. Der Hauptunterschied zwischen den Produkten besteht darin, dass das Scannen von Apple auf dem Gerät erfolgt. Die (nicht prüfbare) Datenbank mit verarbeiteten CSAM-Bildern wird im Betriebssystem (OS) verteilt, die verarbeiteten Bilder werden so transformiert, dass die Benutzer nicht sehen können, was das Bild ist, und der Abgleich erfolgt mit diesen transformierten Bildern unter Verwendung einer privaten Schnittmenge, bei der das Gerät dies nicht tut wissen, ob eine Übereinstimmung gefunden wurde. Das bedeutet, dass beim Rollout der Features eine Version der NCMEC CSAM Datenbank auf jedes einzelne iPhone hochgeladen wird. Das Ergebnis des Abgleichs wird an Apple gesendet, aber Apple kann erst dann feststellen, dass Übereinstimmungen gefunden wurden, wenn eine ausreichende Anzahl von Fotos mit einem voreingestellten Schwellenwert übereinstimmt.

Sobald eine bestimmte Anzahl von Fotos erkannt wurde, werden die betreffenden Fotos an menschliche Prüfer innerhalb von Apple gesendet, die feststellen, dass die Fotos tatsächlich Teil der CSAM-Datenbank sind. Nach Bestätigung durch den menschlichen Prüfer werden diese Fotos an NCMEC gesendet und das Konto des Benutzers deaktiviert. Auch hier gilt unter dem Strich, dass alle in iCloud hochgeladenen Fotos unabhängig von Datenschutz- und Sicherheitsaspekten in den technischen Details gescannt werden.

Machen Sie keinen Fehler: Dies ist eine Einschränkung der Privatsphäre für alle Benutzer von iCloud Photos, keine Verbesserung.

In einem massiven Zusammentreffen gegensätzlicher Meinungen haben Tausende einen offenen Brief unterzeichnet, in dem sie sich beschweren, dass „Apples Vorschlag eine Hintertür einführt, die den grundlegenden Datenschutz für alle Benutzer von Apple-Produkten zu untergraben droht“.

Der Brief sagt:

Apples derzeitiger Weg droht, die jahrzehntelange Arbeit von Technologen, Akademikern und politischen Befürwortern zu untergraben, um strenge Maßnahmen zum Schutz der Privatsphäre bei den meisten Geräten und Anwendungsfällen der Unterhaltungselektronik die Norm zu sein. Wir bitten Apple, seine Technologieeinführung zu überdenken, damit diese wichtige Arbeit nicht rückgängig gemacht wird.

Die Unterzeichner stellen zwei Anträge:

  1. Die Bereitstellung der von Apple Inc. vorgeschlagenen Technologie zur Inhaltsüberwachung wird mit sofortiger Wirkung eingestellt.
  2. Apple Inc. gibt eine Erklärung heraus, in der sie ihr Engagement für die Ende-zu-Ende-Verschlüsselung und den Datenschutz der Benutzer bekräftigt.

Der vollständige Brief und eine Liste der Unterzeichner sind zu sehen Hier.



Vorheriger ArtikelDer Wechsel in die Cloud eröffnet Chancen für Cyberkriminelle
Nächster ArtikelSo bestellen Sie Microsofts Limited Edition Halo Infinite Xbox Series X zum 20. Jubiläum vor

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein