Apple verwirft offiziell den Plan, iCloud auf Bilder von Kindesmissbrauch zu scannen
[ad_1] Foto: Anton_Iwanow (Shutterstock) Apple hat zusammensetzen seiner umstrittensten Vorschläge aller Zeiten offiziell beendet: ein Plan um iCloud-Bilder hinauf Vorzeichen von Werkstoff für jedes sexuellen riskanter Substanzkonsum von Kindern (oder CSAM) zu scannen. Ja, letzten warme Jahreszeit, Apple angekündigt dass es dasjenige Scannen hinauf dem Gerät importieren würde – eine neue Prozedur in iOS, die … Weiterlesen