Η Apple καθυστέρει τα κυκλοφορία των Child Safety χαρακτηριστικών που ανακοίνωσε τον προηγούμενα μήνα μετά από τα αρνητικά σχόλια που έγιναν.
Τα μέτρα όπως είχαμε αναφέρει περιλάμβαναν scan των iCloud φωτογραφιών των χρηστών για υλικό παιδικής πορνογραφίας (CSAM), ειδοποιήσεις για παιδιά και γονείς όταν έστελναν ή λάμβαναν φωτογραφίες με ακατάλληλο περιεχόμενο καθώς και οδηγίες για το CSAM από την Siri.
Η Apple επιβεβαίωσε πως τα σχόλια από καταναλωτές, μη κερδοσκοπικούς οργανισμούς και άλλου σχετικά με όλα τα παραπάνω την κάνουν να καθυστερήσει την διάθεση αυτών των μέτρων μέχρι να κάνει κάποιες βελτιώσεις.
“Τον περασμένο μήνα ανακοινώσαμε το πλάνο μας για την προστασία των παιδιών απέναντι σε κακόβουλους χρήστες που χρησιμοποιούν εργαλεία επικοινωνίας για να τα εκμεταλλευτούν με διαφόρους τρόπους ενώ παράλληλα στοχεύαμε στην μείωση της διάθεσης υλικού παιδικής πορνογραφίας. Με βάση τα όσα ακούσαμε από καταναλωτές, διάφορες ομάδες και ερευνητές αποφασίσαμε να δαπανήσουμε και άλλο χρόνο τους επόμενους μήνες έτσι ώστε να κάνουμε βελτιώσεις πριν τα κάνουμε διαθέσιμα στο ευρύ κοινό.”
Ακολουθήστε το AppleWorldHellas στο Google News για να ενημερώνεστε άμεσα για όλα τα νέα άρθρα! Όσοι χρησιμοποιείτε υπηρεσία RSS (π.χ. Feedly), μπορείτε να προσθέσετε το AppleWorldHellas στη λίστα σας με αντιγραφή και επικόλληση της διεύθυνσης https://appleworldhellas.com/feed