Kaltaisesi lukijat auttavat tukemaan MUO: ta. Kun teet ostoksen käyttämällä sivustollamme olevia linkkejä, voimme ansaita kumppanipalkkion. Lue lisää.

Apple ilmoitti elokuussa 2021 suunnitelmistaan ​​skannata iCloud-sisältösi lasten seksuaalisen hyväksikäytön materiaalin (CSAM) varalta lasten suojelemiseksi petoeläinten hyväksikäytöltä.

Yhtiö suunnitteli lanseeraavansa uuden CSAM-tunnistusominaisuuden iCloud Photosissa, joka skannaa tällaista sisältöä ja raportoi vastaavat kuvat Applelle säilyttäen samalla käyttäjien yksityisyyden.

Uusi ominaisuus sai kuitenkin ristiriitaisia ​​reaktioita. Yli vuosi alkuperäisen ilmoituksen jälkeen Apple luopuu virallisesti suunnitelmastaan ​​skannata iCloud Photos CSAM: ia varten.

Apple luopuu suunnitelmastaan ​​tarkistaa iCloudista lasten hyväksikäyttömateriaalia

Tekijän raportin mukaan LANGALLINEN, Apple jättää tekemättä suunnitelmansa tarkistaa iCloudisi lasten hyväksikäytön varalta. Työkalu skannaa iCloudiin tallennetut valokuvat löytääkseen ne, jotka vastaavat tunnettuja CSAM-kuvia, jotka lasten turvallisuusjärjestöt ovat tunnistaneet. Se voisi sitten ilmoittaa näistä kuvista, koska CSAM-kuvien hallussapito on laitonta useimmilla lainkäyttöalueilla, mukaan lukien Yhdysvalloissa.

Miksi Apple peruutti suunnitelmansa skannata iCloud-kuvia

Vuoden 2021 ensimmäisen ilmoituksen jälkeen Apple kohtasi asiakkaiden, ryhmien ja henkilöiden vastareaktiota, joka puolusti digitaalista yksityisyyttä ja turvallisuutta maailmanlaajuisesti. iPhonet tarjoavat yleensä enemmän suojausta kuin Android-laitteet, ja monet pitivät tätä askeleena taaksepäin. Vaikka se oli voitto lasten turvallisuuden organisaatioille, yli 90 politiikkaryhmää kirjoitti myöhemmin samassa kuussa Applelle avoimen kirjeen, jossa yhtiötä kehotettiin peruuttamaan suunnitelma.

Kirje väitti, että vaikka työkalu aikoo suojella lapsia hyväksikäytöltä, sitä voitaisiin käyttää sananvapauden sensurointiin ja uhata käyttäjien yksityisyyttä ja turvallisuutta. Kasvavan paineen vuoksi Apple keskeytti julkaisusuunnitelmansa kerätäkseen palautetta ja tehdäkseen tarvittavia muutoksia ominaisuuteen. Palaute ei kuitenkaan suosinut Applen suunnitelmaa skannata iCloud Photos -kuvia, joten yritys luopuu suunnitelmasta lopullisesti.

WIREDille antamassaan lausunnossa yhtiö sanoi:

"Meillä on... päätti olla jatkamatta aiemmin ehdottamaamme CSAM-tunnistustyökalua iCloud Photosille. Lapsia voidaan suojella ilman, että yritykset läpikäyvät henkilötietoja, ja jatkamme yhteistyötä hallitusten, lasten asiamiesten ja muita yrityksiä auttamaan suojelemaan nuoria, säilyttämään heidän oikeutensa yksityisyyteen ja tekemään internetistä turvallisemman paikan lapsille ja meille kaikki."

Applen uusi suunnitelma lasten suojelemiseksi

Apple suuntaa uudelleen ponnistelujaan parantaakseen viestintäturvallisuusominaisuuksia, jotka julkistettiin elokuussa 2021 ja lanseerattiin saman vuoden joulukuussa.

Viestintäsuojaus on valinnainen, ja vanhemmat ja huoltajat voivat käyttää sitä suojellakseen lapsia sekä seksuaalisten kuvien lähettämiseltä että vastaanottamiselta iMessagessa. Ominaisuus sumentaa tällaiset kuvat automaattisesti, ja lasta varoitetaan niihin liittyvistä vaaroista. Se myös varoittaa ketään, jos he yrittävät etsiä CSAM: ia Applen laitteilla.

Koska suunnitelmat CSAM-tunnistustyökalun julkaisemisesta on peruutettu, yhtiö odottaa voivansa parantaa ominaisuutta edelleen ja laajentaa sitä muihin viestintäsovelluksiin.