Apple har bestemt seg for å utsette de nye verktøyene som skal detektere overgrepsmateriale på iOS-enheter.
Avgjørelsen kommer etter kritikk fra flere hold. Det har blant annet blitt hevdet at det er fullt mulig å lure systemet, og ikke minst at de nye verktøyene kan brukes for overvåkning av andre ting enn bare overgrepsbilder.
Dette sier Apple nå
«Forrige måned annonserte vi våre planer for funksjoner som har til hensikt å beskytte barn fra overgripere som bruker kommuniksasjonsverktøy for å finne og utnytte dem, og å begrense spredningen av overgrepsmateriale. Basert på tilbakemeldingene fra kunder, interesseorganisasjoner, forskere og andre, har vi bestemt oss for å bruke mer tid iløpet av de kommende månedene på å samle inn tilbakemeldinger og gjøre forbedringer før vi lanserer disse viktige sikkerhetsfunksjonene», sier Apple i en uttalelse.
De nye funksjonene skulle egentlig lanseres sammen med iOS 15, iPadOS 15, watchOS 8 og macOS Monterey.
Maskinlæring i iMessage
I tillegg til gjenkjenning av overgrepsbilder i iCloud, skulle en iMessage-funksjon sørge for å varsle barn og deres foreldre når Apple oppdager at seksuelle bilder blir delt i appen. Apples verktøy skal bruke maskinlæring for å identifisere slikt innhold.
Nå blir det altså ingen slik funksjonalitet med det første.
Slik skulle det fungere
Istedenfor å scanne bilder som ligger i skyen, skulle det nye systemet gjøre nødvendige analyser på selve enheten. Apples teknologi skulle matche bilder opp mot en database som tilbys av National Center for Missing and Exploited Children, samt fra andre organisasjoner som jobber for barns sikkerhet. Denne databasen skulle være trygt lagret på brukerens enheter, uten at noen kunne få tilgang til den.
Før en bruker lagrer et bilde i iCloud, skulle en analyse på selve enheten matche bildet opp mot den nevnte databasen. Hvis systemet skulle oppdage ovegrepsmateriale, og et menneskelig gjennomgang bekrefter funnet, ville Apple deaktivert personens konto og sende en rapport til National Center for Missing and Exploited Children.
Forskere kaller teknologien «farlig»
Flere har uttrykt bekymring for at politi eller myndigheter skal kunne presse Apple til å bruke denne teknologien til andre formål, for eksempel å ta politiske aktivister.
To professorer ved Princeton University hevder de har laget et lignende system som Apple, og kaller teknologien for «farlig».
«Vårt system kan enkelt bli brukt til overvåkning og sensur. Systemet er ikke begrenset til en spesifikk kategori av innhold, så en tjeneste kan ganske enkelt bytte ut enhver database uten at personen som bruker tjenesten merker det», skriver forskerne i en kronikk publisert i The Washington Post.