9 december 2022

CSAM-detectie in iCloud-foto’s en doorzoeken op kindermisbruik definitief geannuleerd

Waarschuwing bij berichten met seksuele beelden
5 min leestijd
CSAM-detectie in iCloud-foto’s en doorzoeken op kindermisbruik definitief geannuleerd
Uitleg
5 min leestijd

Apple heeft in 2021 maatregelen geïntroduceerd om kinderen beter te beschermen tegen misbruik. Er zijn in de VS twee functies toegevoegd aan de iPhone, iPad, Apple Watch en Mac om kindermisbruik te detecteren.

Zo wordt iMessage beveiligd tegen naaktfoto's en zal Siri helpen bij vragen over kindermisbruik. Ook kunnen ouders gealarmeerd worden wanneer kinderen seksuele beelden ontvangen of versturen. In eerste instantie wilde Apple ook met slimme software iCloud-foto's doorzoeken op materiaal van seksueel misbruik, maar dit gaat niet door.

Kinderen beter beschermen

Apple heeft de nieuwe maatregelen tegen kindermisbruik geïntroduceerd via een speciale informatiepagina op hun website. Als onderdeel van iOS, iPadOS, watchOS en macOS Monterey wordt in de Verenigde Staten automatisch de inhoud van iMessage gescand op CSAM, de afkorting voor 'Child Sexual Abuse Material'.

Apple vertelt dat ze de technologie hebben ontworpen om kinderen veilig gebruik te laten maken van hun apparaten en het internet. Samen met kinderveiligheidsexperts heeft Apple de nieuwe kinderveiligheidsfuncties ontwikkeld en toegevoegd aan hun software.

Kind achter een MacBook

Daarnaast zullen er nieuwe communicatiehulpmiddelen voor ouders worden toegevoegd zodat ze in staat zijn een beter geïnformeerde rol te spelen bij het helpen van hun kinderen bij online communicatie.

ook interessant
Schermtijd gebruiken en applimieten instellen op een iPhone of iPad
Schermtijd gebruiken en applimieten instellen op een iPhone of iPad

Je kunt jouw smartphoneverslaving controleren en voorkomen met behulp van Schermtijd en applimieten op je iPhone en iPad.

Maatregelen tegen kindermisbruik

De maatregelen die Apple neemt om kinderen online beter te beschermen hebben vooral betrekking tot seksueel misbruik. Zo worden kinderen zelf beschermd, maar ook om online-verspreiding van materiaal voor seksueel misbruik van kinderen te beperken.

iMessage en seksueel expliciete foto's

De Berichten-app voegt vanaf iOS 15.2, iPadOS 15.2, watchOS 8.2 en macOS Monterey 12.1 nieuwe tools toe om kinderen en hun ouders te waarschuwen bij het ontvangen of verzenden van seksueel expliciete foto's.

Wanneer een kind, onder de twaalf jaar, dit soort inhoud ontvangt, wordt de foto wazig en verschijnt er een waarschuwing. Hierin worden nuttige hulpmiddelen aangeboden en wordt het kind gerustgesteld dat het goed is als het deze foto niet wil bekijken. Als extra voorzorgsmaatregel kan het kind zijn, haar of hun ouders waarschuwen. Met één tik op een knop onder de geblurde foto kan de melding dan verstuurd worden.

Seksuele content in iMessage herkennen

Soortgelijke beveiligingen zijn ook beschikbaar als een kind seksueel expliciete foto's probeert te verzenden. Het kind wordt gewaarschuwd voordat de foto wordt verzonden en de ouders kunnen een bericht ontvangen als het kind ervoor kiest om het te verzenden.

De Berichten-app gebruikt machine learning op het apparaat om te waarschuwen voor deze gevoelige inhoud, terwijl privécommunicatie onleesbaar blijft voor Apple.

ook interessant
WhatsApp: Spam rapporteren en vreemde oproepen melden
WhatsApp: Spam rapporteren en vreemde oproepen melden

In WhatsApp kun je eenvoudig spam melden en vreemde oproepen rapporteren, hoe je dit doet lees je in deze tip.

Siri als helpende hand

Apple breidt ook de begeleiding in Siri en Zoeken uit door aanvullende bronnen te bieden om kinderen en ouders te helpen online veilig te blijven en hulp te krijgen bij misbruik. Gebruikers die bijvoorbeeld aan Siri vragen hoe ze CSAM of kinderuitbuiting kunnen melden, worden doorverwezen naar bronnen waar en hoe ze een melding kunnen doen.

Siri en kindermisbruik

Ook wordt de spraakassistent bijgewerkt om in te grijpen wanneer gebruikers zoekopdrachten uitvoeren met betrekking tot CSAM. Deze interventies zullen gebruikers uitleggen dat interesse in dit onderwerp schadelijk en problematisch is, en bieden bronnen van partners om hulp te krijgen bij dit probleem.

CSAM-detectie in iCloud-foto's

Deze functie is definitief geannuleerd, Apple heeft dit in een interview met WSJ bekendgemaakt.

De belangrijkste en controversieelste maatregel was ongetwijfeld de CSAM-detectie in iCloud-foto's. CSAM verwijst naar inhoud die seksueel expliciete activiteiten toont waarbij een kind betrokken is. Om dit aan te pakken, stelt nieuwe technologie Apple in staat om reeds bekende CSAM-afbeeldingen te detecteren die zijn opgeslagen in iCloud-foto's.

Wanneer materiaal gevonden wordt kan Apple deze rapporteren aan het National Center for Missing and Exploited Children (NCMEC). NCMEC fungeert als een uitgebreid meldpunt voor CSAM en werkt samen met wetshandhavingsinstanties in de Verenigde Staten.

iCloud fotobibliotheek en iCloud foto's

De methode voor het detecteren van bekende CSAM is ontworpen met het oog op de privacy van gebruikers en vindt op het toestel zelf plaats. Wanneer foto's een afbeelding ontdekt die vermoedelijk misbruik toont wordt deze vergeleken met een database met bekende CSAM-afbeeldingshashes die worden geleverd door kinderveiligheidsorganisaties. Deze controle vindt plaats voordat een afbeelding wordt opgeslagen in iCloud-foto's.

Wanneer een afbeelding gevonden wordt, zal deze worden gemarkeerd bij Apple met een zogeheten veiligheidsvouchers. Apple kan de inhoud dan nog niet zien, echter heeft het bedrijf wel een drempel ingesteld van ongeveer 30 foto's. Wanneer deze wordt overschreden, en dus meerdere CSAM foto's zijn gevonden, wordt de inhoud door Apple gecontroleerd.

foto in foto's

De beoordeling gebeurt handmatig om te bevestigen dat er een overeenkomst is. Vervolgens wordt het account uitgeschakeld en wordt er een rapport verstuurd naar NCMEC. Als een gebruiker vindt dat zijn account ten onrechte is gemarkeerd, kan hij bezwaar indienen om zijn account te herstellen. De CSAM-controle is complex en alleen van toepassing op reeds bekend materiaal dat helaas dagelijks wordt aangevuld met nieuwe content.

Goed om te weten, Apple heeft bevestigd dat deze CSAM-controle niet zal worden toegevoegd aan iOS, iPadOS en macOS. Volgens Apple is het mogelijk om kinderen te beschermen zonder dat bedrijven persoonlijke gegevens doorzoeken. Apple zal blijven samenwerken met overheden, kinderorganisaties en andere bedrijven om jongeren te helpen beschermen, hun recht op privacy te respecteren en het internet een veiligere plek te maken voor kinderen en voor ons allemaal.

ook interessant
iCloud-fotobibliotheek: Uitgebreide uitleg wat iCloud-foto's precies is
iCloud-fotobibliotheek: Uitgebreide uitleg wat iCloud-foto's precies is

Via iCloud-fotobibliotheek kun al je foto's en video's in iCloud opslaan en iCloud-foto's synchroniseren met iPhone, iPad, Apple TV en Mac.

Voorlopig alleen in de VS

Apple geeft aan dat dit programma ambitieus is en het beschermen van kinderen een belangrijke verantwoordelijkheid van hun is. Deze maatregelen zullen in de loop van de tijd worden geëvolueerd en misschien worden uitgebreid. Voorlopig zijn de tools als eerste actief in de Verenigde Staten, wanneer ook andere landen hier gebruik van kunnen maken is nu niet bekend.

Maatregelen uitgesteld na ophef

Oorspronkelijk zouden al deze functie meteen in iOS 15 en macOS Monterey worden toegevoegd. Maar o.w.v. de ophef heeft Apple de maatregelen tegen kindermisbruik uitgesteld en aangepast. Zo werd de CSAM-detectie in iCloud-foto's uitgesteld en nu definitief geannuleerd Hieronder kun je de eerdere verklaring lezen:

"Eerder hebben we plannen aangekondigd voor functies die bedoeld zijn om kinderen te helpen beschermen tegen personen die communicatiemiddelen misbruiken om kinderen te rekruteren en uit te buiten, en om de verspreiding van materiaal over seksueel misbruik van kinderen te helpen beperken. Op basis van feedback van klanten, belangengroepen, onderzoekers en anderen, hebben we besloten extra tijd te nemen om input te verzamelen en verbeteringen aan te brengen voordat deze uiterst belangrijke veiligheidsfuncties voor kinderen worden vrijgegeven."

ook interessant
Privacy beter beschermd met nieuwe functies in iOS 15, macOS Monterey en iCloud+
Privacy beter beschermd met nieuwe functies in iOS 15, macOS Monterey en iCloud+

iOS 15 en macOS Monterey privacy functies beschermen je tegen ongewenste gegevensverzameling en bieden meer controle over wat je wil delen

info
Auteur Wesley Fabry
Bijgewerkt09/12/2022 09:32
Categorie Privacy, Uitleg
Feedback Probleem melden
Delen 𝕏

Reacties

  • Klopt, je hebt gelijk.

    Beantwoorden
  • @kor: op 15 dec. 2021 wist ik nog niet dat ze vandaag zouden gaan melden (een jaar later) dat ze niet zouden gaan scannen. Per slot ben ik niet helderziend. Alle opmerkingen voor jou, zijn gemaakt in 2021.

    Beantwoorden
  • @Hans, hoe bedoel je? Ze hebben net aangegeven dat ze NIET gaan scannen, dus je privacy wordt niet aangetast.

    BTW Google scant wel:
    https://blog.google/technology/safety-security/how-we-detect-remove-and-report-child-sexual-abuse-material/

    Beantwoorden
  • Persoonlijk vindt ik het een bijzonder grote inbreuk op je privacy, waar ze bij Apple altijd de mond van vol hebben. Niet alle middelen heiligen het doel want ik vind Apple of welk ander tech-bedrijf dan ook niet de juiste partij om dit soort zaken te gaan controleren. Hoe nobel dan ook. Wat is de volgend stap van Apple om alles onder controle te houden wat goed voor ons is? In de afgelopen maanden heb ik dan ook vrijwel alles van Apple verkocht (Mac mini, iPhone en Watch). Heb alleen nog een iPad. Ben eigenlijk wel klaar met alle bemoeienissen van Apple. Ook mijn iCloud heb ik leeggehaald en niet omdat er nou veel bijzonders op stond maar ik ben overgestapt op een Google Pixel 6 en ja, ik weet dat ik daar het verdienmodel ben, wat je zelf heel goed kunt beperken, maar liever dat dan al die opgedrongen regels en bemoeienissen van Apple.

    Beantwoorden
  • Op zich ben ik het er mee eens dat kinderpornografische afbeeldingen opgespoord moet worden maar dan wél door de juiste instanties (politie/justitie) maar of Apple daar nu het juiste bedrijf is betwijfel ten zeerste!

    Beantwoorden
  • Mooi dat het kan, verschrikkelijk dat het moet. En stel dat we met deze mogelijkheid een paar mensenlevens redden, dan is het mij prima. Onafhankelijk en democratisch toezicht? Voor dit soort vergrijpen is er in een democratie geen plek, dus is je vraag beantwoord. Dat er huiszoekingen worden gedaan, servers worden doorzocht mag ook in ons land met toestemming van de Rechter en dan is er dus ook een reden om dat te doen.

    Beantwoorden
  • Apple begeeft zich op glad ijs;
    Hiermee geeft Apple te kennen dat het ieders spullen op de iCloud kan doorzoeken…
    Wie controleert Apple wat het wel en niet doet met data van klanten?
    Wie bepaalt wat wel en niet mag?
    Wie controleert de Apple’s, Googles, Dropboxs, en de MSs van deze wereld.
    Moeten we ze geloven op hun blauwe ogen?
    Hier zou een onafhankelijk democratisch gekozen instituut controle over moeten uitoefenen.

    Beantwoorden

Laat een reactie achter



Download gratis de appletips app
voor iPhone en iPad in de App Store