0

Uw foto’s en documenten kunnen in verkeerde handen vallen. AI-functies versus privacy

Computers en smartphones met AI-mogelijkheden worden steeds vaker op de markt gebracht. Aan de ene kant is dit positief, omdat ze handige functies bieden en het gemakkelijker maken om taken uit te voeren, zoals fotobewerking. Aan de andere kant zijn er zorgen over gegevensprivacy en identiteitsbescherming. Krijgen grote bedrijven zoals Microsoft en Google dankzij AI toegang tot nieuwe, voorheen onbereikbare gegevens over ons? En, om het maar duidelijk te stellen: kunnen we ze wel vertrouwen?

Uw foto's en documenten kunnen in verkeerde handen vallen. AI-functies versus privacy

Computers met speciale chips voor AI-verwerkingstaken zijn al verkrijgbaar. Sommige CEO’s van technologiebedrijven noemen dergelijke apparaten ‘het belangrijkste moment sinds Wi-Fi’. Consumenten tonen ook interesse in deze nieuwe apparatuur, wat blijkt uit de groeiende verkoop van personal computers. Een vergelijkbare trend is zichtbaar in het smartphonesegment, waar veel modellen al over ingebouwde AI-functies beschikken.

De vraag is echter of consumenten zich realiseren dat AI toegang nodig heeft tot specifieke gegevens om bepaalde taken uit te voeren. En weten ze dat deze taken vaak in de cloud worden uitgevoerd, waarbij de gegevens van de gebruiker naar het netwerk worden verzonden en hun laptop of telefoon verlaten? Zo kan een Windows-computer bijvoorbeeld screenshots opnemen zodat AI iets voor ons kan vinden, en kan een Android-smartphone realtime gesprekken afluisteren om te waarschuwen voor fraude.

AI en gegevensprivacy: een legitieme zorg

AI-aangedreven functies hebben toegang nodig tot specifieke gegevens. Als we bijvoorbeeld een foto maken en deze willen bewerken met behulp van kunstmatige intelligentie, moeten we deze beschikbaar stellen voor bewerking. Willen we een samenvatting van een e-mail opstellen? Dan moeten we de inhoud ervan delen. Willen we de belangrijkste conclusies uit een pdf-rapport halen? Dan moeten we het bestand ter beoordeling aan de AI geven.

Hoewel AI het uitvoeren van veel taken vergemakkelijkt, en sommige taken aanzienlijk versnelt of volledig automatiseert, betalen we ervoor met een verlies aan privacy. Gepersonaliseerde diensten, gebaseerd op onze specifieke behoeften, zijn alleen mogelijk wanneer wij onze eigen gegevens, bestanden en documenten delen.

Uw foto's en documenten kunnen in verkeerde handen vallen. AI-functies versus privacy

Sommige AI-functies, zoals eenvoudig de focus in een foto aanpassen, kunnen zowel direct op het apparaat als offline worden uitgevoerd. In dat geval worden de gegevens niet naar een externe locatie gestuurd en blijven ze op het apparaat. Maar als we een complexere bewerking willen uitvoeren, bijvoorbeeld het verwijderen van meerdere objecten van de achtergrond, het aanpassen van kleuren en het toevoegen van een vriend aan de foto, kan deze bewerking extra rekenkracht vereisen en “uitbesteed” worden aan de cloud. De foto wordt dan naar de servers van het bedrijf gestuurd, waar de bewerking wordt uitgevoerd, en na voltooiing wordt het resultaat teruggestuurd naar het apparaat. Dit is handig, maar onze gegevens verlaten dan de computer of telefoon en worden door een specifiek bedrijf verwerkt. Worden deze gegevens later verwijderd? En worden ze bijvoorbeeld niet gebruikt om daaropvolgende AI-algoritmen te trainen? Dit hangt volledig af van het privacy- en beveiligingsbeleid van het betreffende bedrijf.

Het is mogelijk dat we op een dag apparaten zullen missen die geen gegevens naar de cloud verzonden en waarbij alles wat we deden alleen op de schijf van de computer of in het geheugen van de smartphone werd opgeslagen. Veel mensen herinneren zich nog het datalek van iRobot, dat Roomba-stofzuigers aanbiedt die kamers in kaart brengen. Het bleek dat kaarten van deze kamers – specifieke foto’s – naar de servers van de fabrikant werden gestuurd en op internet belandden. Hoewel dit slechts een beperkt aantal accounts trof die deelnamen aan de testfase en dus geen groot gevaar vormde, had een dergelijke situatie überhaupt niet mogen plaatsvinden. Een stofzuiger mag simpelweg niet geassocieerd worden met iets dat… foto’s van ons kan maken.

Wat Microsoft betreft, zijn er al laptops op de markt met de Copilot+-service, waaronder Surface-computers. Op deze computers kunnen gebruikers bijvoorbeeld documenten transcriberen, grafische afbeeldingen genereren, en samenvattingen maken. Er is ook een functie genaamd Recall, waarmee gebruikers snel documenten en bestanden kunnen terugvinden waaraan ze hebben gewerkt, inclusief e-mails die ze hebben gelezen of websites die ze hebben bezocht. AI-activiteiten vinden plaats op de harde schijf van de computer, maar als deze wordt gehackt, kan dit gemakkelijk leiden tot het onthullen van belangrijke, vertrouwelijke informatie. Voorlopig is Microsoft zo bezorgd over de veiligheid van Recall dat het de release van deze functie tot nader order heeft uitgesteld.

Uw foto's en documenten kunnen in verkeerde handen vallen. AI-functies versus privacy

Google hanteert een soortgelijk beleid. De AI-functie van Android kan bijvoorbeeld telefoongesprekken screenen om mogelijke telefoonfraude te detecteren. Er is ook Ask Photos, een tool die toegang tot de cloud en internet vereist. Deze functie kan fotodatabases doorzoeken en reageert op spraakopdrachten. We kunnen bijvoorbeeld vragen wanneer we een bepaalde kamer hebben gerenoveerd, en de kunstmatige intelligentie zou de juiste foto moeten vinden (ervan uitgaande dat we die hebben opgeslagen). Het bedrijf onthulde dat werknemers in “zeldzame gevallen” vragen aan Ask Photos en fotogegevens kunnen bekijken om onder andere de applicatie te verbeteren.

Een eenvoudige conclusie dringt zich op: als we vrede en veiligheid willen waarborgen, is het misschien het beste om dit soort functies gewoon niet te gebruiken. Anders loopt het risico dat onze gegevens door onbevoegden worden gelezen of bekeken. Vaak zonder ons medeweten of onze toestemming.

admin

Leave a Reply

Your email address will not be published. Required fields are marked *