Zoeken

Data I love you #1: voice assistants

"Ok, Google", daar gaan we.

Een... menselijke voice assistant

Volgens Juniper Research zullen in 2023 wereldwijd 8 miljard voice assistants in gebruik zijn. Een hype die de aandacht heeft getrokken van de Amerikaanse kunstenares en programmeur Lauren McCarthy. Ze is afgestudeerd aan het Massachusetts Institute of Technology (MIT), en is ook professor aan de University of California Los Angeles, beter bekend onder de afkorting UCLA. Lauren McCarthy is erg geïnteresseerd in de impact van technologie op ons leven en creëert originele kunstwerken en performances.

In 2018 koos ze ervoor om te werken aan het onderwerp voice assistants: beter gezegd, Lauren besloot voice assistsant te worden. "Ik probeer de menselijke versie van Amazon's Alexa te worden", legde ze datzelfde jaar uit aan het tijdschrift Usbek&Rica.

Gepersonaliseerde tool, gemaakt door Lauren McCarthy. Bron: lauren-mccarthy.com

Op internet zocht ze naar vrijwilligers. Deze vrijwilligers zien de kunstenaar vervolgens aankomen "met een heel arsenaal aan camera's, microfoons, sloten, gloeilampen, stopcontacten en andere connected devices, die ze aanpast en installeert in de vier hoeken van het appartement", ligt het artikel toe.

De kunstenares vervolgt: "Ik kijk 24/7 naar de persoon en ik heb controle over het hele huis. Ik streef ernaar beter te zijn dan kunstmatige intelligentie, omdat ik als mens ze kan begrijpen en op hun behoeften kan anticiperen.”

Om nog geloofwaardiger over te komen, spreekt Lauren via een synthesizer om een meer robotachtige stem te krijgen. Aan de Britse krant The Guardian legde de jonge vrouw in 2019 uit: "Ik slaap wanneer ze [de deelnemers] slapen. Emotioneel was het vermoeiend om te proberen na te denken over wie ze zijn, wat ze willen.”

Een van de in real-time geanalyseerde beelden van Lauren. Bron: lauren-mccarthy.com

“Ik denk alleen maar aan hoe ze ons constant afluisteren en opnemen [...] Het is te gemakkelijk om deze apparaten ons te laten leiden, zonder zelf na te denken over waar het naartoe gaat. We stellen ons deze technologieën voor als neutraal, maar ze zijn geprogrammeerd om zeer specifieke beslissingen te nemen. Aan welke regels houden ze zich? [...] We laten ze zeer intieme territoria betreden.”

Aan de makers van voice assistants voor thuis wil Lauren zeggen: "Ik wou dat deze bedrijven meer aandacht hadden voor wat het betekent om de mens als klanten te hebben, wat het betekent om iemands huis te reguleren."

In deze video, geproduceerd en geregisseerd door de kunstenares zelf, omschrijven de deelnemers van het experiment hun ervaringen.

Niet zo digitale voice assistants

Achter elke technologie zit een mens, of liever gezegd honderden of zelfs duizenden. Omdat voice assistants nog geperfectioneerd moeten worden om ons gedrag te begrijpen, worden ze getraind. Zo doen bedrijven als Google of Amazon (om er maar een paar te noemen) een beroep op ‘transcribers’, die de taak hebben om te luisteren naar de verzoeken van gebruikers en vooral naar het antwoord van de assistant. Het doel? Om te controleren of de assistant voldoet aan de behoeften van de klant en zo niet, om de tool te verbeteren.

La Quadrature du Net, een Franse vereniging die gespecialiseerd is in de verdediging van persoonlijke gegevens en privacy, schrijft in 2018 op zijn website: "De virtuele assistants die gelinkt zijn aan de luidsprekers in onze eetkamers ​​of die in onze broekzakken genesteld zijn, geïnstalleerd op onze smartphones, worden niet intelligent geboren, ze moeten leren de verzoeken en gewoonten van hun gebruikers te interpreteren.”

De demonstratie van Lauren McCarthy, weliswaar vrijwillig ingekapseld in een hyperbolisch apparaat, lijkt in bepaalde opzichten niet zo ver van onze realiteit.

"Soms kijken de mensen die uw zoekopdrachten sorteren naar uw foto's, luisteren ze naar wat u zegt, bevinden ze zich in uw land of zelfs in uw stad", vervolgt het artikel. Het kunnen ook uitzendkrachten zijn uit Franstalige landen, zoals het artikel stelt.

Er moet bij vermeld worden dat de beluisterde audiotracks "over het algemeen erg kort zijn, gemiddeld tussen de 3 en 15 seconden" en "tussen 120 en 170 transcripties per uur" per notulist, zegt de vereniging.

Een van hen, ondervraagd door de Quadrature du net, vertelt: "Een deel van het werk bestond uit het toevoegen van tags in de tekst die de geluidsgebeurtenissen aanduiden die zouden kunnen verklaren waarom Cortana het ene element verkeerd had begrepen, en het andere element beter.” Cortana is de virtuele assistent van Microsoft. Het is uiteraard niet de bedoeling om specifiek naar dit bedrijf te verwijzen, want elk bedrijf dat kunstmatige intelligentie gebruikt, valt tegenwoordig terug op werknemers of freelancers om zijn apparatuur te verbeteren.

Voice assistants en data security

Voice assistants: malware en Trojans

In 2018, tijdens Defcon, een van de grootste hackers conferenties ter wereld, "is een groep hackers erin geslaagd om alle firewalls van de speakers te omzeilen [Amazon Echo]. De hack die door de hackers is ontwikkeld, kan zich verspreiden van speaker naar speaker, en daarmee een heel netwerk blootleggen", schrijft clubic.com.

De website vermeldt ook dat de gehackte speaker eerst "getweaked was om als een Trojan horse te dienen", en vervolgens: "Eenmaal verbonden met hetzelfde netwerk als andere luidsprekers die nog ongewijzigd waren, slaagden ze erin om ze te laten luisteren naar apparaten, waarbij ze alle opnames retransmitten naar het originele apparaat. Alle geluiden die zijn vastgelegd door Alexa apparaten die op hetzelfde netwerk zijn aangesloten, worden opnieuw verzonden naar de hackers.

Amazon was eerder gewaarschuwd voor de demonstratie en had de fout verholpen die de hack mogelijk maakte.

Zelfde luidspreker, ander verhaal. In 2017 toonde een Britse cybersecurity-expert, Mark Barnes, aan dat het mogelijk was om Amazon Echo-modellen die vóór 2017 waren geproduceerd, te hacken door er malware op te installeren. Net als bij de eerste hack is het belangrijk op te merken dat de speaker vooraf fysiek was aangepast.

De Engelse versie van het Amerikaanse maandblad Wired schreef in 2017: "Nadat hij met succes zijn software op Echo had geschreven, ontwikkelde Barnes een vrij eenvoudig script waarmee hij de microfoon kon overnemen en de opgenomen audiotrack naar de computer van zijn keuze kon sturen. Toch zegt hij dat zijn malware andere gevaarlijke functies kan vervullen, zoals het dienen als toegangspunt om andere delen van het netwerk aan te vallen, het stelen van de inloggegevens van mensen met Amazon-accounts of het installeren van ransomware." Barnes vat het zo samen: "Je kunt ermee doen wat je wilt". Nogmaals, Amazon heeft de fout sindsdien gepatcht. Klik hier om het (technische) artikel van Mark Barnes te lezen.

Het probleem is dat voice assistants ook veel worden gebruikt om tekst, gedicteerd door een gebruiker, berichten of tekstdocumenten zoals professionele rapporten te transcriberen. Bij cyberaanvallen kan niet alleen persoonlijke informatie worden gelekt (dit is zeer ernstig), maar ook professionele gegevens.

Voice assistants: de ultrasound hack

In april 2018 hebben vier onderzoekers van de Universiteit van Illinois, Nirupam Roy, Sheng Shen, Haitham Hassanieh en Romit Roy Choudhur in hun werk (hier te vinden) aangetoond dat het mogelijk is om signalen te gebruiken die voor mensen onhoorbaar zijn, maar heel goed worden waargenomen door voice assistants om ze te hacken. "Onze recente analyses hebben aangetoond dat onhoorbare signalen (ultrasound frequenties) zo kunnen worden gecreëerd dat ze waarneembaar worden voor microfoons. Goed ontworpen, geeft dit een hacker de mogelijkheid om geruisloos luidsprekers zoals Amazon Echo en Google Home te bedienen en te bedienen in huizen. Een commando als "Alexa, open de garagedeur" kan dus een serieuze bedreiging worden."

Voice assistants en privacy: advies van de CNIL

De website van de Franse Commission Nationale de l'Informatique et des Libertés (CNIL) is goede bron voor advies over data bescherming. In het artikel getiteld Voice assistants: understanding the issues surrounding your privacy, staat dat "zelfs als uw spraak vervliegt, uw verzoeken blijven opgenomen in de cloud [...] In permanente stand-by kan de verbonden spreker een gesprek activeren en onverwacht opnemen zodra het denkt dat het een trefwoord detecteert".

Wat doen bedrijven met deze verzoeken? Ze worden gebruikt voor advertentietargeting. "Het advertentieprofiel van gebruikers wordt daarom gevoed door de verschillende interacties van de gebruiker met de assistant (bijvoorbeeld levensgewoontes: tijd van opstaan, instelling van de verwarming, culturele smaken, eerdere aankopen, interesses, enz.)," zegt de CNIL.

Het is dan ook geen verrassing dat de wereldwijde markt voor 'voice shopping' - aankopen die worden geactiveerd via voice assistants - in 2019 $40 miljard bereikte, aldus PwC.

Om uw gegevens te beschermen, raadt de CNIL aan*:

  • gebruik luidsprekers met een microfoon mute-knop;
  • demp het apparaat (of schakel het uit) als u niet wilt worden gehoord. Sommige apparaten hebben geen aan/uit-knop en moeten worden losgekoppeld
  • waarschuw derden/gasten voor het eventueel opnemen van gesprekken (of zet de microfoon uit als er gasten zijn)
  • houd toezicht op de interacties van kinderen met dit type apparaat (blijf in de kamer, zet het apparaat uit als u er niet bij bent)
  • controleer of het standaard is ingesteld om informatie voor kinderen te filteren
  • verbind diensten die voor u nuttig zijn, rekening houdend met de risico's van het delen van gevoelige gegevens of functies (deuropener, alarm...)
  • houd er rekening mee dat wat u voor het apparaat zegt, uw advertentieprofiel kan verrijken
  • bekijk regelmatig het dashboard om de geschiedenis van de gestelde gesprekken/vragen te verwijderen en de tool aan uw behoeften aan te passen. Stel bijvoorbeeld de standaardzoekmachine of informatiebron in die door de assistant wordt gebruikt.

* Deze aanbevelingen zijn rechtstreeks overgenomen van de CNIL website

Incident Response Hotline

Facing cyber incidents right now?

Contact our 24/7/365 world wide service incident response hotline.

Tel: +31 184 78 81 11