75e FD Column: Reguleer AI niet als privacy via een algemene wet, maar met contextuele regels en specifiek toezicht

Deze column staat in Het Financieele Dagblad van 6 februari 2020. Volg deze link voor mijn eerdere FD columns.

Net als iedere nieuwe ceo of voetbaltrainer, grossiert de nieuwe Europese Commissie (EC) in grootse ambities. Na klimaatverandering volgt het realiseren van Europese waarden en soevereiniteit in de digitale wereld als het tweede grote voornemen van de nieuwe ploeg, vooral ten aanzien van kunstmatige intelligentie (AI).

 

Illustratie: Hein de Kort voor Het Financieele Dagblad

 

Ook al presenteert de Commissie haar concrete AI-plannen tot 2024 pas medio februari, geheel volgens traditie lekten de beleidsplannen recent toch uit. Net Prinsjesdag. De EC promoot ‘menswaardige’ AI, maar wil daartoe geen ‘specifieke resultaatverplichtingen en nieuwe rechten voor burgers’ in het leven roepen. De Commissie zet in op een nieuwe alomvattende AI-wet, naar model van de Europese privacywet AVG.

Menswaardigheid

De AVG is een significant geopolitiek succes, omdat de Europese wet nu wereldwijd wordt gekopieerd – van Brazilië tot India en Japan. Weliswaar vormt de AVG daarom een aantrekkelijk politiek frame voor de Commissie om haar AI-beleid in te gieten, maar geen adequate juridische mal. Door de AVG als blauwdruk te nemen, kan de politiek – net als bij de AVG – mooie sier maken met een ‘nieuwe AI-wet’ en – net als bij privacy – vermoeden dat het daarmee wel geregeld is, terwijl de bescherming van onze menswaardigheid in de praktijk vaak uitblijft. Europa heeft geen algemene AI-wet nodig, maar context-specifieke regels en effectief toezicht om de inbedding van AI in ons dagelijks leven menswaardig te maken.

Grootmachten om ons heen treden menswaardigheid in AI met handen, voeten en beleid. De Chinese staat hangt in ijzingwekkend tempo twee slimme camera’s per inwoner (!) op. AI faciliteert permanente real-time identificatie van iedereen in de publieke ruimte, vooral om de macht van de staat te consolideren.

Ondanks vele schandalen rondom AI in de VS, publiceerde het Witte Huis op 10 januari jl. een slap rapport met tien vrijwillige ontwerpprincipes voor AI. Bovendien verzoekt het Witte Huis de EU expliciet, en weinig subtiel, geen “innovatie-moordende” wetgeving aan te nemen, terwijl datzelfde Witte Huis de ontwikkeling stimuleert van AI-wapens, die letterlijk beslissen over leven en dood.

Op het eerste gezicht dus goed nieuws dat de Commissie menswaardigheid propageert. In de gelekte voorstellen beschrijft de Europese Commissie talloze serieuze incidenten met AI, ook in Europa. Denk aan discriminerende gezichtsherkenningssoftware, AI-recruitmenttools die mannen voortrekken boven vrouwen en miljoenen Spaanse burgers die de sociale uitkering Bono Social misliepen door een oncontroleerbare AI-toepassing.

Naast een concrete maatregel over productveiligheid, stelt de EC alleen een soort algemene AI-wet voor, naar model van de AVG. Deze AI-wet legt AI-ontwikkelaars niet zozeer materiële verplichtingen op (‘gij zult niet discrimineren’), maar alleen de procedurele plicht daarover transparant te zijn. De Commissie wil namelijk niet dat burgers nieuwe rechten krijgen, zoals het recht op een eerlijke behandeling, die zij ten aanzien van ‘traditionele producten en diensten’ niet hebben.

Heel soms moet de politiek even op de rem trappen. Het moet in Europa geen China worden

San Francisco

De talloze procesafspraken uit de AVG, zoals transparantie- en documentatieplichten, leiden vaak niet tot sterkere bescherming van onze privacy, maar tot ellenlange privacy statements en burgers die maar gewoon ‘ja’ klikken om ervan af te zijn. De AVG kiest conceptueel ook voor het verkeerde toezichtsmodel. In plaats van elke toezichthouder, van zorg tot financiële sector, privacy te laten handhaven op hun expertisegebied, heeft elke EU-lidstaat een eigen algemene datatoezichthouder —overal overwerkt, onderbemand en niet opgewassen tegen de dataficering van iedere sector. En toch pleit de Commissie voor nieuwe algemene AI-toezichthouders, die straks net als hun datacollega’s de roep om effectief toezicht niet kunnen beantwoorden.

De introductie van AI vraagt juist om specifieke nieuwe rechten en bescherming tegen de risico’s, zoals geschetst door de EC. Zo verbiedt de gemeente San Francisco sinds kort gezichtsherkenningssoftware bij cameratoezicht door de overheid in de publieke ruimte. Het verbod wordt breed gesteund, ook door vele ontwikkelaars van AI die om de hoek in Silicon Valley werken.

De Commissie schetst die mogelijkheid, maar durft de stap niet aan, en verwijst terug naar de AI-wet als doekje voor het bloeden. Tegelijkertijd helpt AI radiologen op CT-scans longtumoren, dementie of borstkanker te signaleren. Zulke innovatie vraagt juist om juridische speelruimte, overzien door een specifieke toezichthouder die de belangen kent en afweegt. Met een AI-AVG werpt de Commissie extra belemmeringen op.

Goede Bedoelingen

Vooralsnog lijken de grootse ambities van de Europese Commissie te stranden in goede bedoelingen. Een AVG voor AI is een gedepolitiseerde procesmaatregel voor de bühne. Nu AI in alle facetten van ons dagelijks leven doordringt, moeten politici en toezichthouders van allerlei pluimage bij elk nieuw reguleringsvoorstel of in elke inspectie zich steeds afvragen welke rol AI daarin speelt en hoe de menswaardigheid van AI in die specifieke context gerealiseerd zou moeten worden. Dat vergt beleidsmakers die zich verdiepen in de details en politieke keuzes durven te maken, geen politici die zulke keuzes schuwen en zich verbergen achter transparantieplichten die innovatie remmen en waar de samenleving moedeloos van wordt. Heel soms moet de politiek even de rem trappen. Het moet in Europa geen China worden.