Tag Archives: Artificial Intelligence

93e FD Column: De megaboete voor WhatsApp – Transparantie klinkt goed, maar verbetert privacy amper

Deze column staat in Het Financieele Dagblad van 14 september 2021. Volg deze link voor mijn eerdere FD columns.

Het privacyrecht vereist dat een website je informeert over wat er met je data gebeurt. Dit leidt tot een steeds grotere overkill aan privacyvoorwaarden. Politici moeten beseffen dat de transparantieverplichtingen uit de AVG geen wondermiddel zijn. Ze moeten veel nadrukkelijker meebeslissen hoe privacy te borgen in onze datasamenleving, schrijft Axel Arnbak.

Illustratie: Hein de Kort voor Het Financieele Dagblad

Bent u van plan het privacybeleid te lezen van elke website die u bezoekt? Wetenschappers becijferden al in 2010 dat u daarvoor minimaal 76 werkdagen per jaar nodig hebt. En als het aan de gezamenlijke Europese datatoezichthouders ligt, hebt u voortaan nóg meer tijd nodig om te lezen wat welke organisatie op het wereldwijde web met uw data doet, en waarom.

Op 2 september publiceerde de Ierse datawaakhond onder mondiale media-aandacht zijn besluit om een forse boete, van €225 mln, op te leggen aan berichtendienst WhatsApp. Het privacybeleid van WhatsApp zou niet voldoen aan de strenge transparantievereisten uit de roemruchte Europese datawet AVG. Het besluit heeft niet alleen voor WhatsApp, maar voor iedereen verregaande gevolgen: het tijdperk van honderden pagina’s tellende privacyvoorwaarden is aanstaande. Continue reading 93e FD Column: De megaboete voor WhatsApp – Transparantie klinkt goed, maar verbetert privacy amper

89e FD Column: Afnemer van AI is straks aan de goden overgeleverd

Deze column staat in Het Financieele Dagblad van 12 mei 2021. Volg deze link voor mijn eerdere FD columns.

Bij kunstmatige intelligentie (AI) is de afnemer te afhankelijk van de ontwikkelaar. Die ongelijkheid zal de komende jaren alleen maar toenemen, schrijft informatierecht-expert Axel Arnbak.

Illustratie: Hein de Kort voor Het Financieele Dagblad

Al decennia geldt in de digitale wereld: afhankelijkheid is onmacht. Een paar weken terug bekende het CIO Platform namens 130 serieuze bedrijven in het FD dat zij nog steeds niet bij machte zijn te voldoen aan de strenge privacywet AVG, die op 25 mei drie jaar van kracht is. Reden: afhankelijkheid van Amerikaanse cloudleveranciers waarvan sommige de regels niet respecteren, maar wel eisen dat hun klanten complexe contracten ondertekenen bij het kruisje, zonder ruimte voor onderhandelen.

Bij grootschalige cybersecurity-incidenten hangen organisaties, net als u en ik thuis bij een falende internetverbinding tijdens het corona-thuiswerken, vaak aan de broekspijp van hun IT-provider: deels wanhopig om de oorzaak, deels vurig hopend op een oplossing. Teleurgesteld, maar afhankelijk, kunnen de afnemers van IT-diensten nauwelijks voldoen aan hun juridische plichten, laat staan opkomen voor hun rechten tegen almachtige IT-leveranciers.

Op 21 april lanceerde de Europese Commissie haar langverwachte wetgevingsvoorstellen voor kunstmatige intelligentie (AI). Zelflerende software zonder directe menselijke controle heeft al een reusachtige impact op ons leven en is overal: in de financiële sector, in het ziekenhuis, in uw zelfrijdende auto, in uw spamfilter en in uw broekzak op uw smartphone. Nog meer dan in conventionele IT, kunnen de meeste bedrijven en instellingen die ‘iets’ met AI willen de kneepjes van het vak niet zelf aanleren, wegens gebrek aan middelen en talent.

Toverkracht
In hun zoektocht naar de toverkracht van AI, verwordt AI dus een dienst die je afneemt, net zoals cloud computing en IT-beveiliging. De fundamentele afhankelijkheid die de digitale wereld nu al kenmerkt, zal in het AI-tijdperk explosief toenemen. Het wordt nagelbijten of de Europese Unie erin slaagt de afnemers van AI adequaat te beschermen tegen de aanbieders. Continue reading 89e FD Column: Afnemer van AI is straks aan de goden overgeleverd

85e FD Column: Cyberbiosecurity – wie beschermt de code van het leven?

Deze column staat in Het Financieele Dagblad van 7 januari 2021 onder de titel ‘Ook in biotech is cybersecurity een levensgroot risico’. Volg deze link voor mijn eerdere FD columns.

Illustratie: Hein de Kort voor Het Financieele Dagblad

In het kort
* DNA kun je, net als software, opslaan, printen en hacken
* Risico’s cybersecurity in biotech zijn juist in coronatijd zeer groot
* Reguleren staat helaas nog in de kinderschoenen

Hoe meer we te weten komen over genetica, des te meer lijkt de code van ons leven zich als computercode te gedragen. DNA, RNA en de andere bouwstenen van levenden organismen lenen zich, net als software, ook goed voor hacking, goed- en kwaadschiks.

Het eerste wereldwijd geaccepteerde coronavaccin van BioNTech en Pfizer hackt de standaardbeveiliging van ons immuunsysteem met een iets aangepast molecuul, een Nobelprijswaardige biohack die alles wegheeft van de phishing e-mail die uw firewall en spamfilter weet te omzeilen.

Maar naarmate de werelden van biologie en computers inniger vervlochten raken, doemen welbekende risico’s van cybersecurity en specifieke nieuwe cyberrisico’s op in de biotechnologie. Denk aan de informatieveiligheid van DNA-databanken, bescherming van privacy, betrouwbaarheid van communicatie van DNA-sequenties tussen ontwikkelaars, labs en andere stakeholders, maar ook aan het aanpassen van de code van het leven, per ongeluk of met kwade intenties.

Dit roept een vrij fundamentele vraag op: hoe beschermen wij de code van het leven? Weliswaar nemen volwassen pharma- en biotechbedrijven dit risico uit welbegrepen eigenbelang serieus, toch staat het denken over en reguleren van cyberbiosecurity in de kinderschoenen, ook in sectoren als de zorg, landbouw, maakindustrie en defensie. Juist in tijden van corona is de noodzaak om daaraan te werken existentieel.

‘Het roept een vrij fundamentele vraag op: hoe beschermen wij de code van het leven?’

Continue reading 85e FD Column: Cyberbiosecurity – wie beschermt de code van het leven?

75e FD Column: Reguleer AI niet als privacy via een algemene wet, maar met contextuele regels en specifiek toezicht

Deze column staat in Het Financieele Dagblad van 6 februari 2020. Volg deze link voor mijn eerdere FD columns.

Net als iedere nieuwe ceo of voetbaltrainer, grossiert de nieuwe Europese Commissie (EC) in grootse ambities. Na klimaatverandering volgt het realiseren van Europese waarden en soevereiniteit in de digitale wereld als het tweede grote voornemen van de nieuwe ploeg, vooral ten aanzien van kunstmatige intelligentie (AI).

 

Illustratie: Hein de Kort voor Het Financieele Dagblad

 

Ook al presenteert de Commissie haar concrete AI-plannen tot 2024 pas medio februari, geheel volgens traditie lekten de beleidsplannen recent toch uit. Net Prinsjesdag. De EC promoot ‘menswaardige’ AI, maar wil daartoe geen ‘specifieke resultaatverplichtingen en nieuwe rechten voor burgers’ in het leven roepen. De Commissie zet in op een nieuwe alomvattende AI-wet, naar model van de Europese privacywet AVG.

Menswaardigheid

De AVG is een significant geopolitiek succes, omdat de Europese wet nu wereldwijd wordt gekopieerd – van Brazilië tot India en Japan. Weliswaar vormt de AVG daarom een aantrekkelijk politiek frame voor de Commissie om haar AI-beleid in te gieten, maar geen adequate juridische mal. Door de AVG als blauwdruk te nemen, kan de politiek – net als bij de AVG – mooie sier maken met een ‘nieuwe AI-wet’ en – net als bij privacy – vermoeden dat het daarmee wel geregeld is, terwijl de bescherming van onze menswaardigheid in de praktijk vaak uitblijft. Europa heeft geen algemene AI-wet nodig, maar context-specifieke regels en effectief toezicht om de inbedding van AI in ons dagelijks leven menswaardig te maken. Continue reading 75e FD Column: Reguleer AI niet als privacy via een algemene wet, maar met contextuele regels en specifiek toezicht

74e FD Column: Plannen om versleuteling te ondermijnen zijn onveilig en gevaarlijk

Deze column staat in Het Financieele Dagblad van 9 januari 2020. Volg deze link voor mijn eerdere FD columns.

Geschiedenis herhaalt zich, ook in de relatief recente historie van het internet. Sinds de jaren negentig lanceren overheden iedere drie tot vijf jaar een voorstel om de versleuteling van internetcommunicatie te ondermijnen. Steeds is het debat heftig en emotioneel. En iedere keer is de uitkomst toch dat robuuste versleuteling onmisbaar is voor de werking van het internet, en daarmee ook voor onze financiële markten, ziekenhuizen, snelwegen en al het andere dat ons lief is in de digitale wereld.

 

Illustratie: Hein de Kort voor Het Financieele Dagblad.

 

Weliswaar kunnen kwade krachten – van terroristen via drugskartels tot kindermisbruikers – hun communicatie dan ook versleutelen. Desondanks blijken gerichte en slimme opsporingsacties succesvol om criminele netwerken op te rollen, kunnen de onmisbare voordelen van betrouwbare communicatie blijven bestaan en kan onze informatiesamenleving zich doorontwikkelen.

Nieuwe pogingen

Minister van Justitie en Veiligheid Ferdinand Grapperhaus en zijn evenknieën in de Verenigde Staten, het Verenigd Koninkrijk en Australië, maakten zich recent weer eens schuldig aan nieuwe pogingen om technologiebedrijven te verplichten een ‘exclusieve achterdeur’ te bouwen in hun versleutelde producten, zodat alleen ‘de overheid’ kan meeluisteren. Al dertig jaar klimmen experts, het bedrijfsleven en het maatschappelijk middenveld dan weer zuchtend in de pen om de samenleving te herinneren aan ons vorige dansje in deze cryptowars, bijvoorbeeld rondom de versleuteling van de 5G-standaard en de iPhone.

Maar de Amerikaanse minister van justitie William Barr gooide onlangs een nieuwe steen in deze versleutelingsvijver. Barr wil preventief alle internetcommunicatie scannen op ‘schadelijke informatie’. De adjudant van Trump stelt, misschien zonder het zelf te realiseren, in feite volledige surveillance van alle internetcommunicatie voor, zoals dictatoriale regimes dat kennen. Zijn plan moet, los van de juridische onmogelijkheid in de Europese Unie, principieel te vuur en te zwaard worden bestreden. Continue reading 74e FD Column: Plannen om versleuteling te ondermijnen zijn onveilig en gevaarlijk

72e FD Column: Toekomstvisie Autoriteit Persoonsgegevens is nog lege huls zonder slagkracht en gezag

Deze column staat in Het Financieele Dagblad van 14 november 2019. Volg deze link voor mijn eerdere FD columns.

‘In de beperking toont zich pas de meester’. Misschien wel geïnspireerd door deze beroemde strofe van de Duitse schrijver, staatsman en homo universalis Johann Wolfgang von Goethe, publiceerde privacytoezichthouder Autoriteit Persoonsgegevens (AP) maandag voor het eerst een meerjarenbeleid voor toezicht op onze datasamenleving. Titel van deze strategie: ‘Focus AP 2020-2023’.

Illustratie: Hein de Kort voor Het Financieele Dagblad

 

Naarmate onze samenleving steeds sneller dataficeert, daagt de privacywet Algemene Verordening Gegevensbescherming (AVG) de structureel onderbezette waakhond AP uit om zo’n beetje alles en iedereen overal en altijd in de gaten te houden. Met haar lezenswaardige strategie en zelfopgelegde focus op ‘datahandel, digitale overheid en artificiële intelligentie & algoritmes’ beperkt de AP zich tot de kern en toont zij een glimp van meesterschap in wording.

Toch heeft de AP de grootste uitdaging nog voor de boeg. Al sinds 1 januari 2016 kan de AP hoge boetes opleggen voor privacyschendingen. Ook is de strenge privacywet AVG sinds 25 mei 2018 in werking. Maar waar andere datawaakhonden in Europa na decennia van doormodderen eindelijk voldoende budget krijgen en stevig doorbijten, houdt de overheid hier de hand ferm op de knip en moet de AP haar tanden nog laten zien. Bovendien weifelt en wankelt de AP inhoudelijk op cruciale thema’s en lijkt zij onwenselijk geobsedeerd door toestemming als de ‘gouden grondslag’ voor dataverwerkingen. Zonder slagkracht en gezag dreigt de lovenswaardige strategie van de AP alsnog te stranden in goede bedoelingen. Continue reading 72e FD Column: Toekomstvisie Autoriteit Persoonsgegevens is nog lege huls zonder slagkracht en gezag

69e FD Column: Zorg over effect digitaal speelgoed op ontwikkeling kinderen is terecht

Deze column staat in Het Financieele Dagblad van 22 augustus 2019. Volg deze link voor mijn eerdere FD columns.

Kinderen hebben de toekomst. Maar kunnen kinderen in onze hyperverbonden toekomst nog wel kind zijn? Datatoezichthouders maken zich grote zorgen om de staat van privacy en cybersecurity in kinderspeelgoed. De eerste hoge boetes op grond van privacywet AVG zijn aanstaande.

 

Illustratie: Hein de Kort voor Het Financieele Dagblad

 

Minder bekend, maar even zorgwekkend zijn incidenten over digitale manipulatie en problemen in de ontwikkeling van kinderen door blootstelling aan bizarre content. De Europese Commissie bezint zich momenteel op nieuwe wetgeving. Hoog tijd dat kinderen ook in de informatiesamenleving nog even kind mogen blijven en nog even niet bedolven worden onder digitale spionage en manipulatie. Continue reading 69e FD Column: Zorg over effect digitaal speelgoed op ontwikkeling kinderen is terecht

65e FD Column: Ook op de werkplek staat privacy onder druk

Deze column staat in Het Financieele Dagblad van 21 maart 2019. Volg deze link voor mijn eerdere FD columns.

Na tests op vluchtelingen, gevangenen en soldaten, is het massaal de beurt aan de beroepsbevolking om door de baas aan geavanceerde surveillancetechnologie te worden onderworpen. Meestal zijn de motieven legitiem, soms zijn de methodes dat ook. Vaak genoeg is werknemersspionage niet alleen juridisch problematisch, maar lost het ook niks op. Net als in andere domeinen, zoals criminaliteitsbestrijding en online adverteren, biedt het opslaan van meer data en meer surveillance slechts een schijnoplossing voor dieper liggende kwesties.

Illustratie: Hein de Kort voor het FD

 

Sinds jaar en dag wordt technologie ingezet om werknemers te beheersen. In zijn meesterwerk Modern Times (1936) worden Charlie Chaplin en collega’s door de baas in de smiezen gehouden en vermanend toegesproken via een videoverbinding, overigens de inspiratie voor de beroemde telescreens en slogan ‘Big Brother is watching you’ in de beruchte roman ‘1984’ van George Orwell. Toegangspoortjes, camera’s en opzichters bespieden ons nog tenminste in ons gezicht. Maar naarmate technologie kleiner en krachtiger wordt, wordt haar inzet onopvallender en indringender. Iedere werknemer voelt soms wel dat de baas meekijkt, maar vrijwel niemand weet precies welke geraffineerde data-analyses en andere spionagetechnieken werkgevers kunnen loslaten op hun beroepsbevolking. Continue reading 65e FD Column: Ook op de werkplek staat privacy onder druk

62e FD Column: Recht en rechtspraak waarborg tegen oncontroleerbare kunstmatige intelligentie

Deze column staat in Het Financieele Dagblad van 7 februari 2019. Volg deze link voor mijn eerdere FD columns.

Hoe succesvoller wetenschap en technologie voortschrijden, hoe ondoorzichtiger en obscuurder zij worden’. Naarmate de tijd vordert, lijkt deze diepzinnige uitspraak van de Franse filosoof Bruno Latour, uit 1999, onze hypertechnologische wereld alsmaar beter te beschrijven. De kunstmatige intelligentie (AI) van zelflerende computersystemen destilleert opzienbarende inzichten uit gigantische bergen inputdata. Tegelijkertijd lukt het ontwikkelaars van AI-systemen en wetenschappers vaak niet om vooraf te voorspellen of achteraf te verklaren hoe zelflerende systemen zulke bovenmenselijke prestaties leveren. Sterker nog: steeds vaker hoor je dat uitlegbaarheid van de werking van AI-systemen aan gewone stervelingen een rem zou vormen op de voorspellende kracht van AI.

Illustratie: Hein de Kort

Zwarte doos

Toch beginnen wetgevers en rechters het recht als werktuig te gebruiken om de ‘zwarte doos’ van technologie en wetenschap open te breken. De strenge Europese privacywet AVG en baanbrekende rechterlijke uitspraken verlangen transparantie van inputdata en uitlegbaarheid van besluiten die door machines worden genomen. Of het nu gaat om zelfrijdende auto’s, beleggingsbeslissingen of automatische gezichtsherkenning op straat, innovatie en recht liggen op ramkoers. In tegenstelling tot het veelgehoorde determinisme van ontwikkelaars en Latour – de technologie werkt nu eenmaal zo, dus vergeet het maar met je uitlegbaarheid – zal het recht uitlegbaarheid afdwingen. Althans, in Europa.  Continue reading 62e FD Column: Recht en rechtspraak waarborg tegen oncontroleerbare kunstmatige intelligentie

60e FD Column: Maak kunstmatige intelligentie centraal thema bij de Europese verkiezingen

Deze column staat in Het Financieele Dagblad van 10 januari 2019. Volg deze link voor mijn eerdere FD columns.

Eens in de vijf jaar staat het hoogtepunt van de westerse democratische samenleving op de agenda. Eind mei 2019 bepalen circa 375 miljoen stemgerechtigde EU-burgers de koers van de Europese Unie tot 2024. De kiezer krijgt nogal existentiële kwesties voorgeschoteld, zoals klimaatverandering, immigratie en de toekomst van de EU, nu de Britten het schip verlaten en wij zijn omgeven door wereldmachten met tamelijk autocratische leiders aan het roer.

Illustratie: Hein de Kort

 

Op één existentieel dossier biedt de Europese politiek de kiezer geen keuze. In razendsnel tempo verandert kunstmatige intelligentie (AI) onze samenleving. Een menswaardig bestaan is in toenemende mate afhankelijk van zelflerende algoritmes en de keuzes die computers maken. Denk aan de kans op een baan, op een woning, wie in een oorlogssituatie een raket op zich krijgt afgevuurd en wie aan de grens überhaupt de Unie mag binnenkomen. Waar de Verenigde Staten, China en Rusland al jaren een geslepen industriepolitiek voeren rondom AI, heeft de EU pas afgelopen jaar met wat vage persberichten, plannen en geld van zich laten horen. Te laat, te weinig en met name te flets. Maar beter laat dan nooit. Europese politici moeten daarom van AI een centraal verkiezingsthema maken en hun visie hierop presenteren. Continue reading 60e FD Column: Maak kunstmatige intelligentie centraal thema bij de Europese verkiezingen

57e FD Column: Grondrechtentraditie moet perverse effecten van kunstmatige intelligentie helpen voorkomen

Deze column staat in Het Financieele Dagblad van 29 november 2018. Volg deze link voor mijn eerdere FD columns.

Internetreuzen als Amazon, Google en Microsoft zetten al jarenlang in op kunstmatige intelligentie (AI). Toch gaat er veel mis als zelflerende algoritmes losgaan op de werknemers, foto’s of klanten. Vorige maand onthulde Reuters dat Amazon na vier jaar een hr-tool om door cv’s van sollicitanten te scannen weer in de ban doet, omdat die consequent vrouwen discrimineert. Google toonde Afro-Amerikanen als je zocht op ‘gorilla’ en chatbot TayTweets van Microsoft ontwikkelde zichzelf binnen een dag tot een racist en complotdenker (en Trumpfan). Blijkbaar kunnen zelfs de bestbetaalde geniën bij internetreuzen hun algoritmes niet opvoeden.

 

Illustratie: Hein de Kort voor Het Financieele Dagblad

 

Organisaties en beleidsmakers moeten lering trekken uit deze incidenten. Maak maatschappelijke waarden en heldere doeleinden onderdeel van trainingsdata en analysetools om AI succesvol en acceptabel te maken.

Kinderziekten horen bij technologische disruptie. Socioloog Manuel Castells sloeg in 1995 de spijker op zijn kop in zijn standaardwerk The Rise of the Network Society. Hij schreef dat elke technologische omwenteling gepaard gaat met ‘perverse effecten’. In de jaren ’80 en ’90 hebben geeks, bedrijven en overheden cruciale ontwerpkeuzes gemaakt die nog steeds het DNA van het internet bepalen: connectiviteit was prioriteit, iedereen moest kunnen aanhaken. Privacy en cybersecurity daarentegen werden uit de kernprotocollen van het internet gehouden. Bijkomend voordeel was dat de Amerikaanse overheid makkelijk kon meeluisteren. Maar nu zit de wereld opgescheept met de perverse effecten van 30 jaar oude ontwerpkeuzes: privacy staat onder druk, cybercrime tiert welig en iedereen bespioneert iedereen.

Gezonde verstand

Net als destijds met het internet, willen (vooral Amerikaanse) leveranciers ons weer doen geloven dat AI ‘een revolutie zal ontketenen in de wereld van x’, waarbij variabele x elke waarde aanneemt die bij een meeting, congres of pitch centraal staat. ‘Geen restricties op onze innovatie, u hoeft alleen bij het kruisje te tekenen.’ Tijdens diezelfde bijeenkomsten werd je jarenlang weggehoond als je wees op de perverse effecten van AI en regelgeving, gedragscodes of zelfs gezond verstand om de boel bij elkaar te houden.

Gelukkig lijkt het gezonde verstand langzaam terug te keren in het AI-debat. Niet alleen zorgen de incidenten voor groeiende scepsis bij afnemers. Ook de nieuwe Europese privacywet AVG vereist bij ‘geautomatiseerde besluitvorming’ altijd eerlijkheid, transparantie en uitlegbaarheid van de beslismodellen, en vaak voorafgaande expliciete toestemming van degene wiens data wordt geanalyseerd. Zonder verdere uitleg stellen dat een zelflerende hr-tool, zoekmachine of chatbot op hol is geslagen, volstaat niet langer en kan leiden tot serieuze AVG-boetes en reputatieschade.

Met de ontwerpkeuzes van vandaag leggen wij de fundamenten voor de gezonde inzet van AI in de komende decennia.

Maar hoe anticipeer je op perverse effecten bij een technologie die volop in ontwikkeling is? In zijn boek The Social Control of Technology van 1980 beschreef de Britse wetenschapper David Collingridge dit dilemma: ‘als ingrijpen op innovatie eenvoudig is, is de noodzaak nog niet duidelijk; als iedereen de noodzaak begrijpt, is ingrijpen duur, complex en langdurig.’ Hij nam onder meer benzine als voorbeeld. Bij de introductie van de auto was de milieuschade van loodhoudende benzine beperkt. Toen de auto eenmaal mainstream was, heeft het pijn en moeite gekost over te schakelen op loodvrije benzine. Het Collingridge dilemma overwin je door te investeren in kennisontwikkeling, afhankelijkheid van lobby-invloed uit te sluiten en transparant te zijn over voor- en nadelen van technologische omwentelingen.

Organisaties doen er dus verstandig aan te investeren in kennisontwikkeling, einddoelen helder te definiëren en de trainingsdata te checken op (juridische) bruikbaarheid, kwaliteit en vooringenomenheid. Zo kun je ook beter voldoen aan de AVG-vereisten. In mijn praktijk zie ik verstandige (vaak: kleine) AI-projecten razend succesvol worden en bij De Brauw helpt AI advocaten adviseren bij fusies- en overnames en in interne onderzoeken. Maar gooi je data over de schutting en hoop je op de magische saus van AI, dan stapelen incidenten zich vaak op tot teleurstellingen. Amazon, Google en Microsoft maakten de fout alleen te vertrouwen op hun briljante geeks, en sociale wetenschap, recht en diversiteit geen plek te geven aan de ontwerptafel. In hun projecten gold de nu bekende vuistregel: is de inputdata rommel, dan is de uitkomst ook rommel.

Tempo

Beleidsmakers in Nederland en Europa dienen vooral passende maatschappelijke kaders te scheppen voor AI. Waar de VS en China AI reguleren als handelspolitiek en machtsinstrument, kent Europa een sterke grondrechtentraditie. Niet geld of de Staat, maar de mens staat in principe centraal. Vermoeiend allicht, maar het zorgt voor een relatief harmonieuze, gezonde en vrije samenleving. Het verplicht namelijk perverse effecten als discriminatie en privacyschendingen vroegtijdig te voorkomen.

Tempo is een veel groter probleem in Europa en Nederland. Door een gebrek aan visie komt de noodzakelijke investering in kennis nu pas op gang en leunt het continent te veel op lobbyisten en technologie uit de VS – met cloud computing ging het tien jaar terug precies zo. De EU heeft pas net een ‘expertgroep’ (vol lobbyisten) verzameld die gaat meedenken over Europees AI-beleid. Daarmee loopt de EU minstens vier jaar achter: Amazon begon al in 2014 met het recruitmentproject. Hoog tijd voor de vijfde versnelling. Met de ontwerpkeuzes van vandaag leggen wij de fundamenten voor de gezonde inzet van AI in de komende decennia.

51e FD Column: In China’s cyberwereld is niet vrijheid, maar gehoorzaamheid de norm

Deze column stond in Het Financieele Dagblad van 6 september 2018. Volg deze link voor mijn eerdere FD columns.

Vandaag heeft China te dealen met ‘Westerse’ uitvindingen als het zeerecht, internet en de Wereldhandelsorganisatie. Morgen dreigt China de technologische realiteit voor het Westen te dicteren. Een verdeeld Westen dient zich nu met urgentie te bezinnen op de vraag wat een menswaardig bestaan is in een hypertechnologische wereld waarin Chinese technologie ons leven gaat beïnvloeden.

Illustratie: Hein de Kort

Continue reading 51e FD Column: In China’s cyberwereld is niet vrijheid, maar gehoorzaamheid de norm