Ik heb deze blog een tijdje verwaarloosd omdat ik de vraag had gekregen een lezing van een uur te geven aan een conferentie van jonge ICT-wetenschappers met belangstelling voor kunstmatige intelligentie en Big Data. Gisteren heb ik hem gegeven via Zoom.
Nu moet ik natuurlijk hier, en voor mezelf, vastleggen wat ik van dat klusje heb opgestoken.
Eerst qua gevoel. Na anderhalf jaar COVID-isolement in Nederland is het geven van een college aan een beeldscherm zonder zichtbare toehoorders een bezigheid die met het voortschrijden van de tijd een beklemmende uitwerking heeft. Verder was het, toen aan het einde een vraag werd gesteld, een schok om te ontdekken dat ik het spontaan spreken in het Engels min of meer was verleerd – waarbij het natuurlijk onzeker is of dat het gevolg is van leeftijdgebonden geestelijke aftakeling of meer eenvoudig ontwenning. Ik krijg de tape toegestuurd, zodat ik een en ander ook door de ogen van de toeschouwer kan beoordelen.
Ik had het college uitgeschreven. Ik was er nogal tevreden over. Toch had ik na afloop het gevoel dat het te moeilijk was geweest en bovendien voor wie zich met Big Data bezighouden een te ver van mijn bed show.
Intussen ging het wel over iets dat van belang is. Over hoe we er via intellectuele manipulatie toe komen om onszelf wijs te maken dat we de dingen bewust en rationeel doen, terwijl dat, gelet op reeksen van waarneembare gebeurtenissen als rond COVID, rond de CO2 problematiek en rond het politieke toneel in de US en ook in Nederland maar zeer gedeeltelijk het geval kan zijn.
Mijn benadering is en blijft dat het naspelen van zulke reeksen van gebeurtenissen in speelgoedwerelden kan aangeven hoe die processen in elkaar steken. Een probleem daarbij is dat je niet erg precies kunt zijn over dat soort intellectuele manipulaties en hun uitwerking.
En dat in een tijd waarin de wetenschap zich onderscheidt door het kunnen kennen en manipuleren van processen op micro- en nanoschaal, maar ook van die op macro- en melkweg-schaal.
Daartussenin, op de schaal van het biologische leven is iets wonderlijks aan de hand. Daar moet, zo lijkt het, de wetenschap zich neerleggen bij het onvoorspelbare van de toekomst — op individueel, op institutioneel, en ook op ecologisch niveau. Hier gaat kennis over het verleden en gaat verwachting over de toekomst. In dit overgangsgebied ligt het kruispunt van Heracles. Dat verdeelt de mensen in wie hun hoop vestigen op de uitdagingen van het onvoorspelbare (de virtuosi) en in wie hun hoop vestigen op hun voorkeur voor (sommigen zeggen verslaving aan) gekende zekerheden (de victimi).
Vandaag ben ik er niet meer zo zeker van dat de wetenschap nog aan de kant van de virtuosi leeft. Dat wordt deels ingegeven door mijn gevoel dat kennis die de grenzen van onze zekerheden laat zien (mijn college) en die uitdagingen benoemt en virtuosi uitdaagt minder aandacht krijgt dan de kennis die ons leven makkelijker maakt (en opsluit in op deep-learning gebaseerde informatiebubbels) en die victimi maakt.
De aanleiding voor deze bespiegeling is dat ik vandaag een nieuwe ‘smart’ telefoon in gebruik heb genomen, waarbij een nieuwe versie van android erin slaagt een Google assistant te activeren die niet alleen bereid blijkt om overal te bemiddelen en me overal het maken van keuzen uit handen te nemen, maar die ook nog eens nagenoeg onuitroeibaar is.
Google, dat ooit een dienst was die me de vermoeiende taak uit handen nam om naar de bibliotheek te lopen om tijdschriften te raadplegen en er prat op ging het goede na te streven is verworden tot een instrument dat me in de richting van de victimi dwingt.
Hier ontstaat een ethisch dilemma. Moet ik wel blijven meedoen aan een wetenschap die zijn doelgroep victimiseert?