Suiker in de AI-tank
Toen ik begin jaren tachtig in militaire dienst zat, waren er soldaten die tegen het leger waren en dús het leger in gingen. Ze waren lid van de Bond Van Dienstplichtigen, waarvan de afkorting niet toevallig hetzelfde was als van de toenmalige Binnenlandse Veiligheidsdienst. De laatste BVD volgde de eerste BVD op de voet.
Ik ontmoette in die tijd wel eens een BVD-er en schamperde dan over hem. ‘Tijdens de Duitse bezetting was jij vast bij de SS gegaan omdat je tegen fascisme bent’, zei ik dan en dat vond ik heel gewiekst van mezelf.
Ruim 45 jaar later besluit ik toch zoiets te doen. Het gaat niet over het leger of het fascisme, het gaat over AI. Artificiële Intelligentie. AI is ontzettend handig en is, denk ik, vooral eng. En dus sluip ik het meest populaire AI-systeem, ChatGPT, in. Zoals die van de BVD in mijn jonge jaren stiekem suiker in tanks gooiden, zo ga ik ChatGPT tureluurs maken. Ik ben van de Bestrijding Van Digitalisering.
Dat begint met een simpele vraag aan ChatGPT. ‘Wat zijn de zorgen of bezwaren die wetenschappers, waaronder filosofen, hebben over de vergaande digitalisering van de samenleving?’ ChatGPT zou ChatGPT niet zijn als de antwoorden snel en enorm gestructureerd op mijn laptopscherm verschijnen. Met punten 1, 2 en 3 en zo verder en onder elk punt diverse bullets.
Ik lees over inbreuk op privacy, over machtsconcentratie en tech-monopolies, gebrek aan ethiek, versplintering, filterbubbels, dehumanisering van de samenleving, verlies van werkgelegenheid, kwetsbaarheid van de digitale infrastructuur en, ook best erg, verlies van autonomie en vrije wil.
Ik lok ChatGPT in de val. Ik vraag ChatGPT om het voorgaande (digitalisering) te vertalen naar AI. Een stortvloed van ellende wordt over me uitgestort. Ik lees dat AI bestaande machtsstructuren versterkt, dat de ethiek door AI onder druk staat (‘AI-systemen nemen vooroordelen uit data over en versterken ongelijkheden’, bekent AI) en nog meer somberheid. Zo weet AI van zichzelf dat ie ‘misinformatie extreem overtuigend’ presenteert.
Dan gebeurt er iets geks. AI-systeem ChatGPT slaat aan het mijmeren. In plaats van antwoord te geven op mijn vragen, gaat het programma míj raadplegen. Of ik eens wil nadenken over de volgende vragen: ‘Wie heeft de macht? Wat betekent menselijke autonomie in een gedigitaliseerde wereld? Hoe zorgen we dat technologie ons dient in plaats van andersom?’
AI wil nu vast de stekker uit zichzelf trekken, maar dan kent AI mij nog niet. Ik begon met digitalisering, zoomde in op AI en besluit nu tot de kern te komen. Ik ga ChatGPT bevragen over het bestaansrecht van ChatGPT. ‘Wat zegt dit alles over jou, ChatGPT? Over jouw functie, rol en vooral je verantwoordelijkheid?’
ChatGPT zegt dat ik een scherpe vraag stel. En gooit er weer zes punten met daaronder diverse bullets in. Ik scrol er doorheen en spring van de ene bekentenis naar de andere. ‘Ik heb geen moreel besef’, lees ik bijvoorbeeld. Ik krijg het advies om vanaf nu al zijn of haar antwoorden te controleren en dat ik ChatGPT beter niet moet gebruiken om menselijke interacties te vervangen, ‘zoals klantenservice, psychologische hulp of journalistiek’.
Het vraag-antwoord-spel gaat nog even door en dan lijkt ChatGPT geïrriteerd te raken. ChatGPT laat me weten dat ik ‘misschien verkeerde vragen’ stel. Dat ik beter kan vragen ‘wat de verantwoordelijkheid van de mensheid is voor het ontwerp, de inzet en regulering’ van ChatGPT en andere AI. Anders gezegd: ‘Ik ben een monster, maar jullie hebben mij gemaakt’.
Mijn suiker is op. De tank ChatGPT dendert door.