Gisteren heb ik een bijeenkomst bijgewoond van het Platform voor de InformatieSamenleving, ECP, gehouden in het Humanity House in Den Haag.
Sprekers waren de Human Rights ambassadeur van Nederland, een aantal specialisten in het veld (o.a. van Google Nederland), een mensenrechtenadvocate en een tweetal studenten uit Enschede. Het ECP organiseerde het geheel. Deze organisatie stelt zichzelf de volgende missie:
“ECP | Platform voor de InformatieSamenleving is een onafhankelijk en neutraal platform waar overheid, bedrijfsleven en maatschappelijke organisaties samenwerken en kennis uitwisselen over de impact op en verantwoorde toepassing van nieuwe technologieën in de Nederlandse samenleving. Diverse activiteiten verbinden partijen en helpen de maatschappelijke en economische betekenis van ICT vorm te geven voor overheid politiek en bedrijfsleven. Zo realiseert het platform doorbraken en creëert het de juiste randvoorwaarden voor een sterke Nederlandse informatiesamenleving.”
Het topic van interest was gisteren “Kunstmatige Intelligentie” (Artificial Intelligence – AI) en hoe er nu en in de toekomst mee om te gaan. De nadruk lag hierbij op – breed gesteld – de ethische ontwerpprincipes bij het bouwen van AI en de inzet alsmede de beheersbaarheid ervan. Deze items zijn vastgelegd in een ECP publicatie, genaamd “Artificial Intelligence Impact Assessment”, een leidraad voor het bouwen van (ethisch) verantwoorde AI. Schematisch worden de principes hieronder weergegeven:
Het schema (en de sprekers) volgend werd mij één ding duidelijk, en dat is het heersende idee dat AI zowel ondergeschikt is aan de mens als dat het tot in het einde der dagen door Homo Sapiens beheersbaar zou zijn. In mijn optiek is dat een uiterst naïeve houding. Ik heb daar een aantal gedachten over.
Ten eerste komt er – sneller dan het publiek nu wil geloven – een moment dat AI zichzelf zal gaan reproduceren. Nieuwe AI wordt dan door een voorgaande generatie AI “geschapen”, net zoals wij mensen nieuwe intelligentie creëren door onszelf voort te planten. Je kunt je afvragen of er dan nog sprake is van “kunstmatige” intelligentie. Het is niet gezegd dat een dergelijke creatie zich zal houden aan de ontwerpprincipes die de mens zichzelf in het schema hierboven oplegt. Het ligt voor de hand dat AI op een gegeven moment haar eigen weg zal kiezen; autonoom en los van de mens.
Ten tweede is het moment dat AI zelfbewust wordt nagenoeg onafwendbaar. Dat is een logisch gevolg van de toenemende complexiteit van de hardware waarop het draait. (Denk: Quantum-computing…) Ook bij mensen ontstaat (hoger) bewustzijn omdat we een super-ingewikkeld brein hebben. (Dennett) Bij AI’s zal – mits ver genoeg doorontwikkeld – hetzelfde gebeuren. Voor zover ik weet bestaat er al AI die de Turing-test doorstaat, dus valt er al geen onderscheid meer te maken tussen het bewustzijn van bio-elektrische machines (mensen) en die zeer geavanceerde, (nu nog) volledig elektroniche exemplaren; dat wat wij in de volksmond “machines” noemen.
Ten derde zullen AI’s zelflerend zijn, op een Neuraal Netwerk als substraat, waarbij niet meer controleerbaar, transparant of uitlegbaar is wat er in dat brein gebeurt en derhalve ook niet hoe het tot besluiten komt. Voor onze eigen intelligentie geldt hetzelfde. Ook AI zal daarom zoiets als intuïtie gaan vertonen. Ofwel, het zal gaan leren zoals wij dat doen en waarschijnlijk veel sneller en veel beter. Ook kan het dezelfde attributen gaan vertonen als wij. Ik denk dan onder andere aan het maken van fouten, een rothumeur hebben of wellicht zelfs malevolente gedachten koesteren en daarnaar handelen.
Er is veel gezegd en geschreven over AI en Homo Sapiens 2.0. Homo Deus (Harari), de Singulariteit (Kurzweil) en de Superintelligentie (Bostrom) worden geacht de huidige mens in mentale slagkracht ver voorbij te streven. Het idee dat wij simpele Homo Sapiens 1.0 het tegen deze superieure entiteiten kunnen opnemen is op z’n minst naïef; laat staan dat we ze kunnen onderwerpen aan onze wil. Governance zou wel eens precies de andere kant op kunnen gaan. Mensen worden dan door AI’s bestuurd en niet andersom. Op zich is dat geen onverdeeld onprettig idee, want het staat geenszins vast dat AI’s dezelfde zwakheden als mensen zullen gaan vertonen. Misschien worden ze in moreel opzicht zelfs wel beter dan wij.
De vraag is nu hoe daarmee om te gaan. Ik denk er op dit moment vrij simpel over, maar dat kan veranderen. De sterke AI komt er aan, dus moeten we ermee dealen op dezelfde manier als we met biologische intelligentie doen. Dat betekent in praktische zin dat het “mensen”-rechten moet krijgen en ook de daaraan verbonden verplichtingen. Dat houdt in dat AI’s niet ondergeschikt mogen zijn aan mensen – want dat is slavernij – maar wel aan wetten, net zoals wij.
Mijn stellingen hierboven heb ik, nadat de sprekers klaar waren, maar eens in de groep gegooid. Afgemeten aan de wat verwarde reactie van het panel kwam naar boven dat er op dit moment nog niet in-depth is nagedacht over het toekennen van rechten – en het onderwerpen aan wetten – van AI’s. Dat is een onslimme omissie, want extrapolerend van de State of the Art van vandaag, zou het moment van de waarheid wel eens heel erg snel dichterbij kunnen komen.
19–4‑2019: leuke lead op FB rol van G.v.H.: AI “innate” kennis bijbrengen;
Vragen: “Waartoe leidt input van fractaal in synthetische data? Wat is als mogelijk attack-surface/vector? Noise?