Je kunt er niet omheen; kunstmatige intelligentie (AI). De verhalen en meningen zijn eigenlijk altijd in twee categorieën te verdelen: De optimistische verhalen: De mogelijkheden van AI zijn eindeloos, met alle voordelen die dat kan geven. Dit zorgt voor een ongekende revolutie dus zorg dat je de “trein” niet mist. En de pessimistische verhalen: De AI-revolutie gaat alles op zijn kop zetten. Veel mensen gaan hun baan verliezen. Sommige zeggen zelfs dat wij allemaal slaven worden van de AI’s, de “Robot Apocalypse”! Alhoewel beide verhalen sterke argumenten bevatten, kunnen ze niet tegelijkertijd waar zijn. Wat al deze verhalen vergeten is dat AI met ons zal werken, niet tegen ons. Lees dit artikel van 2018 van onze consultants over AI.

De AI weet niet wat er moet gebeuren, jij wel

Het mooie aan AI is dat het zelflerend is, maar dat betekent niet dat het zichzelf leert. Je moet een trainingsset samenstellen. Deze moeten door mensen worden samengesteld en gecureerd. Maar wat als de AI wordt getraind door een andere AI? Die heeft het geleerd door middel van een trainingsset. Zelfs als je data uit de praktijk gebruikt… dat is nog steeds een trainingsset.

De trainingsset moet je controleren op:

  • Compleetheid: Als je je AI op een te eenzijdige set traint, dan kan de AI vreemd gedrag gaan vertonen op het moment dat de invoer buiten het getrainde bereik valt.
  • Vooroordelen: Data uit de praktijk kan bewuste of onbewuste vooroordelen bevatten (bijvoorbeeld: van alle sollicitanten werden vooral mannen aangenomen). De AI heeft geen ingebouwde moraliteit en zal deze vooroordelen gewoon overnemen (en alleen mannen aannemen).
  • Correctheid: Wie bepaalt wat een goede en een slechte uitkomst is? Toen Microsofts AI-chatbot Tay losgelaten werd op het Web leerde het binnen de kortste keren allerlei smerige en scheldwoorden – niemand had het geleerd dat dit “slecht” was. Het maken van deze keuzes vraagt inzicht in ethiek en filosofie.

Voor al deze punten kan een computerprogramma je helpen, maar de uiteindelijke keuzes zullen door een mens moeten worden gemaakt. Alleen mensen hebben immers een moreel bewustzijn.

Wie controleert de AI?

Zoals de romeinse dichter Juvenal schreef: “Quis custodiet ipsos custodes?”– Wie zal de bewakers (zelf) bewaken? Nu AI’s steeds meer beslissingen zullen gaan nemen, rijst de vraag wie controleert of deze beslissingen correct zijn. Het is niet voor niets dat Pega hun AI een inspectiemogelijkheid– die zij de “transparantieknop” noemen – hebben gegeven.

“Een AI is zo goed als de invoer die hij (het?) krijgt. Als je nu al niet weet wat je doet, dan weet je AI het ook niet”.

Ok, een mens blijft dus nodig, maar het controleren van een AI heeft zijn eigen problemen. Als je denkt dat je zijn manager kan zijn, dan heb je het mis. Zelfs zoiets simpels als een noodknop is problematisch, zoals het youtube kanaal Computerphile laat zien. In een videoserie ([1][2][3][4][5][6]) leggen zij alle problemen met AI safety uit aan de hand van een robot de thee haalt en over een baby dreigt te rijden. Het zal dus nodig zijn dat iemand met de AI werkt, die begrijpt hoe AI werkt, kan controleren of de AI correct werkt en die de juiste correcties kan uitvoeren als zaken misgaan.

Geen gemakkelijke oplossing

AI zal in de toekomst zeker grote veranderingen teweegbrengen. Echter vind ik het heel moeilijk om mee te gaan in de hype. Ik denk dat AI een extra medewerker gaat worden die met mensen zal samenwerken, om zo van ze te leren. Deze afhankelijkheid zal minder worden wanneer AI intelligenter wordt, maar het zal nooit verdwijnen.

Benieuwd naar werken bij BPM Company?

Bekijk dan eens de vacatures of neem contact op met Hans Steenwijk: