Als je denkt dat het geven van opleidingen over Generatieve AI en hoe je goeie prompts schrijft, je ineens ook een blinde fan van 'prompt engineering' maakt, think again. Onze collega Vinnie De Craim geeft in onderstaande post twee risico's mee waarbij we maar beter stilstaan als we voor digitale inclusie willen gaan. 👉 Het risico dat gebruikers van GenAI onterecht geculpabiliseerd worden omwille van gebrekkige output (terwijl deze eigenlijk eigen is aan de technologie) - een risico dat bovendien des te groter is omwille van het gebrek aan transparantie en voorspelbaarheid van de technologie. 👉 Het risico dat goed prompten/prompt engineering daardoor onterecht voorgesteld wordt als een bijna magische, maar ook moeilijk bereikbare competentie die mensen eerder afschrikt dan te motiveren om die te verwerven. 🤔 Zou het kunnen dat het promoten en op een piédestal hijsen van 'prompt engineering' juist de digitale kloof vergroot in plaats van die te verkleinen? #digitaleinclusie
‘Ah, dan moet je je prompt beter schrijven.’ Dat het leren aanvoelen en experimenteren met prompts leidt tot betere resultaten met GenAI-tools weet iedereen nu wel. Maar dit schept wel een heel groot probleem. Namelijk: dat we de gebruiker gaan culpabiliseren voor de (soms) gebrekkige output van een tool. Want als het resultaat niet naar wens is, dan moest de prompt maar beter worden geschreven. Dit is een trend die ik meer en meer oppik en dat baart me zorgen. Het is nu eenmaal zo dat GenAI een ‘jagged frontier’ heeft. Wat betekent dat de grens tussen wat de systemen wel en niet kunnen, heel onduidelijk is, proefondervindelijk moet aangevoeld worden, en ook nog eens voortdurend verandert. GenAI-tools hebben geen echte handleiding. En wat erger is: het systeem kan zichzelf niet uitleggen, en de ingenieurs erachter ook amper. Dit gebrek aan transparantie en voorspelbaarheid maakt het moeilijker voor iedereen om de technologie effectief te gebruiken, maar vooral voor degenen die niet de tijd of middelen hebben om diepgaand met de technologie te experimenteren. Systemen weten niet wat ze niet weten. Het is zelfs zo dat systemen soms niet weten wat ze kunnen. Ik heb het al een aantal keer voorgehad dat ik in de ChatGPT, met internettoegang, vroeg om iets online op te zoeken, maar een bericht kreeg genre ‘ik kan dat niet.’ Daarna moest ik doodleuk zeggen ‘je kan dat wel’, waarna ChatGPT via Bing een aantal online links begon te zoeken. Dit soort inconsistenties zijn frustrerend voor minder actieve gebruikers die zo worden ontmoedigd om de technologie verder te verkennen. Ja, beter leren prompten zorgt voor betere output van GenAI-systemen. Ja, dat betekent dat enige vertrouwdheid met prompting aangewezen is. Maar we moeten er absoluut over waken dat de slinger niet doorslaat en we elk gebrekkig resultaat van een GenAI-tool automatisch koppelen aan een vermeend kennistekort van de gebruiker. ‘Prompt engineering’ is geen duidelijk afgelijnde vaardigheid die je hebt, niet hebt, of nog moet ontwikkelen. Het is eerder een los geheel van tips & tricks als een onderdeel van een bredere affiniteit en gevoeligheid met GenAI-systemen. Dit is misschien een subtiel punt, maar het is wat mij betreft cruciaal om hierover te reflecteren, omdat het te maken heeft met de toegankelijkheid en bruikbaarheid van GenAI-tools, en inclusie in het algemeen. Als we de ‘kennis’ die nodig is om de vruchten te plukken van de technologie gaan beschouwen als een vaste (esoterische) skillset, schrikken we mensen af. En als we het gebrekkig functioneren van de technologie vervolgens afschuiven op de gebruikers, dan worden er barrières gebouwd waar er geen moeten zijn, ontstaan er kloven tussen technologische mogelijkheden en gebruikersverwachtingen, en verliezen we mensen in het proces. Dit zullen waarschijnlijk dezelfde mensen zijn die nu ook moeite hebben met functioneren in een sterk digitaliserende maatschappij, die op het vlak van digitale geletterdheid hoge eisen stelt.