De grote techbedrijven storten chatbots als ChatGPT, Bing Chat en Bard over de wereld uit en roepen iedereen op om ermee te experimenteren. Dit is echter niet zonder risico.
Wie voor het eerst begint te experimenteren met ChatGPT, ervaart waarschijnlijk een gevoel van opwinding als de chatbot in perfecte volzinnen antwoord geeft op elke vraag die je hem voorschotelt. Het lijkt net alsof je met een mens zit te chatten – zo een die overal meteen een antwoord op heeft. Maar al snel na de lancering, eind vorig jaar, kwamen de eerste barstjes in dat beeld. ChatGPT bleek geen allesweter te zijn, integendeel, bij de meest simpele vragen gaat hij al in de fout. De grootste onzin komt soms terug in de antwoorden van de chatbot, hallucineren noemen experts het zelfs.
Nette zinnen in perfect Nederlands
Het probleem is alleen dat ChatGPT heel overtuigend formuleert. Door de nette zinnen in perfect Nederlands die hij in het chatscherm componeert, denkt de gebruiker dat het klopt wat hij zegt. ‘De makers van ChatGPT verdienen credits, het lijkt op gewone, menselijke taal’, zegt Steven Kraaijeveld, postdoctoraal onderzoeker bij de Radboud Universiteit in Nijmegen. ‘Maar de antwoorden die eruit komen zijn zeker niet altijd accuraat. Hij komt met papers die niet bestaan of zuigt titels van boeken uit zijn duim. Je moet als gebruiker eigenlijk alles checken wat ChatGPT beweert. Informatie moet traceerbaar zijn naar bronnen, maar die levert ChatGPT er niet bij. Als je uiteindelijk alles zelf moet uitpluizen, dan vind ik dat problematisch.’
Zoekmachines
Nu is ChatGPT nog een programma dat op zichzelf staat en waarvoor een gebruiker bewust een website moet bezoeken. Problematischer wordt het als ChatGPT wordt geïntegreerd in zoekmachines en mensen er niet meer omheen kunnen, vindt Kraaijeveld. ‘We kunnen niet meer zonder zoekmachines. Bedrijven moeten aan gebruikers duidelijk maken dat het nog niet is wat mensen ervan verwachten.’
Deze kritiek van Kraaijeveld (en anderen) is relevant, want dit is precies wat de techbedrijven aan het doen zijn: chatbots combineren met hun zoekmachines. In februari lanceerde Microsoft Bing Chat; het voorzag zijn zoekmachine Bing van de technologie achter ChatGPT. Voorlopig alleen voor een beperkt aantal gebruikers.
Eigen taalmodel
Google zit intussen ook niet stil. Het lanceerde Bard, waaraan een gebruiker ook gewoon een vraag kan stellen, waarna Bard op internet gaat zoeken naar de juiste antwoorden. Bard draait op Googles eigen gigantische taalmodel LaMDA (language model for dialogue applications). Ook kwamen er interne memo’s van Google naar buiten die laten zien dat het bedrijf is geschrokken van het succes van ChatGPT en alles op alles wil zetten om nuttige toepassingen van kunstmatige intelligentie versneld te lanceren.
Slechte beurt
In die snelheid zitten risico’s. Zo maakte Google een slechte beurt met een reclamefilmpje voor Bard. Daarin vertelde de chatbot, als voorbeeld, dat de James Webb Space Telescope de allereerste foto van een exoplaneet ooit zou hebben gemaakt. Maar dat klopt niet, liet de echte ontdekker – in 2004 – van de eerste exoplaneet weten op social media. Het is een voorbeeld van het eerdergenoemde hallucineren. Wat er is gebeurd: het taalmodel waarop Bard draait heeft bestaande stukjes informatie op een verkeerde manier met elkaar gecombineerd. Beleggers reageerden op het nieuws over Google; op de beurs van Wall Street verloor moederbedrijf Alphabet tijdelijk honderd miljard dollar aan waarde.
