Moet de universiteit AI omarmen?
IN HET KORT
- AI zal volgens David Martens tot een vierde van onze huidige jobs doen verdwijnen. Toch moeten we AI als universiteit volledig omarmen.
- Een deel van het creatieve proces en de intellectuele inspanning gaat verloren als studenten hun papers en scripties met AI zullen schrijven, vreest Anthony Longo.
- De risico’s van AI: geen transparantie in het creatieproces en geen duidelijk eigenaarschap, de kans op biases, en machtsconcentratie bij enkele grote Amerikaanse techspelers.
- Het opslaan van gegevens moet eerlijk en veilig gebeuren, en we moeten weten hoe de AI-modellen getraind worden en wie er allemaal toegang toe heeft.
- Ethische reflectie is noodzakelijk. Dat kan bijvoorbeeld met een vak ‘Responsible AI’, en met een goede opleiding van het onderwijzend personeel.
- Het nieuwe onderzoekscentrum Antwerp Center for Responsible AI (ACRAI) wil de expertise universiteitsbreed bundelen, zodat ethische beslissingen over AI niet alleen aan bedrijven worden overgelaten.
Mag ChatGPT gebruikt worden om een scriptie te schrijven? En ruimer: moeten we volop meegaan met de recente ontwikkelingen in de Artificiële Intelligentie (AI), of is hier wat terughoudendheid geboden? Specialist Datamining & Responsible AI David Martens, oprichter van het nieuwe ‘Antwerp Center for Responsible AI’ en docent van onder meer het vak Data Science Ethics, vindt dat onze universiteit AI volledig moet omarmen. Filosoof Anthony Longo, die zijn doctoraat schrijft over digitale technologie en het platform devirtuelemens.be lanceerde, vreest dat door de snelheid van implementatie de kritische reflex wat verloren gaat. Hij zou liever het rempedaal even indrukken.
AI volledig omarmen
Het regent de laatste tijd AI-berichten in de pers: doemdenkers en vooruitgangsfilosofen spreken zich uit. Historicus en futuroloog Yuhal Noah Harari vreest dat AI onze beschaving zal vernietigen, Ann Nowé, hoofd van het AI-lab van de VUB, noemde ChatGPT een ethisch onverantwoord experiment, Geoffrey Hinton, een van de vaders van de AI-technologie, stapte op bij Google en waarschuwde voor de gevaren van de technologie, en er zijn heel wat signalen dat de lucht aan het ontsnappen is uit de beurszeepbel rond kunstmatige intelligentie. Wie heeft het bij het rechte eind? En welke rol kunnen of moeten universiteiten spelen in dat hele AI-verhaal?
Specialist Datamining en Responsible AI David Martens (Faculteit Bedrijfswetenschappen en Economie) is hier heel stellig over: “Als universiteit moeten we AI volledig omarmen. AI kan tot een vierde van onze huidige jobs doen verdwijnen, OpenAI claimt zelfs dat tachtig procent van alle jobs zal veranderen door de inmenging van generatieve AI. Het is als universiteit onder meer onze rol om ervoor te zorgen dat de economie en maatschappij beter worden door deze technologie, en het is onze plicht om de huidige studenten in het verantwoord gebruik ervan op te leiden.”
Als universiteit moeten we ervoor zorgen dat de economie en maatschappij beter worden door AI, en is het onze plicht om de huidige studenten in het verantwoord gebruik ervan op te leiden.
Eigenaarschap en transparantie weg
“Ik maak me toch wat meer zorgen,” aldus doctoraatsstudent Anthony Longo (Departement Wijsbegeerte). “AI stelt ons aan de universiteit voor een aantal vraagstukken die we niet mogen negeren. Verliezen studenten door AI geen mogelijkheden om hun intelligentie te trainen bijvoorbeeld? Bij de implementatie van elke nieuwe technologie verliezen we iets en winnen we iets. Er komen nieuwe vaardigheden en vormen van creativiteit bij, maar ik denk dat een deel van het creatieve proces en de intellectuele inspanning ook verloren gaat als studenten hun papers en scripties met AI zullen schrijven. AI is onder meer ontwikkeld om een deel ‘frictie’ weg te nemen bij het uitvoeren van taken, maar ik denk dat net in die frictie, in het worstelen en het falen de waarde van het leerproces zit. In welke mate ben je studenten met AI nog academisch aan het opleiden en niet louter aan het opleiden in het schrijven van de juiste prompts?”
Longo vreest eveneens dat er met AI transparantie in het creatieproces verloren gaat. “Met ChatGPT weet ik bijvoorbeeld niet meer precies van waar mijn output komt, terwijl dat voor bijvoorbeeld een filosofisch onderzoeker net heel belangrijk is. Wat zijn de aannames? Hoe zijn die ontstaan en hoe wordt tot een conclusie gekomen? Ik denk dat er door AI eveneens een vorm van eigenaarschap in dat creatieproces verloren gaat.”
Europese AI-wetgeving en risico’s
“Ik ben het niet met alles eens”, meent Martens. “Ik denk dat het de verantwoordelijkheid van het onderwijzend personeel is om hun evaluatievormen zo aan te passen dat studenten ook met AI-output kritisch naar hun eigen werk blijven kijken. Ik laat mijn studenten ChatGPT gebruiken voor hun papers, maar laat hen ook een paragraaf schrijven over wat ze er nu goed en minder goed aan vonden, en ik wijs hen uiteraard op de gevaren en de risico’s. Onze universiteit heeft ondertussen beleidslijnen over AI. Ik gebruik voorlopig ook de policy van Harvard omdat die concreter is naar studenten toe. Het klopt dat eigenaarschap een van de risico’s is. In de Europese AI-wetgeving staat gelukkig duidelijk dat de OpenAI-platformen moeten aangeven waar hun ‘copyrighted data’ vandaan komen. Nog een van de risico’s is de kans op ‘biases’. Als een algoritme getraind wordt met niet-representatieve informatie, dan zal de ongelijkheid tussen bevolkingsgroepen toenemen. En een erg groot risico is de zogenaamde ‘concentration of power’: nu leiden een aantal grote Amerikaanse techspelers zoals OpenAI, Microsoft, Meta en Google de discussies over dit thema en hebben we er zelf geen controle over. Daarom is het des te belangrijker dat Europa krijtlijnen uitzet die moeten gevolgd worden.”
AI en uitbuiting
“Ik kan me toch niet van de indruk ontdoen dat AI afhankelijk is van een soort uitbuiting”, meent Longo. “Ik zie daar drie vormen: de uitbuiting van de samenleving omdat individuen gebruikt worden als testobjecten zonder het te weten, de uitbuiting van arbeidskrachten doordat de AI-modellen afhankelijk zijn van ‘content moderation’ en training die vaak in slechte arbeidsomstandigheden in groeilanden gebeuren, en de uitbuiting van de natuur: de ontwikkeling van AI vraagt enorm veel grondstoffen en daar is weinig transparantie over. Daar moeten we als universiteit ook over nadenken. Als we nadenken over de leveranciers met wie we samenwerken, waarom dan niet kritisch bekijken of AI wel in de duurzaamheids- of de diversiteitsstrategie van de universiteit past?”
“Ik vind dat mooie en terechte academische vragen, die de uitrol van AI evenwel niet in de weg mogen staan”, aldus Martens. “De uitbuiting van het individu gaat vooral over transparantie, wat de uitbuiting van arbeidskrachten betreft, zijn er echt wel urgentere vraagstukken aan te pakken, en wat de uitbuiting van de natuur betreft: dat valt echt enorm mee. Het trainen van GPT3 komt qua CO2-emissie overeen met een auto die negen keer de wereld rondrijdt (356 000 km). Zijn dat voldoende redenen om die technologie dan voorlopig links te laten liggen? Nee, lijkt me.”
Past AI in de duurzaamheids- of de diversiteitsstrategie van de universiteit?
Opportuniteiten en gevaren
“Ik zie vooral de opportuniteiten van AI”, aldus Martens. “Met AI doen we gewoon beter werk met minder kosten: die moeilijke mail schrijven, een abstract finaliseren, een paper finetunen, een goede metafoor vinden... Ik geef op de doctoral day van onze faculteit ook een workshop over het gebruik van AI voor doctorandi en daar stel ik onder meer voor dat ze ChatGPT de ‘reviewer’ laten spelen die kritiek geeft op hun scriptie en mogelijke hiaten of fouten opspoort. AI stimuleert in mijn ogen meer de creativiteit dan dat ze die fnuikt. De technologie genereert nieuwe ideeën, maakt snelle samenvattingen van een bepaald onderzoeksdomein, legt dingen eenvoudig uit op een manier die je ook in de colleges kan toepassen. Met visuele AI-toepassingen als Midjourney kan je prachtige schema’s voor je presentaties genereren. En bovendien stimuleert AI in mijn ogen ook de gelijkheid tussen mensen. Vroeger konden alleen onderzoekers die geld hadden dergelijke services betalen, nu heeft iedereen daar toegang toe.”
Maar Martens blijft niet blind voor de gevaren, hij schreef er zelfs een boek over. “Voor AI hanteer ik de FAT-principes: fairness, accountability en transparency. Het opslaan van gegevens moet eerlijk gebeuren en gevoelige info hoort er niet in. We moeten weten welke beveiligingen het systeem kent, hoe de modellen getraind worden en wie er allemaal toegang tot de data en de modellen heeft.”
AI vermenselijken
“Een ander groot gevaar zie ik in het antropomorfiseren van AI – de technologie als mens behandelen of menselijke eigenschappen toedichten”, waarschuwt Longo. “Dat gebeurt bijvoorbeeld bij de AI-implementatie in Snapchat voor jongeren, of bij AI-toepassingen in de mentale gezondheidszorg. Uit onderzoek blijkt dat mensen erg kwetsbaar zijn bij emotioneel-affectieve technologie. Het gebruik van heel menselijke, emotionele taal is potentieel schadelijk. En het voedt bovendien het narratief dat we naar een vorm van AI toewerken die de mens gaat overnemen.”
“Opnieuw, dat zijn interessante discussies die evenwel afleiden van de opportuniteiten die AI biedt”, vindt Martens. “Maar waar ik je wél gelijk in geef, is dat het onbegrijpelijk is dat er AI-experimenten op kinderen uitgevoerd worden. Dat is onaanvaardbaar en daar moeten we duidelijk stelling tegen innemen.”
AI versus boekdrukkunst
Kunnen we wat we nu zien gebeuren met AI, vergelijken met een (r)evolutie uit het verleden? De doorbraak van Google bijvoorbeeld? “Ik denk dat zelfs een vergelijking met de uitvinding van de boekdrukkunst of de telefonie mogelijk is”, aldus Longo. “Toen de telefoon de huiskamer binnenkwam, moesten er ineens nieuwe gedragscodes in communicatie ontwikkeld worden. Dat veroorzaakte ook een schokgolf. In het geval van AI moeten we zinvol leren omgaan met digitale modellen zonder zelfbewustzijn. We hebben in het verleden gezien dat er na zo’n schok altijd wel een implementatie volgde, maar het verschil zit hem dit keer in de snelheid waarmee dit allemaal gebeurt. Waar de boekdrukkunst een paar eeuwen kreeg om overal ingeburgerd te geraken, lijkt het hier bijna een kwestie van dagen. Het evolueert allemaal zo ontzettend snel dat er amper tijd is om onderzoek te doen naar welke geletterdheid we nodig hebben voor AI, en welke vaardigheden of sociale etiquette. De snelheid leidt in mijn ogen tot een vrij onkritische toe-eigening en dat roept dan weer een dringende vraag naar regulering op. Misschien is het dan niet slecht dat we als beleid daar toch wat vertragen en onze tijd nemen?”
Vak Responsible AI
“Ik ben van mening dat het volledig omarmen van AI en de kritische reflectie erop perfect kunnen samengaan”, meent Martens. “Maar die ethische reflectie is wél noodzakelijk. Ik denk hierbij aan een vak ‘Responsible AI’, maar vooral aan een goede opleiding en training van onze docenten om AI verantwoord in te zetten in de vakken. De Vlaamse overheid investeerde de laatste jaren miljoenen in AI-onderzoek. Er zijn absoluut meer van zulke initiatieven nodig. Ik hoop dat dit trouwens ook een thema bij de rectorverkiezingen (voorjaar 2024 kiest UAntwerpen een nieuwe rector, red.) wordt. Hoe gaan we mensen trainen in AI en wat wordt daar de rol van de universiteiten in?”
“Ik hoop wel dat de rol van de universiteit er niet louter in bestaat het status quo van de arbeidsmarkt te volgen, maar dat onze kennisinstelling ook actief mag sturen,” pareert Longo.
“Vandaar dus ons nieuwe onderzoekscentrum Antwerp Center for Responsible AI (ACRAI)”, antwoordt Martens. “Daarmee willen we alvast het onderzoek uitdagen en de expertise vanuit de verschillende faculteiten over AI bundelen om de maatschappij en de economie aan te sturen.”