AI for Civil Society

This article was originally written for and published by Disrupt Development.

You have probably noticed that this โ€˜Artificial Intelligenceโ€™ thing has become quite a big deal over the past few years. Everywhere you look there seems to be a scientist, tech entrepreneur, journalist or futurist telling us about how itโ€™s going to change our world. In good ways and not-so-good ways. While many of us are either dreaming about how AI will bring more equal opportunities and solve complex social issues or are having nightmares about how AI will make an end to privacy or become a tool for oppression, CIVICUS* also had a pragmatical question; โ€˜How can our communications department make use of AI right now?โ€™. Together with the CIVICUS communications team, Disrupt Development consultants Irene Siaw and myself put together an online (as the CIVICUS team is also spread out across the globe) half days introductory workshop to explore this question.

What is AI really?
While at first sight it appears a pretty straightforward question, there is actually quite bit more to it. It actually already begins with the definition of Artificial Intelligence. What do we mean by it? Even in the scientific AI sector this debate has not been settled and this also showed in the outcomes of the survey we sent around to the CIVICUS team members. Unfortunately, we were not able to settle the debate once and for all. But we did come to the conclusion that even though during the workshop it would be useful to provide an overview of the different types of AI, we would zoom in on generative AI; AI tools that are able to create text, images, audio and video.

Opportunities or threats, which wins?
Obviously, for an NGO like CIVICUS there are many worries about potential risks attached to AI, like surveillance, increasing economic inequality or a concentration of power in the hands of non-democratic entities. By zooming in on generative AI, of which there are many tools and uses known and freely available, the workshop gained focus and it would actually become a workshop, instead of a lecture or a debate session. Not that generative AI does not have its own unique set of hopes and fears. It is well known that generative AI has bias issues, where its outcomes tend to be more favorable to the groups that currently hold more economic and political power. There are also worries about generative AI providing inaccurate outcomes, violating copyrights, or being an IT security threat. The question is then, do these threats and worries outweigh the potential benefits? In other words: should we be using generative AI at all?

Understanding instead of prohibiting
Instead of prohibiting the use of generative AI until all threats and dangers are known and contained, you can also take the route of helping people understand where these threats and dangers come from, which will provide them with knowledge to make better decisions themselves. So during the workshop, we gave a lot of attention to explaining how generative AI works. How is a Large Language Model (LLM) able to take a question (prompt) from a user and then come back with an output (in the form of content) that is so impressive that it make you think that โ€˜the machine understands youโ€™? Obviously, it does not make sense to explain that in a technical way. The biggest challenge there is to decide, what does a professional working at and NGO or civil society organisation need to know, so that they understand enough of the technology behind the computer screen? So, for example, they donโ€™t just know that they should always check ChatGPTโ€™s answers (even though ChatGPTโ€™s makers do everything they can to make you feel like itโ€™s not necessary), but they know why they should always check. And, on the more positive side, when you understand how generative AI works, it helps to think of potential uses for it, without being dependent on, continuously outdated, lists of new tools that have been developed by others. So, thinking about potential uses during the workshop ourselves was a valuable part of the workshop that provided added insight but also deepened the learning experience.

Learning and doing
Itโ€™s one thing to tell people about how generative AI tools try to convince you that they are an actual person, itโ€™s another thing to have them experience it. By having the team work with ChatGPT (as the best accessible tool with the most well-known user interface), trying out various assignments with different prompts and evaluating their experiences together, the theoretic part of the workshop came to life. Itโ€™s a bit like explaining how a really cool magic trick works and then seeing it performed before your eyes, you might have a better understanding of how it works, itโ€™s still amazing.

After the workshop, we created a document for the team so they could go over what we had worked on together, but also share with other interested colleagues. We thought it was a great journey and we are confident that CIVICUS is a bit better equipped for the future.

Drie redenen waarom je Deepseek niet moet gebruiken

Ook vanuit China komt een AI product, DeepSeek heet het ding. Met DeepSeek R1 als chatbot. Dat is natuurlijk een afgrijselijke naam, maar dat is dan weer een cultuur dingetje. DeepSeek krijgt heel veel aandacht. Want AI en want China. Maar ook omdat DeepSeek veel lagere ontwikkelkosten zou hebben dan bijvoorbeeld OpenAI (van ChatGPT). Het is nog maar de vraag of dat wel echt het geval is. Vooralsnog is het vrij aannemelijk dat de Chinese overheid een helpend handje heeft toegestoken. Maar goed.

DeepSeek is de nieuwe hype en wordt dan ook vele gebruikt en, als app, gedownload. Misschien ook wel door jou en dat zou je beter niet kunnen doen. Woon je niet in รฉรฉn van de landen die DeepSeek inmiddels verboden hebben, dan hier even snel drie belangrijke redenen waarom je DeepSeek van je telefoon en bookmark lijst zou moeten verwijderen.

1. Privacy & data risico’s

De Chinese overheid streeft een andere maatschappelijke orde na, dan wat wij hier in Europa gewend zijn. Dat mag natuurlijk. Maar dat heeft wel bepaalde consequenties waar wij hier niet helemaal gelukkig van worden. Voorbeeldje: als je de Temu app installeert, ga je eigenlijk zonder nadenken akkoord met de voorwaarden. (Want als er iets mis mee zou zijn, dan was het wel verboden, denk je dan). Naast dat ze je camera en microfoon mogen gebruiken, je contacten en fotoโ€™s bekijken, ga je er dan onder andere mee akkoord dat Temu je telefoon (โ€™s nacht) kan activeren, je berichten lezen en daar screenshots van maken. โ€œDat doen we niet hoor.โ€ zegt Temu dan, maar ze hebben wel je toestemming om het te doen. En waarom hebben ze die nodig als ze het niet gebruiken? Als Temu ooit geen zin meer heeft om spulletjes te verkopen hebben ze alle informatie die ze nodig hebben om alles van je af te pakken, van je geld, tot je huis tot je identiteit. Dat zouden ze dan zelfs op grote schaal kunnen doen, met een beetje hulp van AI. Zoals die van DeepSeek bijvoorbeeld.

DeepSeek benadrukt dat hun model volledig open-source is, en gratis te downloaden op je eigen apparaat, waarmee in theorie je gegevens niet met hen gedeeld worden. Echter, er verschijnen steeds meer berichten dat gebruikersdata via DeepSeek wel naar China worden doorgesluisd.

WIRED Newsletter, January 30, 2525

2. Censuur

Er bestaan geen neutrale AI chatbots. Ze hebben allemaal wel een voorkeur in een specifieke richting.  Meestal is die voorkeur vrij subtiel, maar die voorkeur is er.  De DeepSeek chatbot is duidelijk gecensureerd op onderwerpen waarover de Chinese overheid liever niet open is, zoals Taiwan, de gebeurtenissen op het Tiananmen plein in 1989, of de protesten in Hong Kong. Dit is natuurlijk nogal grove en zichtbare censuur. Over onderwerpen waar je die chatbot helemaal niet voor nodig hebt. Maar als die censuur al zo overduidelijk wordt toegepast is het zeer aannemelijk dat de DeepSeek bot ook op andere manieren een voor de Chinese overheid te prettig plaatje schetst.

3. Goedkoper. Niet beter.

Het schijnt dat DeepSeek het op het gebied van rekenen beter doet dan OpenAI en dat
OpenAI het beter doet waar het gaat om creatieve taken aan nieuws.
DeepSeek is vooral vรฉรฉl goedkoper dan OpenAI voor gebruikers. DeepSeek vraagt ongeveer 0,14 dollar voor eenzelfde hoeveelheid tekst (zoโ€™n 750.000 woorden) als waar OpenAI 7,50 dollar voor vraagt. Zakelijk gebruikers met een OpenAI abonnement van 20 dollar per maand zouden met een gratis DeepSeek abonnement toe kunnen. Qua hoeveelheid tekst dus, maar met minder goede โ€˜creativiteitโ€™.

Nou zie ik op LinkedIn nog wel eens handige zelfverklaarde keynote speakers en business gurus voorbij komen die de zegeningen van Temu bezingen en die ontvangen veel enthousiaste reacties van allerlei winkeliers. Er zullen dus vast heel wat mensen zijn die zaken als mensenrechten en kwaliteit voor lief nemen als ze een paar tientjes extra kunnen meepikken. Maar ik zou het zelf niet over mijn hart kunnen verkrijgen.

Het begrip ‘beter’ omvat natuurlijk meer dan alleen de kwaliteit van de output die je van een AI model krijgt. Veiligheid van gebruik hoort daar ook bij. Kun je als gebruiker ook onwenselijke of zelfs gevaarlijke output krijgen? Een manier om dat te voorkomen wordt ‘guardrails’ genoemd, door mensen ingestelde regels die een AI chatbot bijvoorbeeld verbieden om de gebruiker informatie te geven over hoe je ene bom zou moeten maken. Onderzoekers hebben recent 50 bekende tests gedaan met DeepSeek om te kijken hoe het met de veiligheid is gesteld. DeepSeek doorstond er niet รฉรฉn.

4. Ook geen OpenAI

De vergelijking tussen OpenAI en DeepSeek krijgt natuurlijk vooral zoveel aandacht omdat ChatGPT AI bekend heeft gemaakt bij het grote publiek. Maar er zijn meer smaken. En tussen al die smaken zou ik ook niet voor OpenAI kiezen. De afgelopen weken hebben we duidelijk kunnen zien dat Europese belangen en idealen niet per se in goede handen zijn bij Amerikaanse Tech bedrijven. En laat er nou een prachtig Europees alternatief bestaan voor OpenAI; het Franse Mistral.

Mistral 7B is net zo Open-Source en gratis als DeepSeek R1. Maar waar DeepSeek na een explosieve sprint naar de top nu toch vooral een bij elkaar gestolen zooitje, onveilig datalek lijkt, is Mistral AI bezig met een gestage, onopvallende klim naar de top. En is het een inmiddels uitstekend alternatief voor gebruikers die veiligheid en dataprivacy te belangrijk vinden om aan de grillen van het Amerikaanse politieke klimaat over te laten.

Een gratis AI toepassing bestaat niet

Afbeelding door Adobe Firefly

Je hoort mensen het nog wel eens zeggen, maar het bestaat niet: de gratis versie van een AI model. Er is geen gratis ChatGPT, geen gratis Gemini, Llama, Midjourney of Canva. Voor al deze modellen betalen we minimaal twee keer.

Er is namelijk geen enkel AI model dat niet eerste gigantische hoeveelheden data heeft moeten verwerken voor het ook maar iets kon. En deze data, dat is de content die wij met zijn allen in afgelopen halve eeuw online hebben geplaatst. Zonder dat we dat wisten, in veel gevallen zonder dat we daar toestemming voor hebben gegeven en zeker zonder dat we er iets voor hebben gekregen.

De tweede manier waarop wij betalen heeft nog niet plaats gevonden. Vergelijk het er maar mee dat wij allemaal op dit moment met de AI ontwikkelaars in een restaurant zitten te eten. Maar zodra de ober met de rekening komt zijn onze AI vrienden er vandoor. Wij blijven met de rekening achter in het restaurant. Maar dat restaurant is eigenlijk onze planeet. Waarop wij leven. Al die AI kost bakken met energie en grondstoffen, maar zodra er betaald moet worden om dat op te gaan lossen wordt die rekening bij ons โ€˜de wereldbevolkingโ€™ neergelegd.

Tech-oligarchen

Ook al zouden we dat willen, de AI revolutie is niet te stoppen. Maar waarom zouden we dat ook willen? AI is niet het probleem. AI is een prachtige technologie waar we allemaal ontzettend veel voordeel van kunnen gaan hebben. De mannetjes (het zijn bijna enkel mannetjes) die toevallig op posities zitten om als รฉรฉn van de zeer weinigen รฉcht te profiteren van AI, die zijn het probleem. Ondanks dat ze geen gelegenheid voorbij laten gaan om te vertellen dat ze zich inzetten voor mens, maatschappij en wetenschap gaat het hen toch echt enkel om de eigen portemonnee. En deze Tech-oligarchen hebben ons nog wijsgemaakt dat dat iets acceptabels is ook.

Maar zonder collectief is er dus geen AI. Dan is het ook niet zo gek om te stellen dat de opbrengsten van AI ook ten goede zouden moeten komen aan het collectief. Je zou dat kunnen bereiken door alle AI bedrijven te nationaliseren. Maar dat is wel een vrij ongezellige en weinig motiverende aanpak. Er zijn nog maar weinig mensen over die warmlopen voor communisme.

AI belasting

Gelukkig hebben overheden een ander mechanisme om een overschot aan financieel vermogen bij een minderheid te herverdelen. Belastingen noemen we dat. Een AI belasting is helemaal niet zoโ€™n slecht idee. Die belasting kun je heffen aan de inkomsten en aan de uitgaven kant. Aan de uitgaven kant zou dat een variant op BTW kunnen zijn; als je gebruik wil maken van AI moet je een opslag betalen die wordt overgemaakt aan de Staat (oftewel: dit geld komt ten goede van ons allen). Aan de inkomsten kant kun je dan denken aan bijvoorbeeld winst- of omzetbelasting voor AI ontwikkelaars.

Ik schat in dat ruim 99% van de opbrengsten van AI naar ons allen kan, om het alsnog meer dan interessant te houden voor ondernemende types om te blijven innoveren. De investeringen komen namelijk niet stil te liggen. Want uit de opbrengsten kunnen overheden dat zelf doen. Maar dan wรฉl met het belang van de samenleving voorop in plaats van als bijzaak. Bedragen in de orde van grootte van 500 miljard dollar zoals in het Amerikaanse initiatief Stargate wordt gestoken lijkt me best haalbaar. En dan hou je vast en zeker nog een flinke pot geld over om te steken in een universeel basisinkomen. Wat dan weer prettig is voor mensen die bijvoorbeeld hun baan kwijtraken aan AI; zij kunnen vervolgens iets anders, zinvols, gaan doen.

Of ze kunnen, als ze dat willen, niks gaan zitten doen. Want โ€˜niks doenโ€™ voor een universeel basisinkomen is voor de mensheid nog altijd positiever dan een miljard bij elkaar schrapen door de mensheid te belazeren.

AI? Better worry about super-wealthy, creepy white men

Image created by Adobe Firefly

Me: Copilot, can you please translate this article to English?
Copilot: I am sorry, I can not translate the article since it may be copyrighted
Me: Sorry. Can you please translate this text I wrote myself into English?
Copilot: Sure, here is the translation:

We don’t need artificial intelligence to destroy ourselves. Our own mediocre intelligence is more than enough.

Many people have a rather unrealistic view of artificial intelligence (AI), and this doesn’t necessarily apply to people who know little about AI. Programmers who are deeply involved with it, or professors who deal with it daily, can also have unrealistic expectations. The idea is that through AGI (artificial general intelligence), where AI systems can learn things on their own and machines become more intelligent than humans, the machine will develop self-awareness. Once that happens, it won’t be long before the AGI decides that humans are undesirable or at least redundant. And this AGI will be so advanced that no human will be able to stop it from wiping us all out.

An extremely advanced calculator

We’re not even talking about the distant future. Sam Altman, the head of OpenAI (the creators of ChatGPT), predicts that this year will be the year of AGI. If that’s not scary, I don’t know what is. What’s really happening is that the amount of data, probability calculations, and computing power that AI throws at a task is so staggering that we can’t even imagine it. So much is being calculated so incredibly fast that it’s easier for us to believe there’s consciousness involved rather than an extremely advanced calculator. Through movies and (once) books, we’ve been familiarized with the idea of self-aware robots for about a hundred years. We can imagine an AI with consciousness, but not the other way around. But that doesn’t make it true.

Being right is not bias

AI models only get ‘smarter’ by adding even more data, more rules, and more computing power. And that’s happening on a large scale now. And that brings dangers with it. I’m not talking about the environmental impact of all the energy AI consumes. I’m talking about that enormous computing power in the hands of a small group of super-rich, creepy white men.

Recently, Mark Zuckerberg, the head of Meta (including Facebook, Instagram, WhatsApp, Meta Quest), was in the news because he announced that Meta’s social media platforms, like Musk’s Twitter, will stop moderation by fact-checkers. With a weak story that mainly highlighted his social shortcomings once again, he tried to sell the idea that he was driven by lofty ideals. Free speech must triumph over the left-wing bias suggested by him regarding fact-checkers. Now it’s logical that from an (extreme) right-wing populist perspective, fact-checkers seem to have a left-wing bias. The movement of types like Trump and Wilders relies on lies, distrust, and division, which often don’t pass the test of unbiased fact-checking. What Zuckerberg wants to dismiss as ‘bias’ actually means that the left-wing progressive movement is often right. For profit’s sake, Meta chooses to approach facts as ‘just another opinion.’

Independent fact-checkers correcting ‘right-wing’ messages more often than ‘left-wing’ ones is not bias. It’s called ‘being right.’

A sympathetic online slut-database

Besides social media, Meta is also involved in AI. Their AI model is called Llama, which is a misleadingly cute name. Llama is an open-source model because they hope to gain more sympathy this way than closed AI models like OpenAI’s (ChatGPT). Meta knows all too well how important sympathy is because they became so rich with the initial sympathy for Facebook, Instagram, and WhatsApp. What doesn’t help here is that Meta knowingly uses copyrighted content to train Llama without permission. Using user data without consent to create their model is unsympathetic but still legal. Somewhere in the thousand pages of terms and conditions was your consent hidden.

Despite this, Meta has chosen blatant theft with Zuckerberg’s permission. It’s important to emphasize that Meta originated from Facebook and that Facebook started as an online slut-list for Harvard students. From these misogynistic roots, Facebook became a ridiculous, accidental success. After this, Meta never had another good idea on its own. All other successes were bought together with other people’s money (investors). Bezos and Musk also owe their fortunes not to their own brilliant ideas but mainly to their ability to make money from others’ ideas without too many scruples about customers’ and users’ interests. What these three Techketeers finally seem to have in common is how easily they give in to the whims of bullies as if they are reliving their schoolyard days from their youth. In short; not people you want to entrust your well-being to.

Money is computing power is power Once upon a time when you participated in a demonstration with thousands of people your privacy was naturally protected by the sheer number of people around you. All those faces provided so much data that hardly any information could be extracted from it anymore. But due to enormous investments in data and computing power this argument has almost completely disappeared now A company like Clearview can compile your entire profile based on a supplied photo; age place of residence income political and sexual preference whether you’ve ever cheated and with whom where you went on vacation at which party you got drunk But this still happens based on supplied photos Or names The only reason why this hasn’t happened yet with all faces in a video of a few thousand pro-Palestine demonstrators? Computing power So it’s very sensible to wear a mask when you’re presenting you never know who might otherwise run off with your identity

Even if you’re completely uninteresting an undesirable framed profile can be made of you if there’s enough computing power

Who has never created a profile at one of Meta’s companies? Facebook Instagram or WhatsApp? And while Meta watched along on your smartphone and laptop without you knowing you’ve watched extreme YouTube videos created Second Life accounts visited porn sites insulted people on internet forums googled tips on how to evade taxes searched for an abortion clinic ordered a rainbow flag from an online store and done all sorts of other things that may not be illegal but your neighbors don’t necessarily need to know All this metadata about what you did online (and when you sent a WhatsApp message to whom and how often) has been stored at appropriately named Meta And you never worried about it Because you thought: “there’s so much data there I’m so uninteresting they’re really not going to catch me” But soon this argument will disappear Because profiles can soon be made even of all uninteresting people it was always just a matter of ‘enough computing power’

Oh they won’t do that

Such a profile of you isn’t just annoying if criminals get hold of it Profiles in government hands can also turn out quite unfavorable think for example: benefits scandal And that’s just ‘our own’ government All this data lies with American companies Subject to American laws It seems fair when you wonder if Americans are still our friends random citizens from other countries who weren’t on their friends list have sometimes ended up in Guantanamo Bay

Now such a gruesome scenario isn’t really expected yet But with enough computing power everyone can be followed where you are when and how long Continuously looking for a moment when you do something that can be labeled as ‘suspicious’ And anyone who potentially becomes slightly troublesome can soon even without pressing one button character assassination can be committed All data from everyone can selectively be bundled interpreted and presented as news fact And if the story doesn’t add up? No one finds out because content moderation no longer exists and through extreme-right populists concept ‘truth’ has long been hollowed out after which they filled this gap with unfounded general distrust And for those who don’t fear government it’s still naive to think American Big Tech would miss any opportunity to make extra money off you And there’s more money to be made off you if you’re angry and confused Chaos and division are lucrative

I’m not worried at all about an AI with self-awareness Super-rich creepy white men with far too much computing power: that’s what keeps me awake at night


AI? Je kan je beter zorgen maken om die steenrijke, enge witte mannetjes

Image created by Adobe Firefly

We hebben geen kunstmatige intelligentie nodig om onszelf te grond te richten. Onze eigen matige intelligentie volstaat prima.

Veel mensen hebben een nogal onrealistisch beeld bij kunstmatige intelligentie (AI) en dan gaat het niet per se om mensen die weinig van AI weten. Net zo goed programmeurs die er met hun neus boven op zitten, of hoogleraren die zich er dagelijks druk mee houden. Het idee is dat via AGI (artificial general intelligence), waarbij AI systemen zichzelf dingen kunnen leren en machines intelligenter worden dan mensen, de machine zelfbewustzijn ontwikkelt. Wanneer het eenmaal zo ver is, zal het niet lang meer duren voor de AGI besluit dat de mens onwenselijk, of op zโ€™n minst overbodig is. En deze AGI is dan zo geavanceerd dat geen mens het dan nog kan stoppen om ons allemaal uit te roeien.

Een extreem doorontwikkelde rekenmachine

We hebben het niet eens over de verre toekomst. Sam Altman, de baas van OpenAI (de makers van ChatGPT), voorspelt dat dit jaar het jaar van AGI zal zijn. Als dat niet eng is weet ik het ook niet meer. Wat er ondertussen vooral aan de hand is, is dat de hoeveelheid data, de hoeveelheid kansberekeningen en de hoeveelheid rekenkracht die AI tegen een opdracht aangooit van zoโ€™n duizelingwekkende omvang is, dat wij ons daar geen voorstelling bij kunnen maken. Er wordt zo onvoorstelbaar veel, zo onvoorstelbaar snel berekend, dat het voor ons eenvoudiger is om te geloven dat er sprake is van een bewustzijn dan van een extreem vergevorderde rekenmachine. Via films en (ooit) boeken worden we ook al zoโ€™n honderd jaar vertrouwd gemaakt met het idee van zelfbewuste robots. Een AI met bewustzijn kunnen we ons wel voorstellen, dat andere niet. Maar dat maakt het nog niet waar.

AI modellen worden alleen maar โ€˜slimmerโ€™ door er nรณg meer data, nรณg meer regels, nรณg meer rekenkracht aan toe te voegen. En dat gebeurt nu dus ook op grote schaal. En dรกt brengt wel gevaren met zich mee. Dan heb ik het niet over de milieu-impact van al die energie die AI opvreet. Ik heb het over die gigantische rekenkracht in handen van een klein clubje steenrijke, enge witte mannetjes.

Gelijk hebben is geen bias

Onlangs was de baas van Meta (oa Facebook, Instagram, WhatsApp, Meta Quest), Mark Zuckerberg, in het nieuws omdat hij aankondigde dat de Meta social media platforms, net als Musks Twitter, gaan stoppen met moderatie door feitencheckers. Met een slap verhaal waarin vooral weer eens zijn sociale tekortkomingen duidelijk werden, deed hij een poging om het idee te verkopen dat het hem ging om verheven idealen. Het vrije woord moet zegevieren boven de door hem gesuggereerde linkse bias van de feitencheckers. Nu is het logisch dat vanuit het (extreem)rechtse, populistische perspectief feitencheckers een linkse bias lijken te hebben. De stroming van types als Trump en Wilders moet het hebben van leugens, wantrouwen en verdeeldheid en die doorstaan de test van een oordeelvrije feitencheck nu eenmaal veel vaker niet. Wat Zuckerberg weg wil zetten als โ€˜biasโ€™, betekent eigenlijk dat de linkse progressieve stroming het veel vaker bij het juiste eind heeft. Omwille van de winst, kiest Meta er voor om feiten te benaderen als โ€˜ook maar een meningโ€™.

Dat onafhankelijke feitencheckers vaker โ€˜rechtseโ€™ dan โ€˜linkseโ€™ berichten corrigeren is geen bias. Dat heet โ€˜het gelijk aan je zijde hebbenโ€™

De sympathieke bangalijst

Behalve met social media houdt Meta zich ook bezig met AI. En hun AI model heet Llama, wat een misleidend leuke naam is. Llama is een open source model omdat ze op die manier meer sympathie hopen te wekken dan de gesloten AI modellen als die OpenAI (ChatGPT).  Dat sympathie belangrijk is weten ze bij Meta maar al te goed, want met de, aanvankelijke, sympathie voor Facebook, Instagram en WhatsApp zijn ze uiteindelijk zo rijk geworden, Wat daarvoor niet mee helpt, is dat Meta willens en wetens auteursrechtelijk beschermde content gebruikt om Llama te trainen. Dat ze ongevraagd gebruikersdata gebruiken om hun model te maken is onsympathiek, maar nog wel legaal. Ergens in de duizend paginaโ€™s gebruiksvoorwaarden stond je toestemming verstopt.

Zuckerberg image from Bloomberg Law Instagram feed.
Hoe erg is het met je gesteld als je advocaat je niet langer wil verdedigen?

Desondanks heeft Meta, met toestemming van Zuckerberg, dus ook gekozen voor platte diefstal. Belangrijk om te benadrukken is dat Meta is ontstaan uit Facebook en dat Facebook is begonnen als een online bangalijst voor Harvard studenten. Uit de misogyne wortels werd Facebook een belachelijk succes, maar daarna heeft Meta nooit meer zelf een goed idee gehad. Alle andere successen zijn, met geld van anderen (investeerders) bij elkaar gekocht. Ook Bezos en Musk hebben hun fortuin niet te danken aan hun eigen geniale ideeรซn, maar vooral aan hun vermogen om geld te verdienen aan de ideeรซn van anderen. En zonder al te veel scrupules omtrent de belangen van klanten en gebruikers. Wat deze drie Techketiers tenslotte ook gemeen lijken te hebben, is het gemak waarmee ze zich overgeven aan de grillen van de pestkop. Alsof ze een herbeleving van de schoolpleinen uit hun jeugd doormaken. Kortom; geen mensen aan wie je je welzijn wilt toevertrouwen.

Geld is rekenkracht is macht

Ooit was het zo, dat als je met duizenden mensen deelnam aan een demonstratie, je privacy op een natuurlijke wijze werd beschermd door de enorme hoeveelheid mensen om je heen. Al die gezichten leverden zoveel data op, dat er nauwelijks informatie meer uit te halen viel. Maar door de enorme investeringen in data en rekenkracht, is dat argument al zo goed als vervallen. Een bedrijf als Clearview kan op basis van een aangeleverde foto je hele profiel samenstellen; leeftijd, woonplaats, inkomen, politieke en seksuele voorkeur, of je ooit vreemd bent geweest en met wie, waar je op vakantie ging, op welk feest je dronken bent geworden. Maar dit gaat vooralsnog op basis van aangeleverde fotoโ€™s. Of namen. De enige reden waarom dit, voor zover we weten dan, nog niet gebeurt met alle gezichten in een video van een paar duizend pro-Palestina demonstranten? Rekenkracht. Groot gelijk dus dat je een masker opzet als je gaat presenteren, je weet niet wie er anders met je identiteit aan de haal gaan.

Ook als je volstrekt oninteressant bent kan er een onwenselijk geframed profiel van je gemaakt worden, als er maar genoeg rekenkracht is.

Wie heeft er eigenlijk nooit een profiel aangemaakt bij รฉรฉn van Metaโ€™s bedrijven? Facebook, Instagram of WhatsApp? En terwijl Meta via die profielen zonder dat je dat wist meekeek op je smartphone en laptop heb je extreme YouTube videoโ€™s gekeken, Second Life accounts aangemaakt, porno sites bezocht, mensen uitgescholden op internetfora, tips gegoogled hoe je belasting kon ontduiken, gezocht naar een abortus kliniek, bij een webshop een regenboogvlag besteld en allerlei andere dingen gedaan die misschien niet strafbaar zijn, maar de buren hoeven het niet per se te weten. Al die meta-data over wat je online deed (en wanneer je een WhatsApp bericht stuurde naar wie en hoe vaak) is opgeslagen bij, hoe toepasselijk, Meta. En daar maakte je je nooit zorgen om. Want je dacht: โ€œdaar ligt zoveel data en ik ben zo oninteressant, ze gaan mij er echt niet mee pakkenโ€. Maar dat argument is binnenkort dus verdwenen. Want ook van alle oninteressante mensen kunnen straks profielen worden gemaakt, het was altijd slechts een kwestie van โ€˜voldoende rekenkrachtโ€™.

Ach, dat doen ze toch niet

Zoโ€™n profiel van jou is niet alleen vervelend als criminelen er mee aan haal gaan. Profielen in de handen van de overheden kunnen ook vrij ongunstig uitpakken, denk bijvoorbeeld: toeslagen affaire. En dat is dan nog โ€˜onze eigenโ€™ overheid. Al die data ligt bij Amerikaanse bedrijven. Waarover Amerikaanse wetten gelden. Het lijkt me terecht wanneer je je afvraagt of de Amerikanen onze vrienden nog wel zijn en willekeurige burgers van andere landen die niet op hun vriendenlijst stonden, zijn nog wel eens terecht gekomen in Guantanamo Bay.

Nu ligt een dergelijk gruwelijk scenario voorlopig nog niet echt in de lijn der verwachting. Maar met voldoende rekenkracht kan iedereen worden gevolgd, waar je bent, wanneer en hoe lang. Continu op zoek naar een moment waarop je iets doet dat als  โ€˜verdachtโ€™ kan worden aangemerkt. En op iedereen die potentieel een beetje lastig kan worden kan straks zelfs zรณnder รฉรฉn druk op een knop karaktermoord worden gepleegd. Alle data, van iedereen, kan selectief worden gebundeld, geรฏnterpreteerd en gepresenteerd als een nieuwsfeit. En als het verhaal dan niet klopt? Daar komt niemand achter, want contentmoderatie is er niet meer en door de extreemrechtse populisten is het begrip โ€˜waarheidโ€™ allang uitgehold waarna ze dat gat gevuld hebben met ongefundeerd algeheel wantrouwen. En voor hen die geen overheid vrezen is het nog steeds naรฏef om te denken dat de Amerikaanse Big Tech ook maar รฉรฉn mogelijkheid zouden laten liggen om extra geld aan je te verdienen. En er valt meer geld aan je te verdienen als je boos en verward bent. Chaos en verdeeldheid zijn lucratief.

Over een AI met zelfbewustzijn maak ik me in elk geval totaal geen zorgen. Steenrijke, enge witte mannetjes met veel te veel rekenkracht: daar kan ik wakker van liggen.

Deepfake porno. Taakje voor het onderwijs.

Natuurlijk, leerkrachten hebben het al hartstikke druk. En natuurlijk, bij iedere maatschappelijk issue wordt er meteen geroepen dat het in het onderwijs moet. En ja, er is al heel veel gedoe over seksuele vorming op school. Moet dit er dan echt bij? Ja, dat moet.

Met โ€˜ditโ€™ bedoel ik โ€˜deepfake pornoโ€™. En het enige dat daar geen plekje van in het onderwijsprogramma moet krijgen, is hoe je het moet maken. Want dat is nu juist het probleem; dat weten heel veel jongeren al lang. En het worden er steeds meer.

Een paar weken geleden stonden alle nieuwsrubrieken vol met de laatste details over bangalijsten. Utrechtse studenten hadden een PowerPoint (wat op zich wel schattig is) gemaakt waarin vrouwelijke medestudenten werden besproken. Dat was heel heftig, terecht dat daar hard op werd ingegrepen. Maar stel je nou eens voor dat het niet gaat om jonge studentes, maar om middelbare scholieren. En stel je voor dat het geen PowerPoint is, maar een niet van echt te onderscheiden nep-video.

Overbodig als middel, gewild als doel

Het is niet zo dat er helemaal geen aandacht is voor mogelijke gevaren rondom deepfake beelden en videoโ€™s. Over het algemeen gaat het dan om vergezichten van hoe kwaadwillenden, in opdracht van buitenlandse staten, met dit soort materialen nep-nieuws kunnen produceren en verspreiden. Tegelijkertijd valt dan op, dat dit eigenlijk nog maar heel weinig gebeurt. Belangrijkste reden is dat het helemaal niet nodig is om deepfake materialen te produceren om op grote schaal desinformatie te verspreiden en aanhang te vinden voor vergezochte samenzweringstheorieรซn. Aan het einde van zoโ€™n artikel of item ga je, wellicht lichtelijk gedesillusioneerd over je medemens, toch rustig je bed in.

Maar met porno ligt het anders. Waar het in het geval van misinformatie een -overbodig- middel is om deepfake beeldmateriaal te produceren, bij porno is dat het doel. En dat doel wordt steeds eenvoudiger bereikt. Met steeds minder goed van echt te onderscheiden eindresultaat. In 2022 maakte presentatrice Welmoed Sijtsma een documentaire over een deepfake porno film die van haar was gemaakt. Die documentaire kreeg veel aandacht, maar daarna werd het eigenlijk best stil. Terwijl de technologische ontwikkeling enorme vooruitgang boekte. Zonder dat er al te veel ruchtbaarheid aan werd gegeven is er inmiddels een enorme hoeveelheid aan deepfake porno te vinden. Op speciaal daarvoor gebouwde websites en in Telegram groepen. Maar ook door simpelweg een Google zoekopdracht te doen, of via social media als Reddit en Tumblr.

De strijd tegen deepfake porno is allang verloren

In veel gevallen gaat het dan al niet meer om bewerkelijke processen zoals in โ€˜die goede oude nepporno tijdโ€™, toen de maker nog nachtenlang in een donker kamertje moest zitten zweten bij de video-editting software. Als je geen genoegen wilt nemen met de apps die je in je appstore kunt downloaden, is een simpele zoekopdracht voldoende om tientallen, zo niet honderden, AI tools te vinden waarmee je eenvoudig zelf je deepfake pornomateriaal kunt maken. Tools die bijvoorbeeld net ChatGPT en Microsoftโ€™s CoPilot gebruik maken van de modellen van Open.ai, kwaliteit gegarandeerd voor een habbekrats. En als je toch iets specifieks wil en een beetje handiger bent, kun je ook op zoek naar open source code op GitHub.

In 2018 verzuchtte de Amerikaanse actrice Scarlett Johanson al dat de strijd tegen deepfake porno een verloren zaak was. En dat was dus nog vรณรณr de AI revolutie. De slachtoffers waren celebrities van wie veel stilstaand en bewegend beeld te vinden was. Inmiddels kan het slachtoffer ieder willekeurig persoon zijn, het kost namelijk nauwelijks tijd of moeite om het te produceren. En al net zo weinig moeite om je knutselwerk anoniem met de wereld te delen.

De juridische weg lijkt heilloos

Het is dus een groot, groeiend probleem. Maar ik kan me heel goed voorstellen dat je nu denkt dat er veel betere manier zijn om dit probleem aan te pakken dan via het onderwijs. Dit kan toch niet legaal zijn allemaal? Waarom sturen we de politie er niet op af?

Net zoals met alle AI ontwikkelingen, is ook deepfake porno er in zoโ€™n tempo gekomen dat het voorlopig helemaal nog niet zo makkelijk is om er via juridische weg iets aan te doen. In het geval van Welmoed Sijtsma is de dader weliswaar opgepakt en veroordeeld, maar dat was helaas wel de uitzondering. De overheid stelde na onderzoek in 2022 dat niet zozeer wetgeving, maar vooral handhaving een probleem gaat zijn. En ook dat onderzoek vond plaats vรณรณr de AI revolutie. Niet alleen zorgde deze revolutie er voor dat er veel mรฉรฉr materiaal wordt ontwikkelt, het zorgt er ook voor dat het mogelijk is dat middels AI volkomen random personages worden ontwikkeld voor een deepfake porno video. En bewijs dan maar eens dat jouw beeltenis in zoโ€™n video is geplaatst en niet een fictief personage dat toevallig op je lijkt.

Guardrails leggen het af tegen creativiteit

Behalve de makers van de porno, zou je ook kunnen proberen om de makers van de technologie aan te pakken. Maar dat blijkt nog niet zo eenvoudig. Tech multinationals hebben diepe zakken voor een juridische strijd en bevinden zich ook nog eens op verschillende continenten waardoor het nog eens moeilijker wordt om ze aan te pakken. En daarnaast kunnen ze zich natuurlijk verschuilen achter het standpunt dat zij enkel de technologie ontwikkelen en geen verantwoordelijkheid kunnen dragen voor wat gebruikers er vervolgens mee doen.

Het lijkt een heilzamer route om techbedrijven te vragen om vrijwillig veiligheidsmaatregelen in hun systemen in te bouwen (guardrails). Echter, รกls ze al bereid zijn om dat te doen -wat erg twijfelachtig is, het blijft toch een mannenwereldje- is het vrijwel onmogelijk om deze guardrails voldoende effectief te maken. Dit soort beperkingen werken slechts zo lang niemand creatief genoeg is geweest om te ontdekken hoe die beperking te omzeilen.

Een misdrijf zonder slachtoffers

Mocht het dus al ooit lukken om te kunnen voorkomen dat er deepfake porno wordt gemaakt, dan zal dat zeker nog vele jaren duren. En in de tussentijd moeten we doen wat we kunnen om zoveel mogelijk slachtoffers te voorkomen. Het onderwijs is in die strijd een belangrijke route. Via die weg kunnen we jongeren, voordat zij dader worden, leren dat het voor hen wellicht onschuldig lijkt maar dat dat het voor de slachtoffers zeker niet is. Het kan voelen als een misdrijf zonder slachtoffer, het is immers geen echte video, maar de gevolgen voor de slachtoffers zijn vaak even ernstig.

Tegelijkertijd zullen we realistisch genoeg moeten zijn dat het produceren van deepfake porno waarschijnlijk nooit helemaal zal verdwijnen. De vraag zal blijven bestaan en er zullen mogelijkheden blijven bestaan om aan die vraag te voldoen. En dan is het dus ook belangrijk dat we met elkaar leren hoe we er het beste mee om kunnen gaan als er zich zoโ€™n incident voordoet. Hoe reageren we op een dader, maar vooral: hoe zorgen we er samen voor dat de schade voor het slachtoffer minimaal mogelijk blijft. Door steunend en begripvol op te treden bijvoorbeeld.

Deepfakes bedreigen mensenrechten

ร‰รฉn van de meest contraproductieve manier om iets tegen deepfake porno te doen is het promoten van verregaande onderdrukking van vrouwen. In ultraconservatieve kringen worden vrouwen soms al ontmoedigd om รผberhaupt online vindbaar te zijn. Dat zou de enige manier zijn om te voorkomen dat je ooit in een deepfake porno terecht komt. Maar in een tijd waarin je er niet omheen kunt om wanneer je gehoord wenst te worden, dat รณรณk online of minimaal via massamedia te doen; betekent dat per saldo dat deze vrouwen monddood worden gemaakt. En dan is het middel erger dan de kwaal.

En zo zijn door AI gegenereerde deepfakes dus tรณch een bedreiging van de democratie en van universele mensenrechten. Niet rechtstreeks maar, niet voor het eerst, via een omweg. Langs het taboe rond seksualiteit.

Afbeelding gegenereerd met Adobe Firefly

Van stikstof tot AI; nou is het klaar met dat neo-liberalisme

Besluit je eindelijk eens een blog te schrijven over het afbraak-beleid van ‘de club van Mark’, treedt hij ineens af. En dan niet eens over de ellende die hij mede heeft gecreรซerd met zijn immorele, verantwoordelijksheidsloze beleid. Voor de komende verkiezingen is het goed om te onthouden dat nรก bijvoorbeeld de Groningen gas crisis, toeslagencrisis, stikstofcrisis, woningcrises, leenstelselcrisis en weetikwatallemaal voor een ellende er allemaal onder zijn verantwoordelijkheid is veroorzaakt, hij het kabinet liet vallen omdat hij niet wil dat kinderen uit oorlogsgebied worden herenigd met hun ouders. En dat dat er slechts een paar honderd per jaar zijn. Nou ja, dan toch maar die blog;

Het neo-liberalisme bestaat wรฉl

“Ieder verhaal heeft een goed einde, je moet alleen weten wanneer je ophoudt met schrijven.” Volgens mij is dat een citaat van Annie MG. Het is ook een citaat dat bijna van toepassing was op het verhaal van Mark Rutte. Als je een neo-liberaal bent althans. Lange tijd ging het hartstikke lekker met Mark en dit โ€˜gave landโ€™, maar zelfs voor de meest verstokte VVD-er moet toch duidelijk zijn dat hij uiteindelijk wat te lang is blijven zitten. Onder zijn leiding is het neo-liberale gedachtegoed van de VVD zelfs zo onaantrekkelijk geworden dat het wetenschappelijke bureau van de partij, de TeldersStiching, bij monde van directeur Patrick van Schie zelfs ontkent dat het bestaat.

Maar deze Trumpiaanse vlag van ontkenning gaat niet op. Dat je ideologie gefaald heeft maakt niet dat deze niet bestaat. Op zich is de gedachte erachter ook nog niet zo gek; Een overheid die zich teveel met de economie bemoeit, trekt teveel macht naar zich toe. En dat gaat uiteindelijk ten koste van individuele vrijheid, denk aan China. Het neo-liberalisme gaat er vanuit dat enkel vrije marktwerking leidt tot voldoende concurrentie wat deze samenballing van macht tegen gaat. Minder overheid dus en mรฉรฉr vrije markt. En hier doet de VVD dan nog een waterig sausje van ‘orde en veiligheid’ overheen

Het idee van ‘minder overheid en meer vrije markt’ doet het wel lekker in een land als het onze. De Nederlander, voor zover die bestaat, is wars van iedere vorm van bemoeienis en allergisch voor zaken die worden opgelegd. Het appelleert ook mooi aan twee van de door ons breedst gedragen misverstanden: de maakbaarheid van je eigen succes en de inefficiรซntie van de ambtenaar. Mark kwam aan de macht op het voor een leider met zijn ideologie ideaal moment.

Alles was zรณ goed geregeld en de gezamenlijk opgebouwde buffers waren zรณ groot, dat we een hele tijd onze egocentrische belangen konden najagen zonder in de gaten te hebben dat we het systeem aan het uithollen waren. En we hadden te maken met een grote groep kiezers die verwend waren door welvaart en het gebrek aan ontbering en inspanning.

De werkende mens delft het onderspit tegen de bezittende mens

Sinds een paar jaar hebben we in de gaten dat we ons uitstekende onderwijs, geweldige zorg, prachtige natuur, extreme veiligheid, briljante infrastructuur, voordelige en overvloedige woonruimte niet zomaar kunnen overlaten aan de vrije markt. Sterker nog, het maakt alles kapot.

Om met het stikstof vraagstuk te beginnen. Na de Tweede Wereldoorlog was het voornemen van de overheid: ‘nooit meer honger’. Boeren werden enorm gestimuleerd de productie van met name vlees en zuivel (luxe producten die een aantal jaren schaars waren) op te voeren. Als gevolg van deze overheidsstrategie is onze agrarische sector de beste ter wereld geworden. De vrije markt ideologie ondertussen, zorgde ervoor dat slechts een paar toeleveranciers en een paar afnemers inmiddels bepalen wat kost- en inkoopprijs zijn van een agrarisch product. Nu zijn er grenzen aan wat een boer uit zijn land kan halen qua duurzame productie maar uit het minieme verschil tussen kostprijs en verkoopprijs van hun product kunnen zij geen bestaan halen. Begrijpelijkerwijs gaat de boer mรฉรฉr onttrekken uit de natuur dan verantwoord is. Tot de wereld, in dit geval via EU en landelijke politiek, zegt: ‘dit kan niet meer’. Je zou zeggen dat de woede van de boer zich vervolgens richt op toeleveranciers en afnemers, maar die blijven handig buiten beeld. De boer komt met trekkers en asbest in opstand tegen het volk, vertegenwoordigt door ‘de overheid’. En niet tegen het door het neo-liberalisme geschapen monster; het ongecontroleerde vrije marktmechanisme dat niet ten dienst staat van de samenleving, maar van een kleine elite gefortuneerden.

Deze elite is geen geheim genootschap dat controle heeft over de media en publieke instituties. Het is een almaar kleiner wordend groepje individuen dat het geluk heeft aan de juiste kant van een almaar opschuivende streep te zijn geboren met geld, vastgoed, aandelen en een netwerk van gelijkgestemden. De werkende mens delft het onderspit tegen de bezittende mens. En daar is geen geheim genootschap of samenzwering voor nodig.

Verneuk de massa, grijp de kassa

Denk je in Nederland aan het falen van neo-liberalisme dan denk je al snel aan de problemen die het heeft veroorzaakt in sectoren als onderwijs, veiligheid en zorg. Problemen die iedere dag dat de misvatting dat het vrije marktdenken een goed idee is voortduurt, groter worden. De scholier, het slachtoffer en de patiรซnt zijn geen kiezende consument, maar burgers in een afhankelijkspositie. Wat zij nodig hebben van een overheid is bescherming en niet aan hun lot worden overgelaten.

Waar je minder snel aan denkt is hoe publieke investeringen in innovatie worden afgestoten uit een onzinnige angst de markt anders te verstoren. Dit gaat uiteindelijk ten koste van de samenleving. Met belastinggeld financieren we universiteiten en subsidiรซren we onderzoek. En de producten die we zo als samenleving financieren worden door de neo-liberaal geschonken aan de vrije markt waar het dan kan concurreren en groeien. Of zoals bijvoorbeeld in de farmaceutische industrie vrij gebruikelijk is; de met publiek geld ontwikkelde medicijnen worden gepatenteerd zodat concurrentie onmogelijk wordt gemaakt waarna deze medicijnen met woekerwinsten aan de samenleving worden teruggeleverd.

De theorie is dat wanneer je publieke innovaties schenkt aan private partijen, de vrije markt dit vervolgens weer in veelvoud terug levert aan de samenleving middels banen en belastingen. Het probleem is dat die eerste stap wel plaatsvindt, maar die tweede stap nooit. De vrije markt blijkt banen enkel als kostenpost te zien en niet als taak. Een bedrijf is er over het algemeen enkel voor de eigenaar, werknemers zijn er enkel tot zij vervangen kunnen worden. En belastingen kunnen worden ontdoken, want als iets niet expliciet wordt verboden, dan moet je dat doen hoe marginaal het voordeel dat je voor jezelf kan pakken ook is. Iedereen doet dat toch? In de vrije markt is geen plaats voor sentimentalisme; verneuk de massa en grijp de kassa is het adagium.

De samenleving bestaat vooral uit medewerkers en als medewerkers een kostenpost zijn, is het legitiem om ze eruit te willen werken. Zo blijft er voortdurend meer over voor de individuele eigenaar en minder voor het collectief. Zoals gebruikelijk waren de minst weerbaren het eerst aan de beurt. Technologie verdrong de fabrieksarbeider, de ambachtsmens, de havenwerker. Dat was grotendeels vooruitgang; ongezond en zwaar werk werd voortaan gedaan door machines en robots. Maar de opbrengsten waren niet voor de arbeider. Eerlijke, vaste en respectabele banen werden ingeruild -als deze al werd ingeruild- voor lagere salarissen en flexcontracten terwijl de aandeelhouder rijk werd en dat geld verstopte in belastingparadijzen.

Geen grotere punt, een grotere taart

Van dat klassieke verhaal snel naar wat er nu aan de hand is. Met AGI โ€“ Artificial General Intelligence-  is een meer weerbare groep medewerkers aan de beurt. Computeralgoritmen, ook grotendeels ontwikkeld met publiek geld, gaan banen overnemen van journalisten, website bouwers, vormgevers en nog vele meer hoger opgeleide werknemers en schijnwerknemers (freelancers hebben vaak ook totaal geen onderhandelingspositie). Het is zeker dat een kleine groep mensen extreem veel rijker zal worden aan AGI. Als we blijven vasthouden aan de gefaalde ideologie van het neo-liberalisme worden we er als samenleving alleen maar slechter van.

Er zijn nogal wat mensen met een te grote mond en te klein verstand die luidkeels roepen dat onze welvaart afhankelijk is van een kleine groep ondernemers. Waartoe zij zichzelf overigens ook meestal rekenen. Deze ondernemers moeten de vrijheid krijgen om te ondernemen en dan zullen zij welvaart brengen. We zagen hiervoor al dat wanneer je de theorie goed doordenkt deze stellig niet kรกn kloppen en dat dat zich in praktijk zo ook heeft bewezen. De neo-liberale ondernemer wil alleen een steeds groter stuk van de taart. Dat brengt ons niets. Wat wij nodig hebben is een grotere taart.

Technologie als AGI heeft het potentieel om ons als mens te vernietigen. Eng dus. Maar het heeft รณรณk het potentieel om ons te redden. Oorlog, klimaat, ziektelast, armoede. Kortom alle problemen die het neo-liberalisme wellicht niet heeft gecreรซerd, maar wel heeft vergroot. Hier is dan wel een ander systeem voor nodig. Doe je wat je deed, dan krijg je wat je kreeg. We moeten toe naar een wereld waarbij het wรฉl loont om onderwijzer, verpleger of agent te worden, maar niet meer loont om een pakket aandelen te erven en vervolgens niets te doen. We moeten naar een systeem waarbij opbrengsten waar niemand (meer) voor werkt, ten goede komen aan het collectief en niet aan een individu. We kunnen met de opbrengsten van ChatGPT en alle varianten daarvan een universeel basisinkomen financieren. We moeten naar een systeem waarbij individuele vrijheid wordt vervangen door collectieve vrijheid: iedereen krijgt -vrijwel- dezelfde kansen.

Beter een kind opofferen dan verantwoordelijkheid nemen

En dan tenslotte de door de politiek bedachte migratie-crisis. Neo-liberaal beleid heeft er voor gezorgd dat betaalbare woningen zijn opgekocht als winst-objecten. Het heeft er ook gezorgd voor een systeem dat zoveel stikstof produceert dat we niet eens meer nieuwe woningen kunnen bijbouwen. En alhoewel het geen officieel onderdeel is van een vrije markt zie je het er wel altijd terug; iedere vorm van verantwoordelijkheid voor falen wordt afgeschoven op de minst weerbare groep.

Want dat is uiteindelijk de bittere slotconclusie, ondanks alle ellende die neo-liberaal beleid heeft veroorzaakt van Groningen-gasboringcrisis tot toeslagen-schandaal tot stikstof crisis tot zorg-infarct tot energie-crisis tot onderwijs-crisis wilden de neo-liberalen blijven doorregeren. Ze lieten dit kabinet pas vallen toen het ging om het herenigen van kinderen in oorlogsgebied met een hierheen gevluchte ouder. Beter zoโ€™n kind opofferen dan toegeven dat je ideologie heeft gefaald.

Dan is je ideologie failliet.

ChatGPT begrijpt er helemaal niets van

Okรฉ, inmiddels is dus wel duidelijk ChatGPT je schoolverslagen kan schrijven, je website teksten en je complete bedrijfsstrategie. Gaaf hoor. In plaats van kennis over een onderwerp te krijgen, hoef je nu ‘alleen’ nog maar te leren hoe je een goede opdracht voor een AI taalmodel schrijft*. Maar wat zegt dat eigenlijk over ons, dat we ons zo makkelijk om de tuin laten leiden? En dat we liever vertrouwen op taalkundige kansberekening dan op echt nadenken?

ChatGPT is niets meer dan kansberekening

ChatGPT heeft geen idee van wat je schrijft, nog van wat er als reactie op wordt teruggegeven. Wat het GPT-3 taalmodel achter ChatGPT doet is in feite niets meer dan statistiek; op basis van een immens complexe formule waar een onvoorstelbare hoeveelheid tekst doorheen is gegaan voorspelt ChatGPT welk volgend woord het meest waarschijnlijk is. En om de geproduceerde teksten mooier te maken, wordt een klein scheutje toeval aan toegevoegd; het taalmodel gebruikt niet altijd het meest waarschijnlijke woord. Af en toe kiest het model willekeurig een woord dat net iets minder waarschijnlijk is. Zodat een tekst voor bijvoorbeeld 80% uit de statistisch meest aannemelijke keuzes bestaat. Dit noemen we dan een ‘temperatuur’ van 0,8. In een schitterende blog van Stephen Wolfram kun je lezen dat op basis van ervaring, zonder theoretische onderbouwing, is gebleken dat een temperatuur van 0,8 ongeveer ideaal is. De teksten kloppen en zijn net onvoorspelbaar genoeg in variatie om menselijk te lijken.

ChatGPT is geen bedreiging voor het onderwijs

ChatGPT geeft dus allerlei antwoorden en adviezen, zonder ook maar enig benul te hebben van wat er gevraagd wordt. Zonder enig begrip van de materie waar je over vaagt en zonder ook maar enig begrip van wat het nu eigenlijk zegt. Dit zal niet iedereen verbazen. We kennen uiteindelijk bijna allemaal wel een mens die zonder enig verstand van zaken allerlei indrukwekkend ogende woorden op papier neerkwakt en dat dan een advies of beleidsstuk noemt.
Docenten die zich zorgen maken over verslagen die nu door ChatGPT worden geschreven en niet door leerlingen zouden zich eens achter de oren moeten krabben over de methode waar ze al die jaren op hebben vertrouwd. Want het is een feit dat ChatGPT het eigen verslag niet begrijpt. En het is dus ook een feit dat je een goed cijfer kunt krijgen voor een verslag over een onderwerp waar je niet van begrijpt. Dus wat hebben al die docenten al die jaren dan eigenlijk gemeten? Legt ChatGPT niet eerder een tekortkoming in het onderwijs bloot, dan dat het er een bedreiging voor vormt? De huidige meetmethodiek meet blijkbaar alleen of je de juiste (op te zoeken) woorden in een grotendeels logische volgorde weet te plaatsen. Het meet niet of je ook echt de kennis hebt waarvoor je een cijfer krijgt.

Toeval en schijn-creativiteit

Nou ja. Wellicht meer verrassend dan dat je ergens kloppende teksten over kunt maken zonder begrip van het onderwerp, is dat teksten ‘beter’ worden (of: ‘natuurlijker overkomen’) wanneer er randomness wordt toegepast. Creativiteit door toevoeging van een vleugje (idealiter 20%) toeval. De output van ChatGPT is niet volledig voorspelbaar doordat er toeval is voorgeprogrammeerd. Schijn-creativiteit dus. En juist die onvoorspelbaarheid maakt de output menselijker. Mensen geven dus de voorkeur aan een statistisch sub-optimaal resultaat boven de ideale uitkomst.

ChatGPT is voor intelligentie wat social media zijn voor contact

Elk antwoord dat ChatGPT geeft is een mix van statistische voorspelbaarheid en voorgeprogrammeerd toeval. Je krijgt antwoorden zonder begrip. Dergelijke Large Language Models zijn voor intelligentie, wat social media zijn voor menselijk contact; een verslavend, potentieel schadelijk surrogaat. Wanneer je van ChatGPT een voorgebakken antwoord krijgt dat ook op echte wijsheid lijkt, waarom zou je dan eigenlijk nog de moeite doen om zelf na te denken?
En omdat alles wat ChatGPT lijkt te weten is gebaseerd op alles wat er al was en het daar zelf niets aan toe kan voegen, anders dan toeval, zal er van ChatGPT nooit vooruitgang komen. ChatGPT snapt niet welk idee nieuw is, welk idee een verbetering is, of wat een wenselijke ontwikkeling is. ChatGPT snapt niks, helemaal niks.
Zo moeten we het dan ook benaderen, als een extreem geavanceerd stuk gereedschap. Net als destijds het internet, gaan AI taalmodellen de wereld veranderen op manieren die we nu nog niet eens kunnen bedenken. Maar we zullen zelf moeten blijven denken, creรซren, innoveren en verbeteren.

Dus als je schrijfwerk over wil laten aan ChatGPT, dan kan dat alleen als het niet echt belangrijk is dat de schrijver de materie begrijpt. En als creativiteit voor jouw schrijfwerk, of het nu een webtekst, beleidsstuk of strategische visie is, niet nodig is.
Maar als aan die beide randvoorwaarden is voldaan, dan is jouw schrijfwerk eerlijk gezegd al bij voorbaat zinloos en overbodig.

*Prompts

Er word nogal makkelijk overheen gestapt hoe je er voor kan zorgen dat ChatGPT ook datgene produceert wat je wil hebben. Een goede prompt (opdracht) schrijven blijkt nog niet eenvoudig. En we moeten niet overschatten hoeveel mensen daar uiteindelijk toe in staat blijken. Geen overbodige luxe om hier middels onderwijs in te investeren.
De hoogte van je IQ alleen is niet allesbepalend. Ik heb de afgelopen jaren wel zo vaak meegemaakt dat allerlei op hoog niveau functionerende academici niet in staat bleken om een goede zoekopdracht te formuleren voor Google dat ik daar geen vertrouwen meer in heb.

Ondanks wat al die ultrakorte ‘how to’s’beloven, heb je in sommige gevallen bijna een AI bot nodig om je te helpen een goede prompt te schrijven om een andere AI bot te laten doen wat je eigenlijk wil.

Afbeelding gegenereerd door open.ai/images op basis van de tekst van deze blog