AI for Civil Society

This article was originally written for and published by Disrupt Development.

You have probably noticed that this โ€˜Artificial Intelligenceโ€™ thing has become quite a big deal over the past few years. Everywhere you look there seems to be a scientist, tech entrepreneur, journalist or futurist telling us about how itโ€™s going to change our world. In good ways and not-so-good ways. While many of us are either dreaming about how AI will bring more equal opportunities and solve complex social issues or are having nightmares about how AI will make an end to privacy or become a tool for oppression, CIVICUS* also had a pragmatical question; โ€˜How can our communications department make use of AI right now?โ€™. Together with the CIVICUS communications team, Disrupt Development consultants Irene Siaw and myself put together an online (as the CIVICUS team is also spread out across the globe) half days introductory workshop to explore this question.

What is AI really?
While at first sight it appears a pretty straightforward question, there is actually quite bit more to it. It actually already begins with the definition of Artificial Intelligence. What do we mean by it? Even in the scientific AI sector this debate has not been settled and this also showed in the outcomes of the survey we sent around to the CIVICUS team members. Unfortunately, we were not able to settle the debate once and for all. But we did come to the conclusion that even though during the workshop it would be useful to provide an overview of the different types of AI, we would zoom in on generative AI; AI tools that are able to create text, images, audio and video.

Opportunities or threats, which wins?
Obviously, for an NGO like CIVICUS there are many worries about potential risks attached to AI, like surveillance, increasing economic inequality or a concentration of power in the hands of non-democratic entities. By zooming in on generative AI, of which there are many tools and uses known and freely available, the workshop gained focus and it would actually become a workshop, instead of a lecture or a debate session. Not that generative AI does not have its own unique set of hopes and fears. It is well known that generative AI has bias issues, where its outcomes tend to be more favorable to the groups that currently hold more economic and political power. There are also worries about generative AI providing inaccurate outcomes, violating copyrights, or being an IT security threat. The question is then, do these threats and worries outweigh the potential benefits? In other words: should we be using generative AI at all?

Understanding instead of prohibiting
Instead of prohibiting the use of generative AI until all threats and dangers are known and contained, you can also take the route of helping people understand where these threats and dangers come from, which will provide them with knowledge to make better decisions themselves. So during the workshop, we gave a lot of attention to explaining how generative AI works. How is a Large Language Model (LLM) able to take a question (prompt) from a user and then come back with an output (in the form of content) that is so impressive that it make you think that โ€˜the machine understands youโ€™? Obviously, it does not make sense to explain that in a technical way. The biggest challenge there is to decide, what does a professional working at and NGO or civil society organisation need to know, so that they understand enough of the technology behind the computer screen? So, for example, they donโ€™t just know that they should always check ChatGPTโ€™s answers (even though ChatGPTโ€™s makers do everything they can to make you feel like itโ€™s not necessary), but they know why they should always check. And, on the more positive side, when you understand how generative AI works, it helps to think of potential uses for it, without being dependent on, continuously outdated, lists of new tools that have been developed by others. So, thinking about potential uses during the workshop ourselves was a valuable part of the workshop that provided added insight but also deepened the learning experience.

Learning and doing
Itโ€™s one thing to tell people about how generative AI tools try to convince you that they are an actual person, itโ€™s another thing to have them experience it. By having the team work with ChatGPT (as the best accessible tool with the most well-known user interface), trying out various assignments with different prompts and evaluating their experiences together, the theoretic part of the workshop came to life. Itโ€™s a bit like explaining how a really cool magic trick works and then seeing it performed before your eyes, you might have a better understanding of how it works, itโ€™s still amazing.

After the workshop, we created a document for the team so they could go over what we had worked on together, but also share with other interested colleagues. We thought it was a great journey and we are confident that CIVICUS is a bit better equipped for the future.

Three Reasons Why You Shouldn’t Use DeepSeek

A new AI product from China, called DeepSeek, has been making waves. With DeepSeek R1 as its chatbot, itโ€™s certainly an unfortunate name, but thatโ€™s a cultural thing. DeepSeek is getting a lot of attention because AI and because China. Additionally, itโ€™s claimed that DeepSeek has much lower development costs compared to mostly American competitors like OpenAI (the creators of ChatGPT). Whether this is truly the case remains to be seen, quite likely the Chinese government lent a helping hand. Anyway, three reasons not use DeepSeek;

Data Risks 

The Chinese government pursues a different societal order than what we are accustomed to in the Western hemisphere. Thatโ€™s their prerogative, but it has certain consequences that weโ€™re not entirely comfortable with. For example, when you install the Temu app, you most likely agree to the terms without much thought. If there was something wrong with it, it would be banned, right? Wrong. Other than the privacy violations we’ve gotten used to from all our apps such as allowing access to your camera and microphone and viewing your contacts and photos, you also agree that Temu can activate your phone (at night), read your messages, and take screenshots of them. When reporters asked questions about this Temu’s response was; โ€œWell, we donโ€™t do that”. Which is obviously not convincing at all. If you don’t plan on using it, why ask for permission? At the very least, this clearly shows that if they want to, they can take over your phone (which, let’s face it, contains your enire life nowadays) from the other side of the world. If Temu ever decides to stop selling stuff, they have all the information they need to take everything from youโ€”your money, your house, your identity. They could even do this on a large scale with a bit of help from AI, like DeepSeekโ€™s AI.

DeepSeek emphasizes that their model is fully open-source and free to download on your own device, theoretically meaning your data isnโ€™t shared with them. But asTemy has demonstrated, the data you share while interacting with the app might not be the most important thing you have to worry about.

App builders can take control over your smartphone, which effectively means your life, from the other side of the world.

Censorship 

There are no completely objective AI chatbots; they all have some bias in a specific direction. Usually, this bias is quite subtle, but not in the case of DeepSeek. The DeepSeek chatbot is clearly censored on topics the Chinese government prefers not to be open about. Things like ‘Taiwan’, the events at Tiananmen Square in 1989, or the protests in Hong Kong. It’s a bit clumsy to apply such crude and visible censorship on topics users donโ€™t need a chatbot for and journalists will definitely look into. If such obvious censorship is applied, itโ€™s very likely that the DeepSeek bot will also be biased favorably for the Chinese government in other ways.

This will not have an enormous short term impact. But as we are seeing with the rising of Extremist right wing populism in Western societies; the revolution will not happen with one big event, but with a continuous stream of small events.

Cheaper. Not better.

From various online reports, it seems that DeepSeek performs better in calculations than OpenAI and that OpenAI beats DeepSeek in creative tasks and news generation.
However, DeepSeek is significantly cheaper for users compared to OpenAI. DeepSeek charges about $0.14 for the same amount of text (around 750,000 words) for which OpenAI charges $7.50. Business users with a $20 per month OpenAI subscription could manage with a free DeepSeek subscription in terms of text volume but with less creativity. In the end, this still seems like a small price to pay.

However, I often see self-proclaimed keynote speakers (seriously, what sane person would refer themselves as a keynote speaker?) and business gurus on LinkedIn praising the likes of Temu and other Chinese business models. Completely ignoring (or being completely ignorant which is also plausible) the human rights and environmental violations, the consumer manipulation and poor product quality. From the many enthusiastic responses they receive, it is clear that there are many people shortsighted enough to give up everything of longterm value, to make an extra Euro today.

Mistral

Just likely mostly everyone, I have been comparing DeepSeek to OpenAI here. OpenAI’s ChatGPT made AI known to the general public and for many people it is synonymous with AI. But obviously, it isn’t, there are more options out there.

Among all these options, I wouldnโ€™t choose OpenAI either. In recent weeks, weโ€™ve clearly seen that European interests and ideals arenโ€™t necessarily well-protected by the American governmental or Big Tech companies. even though Europe is far from perfect, it is closest to the democratic, fair and free world where I would want to live.

Fortunately, thereโ€™s a wonderful European alternative to OpenAI: the French Mistral. Their AI chatbot, Mistral 7B, is just as open-source and free as DeepSeek R1, just not as scary.

Drie redenen waarom je Deepseek niet moet gebruiken

Ook vanuit China komt een AI product, DeepSeek heet het ding. Met DeepSeek R1 als chatbot. Dat is natuurlijk een afgrijselijke naam, maar dat is dan weer een cultuur dingetje. DeepSeek krijgt heel veel aandacht. Want AI en want China. Maar ook omdat DeepSeek veel lagere ontwikkelkosten zou hebben dan bijvoorbeeld OpenAI (van ChatGPT). Het is nog maar de vraag of dat wel echt het geval is. Vooralsnog is het vrij aannemelijk dat de Chinese overheid een helpend handje heeft toegestoken. Maar goed.

DeepSeek is de nieuwe hype en wordt dan ook vele gebruikt en, als app, gedownload. Misschien ook wel door jou en dat zou je beter niet kunnen doen. Woon je niet in รฉรฉn van de landen die DeepSeek inmiddels verboden hebben, dan hier even snel drie belangrijke redenen waarom je DeepSeek van je telefoon en bookmark lijst zou moeten verwijderen.

1. Privacy & data risico’s

De Chinese overheid streeft een andere maatschappelijke orde na, dan wat wij hier in Europa gewend zijn. Dat mag natuurlijk. Maar dat heeft wel bepaalde consequenties waar wij hier niet helemaal gelukkig van worden. Voorbeeldje: als je de Temu app installeert, ga je eigenlijk zonder nadenken akkoord met de voorwaarden. (Want als er iets mis mee zou zijn, dan was het wel verboden, denk je dan). Naast dat ze je camera en microfoon mogen gebruiken, je contacten en fotoโ€™s bekijken, ga je er dan onder andere mee akkoord dat Temu je telefoon (โ€™s nacht) kan activeren, je berichten lezen en daar screenshots van maken. โ€œDat doen we niet hoor.โ€ zegt Temu dan, maar ze hebben wel je toestemming om het te doen. En waarom hebben ze die nodig als ze het niet gebruiken? Als Temu ooit geen zin meer heeft om spulletjes te verkopen hebben ze alle informatie die ze nodig hebben om alles van je af te pakken, van je geld, tot je huis tot je identiteit. Dat zouden ze dan zelfs op grote schaal kunnen doen, met een beetje hulp van AI. Zoals die van DeepSeek bijvoorbeeld.

DeepSeek benadrukt dat hun model volledig open-source is, en gratis te downloaden op je eigen apparaat, waarmee in theorie je gegevens niet met hen gedeeld worden. Echter, er verschijnen steeds meer berichten dat gebruikersdata via DeepSeek wel naar China worden doorgesluisd.

WIRED Newsletter, January 30, 2525

2. Censuur

Er bestaan geen neutrale AI chatbots. Ze hebben allemaal wel een voorkeur in een specifieke richting.  Meestal is die voorkeur vrij subtiel, maar die voorkeur is er.  De DeepSeek chatbot is duidelijk gecensureerd op onderwerpen waarover de Chinese overheid liever niet open is, zoals Taiwan, de gebeurtenissen op het Tiananmen plein in 1989, of de protesten in Hong Kong. Dit is natuurlijk nogal grove en zichtbare censuur. Over onderwerpen waar je die chatbot helemaal niet voor nodig hebt. Maar als die censuur al zo overduidelijk wordt toegepast is het zeer aannemelijk dat de DeepSeek bot ook op andere manieren een voor de Chinese overheid te prettig plaatje schetst.

3. Goedkoper. Niet beter.

Het schijnt dat DeepSeek het op het gebied van rekenen beter doet dan OpenAI en dat
OpenAI het beter doet waar het gaat om creatieve taken aan nieuws.
DeepSeek is vooral vรฉรฉl goedkoper dan OpenAI voor gebruikers. DeepSeek vraagt ongeveer 0,14 dollar voor eenzelfde hoeveelheid tekst (zoโ€™n 750.000 woorden) als waar OpenAI 7,50 dollar voor vraagt. Zakelijk gebruikers met een OpenAI abonnement van 20 dollar per maand zouden met een gratis DeepSeek abonnement toe kunnen. Qua hoeveelheid tekst dus, maar met minder goede โ€˜creativiteitโ€™.

Nou zie ik op LinkedIn nog wel eens handige zelfverklaarde keynote speakers en business gurus voorbij komen die de zegeningen van Temu bezingen en die ontvangen veel enthousiaste reacties van allerlei winkeliers. Er zullen dus vast heel wat mensen zijn die zaken als mensenrechten en kwaliteit voor lief nemen als ze een paar tientjes extra kunnen meepikken. Maar ik zou het zelf niet over mijn hart kunnen verkrijgen.

Het begrip ‘beter’ omvat natuurlijk meer dan alleen de kwaliteit van de output die je van een AI model krijgt. Veiligheid van gebruik hoort daar ook bij. Kun je als gebruiker ook onwenselijke of zelfs gevaarlijke output krijgen? Een manier om dat te voorkomen wordt ‘guardrails’ genoemd, door mensen ingestelde regels die een AI chatbot bijvoorbeeld verbieden om de gebruiker informatie te geven over hoe je ene bom zou moeten maken. Onderzoekers hebben recent 50 bekende tests gedaan met DeepSeek om te kijken hoe het met de veiligheid is gesteld. DeepSeek doorstond er niet รฉรฉn.

4. Ook geen OpenAI

De vergelijking tussen OpenAI en DeepSeek krijgt natuurlijk vooral zoveel aandacht omdat ChatGPT AI bekend heeft gemaakt bij het grote publiek. Maar er zijn meer smaken. En tussen al die smaken zou ik ook niet voor OpenAI kiezen. De afgelopen weken hebben we duidelijk kunnen zien dat Europese belangen en idealen niet per se in goede handen zijn bij Amerikaanse Tech bedrijven. En laat er nou een prachtig Europees alternatief bestaan voor OpenAI; het Franse Mistral.

Mistral 7B is net zo Open-Source en gratis als DeepSeek R1. Maar waar DeepSeek na een explosieve sprint naar de top nu toch vooral een bij elkaar gestolen zooitje, onveilig datalek lijkt, is Mistral AI bezig met een gestage, onopvallende klim naar de top. En is het een inmiddels uitstekend alternatief voor gebruikers die veiligheid en dataprivacy te belangrijk vinden om aan de grillen van het Amerikaanse politieke klimaat over te laten.

Een gratis AI toepassing bestaat niet

Afbeelding door Adobe Firefly

Je hoort mensen het nog wel eens zeggen, maar het bestaat niet: de gratis versie van een AI model. Er is geen gratis ChatGPT, geen gratis Gemini, Llama, Midjourney of Canva. Voor al deze modellen betalen we minimaal twee keer.

Er is namelijk geen enkel AI model dat niet eerste gigantische hoeveelheden data heeft moeten verwerken voor het ook maar iets kon. En deze data, dat is de content die wij met zijn allen in afgelopen halve eeuw online hebben geplaatst. Zonder dat we dat wisten, in veel gevallen zonder dat we daar toestemming voor hebben gegeven en zeker zonder dat we er iets voor hebben gekregen.

De tweede manier waarop wij betalen heeft nog niet plaats gevonden. Vergelijk het er maar mee dat wij allemaal op dit moment met de AI ontwikkelaars in een restaurant zitten te eten. Maar zodra de ober met de rekening komt zijn onze AI vrienden er vandoor. Wij blijven met de rekening achter in het restaurant. Maar dat restaurant is eigenlijk onze planeet. Waarop wij leven. Al die AI kost bakken met energie en grondstoffen, maar zodra er betaald moet worden om dat op te gaan lossen wordt die rekening bij ons โ€˜de wereldbevolkingโ€™ neergelegd.

Tech-oligarchen

Ook al zouden we dat willen, de AI revolutie is niet te stoppen. Maar waarom zouden we dat ook willen? AI is niet het probleem. AI is een prachtige technologie waar we allemaal ontzettend veel voordeel van kunnen gaan hebben. De mannetjes (het zijn bijna enkel mannetjes) die toevallig op posities zitten om als รฉรฉn van de zeer weinigen รฉcht te profiteren van AI, die zijn het probleem. Ondanks dat ze geen gelegenheid voorbij laten gaan om te vertellen dat ze zich inzetten voor mens, maatschappij en wetenschap gaat het hen toch echt enkel om de eigen portemonnee. En deze Tech-oligarchen hebben ons nog wijsgemaakt dat dat iets acceptabels is ook.

Maar zonder collectief is er dus geen AI. Dan is het ook niet zo gek om te stellen dat de opbrengsten van AI ook ten goede zouden moeten komen aan het collectief. Je zou dat kunnen bereiken door alle AI bedrijven te nationaliseren. Maar dat is wel een vrij ongezellige en weinig motiverende aanpak. Er zijn nog maar weinig mensen over die warmlopen voor communisme.

AI belasting

Gelukkig hebben overheden een ander mechanisme om een overschot aan financieel vermogen bij een minderheid te herverdelen. Belastingen noemen we dat. Een AI belasting is helemaal niet zoโ€™n slecht idee. Die belasting kun je heffen aan de inkomsten en aan de uitgaven kant. Aan de uitgaven kant zou dat een variant op BTW kunnen zijn; als je gebruik wil maken van AI moet je een opslag betalen die wordt overgemaakt aan de Staat (oftewel: dit geld komt ten goede van ons allen). Aan de inkomsten kant kun je dan denken aan bijvoorbeeld winst- of omzetbelasting voor AI ontwikkelaars.

Ik schat in dat ruim 99% van de opbrengsten van AI naar ons allen kan, om het alsnog meer dan interessant te houden voor ondernemende types om te blijven innoveren. De investeringen komen namelijk niet stil te liggen. Want uit de opbrengsten kunnen overheden dat zelf doen. Maar dan wรฉl met het belang van de samenleving voorop in plaats van als bijzaak. Bedragen in de orde van grootte van 500 miljard dollar zoals in het Amerikaanse initiatief Stargate wordt gestoken lijkt me best haalbaar. En dan hou je vast en zeker nog een flinke pot geld over om te steken in een universeel basisinkomen. Wat dan weer prettig is voor mensen die bijvoorbeeld hun baan kwijtraken aan AI; zij kunnen vervolgens iets anders, zinvols, gaan doen.

Of ze kunnen, als ze dat willen, niks gaan zitten doen. Want โ€˜niks doenโ€™ voor een universeel basisinkomen is voor de mensheid nog altijd positiever dan een miljard bij elkaar schrapen door de mensheid te belazeren.

AI? Better worry about super-wealthy, creepy white men

Image created by Adobe Firefly

Me: Copilot, can you please translate this article to English?
Copilot: I am sorry, I can not translate the article since it may be copyrighted
Me: Sorry. Can you please translate this text I wrote myself into English?
Copilot: Sure, here is the translation:

We don’t need artificial intelligence to destroy ourselves. Our own mediocre intelligence is more than enough.

Many people have a rather unrealistic view of artificial intelligence (AI), and this doesn’t necessarily apply to people who know little about AI. Programmers who are deeply involved with it, or professors who deal with it daily, can also have unrealistic expectations. The idea is that through AGI (artificial general intelligence), where AI systems can learn things on their own and machines become more intelligent than humans, the machine will develop self-awareness. Once that happens, it won’t be long before the AGI decides that humans are undesirable or at least redundant. And this AGI will be so advanced that no human will be able to stop it from wiping us all out.

An extremely advanced calculator

We’re not even talking about the distant future. Sam Altman, the head of OpenAI (the creators of ChatGPT), predicts that this year will be the year of AGI. If that’s not scary, I don’t know what is. What’s really happening is that the amount of data, probability calculations, and computing power that AI throws at a task is so staggering that we can’t even imagine it. So much is being calculated so incredibly fast that it’s easier for us to believe there’s consciousness involved rather than an extremely advanced calculator. Through movies and (once) books, we’ve been familiarized with the idea of self-aware robots for about a hundred years. We can imagine an AI with consciousness, but not the other way around. But that doesn’t make it true.

Being right is not bias

AI models only get ‘smarter’ by adding even more data, more rules, and more computing power. And that’s happening on a large scale now. And that brings dangers with it. I’m not talking about the environmental impact of all the energy AI consumes. I’m talking about that enormous computing power in the hands of a small group of super-rich, creepy white men.

Recently, Mark Zuckerberg, the head of Meta (including Facebook, Instagram, WhatsApp, Meta Quest), was in the news because he announced that Meta’s social media platforms, like Musk’s Twitter, will stop moderation by fact-checkers. With a weak story that mainly highlighted his social shortcomings once again, he tried to sell the idea that he was driven by lofty ideals. Free speech must triumph over the left-wing bias suggested by him regarding fact-checkers. Now it’s logical that from an (extreme) right-wing populist perspective, fact-checkers seem to have a left-wing bias. The movement of types like Trump and Wilders relies on lies, distrust, and division, which often don’t pass the test of unbiased fact-checking. What Zuckerberg wants to dismiss as ‘bias’ actually means that the left-wing progressive movement is often right. For profit’s sake, Meta chooses to approach facts as ‘just another opinion.’

Independent fact-checkers correcting ‘right-wing’ messages more often than ‘left-wing’ ones is not bias. It’s called ‘being right.’

A sympathetic online slut-database

Besides social media, Meta is also involved in AI. Their AI model is called Llama, which is a misleadingly cute name. Llama is an open-source model because they hope to gain more sympathy this way than closed AI models like OpenAI’s (ChatGPT). Meta knows all too well how important sympathy is because they became so rich with the initial sympathy for Facebook, Instagram, and WhatsApp. What doesn’t help here is that Meta knowingly uses copyrighted content to train Llama without permission. Using user data without consent to create their model is unsympathetic but still legal. Somewhere in the thousand pages of terms and conditions was your consent hidden.

Despite this, Meta has chosen blatant theft with Zuckerberg’s permission. It’s important to emphasize that Meta originated from Facebook and that Facebook started as an online slut-list for Harvard students. From these misogynistic roots, Facebook became a ridiculous, accidental success. After this, Meta never had another good idea on its own. All other successes were bought together with other people’s money (investors). Bezos and Musk also owe their fortunes not to their own brilliant ideas but mainly to their ability to make money from others’ ideas without too many scruples about customers’ and users’ interests. What these three Techketeers finally seem to have in common is how easily they give in to the whims of bullies as if they are reliving their schoolyard days from their youth. In short; not people you want to entrust your well-being to.

Money is computing power is power Once upon a time when you participated in a demonstration with thousands of people your privacy was naturally protected by the sheer number of people around you. All those faces provided so much data that hardly any information could be extracted from it anymore. But due to enormous investments in data and computing power this argument has almost completely disappeared now A company like Clearview can compile your entire profile based on a supplied photo; age place of residence income political and sexual preference whether you’ve ever cheated and with whom where you went on vacation at which party you got drunk But this still happens based on supplied photos Or names The only reason why this hasn’t happened yet with all faces in a video of a few thousand pro-Palestine demonstrators? Computing power So it’s very sensible to wear a mask when you’re presenting you never know who might otherwise run off with your identity

Even if you’re completely uninteresting an undesirable framed profile can be made of you if there’s enough computing power

Who has never created a profile at one of Meta’s companies? Facebook Instagram or WhatsApp? And while Meta watched along on your smartphone and laptop without you knowing you’ve watched extreme YouTube videos created Second Life accounts visited porn sites insulted people on internet forums googled tips on how to evade taxes searched for an abortion clinic ordered a rainbow flag from an online store and done all sorts of other things that may not be illegal but your neighbors don’t necessarily need to know All this metadata about what you did online (and when you sent a WhatsApp message to whom and how often) has been stored at appropriately named Meta And you never worried about it Because you thought: “there’s so much data there I’m so uninteresting they’re really not going to catch me” But soon this argument will disappear Because profiles can soon be made even of all uninteresting people it was always just a matter of ‘enough computing power’

Oh they won’t do that

Such a profile of you isn’t just annoying if criminals get hold of it Profiles in government hands can also turn out quite unfavorable think for example: benefits scandal And that’s just ‘our own’ government All this data lies with American companies Subject to American laws It seems fair when you wonder if Americans are still our friends random citizens from other countries who weren’t on their friends list have sometimes ended up in Guantanamo Bay

Now such a gruesome scenario isn’t really expected yet But with enough computing power everyone can be followed where you are when and how long Continuously looking for a moment when you do something that can be labeled as ‘suspicious’ And anyone who potentially becomes slightly troublesome can soon even without pressing one button character assassination can be committed All data from everyone can selectively be bundled interpreted and presented as news fact And if the story doesn’t add up? No one finds out because content moderation no longer exists and through extreme-right populists concept ‘truth’ has long been hollowed out after which they filled this gap with unfounded general distrust And for those who don’t fear government it’s still naive to think American Big Tech would miss any opportunity to make extra money off you And there’s more money to be made off you if you’re angry and confused Chaos and division are lucrative

I’m not worried at all about an AI with self-awareness Super-rich creepy white men with far too much computing power: that’s what keeps me awake at night


AI? Je kan je beter zorgen maken om die steenrijke, enge witte mannetjes

Image created by Adobe Firefly

We hebben geen kunstmatige intelligentie nodig om onszelf te grond te richten. Onze eigen matige intelligentie volstaat prima.

Veel mensen hebben een nogal onrealistisch beeld bij kunstmatige intelligentie (AI) en dan gaat het niet per se om mensen die weinig van AI weten. Net zo goed programmeurs die er met hun neus boven op zitten, of hoogleraren die zich er dagelijks druk mee houden. Het idee is dat via AGI (artificial general intelligence), waarbij AI systemen zichzelf dingen kunnen leren en machines intelligenter worden dan mensen, de machine zelfbewustzijn ontwikkelt. Wanneer het eenmaal zo ver is, zal het niet lang meer duren voor de AGI besluit dat de mens onwenselijk, of op zโ€™n minst overbodig is. En deze AGI is dan zo geavanceerd dat geen mens het dan nog kan stoppen om ons allemaal uit te roeien.

Een extreem doorontwikkelde rekenmachine

We hebben het niet eens over de verre toekomst. Sam Altman, de baas van OpenAI (de makers van ChatGPT), voorspelt dat dit jaar het jaar van AGI zal zijn. Als dat niet eng is weet ik het ook niet meer. Wat er ondertussen vooral aan de hand is, is dat de hoeveelheid data, de hoeveelheid kansberekeningen en de hoeveelheid rekenkracht die AI tegen een opdracht aangooit van zoโ€™n duizelingwekkende omvang is, dat wij ons daar geen voorstelling bij kunnen maken. Er wordt zo onvoorstelbaar veel, zo onvoorstelbaar snel berekend, dat het voor ons eenvoudiger is om te geloven dat er sprake is van een bewustzijn dan van een extreem vergevorderde rekenmachine. Via films en (ooit) boeken worden we ook al zoโ€™n honderd jaar vertrouwd gemaakt met het idee van zelfbewuste robots. Een AI met bewustzijn kunnen we ons wel voorstellen, dat andere niet. Maar dat maakt het nog niet waar.

AI modellen worden alleen maar โ€˜slimmerโ€™ door er nรณg meer data, nรณg meer regels, nรณg meer rekenkracht aan toe te voegen. En dat gebeurt nu dus ook op grote schaal. En dรกt brengt wel gevaren met zich mee. Dan heb ik het niet over de milieu-impact van al die energie die AI opvreet. Ik heb het over die gigantische rekenkracht in handen van een klein clubje steenrijke, enge witte mannetjes.

Gelijk hebben is geen bias

Onlangs was de baas van Meta (oa Facebook, Instagram, WhatsApp, Meta Quest), Mark Zuckerberg, in het nieuws omdat hij aankondigde dat de Meta social media platforms, net als Musks Twitter, gaan stoppen met moderatie door feitencheckers. Met een slap verhaal waarin vooral weer eens zijn sociale tekortkomingen duidelijk werden, deed hij een poging om het idee te verkopen dat het hem ging om verheven idealen. Het vrije woord moet zegevieren boven de door hem gesuggereerde linkse bias van de feitencheckers. Nu is het logisch dat vanuit het (extreem)rechtse, populistische perspectief feitencheckers een linkse bias lijken te hebben. De stroming van types als Trump en Wilders moet het hebben van leugens, wantrouwen en verdeeldheid en die doorstaan de test van een oordeelvrije feitencheck nu eenmaal veel vaker niet. Wat Zuckerberg weg wil zetten als โ€˜biasโ€™, betekent eigenlijk dat de linkse progressieve stroming het veel vaker bij het juiste eind heeft. Omwille van de winst, kiest Meta er voor om feiten te benaderen als โ€˜ook maar een meningโ€™.

Dat onafhankelijke feitencheckers vaker โ€˜rechtseโ€™ dan โ€˜linkseโ€™ berichten corrigeren is geen bias. Dat heet โ€˜het gelijk aan je zijde hebbenโ€™

De sympathieke bangalijst

Behalve met social media houdt Meta zich ook bezig met AI. En hun AI model heet Llama, wat een misleidend leuke naam is. Llama is een open source model omdat ze op die manier meer sympathie hopen te wekken dan de gesloten AI modellen als die OpenAI (ChatGPT).  Dat sympathie belangrijk is weten ze bij Meta maar al te goed, want met de, aanvankelijke, sympathie voor Facebook, Instagram en WhatsApp zijn ze uiteindelijk zo rijk geworden, Wat daarvoor niet mee helpt, is dat Meta willens en wetens auteursrechtelijk beschermde content gebruikt om Llama te trainen. Dat ze ongevraagd gebruikersdata gebruiken om hun model te maken is onsympathiek, maar nog wel legaal. Ergens in de duizend paginaโ€™s gebruiksvoorwaarden stond je toestemming verstopt.

Zuckerberg image from Bloomberg Law Instagram feed.
Hoe erg is het met je gesteld als je advocaat je niet langer wil verdedigen?

Desondanks heeft Meta, met toestemming van Zuckerberg, dus ook gekozen voor platte diefstal. Belangrijk om te benadrukken is dat Meta is ontstaan uit Facebook en dat Facebook is begonnen als een online bangalijst voor Harvard studenten. Uit de misogyne wortels werd Facebook een belachelijk succes, maar daarna heeft Meta nooit meer zelf een goed idee gehad. Alle andere successen zijn, met geld van anderen (investeerders) bij elkaar gekocht. Ook Bezos en Musk hebben hun fortuin niet te danken aan hun eigen geniale ideeรซn, maar vooral aan hun vermogen om geld te verdienen aan de ideeรซn van anderen. En zonder al te veel scrupules omtrent de belangen van klanten en gebruikers. Wat deze drie Techketiers tenslotte ook gemeen lijken te hebben, is het gemak waarmee ze zich overgeven aan de grillen van de pestkop. Alsof ze een herbeleving van de schoolpleinen uit hun jeugd doormaken. Kortom; geen mensen aan wie je je welzijn wilt toevertrouwen.

Geld is rekenkracht is macht

Ooit was het zo, dat als je met duizenden mensen deelnam aan een demonstratie, je privacy op een natuurlijke wijze werd beschermd door de enorme hoeveelheid mensen om je heen. Al die gezichten leverden zoveel data op, dat er nauwelijks informatie meer uit te halen viel. Maar door de enorme investeringen in data en rekenkracht, is dat argument al zo goed als vervallen. Een bedrijf als Clearview kan op basis van een aangeleverde foto je hele profiel samenstellen; leeftijd, woonplaats, inkomen, politieke en seksuele voorkeur, of je ooit vreemd bent geweest en met wie, waar je op vakantie ging, op welk feest je dronken bent geworden. Maar dit gaat vooralsnog op basis van aangeleverde fotoโ€™s. Of namen. De enige reden waarom dit, voor zover we weten dan, nog niet gebeurt met alle gezichten in een video van een paar duizend pro-Palestina demonstranten? Rekenkracht. Groot gelijk dus dat je een masker opzet als je gaat presenteren, je weet niet wie er anders met je identiteit aan de haal gaan.

Ook als je volstrekt oninteressant bent kan er een onwenselijk geframed profiel van je gemaakt worden, als er maar genoeg rekenkracht is.

Wie heeft er eigenlijk nooit een profiel aangemaakt bij รฉรฉn van Metaโ€™s bedrijven? Facebook, Instagram of WhatsApp? En terwijl Meta via die profielen zonder dat je dat wist meekeek op je smartphone en laptop heb je extreme YouTube videoโ€™s gekeken, Second Life accounts aangemaakt, porno sites bezocht, mensen uitgescholden op internetfora, tips gegoogled hoe je belasting kon ontduiken, gezocht naar een abortus kliniek, bij een webshop een regenboogvlag besteld en allerlei andere dingen gedaan die misschien niet strafbaar zijn, maar de buren hoeven het niet per se te weten. Al die meta-data over wat je online deed (en wanneer je een WhatsApp bericht stuurde naar wie en hoe vaak) is opgeslagen bij, hoe toepasselijk, Meta. En daar maakte je je nooit zorgen om. Want je dacht: โ€œdaar ligt zoveel data en ik ben zo oninteressant, ze gaan mij er echt niet mee pakkenโ€. Maar dat argument is binnenkort dus verdwenen. Want ook van alle oninteressante mensen kunnen straks profielen worden gemaakt, het was altijd slechts een kwestie van โ€˜voldoende rekenkrachtโ€™.

Ach, dat doen ze toch niet

Zoโ€™n profiel van jou is niet alleen vervelend als criminelen er mee aan haal gaan. Profielen in de handen van de overheden kunnen ook vrij ongunstig uitpakken, denk bijvoorbeeld: toeslagen affaire. En dat is dan nog โ€˜onze eigenโ€™ overheid. Al die data ligt bij Amerikaanse bedrijven. Waarover Amerikaanse wetten gelden. Het lijkt me terecht wanneer je je afvraagt of de Amerikanen onze vrienden nog wel zijn en willekeurige burgers van andere landen die niet op hun vriendenlijst stonden, zijn nog wel eens terecht gekomen in Guantanamo Bay.

Nu ligt een dergelijk gruwelijk scenario voorlopig nog niet echt in de lijn der verwachting. Maar met voldoende rekenkracht kan iedereen worden gevolgd, waar je bent, wanneer en hoe lang. Continu op zoek naar een moment waarop je iets doet dat als  โ€˜verdachtโ€™ kan worden aangemerkt. En op iedereen die potentieel een beetje lastig kan worden kan straks zelfs zรณnder รฉรฉn druk op een knop karaktermoord worden gepleegd. Alle data, van iedereen, kan selectief worden gebundeld, geรฏnterpreteerd en gepresenteerd als een nieuwsfeit. En als het verhaal dan niet klopt? Daar komt niemand achter, want contentmoderatie is er niet meer en door de extreemrechtse populisten is het begrip โ€˜waarheidโ€™ allang uitgehold waarna ze dat gat gevuld hebben met ongefundeerd algeheel wantrouwen. En voor hen die geen overheid vrezen is het nog steeds naรฏef om te denken dat de Amerikaanse Big Tech ook maar รฉรฉn mogelijkheid zouden laten liggen om extra geld aan je te verdienen. En er valt meer geld aan je te verdienen als je boos en verward bent. Chaos en verdeeldheid zijn lucratief.

Over een AI met zelfbewustzijn maak ik me in elk geval totaal geen zorgen. Steenrijke, enge witte mannetjes met veel te veel rekenkracht: daar kan ik wakker van liggen.

Why we need to start teaching about deepfake porn.

Of course, teachers are already incredibly busy. And of course, with every societal issue, thereโ€™s an immediate call for it to be included in education. And yes, thereโ€™s already a lot of fuss about sexual education in schools. So, should this really be added? Yes, it should. By โ€˜this,โ€™ I mean โ€˜deepfakes pornโ€™ And the only thing that shouldnโ€™t find a place in the educational curriculum is how to make them. Because thatโ€™s precisely the problem; many young people already know how to do that. And their numbers are only increasing.

A few weeks ago, all the Dutch news bulletins were filled with the latest details about โ€˜banga lists.โ€™ Students from Utrecht had created a PowerPoint (which in itself is quite cute actually) discussing the sexual attractiveness of several female fellow students. It was very intense, and rightly so, there was a strong intervention. But imagine if it wasnโ€™t about young female students, but about high school students. And imagine it wasnโ€™t a PowerPoint, but an indistinguishable fake pornvideo.

Itโ€™s not that thereโ€™s no attention to the potential dangers surrounding deepfake images and videos. Generally, itโ€™s about how malefactors, on behalf of foreign states, could produce and spread fake news with such materials. At the same time, itโ€™s noticeable that this hardly happens. The main reason is that itโ€™s not necessary to produce deepfake materials to spread disinformation and garner support for far-fetched conspiracy theories on a large scale. At the end of such an article or item, you might go to bed slightly disillusioned about your fellow human beings, but still, you go to bed peacefully.

But with deepfake porn, itโ€™s different. Where misinformation is an -unnecessary- means to produce deepfake imagery, in pornography, itโ€™s the goal. And that goal is increasingly easier to achieve. With an end result thatโ€™s harder and harder to distinguish from reality. In 2022, presenter Welmoed Sijtsma made a documentary about a deepfake porn film that was made of her. The documentary received a lot of attention, but afterward, it became quite quiet. While technological development made huge progress. Without too much publicity, there is now an enormous amount of deepfakes to be found. On specially built websites and in Telegram groups. But also by simply doing a Google search, or via social media like Reddit and Tumblr.

In many cases, itโ€™s no longer about laborious processes like in โ€˜the good old fake porn days,โ€™ when the creator had to sweat it out night after night in a dark room with video editing software. If youโ€™re not satisfied with the apps you can download from your app store, a simple search is enough to find dozens, if not hundreds, of AI tools with which you can easily create your deepfake porn material. Tools that, like ChatGPT and Microsoftโ€™s Copilot, use models from Open.ai, guaranteeing quality for a pittance. And if you want something specific and are a bit handier, you can also look for open-source code on GitHub.

In 2018, American actress Scarlett Johansson already sighed that the fight against deepfake porn is a lost cause. And that was even before the AI revolution. The victims were celebrities with a lot of still and moving images available. Now, the victim can be any random person, as it takes hardly any time or effort to produce it. And just as little effort to share your craft anonymously with the world. So, itโ€™s a big, growing problem. But I can very well imagine that you now think there are much better ways to tackle this problem than through education. This canโ€™t all be legal, can it? Why donโ€™t we send the police after them?

Like all AI developments, deepfake has come about so quickly that itโ€™s not so easy to do something about it legally, at least for now. In the case of Welmoed Sijtsma, the perpetrator was indeed arrested and convicted, but that was unfortunately the exception. The Dutch government concluded after research in 2022 that not so much legislation, but especially enforcement, will be a problem. And that research took place before the AI revolution. Not only did this revolution lead to much more material being developed, but it also made it possible for completely random characters to be developed for a deepfake video using AI. And then try to prove that your likeness has been placed in such a video and not a fictional character that just happens to look like you.

Besides the creators of deepfake porn, you could also try to tackle the creators of the technology. But that turns out not to be so simple. Tech multinationals have deep pockets for a legal battle and are also located on different continents, making it even harder to tackle them. And besides, they can naturally hide behind the stance that they only develop the technology and cannot be held responsible for what users subsequently do with it.

It seems a more salutary route to ask tech companies to voluntarily build safety measures into their systems (guardrails). However, if they are willing to do so -which is very doubtful, it remains a manโ€™s world- it is almost impossible to make these guardrails sufficiently effective. Such restrictions only work as long as no one has been creative enough to discover how to bypass that restriction.

So, if it ever becomes possible to prevent deepfakes from being made, it will certainly take many years. And in the meantime, we must do what we can to prevent as many victims as possible. Education is an important route in that fight. Through it, we can teach young people, before they become perpetrators, that it may seem innocent to them, but it certainly isnโ€™t for the victims. It can feel like a victimless crime, as itโ€™s not a real video, but the consequences for the victims are often just as severe.

At the same time, we must be realistic enough to understand that the production of deepfakes will probably never completely disappear. The demand will continue to exist, and there will continue to be ways to meet that demand. And then itโ€™s also important that we learn together how to best deal with it when such an incident occurs. How we react to a perpetrator, but especially: how we ensure that the damage to the victim remains as minimal as possible. By acting supportively and understandingly, for example.

One of the most counterproductive ways to do something against deepfakes is to promote the far-reaching oppression of women. In ultra-conservative circles, women are sometimes already discouraged from being findable online at all. That would be the only way to prevent you from ever ending up in a deepfake. But in a time when you canโ€™t avoid being heard, and you also need to do that online or at least via mass media; it means that these women are effectively being silenced. And then the cure is worse than the disease.

And so, AI-generated deepfakes are indeed a threat to democracy and universal human rights. Not directly but, not for the first time, through a detour. Along the taboo surrounding sexuality.

Image created with Adobe FireFly

Deepfake porno. Taakje voor het onderwijs.

Natuurlijk, leerkrachten hebben het al hartstikke druk. En natuurlijk, bij iedere maatschappelijk issue wordt er meteen geroepen dat het in het onderwijs moet. En ja, er is al heel veel gedoe over seksuele vorming op school. Moet dit er dan echt bij? Ja, dat moet.

Met โ€˜ditโ€™ bedoel ik โ€˜deepfake pornoโ€™. En het enige dat daar geen plekje van in het onderwijsprogramma moet krijgen, is hoe je het moet maken. Want dat is nu juist het probleem; dat weten heel veel jongeren al lang. En het worden er steeds meer.

Een paar weken geleden stonden alle nieuwsrubrieken vol met de laatste details over bangalijsten. Utrechtse studenten hadden een PowerPoint (wat op zich wel schattig is) gemaakt waarin vrouwelijke medestudenten werden besproken. Dat was heel heftig, terecht dat daar hard op werd ingegrepen. Maar stel je nou eens voor dat het niet gaat om jonge studentes, maar om middelbare scholieren. En stel je voor dat het geen PowerPoint is, maar een niet van echt te onderscheiden nep-video.

Overbodig als middel, gewild als doel

Het is niet zo dat er helemaal geen aandacht is voor mogelijke gevaren rondom deepfake beelden en videoโ€™s. Over het algemeen gaat het dan om vergezichten van hoe kwaadwillenden, in opdracht van buitenlandse staten, met dit soort materialen nep-nieuws kunnen produceren en verspreiden. Tegelijkertijd valt dan op, dat dit eigenlijk nog maar heel weinig gebeurt. Belangrijkste reden is dat het helemaal niet nodig is om deepfake materialen te produceren om op grote schaal desinformatie te verspreiden en aanhang te vinden voor vergezochte samenzweringstheorieรซn. Aan het einde van zoโ€™n artikel of item ga je, wellicht lichtelijk gedesillusioneerd over je medemens, toch rustig je bed in.

Maar met porno ligt het anders. Waar het in het geval van misinformatie een -overbodig- middel is om deepfake beeldmateriaal te produceren, bij porno is dat het doel. En dat doel wordt steeds eenvoudiger bereikt. Met steeds minder goed van echt te onderscheiden eindresultaat. In 2022 maakte presentatrice Welmoed Sijtsma een documentaire over een deepfake porno film die van haar was gemaakt. Die documentaire kreeg veel aandacht, maar daarna werd het eigenlijk best stil. Terwijl de technologische ontwikkeling enorme vooruitgang boekte. Zonder dat er al te veel ruchtbaarheid aan werd gegeven is er inmiddels een enorme hoeveelheid aan deepfake porno te vinden. Op speciaal daarvoor gebouwde websites en in Telegram groepen. Maar ook door simpelweg een Google zoekopdracht te doen, of via social media als Reddit en Tumblr.

De strijd tegen deepfake porno is allang verloren

In veel gevallen gaat het dan al niet meer om bewerkelijke processen zoals in โ€˜die goede oude nepporno tijdโ€™, toen de maker nog nachtenlang in een donker kamertje moest zitten zweten bij de video-editting software. Als je geen genoegen wilt nemen met de apps die je in je appstore kunt downloaden, is een simpele zoekopdracht voldoende om tientallen, zo niet honderden, AI tools te vinden waarmee je eenvoudig zelf je deepfake pornomateriaal kunt maken. Tools die bijvoorbeeld net ChatGPT en Microsoftโ€™s CoPilot gebruik maken van de modellen van Open.ai, kwaliteit gegarandeerd voor een habbekrats. En als je toch iets specifieks wil en een beetje handiger bent, kun je ook op zoek naar open source code op GitHub.

In 2018 verzuchtte de Amerikaanse actrice Scarlett Johanson al dat de strijd tegen deepfake porno een verloren zaak was. En dat was dus nog vรณรณr de AI revolutie. De slachtoffers waren celebrities van wie veel stilstaand en bewegend beeld te vinden was. Inmiddels kan het slachtoffer ieder willekeurig persoon zijn, het kost namelijk nauwelijks tijd of moeite om het te produceren. En al net zo weinig moeite om je knutselwerk anoniem met de wereld te delen.

De juridische weg lijkt heilloos

Het is dus een groot, groeiend probleem. Maar ik kan me heel goed voorstellen dat je nu denkt dat er veel betere manier zijn om dit probleem aan te pakken dan via het onderwijs. Dit kan toch niet legaal zijn allemaal? Waarom sturen we de politie er niet op af?

Net zoals met alle AI ontwikkelingen, is ook deepfake porno er in zoโ€™n tempo gekomen dat het voorlopig helemaal nog niet zo makkelijk is om er via juridische weg iets aan te doen. In het geval van Welmoed Sijtsma is de dader weliswaar opgepakt en veroordeeld, maar dat was helaas wel de uitzondering. De overheid stelde na onderzoek in 2022 dat niet zozeer wetgeving, maar vooral handhaving een probleem gaat zijn. En ook dat onderzoek vond plaats vรณรณr de AI revolutie. Niet alleen zorgde deze revolutie er voor dat er veel mรฉรฉr materiaal wordt ontwikkelt, het zorgt er ook voor dat het mogelijk is dat middels AI volkomen random personages worden ontwikkeld voor een deepfake porno video. En bewijs dan maar eens dat jouw beeltenis in zoโ€™n video is geplaatst en niet een fictief personage dat toevallig op je lijkt.

Guardrails leggen het af tegen creativiteit

Behalve de makers van de porno, zou je ook kunnen proberen om de makers van de technologie aan te pakken. Maar dat blijkt nog niet zo eenvoudig. Tech multinationals hebben diepe zakken voor een juridische strijd en bevinden zich ook nog eens op verschillende continenten waardoor het nog eens moeilijker wordt om ze aan te pakken. En daarnaast kunnen ze zich natuurlijk verschuilen achter het standpunt dat zij enkel de technologie ontwikkelen en geen verantwoordelijkheid kunnen dragen voor wat gebruikers er vervolgens mee doen.

Het lijkt een heilzamer route om techbedrijven te vragen om vrijwillig veiligheidsmaatregelen in hun systemen in te bouwen (guardrails). Echter, รกls ze al bereid zijn om dat te doen -wat erg twijfelachtig is, het blijft toch een mannenwereldje- is het vrijwel onmogelijk om deze guardrails voldoende effectief te maken. Dit soort beperkingen werken slechts zo lang niemand creatief genoeg is geweest om te ontdekken hoe die beperking te omzeilen.

Een misdrijf zonder slachtoffers

Mocht het dus al ooit lukken om te kunnen voorkomen dat er deepfake porno wordt gemaakt, dan zal dat zeker nog vele jaren duren. En in de tussentijd moeten we doen wat we kunnen om zoveel mogelijk slachtoffers te voorkomen. Het onderwijs is in die strijd een belangrijke route. Via die weg kunnen we jongeren, voordat zij dader worden, leren dat het voor hen wellicht onschuldig lijkt maar dat dat het voor de slachtoffers zeker niet is. Het kan voelen als een misdrijf zonder slachtoffer, het is immers geen echte video, maar de gevolgen voor de slachtoffers zijn vaak even ernstig.

Tegelijkertijd zullen we realistisch genoeg moeten zijn dat het produceren van deepfake porno waarschijnlijk nooit helemaal zal verdwijnen. De vraag zal blijven bestaan en er zullen mogelijkheden blijven bestaan om aan die vraag te voldoen. En dan is het dus ook belangrijk dat we met elkaar leren hoe we er het beste mee om kunnen gaan als er zich zoโ€™n incident voordoet. Hoe reageren we op een dader, maar vooral: hoe zorgen we er samen voor dat de schade voor het slachtoffer minimaal mogelijk blijft. Door steunend en begripvol op te treden bijvoorbeeld.

Deepfakes bedreigen mensenrechten

ร‰รฉn van de meest contraproductieve manier om iets tegen deepfake porno te doen is het promoten van verregaande onderdrukking van vrouwen. In ultraconservatieve kringen worden vrouwen soms al ontmoedigd om รผberhaupt online vindbaar te zijn. Dat zou de enige manier zijn om te voorkomen dat je ooit in een deepfake porno terecht komt. Maar in een tijd waarin je er niet omheen kunt om wanneer je gehoord wenst te worden, dat รณรณk online of minimaal via massamedia te doen; betekent dat per saldo dat deze vrouwen monddood worden gemaakt. En dan is het middel erger dan de kwaal.

En zo zijn door AI gegenereerde deepfakes dus tรณch een bedreiging van de democratie en van universele mensenrechten. Niet rechtstreeks maar, niet voor het eerst, via een omweg. Langs het taboe rond seksualiteit.

Afbeelding gegenereerd met Adobe Firefly

De wereld redden? Hou rekening met ongemak.

  1. Verschillende Chinese online webwinkels verkopen spullen voor extreem lage bedragen. Soms zijn spullen zelfs gratis. Nou ja, gratis… De prijs wordt betaalt door het milieu, door het schenden van mensenrechten en de klant betaalt met zijn persoonlijke data. De baten gaan voor de kosten uit dus eigenlijk.
  1. Een historicus schrijft een boek waarin hij zich richt tot getalenteerde, ambitieuze jonge professionals. Middels alternatieve inspirerende voorbeelden wil hij deze groep bewegen om niet te kiezen voor het grote geld, maar zich in te zetten voor een betere wereld. Hij roept hen op iets hogers na te streven en niet zonder na te denken de generatie voor hen te volgen.
  1. Een inmiddels vrij grote minderheid in Nederland heeft geen witte, maar een donkerder huidskleur. Jaarlijks rondom 5 december worden zij onvrijwillig en herhaaldelijk geconfronteerd met een fictieve figuur met een donkere huidskleur. Deze figuur is een referentie aan het slavernij verleden en daarmee kwetsend voor veel mensen. Zij wensen dan ook dat deze fictieve figuur niet meer onderdeel is van de 5 december festiviteiten,

Net als roken

Wat deze dingen gemeen hebben is dat zij een situatie beschrijven die ongemak teweeg bent bij een groep mensen. Het zijn situaties die vergelijkbaar zijn met het opsteken van een sigaret; eigenlijk weet je best dat dat ongewenst gedrag is, maar je kiest er voor om dat te negeren.

Ook in de drie situaties hierboven vertonen mensen onwenselijk gedrag. Gratis spullen bestellen, wรฉl voor een baan kiezen om het geld in plaats van om het maatschappelijk nut, wรฉl die fictieve figuur donker schminken. En net als met roken, weten de meesten best dat het niet goed is, maar dat ‘weten’ zit in hun achterhoofd. Het is een stil, knagend ‘weten’. Erkennen dat dit knagende weten bestaat, betekent dat je moet erkennen dat je in het verleden fouten hebt gemaakt. Of die nog steeds maakt. En dat geeft een wel hรฉรฉl ongemakkelijk gevoel. In plaats van het ongemak te accepteren dat je een faalbaar mens bent kun je er ook voor kiezen om alles kapot te willen maken dat je op je eigen knagende weten wil wijzen.

Een belangrijk onderscheid: Rokers die de wetenschap ontkennen dat het slecht voor ze is, hebben daar vooral zichzelf mee. Bij deze groepen zijn het vooral anderen die leiden, omdat positieve bewegingen worden weg geschreeuwd onder lawines van nepnieuws en feitenvrije meningen.

Troep veroorzaakt ellende

In het geval van de Chinese webwinkel las ik een stukje van iemand die werkbezoeken, of snoepreisjes, voor ondernemers verzorgd naar China. De kern; deze bedrijven zijn niet slecht, maar hebben een slimmere productieketen. Gelet op de reacties onder het stukje kwam deze, niet correcte, analyse veel mensen heel goed uit. Immers, รกls jij of je zoon/dochter, regelmatig troep van deze winkels laat aanslepen, dan geeft het ongemak als je wordt geconfronteerd met alle ellende die dit veroorzaakt.  En waar je dus eigenlijk mede verantwoordelijk voor bent.

Geld dempt geen leegte

In het geval van het boek lees ik met enige regelmaat commentaren van mensen van ‘mijn generatie’ die een financieel succesvolle carriรจre hebben opgebouwd. Maar in het betoog van het boek worden geconfronteerd met een leegte die zij niet met dat geld kunnen dempen. Ongemakkelijk dus. In plaats van het ongemak van de boodschap te accepteren, kiezen zij er vervolgens voor om alles rondom die boodschap ter discussie te stellen. Het idee is dat als je ergens iets kan vinden dat misschien niet helemaal 100% zuiver is en je daar heel veel nadruk op legt, je misschien ook de boodschap onschadelijk maakt. In reactie bekritiseren zij dan de schrijver of een specifieke keuze voor een historisch voorbeeld. Of zij nemen het zogenaamd op voor groepen mensen op wie het boek zich niet richt. Eigenlijk bekritiseren ze van alles om te ontkomen aan het ongemak dat het geeft dat zij wellicht meer hadden kunnen doen voor het maatschappelijk belang dan zij hebben gedaan.

Geen racist willen zijn veroorzaakt racistisch gedrag

In het geval van Sint & Piet (jawel, daar ging het om), gaf het groepen mensen zoveel ongemak om onder ogen te komen dat de ouderwetse Piet-figuur racistisch is, terwijl zij zelf niet (bewust) racist waren, dat zij liever volhardden in dat racistische gedrag dan verandering toelaten. De ironie is dus dat juist doordat zij zichzelf niet willen zien als racist, zij zich racistisch gingen opstellen. Ongemak is een heftig iets.

Iemand met ongemak is een potentiele medestander

Iedere vegetariรซr kan je vertellen over de hoeveelheid persoonlijke aanvallen die ze te verduren hebben van vleeseters met ongemak, “Geen vlees eten, maar wel leren schoenen dragen? Wat inconsequent van je.”
En iedereen kent wel iemand die als reactie op de vraag of die vlucht naar Parijs niet beter met de trein had gekund, als antwoord geeft “Ik heb geen kinderen, ik doe al genoeg voor het milieu“.

Ongemak zorgt er helaas vaak voor dat mensen zich tegen hun eigen belangen en overtuigingen in vastgraven in drogredeneringen en valse feiten.

Natuurlijk is het niet zo dat alles is opgelost wanneer we ongemak zouden kunnen wegnemen. Maar het wordt wel vaak vergeten door de progressieven en revolutionairen die verandering nastreven. Wie heeft er nou aandacht voor kleinzielige emoties wanneer er zulke grote belangen op het spel staan? Hou rekening met mogelijk ongemak dat verandering inhoudt voor mensen die potentieel je medestander zijn. Want je voelt alleen ongemak, als je weet dat verandering eigenlijk nodig is.

Afbeelding gegenereerd door Adobe Firefly

AI is niet gevaarlijk

Wat we allemaal kunnen met AI is verbluffend. Bijna ongelooflijk. Maar datzelfde geld voor de trucs die illusionisten tegenwoordig doen. Voor iedereen die niet begrijpt hoe zoโ€™n truc werkt is het niet voor te stellen dat er geen hogere machten aan het werk zijn. Maar we accepteren dat het een truc is, niet meer en niet minder. Als je ziet wat er met AI allemaal gedaan wordt, is het eigenlijk niet voor te stellen dat we niet hard op weg zijn naar computers die zelfstandig kunnen denken en beslissen. En naar een wereld met robots met bewustzijn. Maar dat komt vooral doordat we niet begrijpen hoe de truc werkt.

In tegenstelling tot illusionisten, zijn de grote bazen van de techbedrijven die AI ontwikkelen er niet eerlijk over dat wat we zien eigenlijk een truc is. Sterker, ze buitelen over elkaar heen met idiote claims en toekomstvoorspellingen. Daar zijn verschillende redenen voor te bedenken. Het zou zomaar kunnen dat zij dat zelf ook niet begrijpen. In sommige gevallen kun je je afvragen of ze niet wat teveel geestverruimende middelen gebruikt hebben (eg bijgaand citaat van de Stable Diffusion CEO). Het is echter meest waarschijnlijk dat zij er gewoon belang bij hebben om AI indrukwekkender voor te stellen dan het is. Om politieke invloed uit te kunnen oefenen en investeerders te interesseren. Op die manier moet je ook kijken naar de oproep die de bedrijven deden om een pauze in te lassen bij het verder ontwikkelen van AI; aandacht trekken en invloed winnen. Het was een volkomen gratuit oproep waar geen een van hen zich aan hield en waar verder niets meer van werd vernomen.

Zwarte zwaan

Het fundament onder AI is een grove versimpeling van hoe een brein werkt. En een misvatting over hoe het menselijk brein waarschijnlijk werkt. Het zit vol tekortkomingen en beperkingen die alleen kunnen worden gemaskeerd door er aan de ene kant gigantische hoeveelheden data en energie tegenaan te gooien. En aan de andere kant door menselijk ingrijpen op allerlei niveaus. Van zwaar onderbetaalde microwerkers tot wellicht zwaar overbetaalde programmeurs. Wat al deze groepen gemeen hebben is dat ze eigenlijk geen idee hebben waar ze precies mee bezig zijn omdat het geheel niet te overzien is. En omdat de black box waar input doorheen gaat voordat het output wordt zo complex is, weet je nooit zeker of je menselijke ingreep het juiste effect heeft. Een kritische fout van iedere AI is een zwarte zwaan probleem; je weet pas dat die fout erin zat wanneer deze zich voordoet.

Bron: https://twitter.com/EMostaque/status/1632902759690240001

Kan een duikboot zwemmen?

Iedereen is wel eens onder de indruk geweest van vooral generatieve AI. Een โ€˜net echtโ€™ conversatie met ChatGPT/Copilot, een niet van echt te onderscheiden afbeelding, een door AI gegenereerd liedje of filmpje. We zijn dan vaak zo onder de indruk, dat we vergeten -als we dat al weten-  dat er geen enkele bewuste keuze is gemaakt door die AI in het creรซeren van die content. Wat je ziet, is de uitkomst van een vrijwel eindeloze rij aan berekeningen, regels en inschattingen die mogelijk is door onvoorstelbare hoeveelheid rekenkracht. En met een snelheid waardoor je als gebruiker denkt dat je begrepen wordt en dat de AI iets is dat โ€˜weet wat het doetโ€™. Maar hoeveel rekenmachientjes moet je bij elkaar gooien voor er spontaan bewustzijn ontstaat? Of, in de woorden van Noam Chomsky, โ€˜calling AI intelligent is like saying submarines can swimโ€™.

Op zich is dat goed nieuws. AI weet niks, begrijpt, interpreteert niks, is niet nieuwsgierig, twijfelt niet. En AI heeft al helemaal geen bewustzijn. AI is een ding. En ‘dingen’ zijn op zichzelf ongevaarlijk. Maar dan moet je er wel goed mee om gaan. En daar zit het probleem. Degenen die zich eigenaar van AI technologie mogen noemen zijn grote, commerciรซle, veelal Amerikaanse tech-bedrijven. Met aandeelhouders, investeerders, of platweg de wens zo snel mogelijk te groeien tot ze overgenomen kunnen worden. Het zijn dus bedrijven wiens primaire belang niet het welzijn van de individuele gebruiker of samenleving is, maar geld verdienen. Bedrijven die er alles aan doen om de concurrentiestrijd te winnen en daarom beloftes doen over AI die het niet waar kan maken en toepassingen ontwikkelen die schadelijk kunnen zijn.

AI is van ons allemaal

Toen sociale media in opkomst waren, hadden zij ook mooie idealistische verhalen. Dat heeft achteraf niet per se heel lekker uitgepakt. Ik hoop dat we daar van geleerd hebben met zijn allen. Als we tijdig spelregels hadden opgesteld waar die platforms zich aan moesten houden, hadden ze ongetwijfeld nog steeds bestaan. Maar het waren niet zulke openbare riolen van extremisme en populisme geweest. De huidige generatie AI had niet kunnen bestaan zonder de data die wij met zijn allen geproduceerd hebben. Of zonder alle algoritmes die aan universiteiten met publiek geld zijn ontwikkeld. AI is van ons allemaal, de hele samenleving zou er dan ook van moeten profiteren. En er over moeten mogen beslissen. AI is niet gevaarlijk, AI bedrijven zijn dat wel.