AI-beelden van armoede vaak gebruikt door hulporganisaties

Het gebruik van door kunstmatige intelligentie (AI) gegenereerde beelden van extreme armoede wordt steeds populairder bij hulporganisaties en niet-gouvernementele organisaties (NGO’s). Dit roept zorgen op over de terugkeer van “poverty porn”: een term die gebruikte wordt om te verwijzen naar de manier waarop beelden van armoede worden ingezet om medeleven op te wekken, maar vaak ten koste van de betrokken personen. De beelden kunnen schadelijke stereotypen in stand houden en het begrip van armoede in de samenleving vervormen.

21 oktober om 12:06 • Door onze nieuwsredactie • Leestijd: 1 min.

Bevestiging van stereotypen

Onderzoekers hebben ontdekt dat er een groeiend aanbod van AI-afbeeldingen over armoede te vinden is op populaire stockfotowebsites. Deze beelden zijn goedkoop te verkrijgen, wat aantrekkelijk is voor organisaties met een beperkt budget. Het gemak waarmee AI-beelden kunnen worden gegenereerd, maakt dat er vaak voor deze optie gekozen wordt. Het gebruik van echte foto’s brengt immers complexere ethische overwegingen met zich mee, zoals het verkrijgen van toestemming van de afgebeelde personen.

Critici wijzen erop dat deze AI-beelden vaak neerbuigende stereotypen over ontwikkelingslanden versterken. Veel van deze beelden richten zich bijvoorbeeld op Afrikaanse of Aziatische mensen, die vaak op een ongemakkelijke en ongenuanceerde manier worden afgebeeld. Hoewel sommige platforms zich bewust zijn van de mogelijkheid van vooroordelen in hun AI-content, leggen zij de verantwoordelijkheid bij de gebruiker om kritisch te blijven. Anderen vergelijken de uitdaging van het verwijderen van vooroordelen met “het proberen droogleggen van de oceaan”.

Gebruik in wereldwijde gezondheidscommunicatie

Het gebruik van AI-beelden in wereldwijde gezondheidscommunicatie leidt tot verhitte discussies. Sommige organisaties verdedigen hun keuze, omdat het de privacy en waardigheid van individuen respecteert. Toch zijn er ook zorgen over de ethische aspecten. Door gefabriceerde beelden op deze manier te gebruiken, riskeren we een verdere verankering van gevaarlijke stereotypen. Hierdoor kan ons begrip van armoede en de realiteit daarvan vertekend raken.

De mogelijkheid dat AI-beelden bestaande vooroordelen versterken, is zorgwekkend. Omdat deze beelden in omloop komen en toekomstige AI-modellen beïnvloeden, blijft er een risico dat ze een onjuiste voorstelling geven van kwetsbare groepen.

Conclusie

Het gebruik van AI-gegenereerde beelden door hulporganisaties en NGO’s brengt belangrijke ethische vraagstukken met zich mee. Terwijl deze beelden kunnen bijdragen aan kostenbesparing en privacybescherming, bestaat er een groot gevaar dat ze schadelijke stereotypes verankeren. Het is cruciaal dat organisaties en platforms samenwerken om te zorgen voor verantwoorde en ethisch verantwoorde beeldvorming in de communicatie over armoede. Zo kunnen we de dieperliggende problemen aanpakken zonder de betrokkenen te ontmenselijken of te misbruiken voor marketingdoeleinden.


Dit artikel is tot stand gekomen met behulp van AI en gecontroleerd door onze redactie.

Referentie: https://businessam.be

Veelgestelde vragen

Wat is een AI-agent?
Een AI-agent is een digitale assistent die zelfstandig taken uitvoert; zoals het verwerken van klantdata, het versturen van e-mails of het automatisch genereren van rapportages.

We ontwikkelen AI-agents en automatiseringen op maat, die je werk slimmer maken zonder dat je hoeft te programmeren. In welke branche je ook opereert. Hiermee bespaar je direct tijd en uren, werk je efficiënter, maak je minder fouten en verlaag je operationele kosten.

🔗 Lees meer over AI-agents

Dé AI-nieuwsbrief van Nederland

Meld je aan en krijg het laatste AI-nieuws, tutorials en inspiratie om je werk te vereenvoudigen; gratis in je inbox.
Nieuwsbrief

Loop je vast of kom je er niet helemaal uit?

We denken graag met je mee. Boek een vrijblijvend gesprek en ontdek wat jouw volgende stap is in het AI-tijdperk.