Het gebruik van door kunstmatige intelligentie (AI) gegenereerde beelden van extreme armoede wordt steeds populairder bij hulporganisaties en niet-gouvernementele organisaties (NGO’s). Dit roept zorgen op over de terugkeer van “poverty porn”: een term die gebruikte wordt om te verwijzen naar de manier waarop beelden van armoede worden ingezet om medeleven op te wekken, maar vaak ten koste van de betrokken personen. De beelden kunnen schadelijke stereotypen in stand houden en het begrip van armoede in de samenleving vervormen.
21 oktober om 12:06 • Door onze nieuwsredactie • Leestijd: 1 min.
Bevestiging van stereotypen
Onderzoekers hebben ontdekt dat er een groeiend aanbod van AI-afbeeldingen over armoede te vinden is op populaire stockfotowebsites. Deze beelden zijn goedkoop te verkrijgen, wat aantrekkelijk is voor organisaties met een beperkt budget. Het gemak waarmee AI-beelden kunnen worden gegenereerd, maakt dat er vaak voor deze optie gekozen wordt. Het gebruik van echte foto’s brengt immers complexere ethische overwegingen met zich mee, zoals het verkrijgen van toestemming van de afgebeelde personen.
Critici wijzen erop dat deze AI-beelden vaak neerbuigende stereotypen over ontwikkelingslanden versterken. Veel van deze beelden richten zich bijvoorbeeld op Afrikaanse of Aziatische mensen, die vaak op een ongemakkelijke en ongenuanceerde manier worden afgebeeld. Hoewel sommige platforms zich bewust zijn van de mogelijkheid van vooroordelen in hun AI-content, leggen zij de verantwoordelijkheid bij de gebruiker om kritisch te blijven. Anderen vergelijken de uitdaging van het verwijderen van vooroordelen met “het proberen droogleggen van de oceaan”.
Gebruik in wereldwijde gezondheidscommunicatie
Het gebruik van AI-beelden in wereldwijde gezondheidscommunicatie leidt tot verhitte discussies. Sommige organisaties verdedigen hun keuze, omdat het de privacy en waardigheid van individuen respecteert. Toch zijn er ook zorgen over de ethische aspecten. Door gefabriceerde beelden op deze manier te gebruiken, riskeren we een verdere verankering van gevaarlijke stereotypen. Hierdoor kan ons begrip van armoede en de realiteit daarvan vertekend raken.
De mogelijkheid dat AI-beelden bestaande vooroordelen versterken, is zorgwekkend. Omdat deze beelden in omloop komen en toekomstige AI-modellen beïnvloeden, blijft er een risico dat ze een onjuiste voorstelling geven van kwetsbare groepen.
Conclusie
Het gebruik van AI-gegenereerde beelden door hulporganisaties en NGO’s brengt belangrijke ethische vraagstukken met zich mee. Terwijl deze beelden kunnen bijdragen aan kostenbesparing en privacybescherming, bestaat er een groot gevaar dat ze schadelijke stereotypes verankeren. Het is cruciaal dat organisaties en platforms samenwerken om te zorgen voor verantwoorde en ethisch verantwoorde beeldvorming in de communicatie over armoede. Zo kunnen we de dieperliggende problemen aanpakken zonder de betrokkenen te ontmenselijken of te misbruiken voor marketingdoeleinden.
Dit artikel is tot stand gekomen met behulp van AI en gecontroleerd door onze redactie.
Referentie: https://businessam.be







