OpenAI werkt samen met acteur Bryan Cranston en de vakbond SAG-AFTRA om strengere regels in te voeren voor deepfakes. Deze technologie kan zonder toestemming gezichten en stemmen nabootsen van bekende personen. Samen willen ze de risico’s beperken van deze AI-gegenereerde video’s die met de Sora 2 video-app kunnen worden gemaakt.
22 oktober om 20:10 • Door onze nieuwsredactie • Leestijd: 1 min.
Cranstons Bezorgdheid over Identiteitsmisbruik
Bryan Cranston, bekend van de serie “Breaking Bad”, liet van zich horen nadat zijn stem en uiterlijk zonder toestemming werden gebruikt in de Sora 2 app. Hij maakte zich zorgen over hoe deze technologie het werk en de identiteit van artiesten en acteurs kan misbruiken. Samen met OpenAI, klantvertegenwoordigers en talentagentschappen riep Cranston op tot betere bescherming.
Van Opt-out naar Opt-in: Een Belangrijke Wijziging
Aanvankelijk koos OpenAI voor een opt-out-systeem, waarbij beroemdheden expliciet moesten aangeven dat ze niet in de app wilden verschijnen. Dit systeem bleek ondoeltreffend. OpenAI heeft daarom zijn beleid gewijzigd naar een opt-in-systeem. Dit houdt in dat beroemdheden nu actief toestemming moeten geven voordat hun uiterlijk en stem kunnen worden gebruikt in AI-video’s.
Klachten van Nabestaanden
Niet alleen Cranston, maar ook de families van beroemde figuren als Robin Williams, George Carlin en Martin Luther King Jr. uitten kritiek. Zij klaagden over de ongewenste reproductie van hun dierbaren in AI-content. Hierdoor heeft OpenAI sommige AI-gegenereerde video’s gepauzeerd om de klachten te onderzoeken en op te lossen.
Strengere Beveiligingsmaatregelen
OpenAI heeft zijn beveiligingsmaatregelen aangescherpt om onnodige replicaties van stem en uiterlijk te voorkomen zonder toestemming. Hierdoor is de controle bij kunstenaars en hun vertegenwoordigers. OpenAI belooft voortaan snel te reageren op klachten en de privacy van individuen beter te beschermen.
Aansluiting bij de NO FAKES Act
De nieuwe beleidswijzigingen zijn in lijn met de NO FAKES Act, een voorgestelde wet die bescherming biedt tegen ongevraagde AI-reproducties van stem en uiterlijk van mensen. OpenAI ondersteunt deze wetgeving als onderdeel van zijn inzet om performers te beschermen.
OpenAI Ondervindt Kritiek
Hoewel OpenAI niet de enige aanbieder is van AI-videogeneratoren, ligt het bedrijf onder vuur vanwege zijn aanvankelijke aanpak. Andere vergelijkbare generatoren, zoals Veo 3, hebben al strikte regels om het gebruik van beroemdheden te beperken. OpenAI leerde van de kritiek en maakte aanpassingen om de zorgen van artiesten en het publiek weg te nemen.
Het Ethische Debat Rond AI-Recreaties
De ethiek van AI bij het nabootsen van overleden iconen blijven een punt van discussie. Sommigen zien het als eerbetoon, anderen als ontheiliging. Het blijft een gevoelig onderwerp dat nog veel aandacht nodig heeft bij het ontwikkelen van oplossingen voor de AI-industrie.
Toekomst met Meer Oplossingen
OpenAI blijft zoeken naar een balans tussen technologische innovatie en de bescherming van individuen. De recente aanpassingen zijn een stap in de goede richting, maar verdere ontwikkelingen zijn noodzakelijk. Door samen te werken met artiesten en wetgevers wil OpenAI die balans verbeteren en meer vertrouwen opbouwen in hun technologie.
Dit artikel is tot stand gekomen met behulp van AI en gecontroleerd door onze redactie.
Referentie: https://aiwereld.nl







