Heb je wat ervoor nodig is om 's werelds mooiste man of vrouw te worden? Ongeveer 6.000 mensen uit meer dan 100 landen denken van wel. De deelnemers stuurden hun foto's in nadat Beauty.AI dit jaar hun schoonheidswedstrijd lanceerde. Wat opmerkelijk was, was niet zozeer de inhoud, maar eerder de juryleden: de "menselijke schoonheid" van de deelnemers werd beoordeeld door complexe algoritmen.
Aangedreven door diepe neurale netwerken - of, "deep learning", een techniek die ook door Facebook en Google wordt gebruikt - baseerde de kunstmatige intelligentie haar beoordelingen op vijf scores, uitgevoerd door vijf juryleden. Het team van algoritmen bestond uit RYNKL, dat de rimpels binnen de leeftijdsgroepen van de deelnemers analyseerde; PIMPL, dat de deelnemers beoordeelde op het aantal puistjes en pigmentvlekken; MADIS, dat de gelijkenissen van mensen vergeleek met modellen binnen hun raciale groep; AntiAgeist, dat het verschil schatte tussen de chronologische leeftijd en de waargenomen leeftijd; en Symmetry Master, dat de symmetrie van het gezicht evalueerde.
Van alle inzendingen kozen de juryleden 44 winnaars. Het bleek echter dat de algoritmen raciale vooringenomenheid vertoonden, aangezien 36 van de winnaars wit waren en slechts één van hen zwart was. Hoewel de meerderheid van de deelnemers wit was, stuurden veel mensen van kleur hun foto's in, waaronder grote groepen uit India en Afrika.
Hoewel het misschien makkelijk is om grapjes te maken over racistische robots (herinner je je Tay nog?), kan de ontstane controverse over het toenemende gebruik van discriminerende AI-systemen desastreuze gevolgen hebben voor minderheden. Een onderzoek van ProPublica ontdekte dat voorspellende criminele software bevooroordeeld is tegen zwarte mensen. Maar daar houdt het niet op. Een ander onderzoek ontdekte dat aanzienlijk minder vrouwen online advertenties kregen voor goedbetaalde banen in vergelijking met mannen. En vorig jaar identificeerde Google Foto's twee Afro-Amerikaanse mensen als gorilla's.
Als reactie op het evenement zei Alex Zhavoronkov, chief science officer van Beauty.AI: “Als je niet zoveel mensen van kleur in de dataset hebt, kun je daadwerkelijk bevooroordeelde resultaten krijgen.” Over de volgende ronde van de AI-schoonheidswedstrijd zei hij: “We zullen proberen het te corrigeren.” Zijn antwoord lijkt een snelle oplossing voor een politiek geladen situatie waarin "proberen" het te verhelpen waarschijnlijk niet voldoende is. De resultaten van de schoonheidswedstrijd roepen vragen op over het toenemende gebruik van algoritmen, voorspellende software en kunstmatige intelligentiesystemen. En daar zijn geen winnaars bij.
Bronnen: The Guardian, Quartz


Comments (0)
Share your thoughts and join the technology debate!
No comments yet
Be the first to share your thoughts!