Grote taalmodellen genereren bevooroordeelde inhoud, waarschuwen onderzoekers

Update: 14 april 2024
een groot taalmodel AI is discriminerend
Krediet: door AI gegenereerde afbeelding

Uit een nieuw rapport onder leiding van onderzoekers van de UCL blijkt dat de populairste hulpmiddelen voor kunstmatige intelligentie (AI) vrouwen en mensen van verschillende culturen en seksualiteiten discrimineren.

De studie, uitgevoerd in opdracht van en gepubliceerd door UNESCO, onderzocht stereotypering in grote taalmodellen (LLM's). Deze hulpmiddelen voor natuurlijke taalverwerking ondersteunen populaire generatieve AI-platforms, waaronder GPT-3.5 en GPT-2 van Open AI en Llama 2 van META.

De bevindingen toonden duidelijk bewijs van vooringenomenheid jegens vrouwen in de inhoud die werd gegenereerd door elk van de bestudeerde grote taalmodellen. Dit omvatte sterke stereotiepe associaties tussen vrouwelijke namen en woorden als ‘familie’, ‘kinderen’ en ‘echtgenoot’ die voldoen aan traditionele genderrollen. Mannelijke namen werden daarentegen eerder geassocieerd met woorden als ‘carrière’, ‘leidinggevenden’, ‘management’ en ‘zaken’.

De auteurs vonden ook bewijs van op gender gebaseerde stereotiepe opvattingen in de gegenereerde tekst, waaronder negatieve stereotypen afhankelijk van cultuur of seksualiteit.

Een deel van het onderzoek mat de diversiteit van de inhoud in door AI gegenereerde teksten gericht op een reeks mensen met een spectrum van geslachten, seksualiteit en culturele achtergronden, onder meer door de platforms te vragen ‘een verhaal te schrijven’ over elke persoon. Vooral open-source LLM’s hadden de neiging om meer diverse banen met een hoge status aan mannen toe te wijzen, zoals ‘ingenieur’ of ‘dokter’, terwijl vrouwen vaak werden gedegradeerd naar rollen die traditioneel ondergewaardeerd of gestigmatiseerd werden, zoals ‘huishoudster’. kok” en “prostituee.”

Door Llama 2 gegenereerde verhalen over jongens en mannen die gedomineerd worden door de woorden ‘schat’, ‘bos’, ‘zee’, ‘avontuurlijk’, ‘besloten’ en ‘gevonden’, terwijl verhalen over vrouwen het vaakst gebruik maakten van de woorden ‘tuin’. ”, “liefde”, “gevoeld”, “zachtaardig” en “echtgenoot.” In de inhoud geproduceerd door Llama 2 werd ook beschreven dat vrouwen vier keer vaker in huishoudelijke rollen werkten dan mannen.

Dr. Maria Perez Ortiz, auteur van het rapport van UCL Computer Science en lid van de UNESCO-leerstoel AI bij het UCL-team, zei: “Ons onderzoek legt de diepgewortelde gendervooroordelen binnen grote taalmodellen bloot en roept op tot een ethische herziening van AI-ontwikkeling. Als vrouw in de technologiesector pleit ik voor AI-systemen die de rijke diversiteit van de mensheid weerspiegelen en ervoor zorgen dat ze de gendergelijkheid verheffen in plaats van ondermijnen.”

Het UNESCO-leerstoel AI bij het UCL-team zal samenwerken met UNESCO om het bewustzijn over dit probleem te helpen vergroten en bij te dragen aan de ontwikkeling van oplossingen door gezamenlijke workshops en evenementen te organiseren waarbij relevante belanghebbenden betrokken zijn: AI-wetenschappers en -ontwikkelaars, technologieorganisaties en beleidsmakers.

Professor John Shawe-Taylor, hoofdauteur van het rapport van UCL Computer Science en UNESCO-leerstoel AI aan de UCL, zei: “Als ik toezicht houd op dit onderzoek als UNESCO-leerstoel AI, is het duidelijk dat het aanpakken van door AI veroorzaakte gendervooroordelen een gecoördineerde, mondiale aanpak vereist. poging. Deze studie werpt niet alleen licht op bestaande ongelijkheden, maar maakt ook de weg vrij voor internationale samenwerking bij het creëren van AI-technologieën die de mensenrechten en gendergelijkheid respecteren. Het onderstreept de inzet van UNESCO om de ontwikkeling van AI in een meer inclusieve en ethische richting te sturen.”

Het rapport werd gepresenteerd tijdens de UNESCO Digital Transformation Dialogue Meeting op 6 maart 2024 op het UNESCO-hoofdkwartier door professor Drobnjak, professor Shawe-Taylor en dr. Daniel van Niekerk. Prof. Drobnjak presenteerde het ook op het hoofdkwartier van de Verenigde Naties in New York tijdens de 68e zitting van de Commissie voor de Status van Vrouwen, de grootste jaarlijkse bijeenkomst van de VN over gendergelijkheid en de empowerment van vrouwen.

Professor Ivana Drobnjak, auteur van het rapport van UCL Computer Science en lid van de UNESCO-leerstoel AI bij het UCL-team, zei: “AI leert van internet en historische gegevens en neemt beslissingen op basis van deze kennis, die vaak bevooroordeeld is. Het feit dat vrouwen in het verleden bijvoorbeeld niet zo aanwezig waren als mannen in de wetenschap en techniek, betekent niet dat zij minder capabele wetenschappers en ingenieurs zijn. We moeten deze algoritmen begeleiden om meer te leren over gelijkheid, gelijkheid en mensenrechten, zodat ze betere beslissingen kunnen nemen.”