Jednym z elementów raportu są zalecenia dotyczące najbardziej rozpowszechnionych uprzedzeń związanych z wykorzystaniem technologii AI w aplikacjach będących asystentami głosowymi (np. Siri, Alexa, Google Assistant). Główne zalecenie to zakończenie praktyki polegającej na domyślnym ustawianiu kobiecych głosów w tego rodzaju oprogramowaniu.

Tytuł publikacji to „I’d Blush if I Could„, czyli „gdybym mogła, to bym się zarumieniła„. Takiej odpowiedzi udzielała Siri, gdy była wulgarnie obrażana przez użytkownika, a miało to miejsce prawdopodobnie miliardy razy. Innymi słowy, Apple wie kiedy jesteśmy źli i jakiego wówczas używamy słownictwa. Google Assistant i Alexa z resztą też.

Neutralna płeć maszyny

Publikacja zawiera zalecenia dla firm i rządów. Najważniejsze to zakończenie praktyki ustawiania płci żeńskiej jako domyślnej w aplikacjach będących asystentami użytkownika (np. w chatach, obsłudze telefonicznej, itp). Kolejne zalecenie to opracowanie neutralnej „płci maszynowej”, która nie będzie ani mężczyzną, ani kobietą.

Kolejne to takie programowanie aplikacji, by zniechęcały do stosowania obelg i ogólnie szeroko rozumianego hejtu. Ponadto rządy powinny dostosować prawo tak, by operatorzy asystentów głosowych wykorzystujących technologię sztucznej inteligencji, na wstępie informowali użytkowników, że mają oni do czynienia z maszyną, a nie z człowiekiem.

Czy kserokopiarka koniecznie musi mówić kobiecym głosem?

Raport kładzie duży nacisk na zwiększenie dostępności kobiet do zawodów i projektów zajmujących się tworzeniem technologii opartych na sztucznej inteligencji. Chodzi o to, by kobiety również mogły rozwijać swoje umiejętności cyfrowe.

Problem na pierwszy rzut oka wydaje się błahy, ale wbrew pozorom istnieje. UNESCO zwraca uwagę, że to w jaki sposób programowani i postrzegani są asystenci głosowi, bardzo często jest wynikiem uprzedzeń tworzących je zespołów. W świecie powszechnego IoT asystenci głosowi wykorzystujący kobiece głosy bardzo często domyślnie instalowani są np. w urządzeniach kojarzonych z pracami domowymi. To z kolei oddziałuje na postrzeganie roli kobiet w społeczeństwie i koło się zamyka. To jak rozmawiamy z maszynami może mieć potem wpływ na nasze postawy względem innych ludzi. Osobowość asystentów głosowych jako typowo kobieca, instalowana np. w urządzeniach biurowych, niejako automatycznie sprawia, że wielu ludzi zaczyna postrzegać kobiety w sposób dyskryminujący.

Więcej kobiet zajmujących się sztuczna inteligencją

Rozwiązaniem tego problemu może być zwiększenie równowagi płci w zespołach tworzących sztuczną inteligencję. Jest to trudne, ale należy podjąć działania, które zwiększą odsetek kobiet przy tego typu projektach – obecnie wynosi on ok. 12% wśród naukowców i tylko 6% wśród twórców oprogramowania. Można argumentować, że ma to swoje obiektywne uzasadnienie, ale nie wyklucza to konieczności zwiększenia dbałości o upowszechnienie umiejętności cyfrowych wśród płci pięknej, a można to zrobić np. poprzez przemyślane działania integrujące i wzrost nakładów na edukację.

Jednym z nieoczekiwanych wniosków raportu jest obserwacja, że w krajach gdzie równość płci jest większa, odsetek kobiet dążących do zdobycia zaawansowanych umiejętności potrzebnych do rozwoju kariery w obszarze nowoczesnych technologii, jest znacznie niższy od tego w krajach kojarzonych z dużymi nierównościami.