Jak inteligentne mówcy AI, takie jak Alexa i Siri, wzmacniają uprzedzenia związane z płcią?
Unesco wzywa firmy technologiczne do oferowania neutralnych płciowo wersji ich asystentów głosowych

HomePod firmy Apple jest zasilany przez asystenta głosowego Siri
Justin Sullivan/Getty Images
Według nowego raportu ONZ inteligentne głośniki zasilane przez asystentów głosowych sztucznej inteligencji (AI), które brzmią jak kobiety, wzmacniają uprzedzenia związane z płcią.
Badania przeprowadzone przez Unesco (Organizacja Narodów Zjednoczonych ds. Edukacji, Nauki i Kultury) wykazały, że asystenci AI, tacy jak Alexa z Amazona i Siri z Apple, utrwalają ideę, że kobiety powinny być służalcze i tolerować złe traktowanie, ponieważ systemy są zobowiązujące i chętne do zadowolenia, The Daily Telegraph raporty.
Raport – zatytułowany „Zarumieniłbym się, gdybym mógł, w odniesieniu do frazy wypowiedzianej przez Siri po komentarzu o charakterze seksualnym” – mówi, że firmy technologiczne, które domyślnie czynią swoje asystentki głosowe kobietami, sugerują, że kobiety są posłusznymi pomocnikami, które mogą być dostępne za dotknięciem jednego przycisku, dodaje gazeta.
Agencja oskarża również firmy technologiczne o niewbudowanie odpowiednich zabezpieczeń przed wrogim, obraźliwym i płciowym językiem, raporty Pogranicze .
Zamiast tego większość sztucznej inteligencji odpowiada na agresywne komentarze chytrym żartem, zauważa serwis informacyjny. Na przykład poproszony o zrobienie kanapki Siri mówi: Nie mogę. Nie mam żadnych przypraw.
Firmy takie jak Apple i Amazon, zatrudniające głównie męskie zespoły inżynierów, zbudowały systemy sztucznej inteligencji, które powodują, że ich feminizowane cyfrowe asystentki witają słowne nadużycia flirtem typu „złap mnie, jeśli potrafisz”, czytamy w raporcie Unesco.
Co znalazły inne badania?
Raport Unesco przytacza szereg badań, w tym badania przeprowadzone przez amerykańską firmę technologiczną Robin Labs, które sugerują, że co najmniej 5% interakcji z asystentami głosowymi ma jednoznacznie seksualny charakter.
Firma, która opracowuje asystentów cyfrowych, uważa, że liczba ta prawdopodobnie będzie znacznie wyższa ze względu na trudności w wykrywaniu mowy z podtekstem seksualnym. Opiekun raporty.
Agencja ONZ wskazuje również na badanie przeprowadzone przez firmę badawczą Gartner, która przewiduje, że do 2020 r. ludzie będą prowadzić więcej rozmów z asystentem głosowym w inteligentnym głośniku niż ich małżonkowie.
Asystenci głosowi zarządzają już około miliardem zadań miesięcznie, od odtwarzania piosenek po kontakt ze służbami ratunkowymi.
Chociaż niektóre systemy umożliwiają użytkownikom zmianę płci asystenta głosowego, większość domyślnie aktywuje oczywiście głosy żeńskie, BBC raporty.
Raport Unesco stwierdza, że ta pozorna stronniczość ze względu na płeć zasługuje na pilną uwagę.
Jak firmy technologiczne mogą rozwiązać ten problem?
Unesco twierdzi, że należy wymagać od firm, aby ich asystenci głosowi ogłaszali, że nie są ludźmi, gdy wchodzą w interakcje z ludźmi, raporty Czasy niedzielne .
Agencja sugeruje również, że użytkownicy powinni mieć możliwość wybrania płci swojego asystenta głosowego, gdy otrzymają nowe urządzenie i że powinna być dostępna opcja neutralna pod względem płci, dodaje gazeta.
Ponadto firmy technologiczne powinny zaprogramować asystentów głosowych, aby potępiali nadużycia werbalne lub molestowanie seksualne odpowiedziami typu „nie” lub nieodpowiednimi, mówi Unesco.
Firmy technologiczne muszą jeszcze odpowiedzieć na badanie.