Dlaczego Google porzucił swoją tablicę etyki AI tydzień po jej uruchomieniu
Protest pracowników pod adresem kontrowersyjnego członka zarządu prowadzi do zwrotu firmy

Sundar Pichai, dyrektor generalny Google
Justin Sullivan/Getty Images
Google zlikwidowało swoją radę etyki sztucznej inteligencji (AI) zaledwie tydzień po jej uruchomieniu w wyniku reakcji pracowników.
Zewnętrzna Rada Doradcza ds. Zaawansowanych Technologii (ATEAC), rada mająca na celu zapewnienie odpowiedzialnego rozwoju sztucznej inteligencji w gigantze wyszukiwania, składałaby się z ośmiu członków, którzy mieli spotykać się cztery razy w roku, aby ocenić obawy dotyczące produktów AI Google, mówi Vox .
Jednak prawie 2500 pracowników firmy podpisało petycję wzywającą do usunięcia członkini rady Kay Coles James, prezes konserwatywnego think tanku Heritage Foundation, w związku z komentarzami, jakie wygłaszała na temat osób transpłciowych i sceptycyzmu jej organizacji wobec zmian klimatycznych. mówi.
Google wyjaśnia, że jego wersja etyki ceni bliskość władzy nad dobrostanem osób trans, innych osób LGBTQ i imigrantów. Takie stanowisko jest bezpośrednio sprzeczne z wartościami podanymi przez Google.
Petycja kontynuuje, mówiąc, że potencjalne szkody sztucznej inteligencji nie są równomiernie rozłożone i są zgodne z historycznymi wzorcami dyskryminacji i wykluczenia. Twierdzi, że istnieją przypadki, w których sztuczna inteligencja nie rozpoznała osób trans, rozpoznała bardziej kobiece głosy lub zobaczyła kolorowe kobiety.
Google początkowo powiedział, że ATEAC przyniesie różne perspektywy, Opiekun raporty. Wraz z Jamesem w zarządzie znaleźli się eksperci od matematyki, badacz prywatności, dyrektor naczelny firmy zajmującej się dronami i były amerykański dyplomata.
Szef firmy, Sundar Pichai, ogłosił plany powołania rady etyki w zeszłym roku, po tym jak się pojawiła, firma technologiczna brała udział w projekcie drona Pentagon, który wykorzystywał dane z badań Google nad sztuczną inteligencją. Pogranicze raporty.
Google zdecydowało się przerwać prace nad kontrowersyjnym projektem drona zeszłego lata i zobowiązało się, że nigdy nie będzie pracować nad projektami, w których sztuczna inteligencja może być wykorzystywana jako broń lub które naruszają międzynarodowe normy, dodaje serwis techniczny.
Rzecznik firmy powiedział stronie internetowej, że stało się jasne, że w obecnym środowisku ATEAC nie może funkcjonować tak, jak byśmy chcieli.
Kończymy naradę i wracamy do deski kreślarskiej – dodał rzecznik. Nadal będziemy odpowiedzialni w naszej pracy nad ważnymi kwestiami, które porusza sztuczna inteligencja, i znajdziemy różne sposoby uzyskiwania zewnętrznych opinii na te tematy.