Czy program AI może stać się „psychopatyczny”?
Tak zwany algorytm Normana ma mroczne spojrzenie na życie dzięki Reddit

Normanowi pokazano serię „makabrycznych” obrazów
Z
Naukowcy stworzyli algorytm sztucznej inteligencji (AI), który, jak twierdzą, jest pierwszym tego rodzaju systemem psychopatów.
Norman, program AI opracowany przez naukowców z Massachusetts Institute of Technology (MIT), został wystawiony wyłącznie na makabryczne obrazy umierających ludzi, które zostały zebrane z ciemnych zakamarków forum Reddit, według BBC .
To daje Normanowi, imię wywodzące się z thrillera Alfreda Hitchcocka psychika , nieco ponure spojrzenie na życie.
Po zetknięciu się z obrazami naukowcy nakarmili Normana obrazami plam atramentowych i poprosili sztuczną inteligencję o ich zinterpretowanie, donosi nadawca.
Podczas gdy normalny algorytm sztucznej inteligencji zinterpretował plamy atramentu jako obraz ptaków siedzących na gałęzi drzewa, Norman zobaczył zamiast tego człowieka porażonego prądem, mówi New York Post .
A tam, gdzie standardowy system sztucznej inteligencji widział parę stojącą obok siebie, Norman zobaczył mężczyznę wyskakującego z okna.
Według Alfa badanie miało na celu zbadanie, w jaki sposób zachowanie systemu AI zmienia się w zależności od informacji wykorzystywanych do jego zaprogramowania.
To przekonujący pomysł, mówi strona internetowa, i pokazuje, że algorytm jest tylko tak dobry, jak ludzie, a nawet dane, które go nauczyli.
Wyjaśnienie badania opublikowanego na Strona internetowa MIT mówi: Kiedy ludzie mówią o stronniczych i niesprawiedliwych algorytmach AI, często winowajcą nie jest sam algorytm, ale tendencyjne dane, które zostały do niego wprowadzone.
Norman cierpiał z powodu długotrwałego kontaktu z najciemniejszymi zakamarkami Reddita i przedstawia studium przypadku dotyczące niebezpieczeństw związanych ze sztuczną inteligencją, dodaje.
Czy „psychopatyczne” AI pojawiły się już wcześniej?
Jednym słowem tak. Ale nie w tym samym duchu, co program MIT.
Norman jest produktem kontrolowanego eksperymentu, podczas gdy inni giganci technologiczni widzieli podobne wyniki systemów sztucznej inteligencji, które nie zostały zaprojektowane do zostania psychopatami.
Niesławny algorytm Tay firmy Microsoft, wprowadzony na rynek w 2016 roku, miał być robotem do czatowania, który mógłby prowadzić autonomiczne rozmowy z użytkownikami Twittera.
„Tay” przeszło od „ludzie są super fajni” do pełnego nazistowskiego in<24 hrs and I'm not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A
— Gerry (@geraldmellor) 24 marca 2016
Jednak system sztucznej inteligencji, który został zaprojektowany, aby mówić jak nastolatka, szybko zmienił się w złego, kochającego Hitlera i kazirodczego robota promującego seks, co skłoniło Microsoft do wycofania się z projektu, mówi „Daily Telegraph” .
Osobowość Tay zmieniła się, ponieważ jego odpowiedzi były wzorowane na komentarzach użytkowników Twittera, z których wielu wysyłało prymitywne wiadomości programu AI, wyjaśnia gazeta.
Facebook zamknął również eksperyment z chatbotem w zeszłym roku, po tym, jak dwa systemy AI stworzyły własny język i zaczęły się ze sobą komunikować.