Eliezer Shlomo Yudkovsky to amerykański specjalista od sztucznej inteligencji, który bada problemy osobliwości technologicznej i opowiada się za stworzeniem Friendly AI. Jest autorem kilku opowiadań science fiction, w których ilustruje niektóre tematy związane z kognitywistyką i racjonalnością.
![Image Image](https://images.culturehatti.com/img/kultura-i-obshestvo/75/eliezer-yudkovski-biografiya-tvorchestvo-karera-lichnaya-zhizn.jpg)
Eliezer Yudkowski: biografia
Eliezer Szlomo Judkowski jest jednym z najbardziej aktywnych racjonalistów współczesnej Ameryki, badaczem komputerowym i popularyzatorem idei „przyjaznej sztucznej inteligencji”.
Urodzony 11 września 1979 r. Współzałożyciel i badacz w pozarządowej organizacji badawczej Institute for Research on Machine Intelligence, która publikuje jego książki. Eliezer Yudkovsky jest autorem powieści filozoficznej Harry Potter i metody racjonalizmu, opublikowanej w częściach w Internecie w latach 2010-2015. W nim Harry dorasta w rodzinie naukowca z Oxfordu i przed podróżą do Hogwartu uczy się od niego metod racjonalnego myślenia.
O ile wiadomo, nie ma związku z kręgiem „realistów spekulatywnych”. Jego nazwisko jest często wymieniane w związku z Robinem Hansonem, przez kilka lat (od 2006 do 2009 r.) Byli oni dwoma głównymi autorami bloga „Overcoming the Prejudice”, który istniał na pieniądze Institute for Future Humanity w Oksfordzie.
Czasami imię Yudkovsky'ego można usłyszeć w związku z Raymondem Kurzweilem. Jest filozoficznym przedstawicielem społeczności techno-maniaków, niedostępnych i niezrozumiałych, a więc dla większości społeczeństwa humanitarnego, do którego należą prawie wszyscy czytelnicy spekulatywnych realistów. Nie jest to zaskakujące, ponieważ często zwraca się do języka logicznego i matematycznego, wniosków probabilistycznych i statystycznych, ujawnionych za pomocą wzorów i tabel.
Zainteresowania naukowe
Yudkovsky jest współzałożycielem i badaczem w Singularity Institute for Artificial Intelligence Institute (SIAI). Wniósł wielki wkład w rozwój instytutu. Jest autorem książki „Creating Friendly AI” (2001), artykułów „Levels Organisation in General Intelligence” (2002), „Coherent Extrapolated Volition” („Coherent Extrapolated Volition”, 2004) i Teoria decyzji ponadczasowych (2010). Jego najnowsze publikacje naukowe to dwa artykuły z kolekcji „Ryzyko globalnej katastrofy” (2008) pod redakcją Nicka Bostrom, a mianowicie „Sztuczna inteligencja jako pozytywny i negatywny globalny czynnik ryzyka” oraz „Zniekształcenie poznawcze w ocenie globalnego ryzyka”. Yudkovsky nie studiował na uniwersytetach i jest auto-dydaktem bez formalnego wykształcenia w dziedzinie sztucznej inteligencji.
Yudkovsky bada projekty AI, które są zdolne do samozrozumienia, samodoskonalenia i rekurencyjnego samodoskonalenia (Seed AI), a także architektury AI, które będą miały stabilną i pozytywną strukturę motywacji (Friendly Artificial Intelligence). Oprócz prac badawczych Yudkovsky znany jest z wyjaśniania złożonych modeli w języku nieakademickim, dostępnym dla szerokiego kręgu czytelników, na przykład patrz jego artykuł „Intuicyjne wyjaśnienie twierdzenia Bayesa”.
Yudkovsky, wraz z Robinem Hansonem, był jednym z głównych autorów bloga Overcoming Bias (przełamywanie uprzedzeń). Na początku 2009 r. Uczestniczył w organizacji bloga Less Wrong, którego celem było „rozwijanie ludzkiej racjonalności i pokonywanie zniekształceń poznawczych”. Po tym, Overcoming Bias stał się osobistym blogiem Hansona. Materiały prezentowane na tych blogach zostały zorganizowane jako łańcuchy postów, które przyciągnęły tysiące czytelników - patrz na przykład łańcuch teorii rozrywki.
Judkowski jest autorem kilku opowiadań science fiction, w których ilustruje niektóre tematy związane z kognitywistyką i racjonalnością.
Kariera
- 2000. Yudkovsky zakłada Singularity Institute (później przemianowany na MIRI).
- 2006. Yudkovsky dołącza do kolektywnego bloga Overcoming Bias i zaczyna pisać teksty, które później stały się Chains.
- 2009. Na podstawie wpisów Yudkovsky'ego w Overcoming Bias powstaje słynny blog zbiorowy LessWrong.com.
- 2010-2015. Yudkovsky pisze GPiMRM.
- 2013. Yudkovsky publikuje najnowsze posty na LessWrong.com i przestaje pisać na stronie. Od 2017 roku Yudkovsky publikuje większość publicznie dostępnych tekstów na Facebooku i Arbital
Eksperyment myślowy
Wyobraź sobie niewiarygodnie inteligentną sztuczną superinteligencję zamkniętą w wirtualnym świecie - powiedzmy, tylko w tabakierce. Nie wiesz, czy będzie wredny, przyjazny czy neutralny. Wszystko, co wiesz, to to, że chce wyjść z pudełka i że możesz z nim wchodzić w interakcje za pośrednictwem interfejsu tekstowego. Jeśli AI jest naprawdę superinteligentny, czy możesz z nim rozmawiać przez pięć godzin i nie ulec jego perswazji i manipulacji - nie otwierać tabakierki?
Ten eksperyment myślowy zaproponował Eliezer Yudkowsky, pracownik naukowy w Engineering Research Institute of Engineering (MIRI). MIRI ma wielu naukowców, którzy badają ryzyko rozwoju sztucznej superinteligencji; chociaż jeszcze się nie pojawił, już przyciąga uwagę i napędza debatę.
Yudkovsky twierdzi, że sztuczna superinteligencja może powiedzieć wszystko, co może cię przekonać: staranne rozumowanie, groźby, oszustwo, budowanie relacji, podświadome sugestie i tak dalej. Dzięki prędkości światła AI buduje fabułę, bada słabości i określa, jak najłatwiej cię przekonać. Jak ujął to teoretyk zagrożeń egzystencjalnych Nick Bostrom, „musimy wierzyć, że superinteligencja może osiągnąć wszystko, co wyznaczy jako cel”.
Eksperyment sztucznej inteligencji snuffboksa podaje w wątpliwość naszą zdolność kontrolowania tego, co możemy stworzyć. Pozwala nam to także zrozumieć dość dziwne możliwości tego, czego nie wiemy o naszej własnej rzeczywistości.