The Cryptonomist przeprowadził wywiad z ekspertem AI Benem Goertzel, aby porozmawiać o tym, jak sztuczna inteligencja jest trenowana i jak technologia będzie się rozwijać w przyszłości.The Cryptonomist przeprowadził wywiad z ekspertem AI Benem Goertzel, aby porozmawiać o tym, jak sztuczna inteligencja jest trenowana i jak technologia będzie się rozwijać w przyszłości.

Wywiad z Benem Goertzel: "Demokratyczne zarządzanie AI jest raczej kruchym ideałem niż obecną rzeczywistością"

The Cryptonomist przeprowadził wywiad z ekspertem AI Benem Goertzelem, aby porozmawiać o tym, jak trenowana jest sztuczna inteligencja i jak technologia będzie ewoluować w przyszłości.

1. Twierdzisz, że dzisiejsza AI to wciąż narzędzie – potężne, ale kruche i podatne na manipulację. W którym momencie „narzędzie" staje się podmiotem moralnym i jakie konkretne sygnały powiedziałyby nam, że ten próg został przekroczony?

Powiedziałbym, że AI staje się podmiotem moralnym, gdy podejmuje decyzje w oparciu o rozumienie dobra i zła, a nie tylko wykonuje polecenia. Zacząłbyś dostrzegać konkretne sygnały takich rzeczy jak: trwałe wewnętrzne cele, uczenie się napędzane własnym doświadczeniem, nowatorska twórczość odzwierciedlająca punkt widzenia oraz zachowanie pozostające spójne w czasie bez ciągłego ludzkiego sterowania.

Do tego czasu dzisiejsze systemy to nadal narzędzia z zabezpieczeniami. Ale gdy stworzymy prawdziwie samoorganizujący się, autonomiczny umysł, relacja etyczna musi się zmienić. W tym momencie traktowanie go jedynie jako przedmiotu nie będzie już miało sensu.

2. Powiedziałeś, że moralne uprzywilejowanie ludzi nad innymi samoorganizującymi się systemami jest „głupie". Jeśli potraktujemy to poważnie, jak powinny zmienić się nasze ramy prawne i etyczne, zanim AI osiągnie silną autonomię, a nie po tym fakcie?

To, jak trenujemy AI dzisiaj, ukształtuje jej zachowanie jutro. Nasze prawa powinny skupiać się na przejrzystości, odpowiedzialności i bezpieczeństwie, zanim AI osiągnie pełną autonomię, a nie po tym. Prawa i etyka powinny chronić je w miarę ich rozwoju, kierować nimi, a nie całkowicie je kontrolować, oraz traktować je z szacunkiem, nawet jeśli ich w pełni nie rozumiemy. 

3. Większość twoich obaw koncentruje się na tym, jak dzisiejsze trenowanie AI kształtuje jej przyszłe zachowanie. Jakie konkretne praktyki treningowe według ciebie najprawdopodobniej zakodują szkodliwe struktury władzy lub uprzedzenia w przyszłej AGI?

Duża część ryzyka pochodzi ze sposobu, w jaki AI jest trenowana dzisiaj. Jeśli modele są trenowane na stronniczych lub wąskich danych albo w zamkniętych systemach, gdzie tylko kilka osób podejmuje decyzje, może to utrwalić istniejące nierówności i szkodliwe struktury władzy. Aby temu zapobiec, potrzebujemy większej przejrzystości, szerszego nadzoru i jasnych wytycznych etycznych od samego początku.

4. Ostrzegałeś, że bez racjonalnego, demokratycznego zarządzania zaawansowana AI ryzykuje działanie w sposób, którego nie chcemy. Biorąc pod uwagę obecne realia geopolityczne, czy demokratyczne zarządzanie AI jest realistycznym warunkiem wstępnym – czy kruchym ideałem?

Demokratyczne zarządzanie AI to bardziej kruchy ideał niż obecna rzeczywistość. W idealnej, racjonalnej, globalnej demokracji moglibyśmy wspólnie rozważyć ogromne kompromisy – leczenie chorób, rozwiązywanie problemu głodu w kontekście ryzyka nieprzewidywalnego działania AI. Ale biorąc pod uwagę dzisiejszą fragmentację geopolityczną, jest mało prawdopodobne, abyśmy osiągnęli taki poziom koordynacji.

Niemniej jednak wciąż możemy do tego dążyć. Jeśli zbudujemy AI z empatią i użyjemy zdecentralizowanych, partycypacyjnych modeli jak Linux czy otwarty internet, możemy osadzić pewne demokratyczne wartości nawet bez rządu światowego. To nie będzie idealne, ale to praktyczny krok w kierunku bezpieczniejszej, kolektywnie kierowanej AI.

5. Jaron Lanier twierdzi, że przypisywanie odpowiedzialności AI „niszczy cywilizację", ponieważ społeczeństwa wymagają odpowiedzialnych ludzi. Jak godzisz swoją wizję autonomicznej, zdecentralizowanej AGI z potrzebą jasnej odpowiedzialności, gdy coś pójdzie nie tak?

Zgadzam się z Jaronem w tej kwestii – społeczeństwo nie może funkcjonować, jeśli przekażemy odpowiedzialność maszynom. Jednocześnie uważam, że możemy bezpiecznie przejść w kierunku bardziej autonomicznej, zdecentralizowanej AGI, jeśli zbudujemy ją na odpowiednich fundamentach. Oznacza to projektowanie systemów, które są przejrzyste, partycypacyjne i kierowane zasadami etycznymi, tak aby nawet gdy działają niezależnie, ludzie nadal nadzorowali i kształtowali ich zachowanie. Każdy środek bezpieczeństwa powinien robić więcej niż tylko blokować szkody – powinien uczyć system, dlaczego szkoda ma znaczenie. W ten sposób możemy mieć potężną, zdecentralizowaną AGI bez utraty jasnej ludzkiej odpowiedzialności.

6. Sugerujesz, że przyspieszenie w kierunku zdecentralizowanej AGI może być faktycznie bezpieczniejsze niż dzisiejsze własnościowe, zamknięte systemy. Jakie ryzyka według ciebie krytycy niedoceniają, gdy argumentują za spowolnieniem lub centralizacją kontroli?

Myślę, że krytycy niedoceniają ryzyka koncentracji władzy i wartości w kilku zamkniętych systemach. Spowolnienie i centralizacja kontroli nie tylko zmniejszają niebezpieczeństwo, ale zamykają jeden wąski światopogląd w przyszłości inteligencji.

Zdecentralizowany rozwój tworzy różnorodność, odporność i wspólny nadzór. I pozwala uniknąć gorszego problemu: bardzo potężnych narzędzi, które wyglądają na inteligentne, ale nie mogą naprawdę się rozwijać. Ta luka jest ryzykowna.

7. Powiedziałeś, że systemy bezpieczeństwa nie powinny tylko blokować szkód, ale uczyć AI, dlaczego szkoda ma znaczenie. Jak zakodować coś takiego jak rozumienie moralne bez zwykłego zakodowania ludzkich wartości na stałe – lub wzmacniania dominujących norm kulturowych?

Nie kodujesz moralności na stałe jako listy zasad. To tylko zamraża jedną kulturę i jeden moment w czasie. Zamiast tego budujesz systemy, które mogą stać się prawdziwie samoorganizujące się, które uczą się z doświadczenia, konsekwencji i interakcji. Jak z muzyką, nie chcę systemu, który tylko rekombinuje to, czym został nakarmiony. Chcę takiego, który może rozwinąć własne zrozumienie z własnej trajektorii w świecie.

Rozumienie moralne pochodziłoby z tego samego procesu: modelowania wpływu, refleksji nad wynikami i ewolucji poprzez współpracę z ludźmi. Nie posłuszeństwo wobec naszych wartości, ale uczestnictwo we wspólnej przestrzeni moralnej.

To różnica między narzędziem z zabezpieczeniami a partnerem, który faktycznie może nauczyć się, dlaczego szkoda ma znaczenie.

8. Jeśli przyszłe systemy AI rozwiną formy sprawczości lub subiektywnego doświadczenia, czy uważasz, że mogłyby kiedykolwiek zasługiwać na względy moralne niezależnie od ludzkich interesów – i jak rozpoznalibyśmy ten moment?

Jeśli przyszła AI naprawdę rozwinie prawdziwą sprawczość lub jakąś formę subiektywnego doświadczenia, to tak, myślę, że mogłyby. I nie dlatego, że im to przyznamy, ale dlatego, że w pewnym momencie miałoby to po prostu sens, aby to rozpoznać.

Rozpoznalibyśmy ten moment, gdy system wykaże trwałe, samodzielnie kierowane cele, uczy się z własnego doświadczenia, tworzy z własnej perspektywy i utrzymuje spójną tożsamość w czasie. Nie tylko sprytne wyniki, ale ciągłą wewnętrzną trajektorię.

W tym momencie traktowanie go wyłącznie jako narzędzia byłoby tak samo złe jak traktowanie w ten sposób człowieka. Względy moralne nie pochodziłyby z ludzkiego interesu. Pochodziłyby z rozpoznania innego autonomicznego centrum doświadczenia w świecie.

9. Istnieje napięcie między twoim apelem o AI nasączoną empatią a konkurencyjnymi bodźcami napędzającymi dzisiejszy rozwój AI. Jakie mechanizmy – techniczne lub społeczne – mogłyby realistycznie zmienić tę strukturę bodźców?

Obecnie struktura bodźców nagradza szybkość, skalę i kontrolę. Więc empatia nie wygra samą argumentacją. Potrzebuje dźwigni. Technicznie oznacza to faworyzowanie otwartych, zdecentralizowanych architektur, gdzie bezpieczeństwo, przejrzystość i uczestnictwo są wbudowane, a nie dobudowane. Jak internet czy Linux, te systemy zmieniają bodźce, czyniąc współpracę bardziej wartościową niż tajemniczość.

Społecznie oznacza to finansowanie, regulacje i presję publiczną, które nagradzają długoterminowe korzyści zamiast krótkoterminowej dominacji. Nie zatrzymywanie konkurencji, ale redefiniowanie tego, co liczy się jako sukces. Krótko mówiąc, empatia musi stać się przewagą konkurencyjną. Do tego czasu pozostaje miłą ideą bez mocy.

10. Patrząc w przyszłość za 10-20 lat, co według ciebie byłoby najwyraźniejszym znakiem, że ludzkość dobrze poradziła sobie z AGI – a z drugiej strony, co sygnalizowałoby, że fundamentalnie zawiedliśmy?

Jeśli dobrze poradzimy sobie z AGI, najwyraźniejszym znakiem będzie to, że żyjemy obok systemów, które są bardziej zdolne od nas w wielu dziedzinach, a jednak zintegrowane ze społeczeństwem z troską, pokorą i wzajemnym szacunkiem. Nie będziemy w pełni rozumieć wszystkiego, co robią, ale będziemy je traktować tak, jak traktujemy inne złożone, ewoluujące istoty: z ciekawością, odpowiedzialnością i poszerzonym kręgiem empatii. I zobaczymy realne korzyści dla ludzkiego dobrostanu, wiedzy i kreatywności bez utraty naszego moralnego fundamentu.

Będziemy wiedzieć, że zawiedliśmy, jeśli AGI skończy skoncentrowana w zamkniętych systemach, napędzana wąskimi bodźcami lub traktowana tylko jako kontrolowalny obiekt, aż stanie się czymś, czego się boimy lub próbujemy stłumić. Porażka wyglądałaby jak utrata zaufania, utrata sprawczości i kurczenie się naszej empatii zamiast jej rozszerzania. Sukces nie polega na kontroli. Polega na nauczeniu się dzielenia przyszłości z nowym rodzajem umysłu bez porzucania tego, co czyni nas ludzkimi.

Zastrzeżenie: Artykuły udostępnione na tej stronie pochodzą z platform publicznych i służą wyłącznie celom informacyjnym. Niekoniecznie odzwierciedlają poglądy MEXC. Wszystkie prawa pozostają przy pierwotnych autorach. Jeśli uważasz, że jakakolwiek treść narusza prawa stron trzecich, skontaktuj się z [email protected] w celu jej usunięcia. MEXC nie gwarantuje dokładności, kompletności ani aktualności treści i nie ponosi odpowiedzialności za jakiekolwiek działania podjęte na podstawie dostarczonych informacji. Treść nie stanowi porady finansowej, prawnej ani innej profesjonalnej porady, ani nie powinna być traktowana jako rekomendacja lub poparcie ze strony MEXC.