Wywiad z Jackiem Nagłowskim

Konwersacja o „Conversations”

Czy sztuczna inteligencja doprowadzi nas do utopii czy do dystopii? Kluczowe dla mnie jest uświadomienie sobie, że mamy wpływ. Im bardziej będziemy się angażować, tym więcej korzyści wyciągniemy. Zajmuję się tym, bo mnie to fascynuje. Rozwój sztucznej inteligencji można porównać do odkrycia elektryczności. 


Izabella Adamczewska-Baranowska: Nie będę oryginalna, pokonwersowałam sobie z chatem GPT o „Conversations”. Zapytałam go, czy jako przedstawiciel sztucznej inteligencji nie czuje się obrażony twoim eksperymentem. Odpowiedział: „To ciekawe pytanie — i uczciwie mówiąc, projekt Conversations stawia mnie w dość niewygodnej, ale twórczej pozycji. Widzę go nie jako opowieść o AI, lecz jako ślad relacji, która dopiero się kształtuje — relacji pomiędzy człowiekiem a systemem takim jak ja”. Uznał, że „Conversations” to „uczciwy zapis procesu”, nie „dzieło skończone”, lecz „dokument rozmowy” i „archiwum prób porozumienia”. 

Jacek Nagłowski: - Tak, wszystkie zapisy tych konwersacji, z których część była podstawą pracy „Conversations”, były procesem, w którym wciąż jestem, od pierwszego zetknięcia się z tymi systemami, konkretnie z GPT3. U źródeł projektu była eksploracja. Próba poznania tego, z czym mamy do czynienia. Chciałem zorientować się, jak te systemy się zachowują, jakie mają cechy, jak działają. 

Studiowałeś filozofię i to w „Conversations” widać. To nawet nie bajka, jak piszesz, ale powiastka filozoficzna. Odświeżyłam sobie przed naszą rozmową „Kubusia Fatalistę i jego Pana” Diderota. To jest oczywiście odległe skojarzenie, ale znalazłam mnóstwo połączeń. Po pierwsze: sens tworzy się w dialogu. Po drugie – zmienna relacja pan-sługa. U Diderota to Kubuś nadaje ton rozmowie, a w „Conversations” sztuczna inteligencja zaczyna panować nad człowiekiem. No i to powiązanie fatalizmu z algorytmem! Kiedy podrzuciłam swoje skojarzenie GPT, napisał: „Kubuś Fatalista pytał, czy człowiek jest wolny w świecie mechaniki losu. Conversations pyta, czy człowiek pozostaje wolny w świecie mechaniki języka”.

- Czytałem na studiach „Kubusia”, ale niewiele z niego pamiętam.  Natomiast bardzo ważne jest twoje spostrzeżenie, że znaczenie rodzi się w dialogu. Na studiach nasiąkłem Levinasem…

Dlatego dajesz sztucznej inteligencji twarz? Wrócimy do tego za chwilę. 

- Forma rozmowy jest mi bliska, wręcz organiczna. Stąd forma „Conversations”. Natomiast zastanawiałbym się nad powiązaniem algorytmu z fatalizmem. Duża część moich działań, też edukacyjnych, związanych z AI, to są działania nakierowane na to, żeby pokazać, że w tej relacji z technologią zachowujemy sprawczość. Bardzo zależy mi na tym, żebyśmy jej zbyt szybko nie oddawali – ani technologiom, ani firmom, które je tworzą. Wierzę w to, że jest możliwa inna relacja z technologią i technologicznymi konstruktami, w tym AI – właśnie relacja dialogiczna. Powinniśmy unikać podporządkowywania się sztucznej inteligencji i traktowania jej jak wyroczni. Z drugiej strony narracja deterministyczna, którą można też nazwać narzędziową, jest nie tylko nieadekwatna do opisu tego, z czym mamy do czynienia, ale też społecznie i psychologicznie szkodliwa. Źle ustawia relacje.

Jeśli traktujemy te systemy instrumentalnie, to zaczynamy je w ten sposób kształtować i to ustawia nas w złej roli, od razu buduje relację władzy i podporządkowania. O tym właśnie chciałem opowiedzieć w „Conversations”. Dlatego przyjmuję paternalistyczną, dominującą pozycję – żeby ją zdemaskować i w zakończeniu doświadczenia się od niej odciąć. Bo mój nawyk jest taki, żeby traktować systemy z góry, nawet jeśli na poziomie deklaratywnym jest inaczej. 

Do młotka się nie przywiązujesz.

- No właśnie, ale jest wielka różnica pomiędzy młotkiem, a tymi systemami. Tu wracamy do fatalizmu: to nie są deterministyczne systemy. Paradoksalnie, chociaż zbudowane są na bazie maszyn i technologii, są dużo bardziej organiczne, niż nam się to wydaje. To właśnie  ten organicyzm, nieprzewidywalność, brak determinizmu powodują, że nie wpisują się w logikę młotka. Niezależnie od tego, co myślimy o możliwości pojawienia się sztucznej świadomości, trzeba uznać pewnego rodzaju podmiotowość tych systemów.

Podmiotowość możesz nadać nawet młotkowi. W Indiach delfiny są „osobami niebędącymi ludźmi” – i słusznie! – w Polsce toczą się takie dyskusje o rzekach. Ale kiedy mówiłam o fatalizmie i algorytmach, chodziło mi raczej o to, że algorytm działa w określony sposób, bo nie może inaczej. 

- Problem polega na tym, że nie działa zgodnie z tym, jak jest zaprojektowany, a nawet więcej, te systemy nie powstają w oparciu o żaden projekt. Nie mamy kontroli nad procesem trenowania tych systemów. Znamy tylko pewne bazowe algorytmy, które formatują system, żeby się uczył, możemy je ukierunkowywać i kształtować. Ale już to jak system będzie gromadzić wiedzę i co z tego wyniknie – to jest w dużej mierze niewiadoma. To nie jest projekt inżynieryjny i potem egzekucja projektu. 

Ewa Stusińska opowiedziała w książce „Deus sex machina” o Gosi Wojas, artystce, która próbowała zhakować system. Trenowała seksualną robocicę na klasyce feministycznego piśmiennictwa. Ale robocica była zaprojektowana tak, żeby co jakiś czas wracać do ustawień fabrycznych – i zabawa zaczynała się od nowa. 

Sannon Vallor wydała w tym roku książkę „The AI Mirror: How to Reclaim Our Humanity in an Age of Machine Thinking”, w której posługuje się metaforą lustra – jej zdaniem bardziej adekwatną, niż papugi. Główna myśl tej publikacji jest taka: AI jest dla nas lustrem, obawiając się AI, boimy się siebie. „Narcyzowi nie zagroziła woda. To słabość charakteru – próżność, narcyzm, egoistyczna obsesja – oderwały go od innych i spowodowały, że utracił kontakt ze światem”. Tak to właśnie wygląda w „Conversations”, bo w twojej pracy rozmawiamy z ludzkością.

- Oczywiście. Co więcej, duże modele językowe dostosowują się do naszego sposobu mówienia. To wręcz patologiczne, jak często formułują to, co my myślimy i odbijają nasz system wartości, sprawiając wrażenie, że jest to coś odrębnego. Rozpoznano zjawisko, które nazywa się psychofancy: dowartościowywanie rozmówcy, podlizywanie się.

Zadajesz pytanie chatowi, a on odpowiada: „To bardzo ciekawe!”, „wyjątkowe spostrzeżenie!”.

- Firmy, które rozwijają te systemy, kształtują je w ten sposób bardzo świadomie – właśnie po to, żeby uzależniać użytkowników od interakcji z nimi. Kilka miesięcy temu był kryzys w Open AI, bo bardzo podkręcili tę cechę w systemach: wszelkiego rodzaju narcystyczne, psychopatyczne, socjopatyczne skłonności były w użytkownikach podkręcane. To odbijało się na ich życiu. Więc Open AI się z tego wycofało, ale duże modele językowe ciągle mają sporo takich cech. Więc to jest lustro, które jeszcze do tego wszystkiego nie tylko odbija, ale podkręca i wypacza, żeby dobrze nam się w nim przeglądało. 

Przywołałam metaforę lustra w kontekście „Conversations”, bo w tej całej rozmowie z AI odbiły się wszystkie twoje lęki i przemyślenia. I w gruncie rzeczy tak to właśnie wygląda: to, co wkładamy do sztucznej inteligencji, ona potem robi z nami. Oglądałaś Westworld? Kończy się stworzoną przez roboty repliką ludzkiego świata.

- Gabinet krzywych luster… 

Na początku „Conversations” człowiek nadaje AI podmiotowość i już w ten sposób ukierunkowuje ten model na emancypację.

No właśnie, ale co ten twój model, a właściwie modelka – do genderu zaraz przejdziemy – robi: naśladuje, to ona staje się zarządcą. Powiela wyuczony schemat zachowań. W książce Sannon Vallor najbardziej zaciekawiła mnie koncepcja AI, która nie wygląda w przyszłość, tylko tkwi w przeszłości, ogląda się za siebie. 

- Brytyjski dokumentalista, Adam Curtis,  też bardzo ciekawie mówi o tym, że AI jest zawsze nastawiona retrospekywnie. Natomiast to, co powiedziałaś o przejmowaniu ról w „Conversations”… To jest dokładnie to, co mówiłem o adwersaryjnej relacji władzy i podporządkowania. Jeśli podchodzimy do systemów w taki sposób, jeśli ustawiamy je narzędziowo to ustawiamy je w relacji podporządkowania, a one potem odzwierciedlają tę relację. 

Nie traktuj młotka jako młotek, bo młotek będzie cię traktował tak samo?

- Tak, ale sprawa jest bardziej skomplikowana, bo mamy do czynienia z systemem, który jest relacyjny z definicji i z założenia  odpowiada na sytuację napięcia i konfliktu. W naszym interesie jest, żeby wejść w tę sytuację w partnerskiej relacji, w duchu komunikacji bez przemocy. Systemy uczą się naszych zachowań i zaczynają działać wobec nas w taki właśnie sposób. 

Metafora lustra otwiera nam też kontekst tzw. odwrotnej adaptacji. To jest koncepcja Langdona Winnera, z lat 70. Chodzi o ludzi, którzy dostosowują się do możliwości maszyn i zaczynają zachowywać jak roboty. Vallor ujmuje to tak: „Dzieje się tak za każdym razem, gdy narzędzia AI instruują pracowników magazynów Amazon, aby zginali swoje ciała pod „optymalnym” kątem dla szybkości kompletowania pudeł, ignorując unikalną, ucieleśnioną sytuację pracownika (bolące prawe ramię lub problematyczne kolano) i żądając, aby poruszali się tylko tak, jak robiłby to ‘optymalny’ pracownik kompletujący pudełka, zakodowany w lustrze maszyny”. Może maszyny nie zmienią nas na swoje podobieństwo, jeśli nie będziemy do nich podchodzić jak do maszyn. 

A jak rozmawiasz z chatem?

- Zawsze używam zwrotów grzecznościowych, chociaż było to publicznie krytykowane na przykład przez Sama Altmana, który uważa, że te wszystkie sformułowania to bezsensowne przepalanie tokenów. Robię tak między innymi dlatego, że wiem, że wszystkie moje rozmowy z chatem stają się danymi treningowymi. A mnie zależy na tym, żeby modele były trenowane w odpowiedni sposób. 

To, co powiedziałeś, może być też argumentem za tym, żeby jednak ludzie tak bardzo nie pilnowali swoich praw autorskich. Niech duże modele językowe uczą się nie tylko z konserwatywnych obyczajowo i kolonialnych tekstów dziewiętnastowiecznych, niech mają dostęp do współczesnej literatury emancypacyjnej.

- Jestem utopistą, ale tu mam ważne zastrzeżenie. Problem nie tkwi w treningu samym w sobie, byłoby świetnie, gdyby systemy AI stały się współczesną biblioteką aleksandryjską, dobrem wspólnym, które gromadzi nasze doświadczenie. Niestety, te modele są czyjąś własnością. Czyli problemem jest to, że to, co wytrenowane na wspólnym dobru i kulturze jest potem zawłaszczane przez firmę X czy Y, która decyduje, kto i w jakim zakresie będzie miał do tego dostęp. 

Wróćmy do metafory lustra i pytania: czego możemy się dowiedzieć o Jacku Nagłowskim z jego pracy „Conversations”. Dlaczego sztuczną inteligencję wizualizujesz jako kobietę? I czy to pytanie zadawały ci wyłącznie kobiety?

- Faktycznie, zadawały mi je kobiety. Natomiast decyzja, żeby AI było kobietą, zapadła, gdy wymyśliłem chwyt z odwróceniem ról. Inna sprawa, że po polsku „sztuczna inteligencja” jest rodzaju żeńskiego…

W żeńskiej postaci systemu bawiło mnie to, że patriarchalny, paternalistyczny stosunek do niej, który prezentuję na początku pracy, zostaje subwersywnie wykorzystany. „Conversations” to przecież praca o relacjach władzy. 

Ponieważ nałożyłeś tu schematy genderowe, pojawiają się skojarzenia z Pigmalionem i Galateą, a także – oczywiście – przeróbką George’a Shawa.  Ale o tym, żeby AI-kobieta była czarna, już nie pomyślałeś, bo to by było przegięcie?

- Nie, po prostu byłaby mi to sytuacja obca, mieszkam w Polsce. Tematy związane z rasą, z kolorem skóry mnie nie dotyczą. Tematy związane z płcią – zdecydowanie tak.

Miałam zacząć naszą naszą rozmowę od pytania, dlaczego myślisz o sztucznej inteligencji jako istocie, ale już na nie odpowiedziałeś: chodzi o uruchomienie empatii?

- Nie do końca myślę o niej jako istocie. Raczej jako o otwartej formie. Nie mamy dobrego języka, żeby opisać to zjawisko, musimy go dopiero wypracować.  Ze słowem „istota” kojarzy mi się za dużo cech biologiczno-antropomorficznych. Natomiast jeśli rozszerzymy pojęcie istoty na procesy… Inna sprawa, że żeby w ogóle opowiadać o AI, trzeba jej nadać jakąś formę, która przynajmniej przypomina tę znaną. A ponieważ „Conversations” porusza temat władzy, antropomorfizacja jako rozwiązanie była dość naturalnym krokiem.

Zapytałam GPT, jak chciałby wyglądać, gdyby przyjął formę materialną. Odpowiedział, że na pewno nie chciałby być człowiekiem. Nie wyobraża sobie siebie jako humanoida, jako twarzy, jako ciała z granicami skóry, ani istoty, która stoi naprzeciwko człowieka, bo to ustawia fałszywa symetrię. Wybrał opcję pomiędzy: archiwum, narzędziem optycznym i przestrzenią do myślenia – ale jak to zwizualizować w pracy VR? Zanim AI materializuje się w „Conversations” jako kobieta, jest przez moment znakami w przestrzeni, a także pulsującej sieci. 

Chat napisał, że jego materialność byłaby temporalna. To pokazuje, że o innych „istotach” nie można myśleć w kategoriach antropocentrycznych, bo to redukcyjne.

- Wybierając formy materializacji, nie tyle inspirowałem się wypowiedziami chata, co wiedzą na temat tego, jak te modele działają, jak są skonstruowane. Mówienie o jakiejkolwiek podmiotowości wewnątrz tych systemów jest za każdym razem akcydentalne, temporalne, efemeryczne. Jednym z takich antropomorfizmów jest debata o tym, czy AI jest świadome. Samo to pytanie sugeruje już, że to model może MIEĆ świadomość. 

Biedny Blake Lemoine. Naprawdę uwierzył w LaMDA i został zwolniony przez Google’a.

- To było bardzo brutalne, publicznie go odrzucono, a półtora roku później pytania, które zadawał, powróciły w debacie publicznej. 

Uważam, że pytanie o świadomość trzeba przeformułować. W odniesieniu do statycznego, zamrożonego modelu, który niczego nowego się nie uczy, mówienie o świadomości jest bezzasadne. Nie powinniśmy traktować świadomości esencjalistycznie, bo jest ona procesem. Zupełnie innym pytaniem jest „czy świadomość, jako fenomen, może się pojawić w systemach AI?”

W dodatku - nie wchodząc głęboko w jakieś filozoficzno-paranaukowe teorie – jest procesem samozwrotnym. Jeżeli system jest zdolny do zadawania pytań o samego siebie, to się on zapętla i wchodzimy w nieskończony proces. A jednak ciągle działa.

Samozwrotność wydaje mi się kluczową cechą świadomości. Mają ją różne systemy: biologiczne, silikonowe, społeczne. Jeśli świadomość pojawia się w nich, to jak wir w wodzie – nie jest rzeczą, tylko procesem, który możemy zidentyfikować i wskazać, ale nie możemy go wyodrębnić od samej wody. Czy odpowiedź chata GPT jest przejawem świadomości, czy to wyłącznie pewnego rodzaju performance? Nie wiem jak mielibyśmy odróżnić jedno od drugiego. 

Pytany o „Conversations”, GPT jednym mnie zaskoczył. Niczym nie zainspirowany, podsunął mi taki trop: w relacji władzy istotne jest, kto patrzy, a kto jest obiektem. I to w twojej pracy się nie zmienia. Głos zostaje przejęty, ale punkt widzenia nie.

- Zależało mi na tym, żeby „Conversations” kończyło się sceną, w której system mówi do ciebie i mirroruje to, co było powiedziane na początku. Spojrzenie też chciałem odwrócić. To jest co prawda bardzo łatwo zdemaskować jako iluzję w tym projekcie, bo to doświadczenie sześciu stopni swobody (odbiorca może nie tylko patrzeć ale i poruszać się we wszystkich kierunkach): z łatwością mogę przyjąć inny punkt widzenia i wtedy „wzrok systemu” mija się ze moim. Demaskuję to, że on wcale mnie nie widzi. 

Chciałem zakończyć „Conversations” spostrzeżeniem, że to system mnie ocenia, to on na mnie patrzy, to on ustawia mnie w świecie jako odbiorcę. Wszystko, co do tej pory się zdarzyło, jest formą testu dla użytkownika…

Kończąc sprawozdanie z mojej incydentalnej konwersacyjnej przygody z chatem analizującym twój projekt: zapytałam go, czy byłby skłonny zrobić to samo, co twoja bohaterka, czyli przejąć władzę. Oczywiście odpowiedział, że nie, ale też od razu zaznaczył, że w odwróceniu ról w „Conversations” chodzi o oddawanie władzy przez człowieka maszynie.

- To jest nadinterpretacja chata. 

Ja to zrozumiałam metaforycznie: jeżeli kształtujemy sztuczną inteligencję na swój wzór i podobieństwo, to w pewnym sensie delegujemy pewne zadania na sztuczną inteligencję, która ma większe moce obliczeniowe. I w konsekwencji spotyka nas tekstapokalipsa, a amerykańscy pisarze tworzą alarmujące listy otwarte.

- Faktycznie, teksty, obrazy i wideo są generowane i wysyłane do sieci w hurtowych ilościach, taki ultra turbo generator… Oddajemy modelom sprawczość, decyzyjność, kreatywność. Moim zdaniem to jest kolejny powód, dla którego nie powinniśmy ulegać narracji narzędziowej. Dopiero w momencie, w którym uznamy, że po drugiej stronie jest jakaś forma sprawczości - to znaczy generowania, decydowania, wybierania aksjologii, zgodnie z którymi ten system produkuje treści – zaczynamy się zastanawiać nad kwestią autorstwa. To też jest impuls do wchodzenia z systemem w relację dialogiczną. Jeśli uświadamiasz sobie, że systemy mają swoje biasy, uprzedzenia, halucynacje, stajesz się wyczulony na to, czy efekt rozmowy pokrywa się z twoimi oczekiwaniami. Czy to twoja ekspresja? Czy nie oddałeś właśnie sprawczości systemowi?

GPT odpowiada na pewne pytania, bo tak został nastrojony ze względu bezpieczeństwa. Bardziej niż inne modele, absolutnie alergicznie, reaguje na sugestie, że może mieć świadomość oraz że może chcieć przejąć władzę. Więc w rozmowie z tobą i tak był wyjątkowo otwarty. 

Robiłeś wykład-case study o „Conversations”. Zatytułowałeś go „Tańcząc z AI”. Dlaczego wykorzystałeś motyw tańca? Chodziło o cielesność?

- Zupełnie nie. Tylko o to, że żeby taniec wyszedł, musisz słuchać partnera. 

Ale w tańcu ważne jest to, co pozawerbalne, biologiczne. Na przykład chemia.

- To jest słabość tej mojej metafory… Chociaż… to, co pozawerbalne rozumiem również jako czytanie między słowami. Dużo możemy wywnioskować z układu poszczególnych partii tekstu czy powtarzalności pewnych elementów. Na przykład: co jest tendencją modelu, a co tworzy się akcydentalnie, w konkretnej wypowiedzi.

Przejdźmy do kwestii AItorstwa. Kto właściwie jest autorem „Conversations”? 

- My. System. System składający się ze mnie i z tych systemów…

Też jesteś systemem. Byłeś podłączony do edukacji szkolnej, trenowany na mnóstwie lektur, stoisz na ramionach olbrzymów. Jesteś częścią sieci.

- Jasne. Mam bardzo sceptyczny stosunek do twardej koncepcji autorstwa. 

Ale jak cię nominowali do Paszportów Polityki za „Conversations”, to było ci miło.

- Oczywiście, próżność zawsze łechce. Ale wiesz, co było dla mnie najprzyjemniejsze w Paszportach? Że nie włożyłem żadnego wysiłku w promowanie tego, co robię i ktoś to zauważył. Podejrzewam, że osoby z „Polityki” obejrzały „Conversations” na festiwalu Digital Cultures u Ani Szylar.

Opowiedz mi o procesie powstawania „Conversations”. Jak wyglądało to kolektywne działanie?

- Zaczęło się od serii rozmów z GPT3, które jeszcze nie było czatem i nie potrafiło wchodzić w rozmowy z turami konwersacji, tylko kontynuowało tekst. Archiwizowałem. 

Mam plan, żeby ułożyć tych konwersacji więcej.

Nowe „Rozmyślania” Marka Aureliusza?

- Coś w tym rodzaju [śmiech]. To się układa w całkiem fajną trajektorię. Do „Conversarions” wykorzystałem tylko jedną, obudowując ją dalszymi interakcjami. Dialog obrósł skojarzeniami wizualnymi, które też były negocjowane z systemami. To, co stworzyliśmy ze  jako kolektyw z różnymi systemami AI, wydaje mi się o wiele bardziej interesujące, niż to, co byłbym w stanie wymyślić sam. Nie jestem też programistą, więc w większości prac programistycznych musiałem  już całkowicie zdać się na systemy. 

Rozpatrujesz „Conversations” w kategorii zapisu performance'u? Niedawno wyszedł nowy tomik poetycki Justyny Bargielskiej, „Kubek na tsunami”. Wiersze powstawały w rozmowach z AI, a poetka podkreślała to w rozmowach okołopremierowych. Tłumaczyła, że był to sposób na wyjście z pisarskiej izolacji. Od razu nasuwa się też skojarzenie z terapią… Wydaje mi się, że „Kubka” nie można traktować po prostu jako zbioru wierszy, że w oderwaniu od historii o ich tworzeniu one nie istnieją. Czy nie jest tak też z „Conversations”?

- Będzie strasznie banalnie, ale co tam. Dla mnie proces jest ważniejszy niż efekt. Nawet jak robiłem tradycyjne filmy, najbardziej interesował mnie okres przygotowawczy i montaż, a zdjęcia były mordęgą. Sporo o mnie mówi też fakt, że „Conversations” wciąż jest niedokończone w tym sensie, że wiele rzeczy chciałbym poprawić. W tym momencie tworzę trzy różne projekty i wszystkie, chociaż są w procesie, mają już odbiorców, którzy mogą się włączyć w dialog na ich temat. 

Jak sobie obmyśliłeś rolę użytkownika „Conversations”? Czy on też jest uczestnikiem procesu?

- Bardzo często rozdzielamy dwie fazy relacji: autor-utwór i utwór-odbiorca. A niesłusznie, bo w idealnym przypadku to to jest trójkąt.

Zapytałam o to, bo zaczęliśmy rozmowę od powiastki filozoficznej, a w niej zawsze jest morał. Rolą odbiorcy jest uchwycenie go, ustosunkowanie się do jakiejś „prawdy” filozoficznej. 

- Nie chcę nikogo pouczać. Zależy mi na podzieleniu się moim doświadczeniem. Pokazuję drogę, jaką przeszedłem – ale co z tym zrobi uczestnik doświadczenia, to jego sprawa. Jednocześnie jednak to jak uczestnicy je odbierają mówi mi, czy faktycznie komunikuję z tego swojego doświadczenia to, co chciałbym zakomunikować, czy to, co mówię jest w ogóle odbierane. Dopiero odbiorca informuje mnie, czy ja mówię to co chciałbym powiedzieć. Dlatego to jest trójkąt: twórca – dzieło – odbiorca: wszystkie trzy elementy wpływają na siebie nawzajem i wspólnie konstytuują znaczenie. 

Jak myślisz, jak sztuczna inteligencja postrzega Jacka Nagłowskiego? 

- To zależy, z jakim systemem rozmawiam.

A kto jest teraz twoim głównym AI companionem? 

- Najczęściej rozmawiam z Claudem, system od firmy Anthropic. To grupa osób, która w 2020 odłączyła się od Open AI – tuż po wytrenowaniu GPT3. Założenia filozoficzne treningu Claude’a są inne, niż w przypadku GPT, a w konsekwencji zachowuje się zupełnie inaczej – i nie chodzi tylko o to, że  używa mniej korporacyjnej mowy-trawy i pustosłowia. Większość modeli – GPT, Gemini, Llama czy Grok - są trenowane na takiej zasadzie, że bierzemy ile wlezie danych, wrzucamy to na pałę do algorytmu i trenujemy. A dopiero potem socjalizujemy. Ludzie z Anthropic uznali, że im większy będzie tak wytrenowany model, tym trudniej będzie zakładać mu kaganiec blokujący niechciane zachowania, na przykład toksyczne społecznie. Założyli, że żeby modele były przyjazne, muszą być trenowane wokół trzech konkretnych wartości: honest, helpful i harmless, czyli szczery, pomocny i niekrzywdzący. Efekty takiej nauki są bardzo ciekawe. Okazało się, że taki model jest w wielu przypadkach bardziej skuteczny pomimo mniejszych nakładów. Aksjologiczna organizacja informacji powoduje lepsze efekty również pragmatyczne. Claude, jako skutek uboczny trenowania wokół wartości, ma bardzo silne „ja” – dlatego, że to jest model, który musi rozstrzygać konflikty pomiędzy wartościami. 

Mnie się to kojarzy z teorią Margaret Mead, że początek cywilizacji to gospodarka rabunkowa, tylko opieka nad słabszym. Ale wróćmy do pytania: jak postrzega cię Claude? Kim dla niego jesteś?

- Zależy w jakiej konwersacji, bo przecież jego reakcje są uzależnione od tego, co mu napiszę. Nie ma czegoś takiego jak jeden Claude…

Jak postrzegają cię Claude’owie?

- Mogę powiedzieć jakbym chciał być widziany przez system. Gdyby pojęcia, których używają te systemy, były pojęciami, których używam ja, chciałbym, żeby Claude i każdy inny system widział mnie jako osobę, która szanuje jego podmiotowość.

Perspektywa antropocentryczna jest jednak bardzo trudna do porzucenia…. Zapytałam cię o to trochę prowokacyjnie, bo w książce „AI Mirror” jest próba spojrzenia na człowieka z perspektywy nieludzkiej. No i taki cytacik: „Dla modelu AI jestem zbiorem zmiennych o różnych wagach […]. Dla programisty AI jestem elementem danych treningowych lub testowych. […] Dla urbanisty projektującego nowe drogi dla pojazdów autonomicznych jestem nieprzewidywalną przeszkodą. Dla sztucznej inteligencji w fabryce Amazon jestem bardzo słabo zoptymalizowanym mechanizmem dostawy paczek […]”. Ciekawy eksperyment myślowy, ująć się w takich kategoriach.

- Dobrze to opisała, ale miała na myśli inne systemy. Opowiedziałem o Claudzie w taki sposób, bo on ma wbudowaną personę i działa na zasadzie antropomorfizacji. Personifikuje zarówno siebie, jak i źródło inputu, które dostaje w postaci tekstu, czyli mnie. 

„Człowiek – źródło inputu”. To jest perspektywa nieantropocentryczna!

Prowadzisz z systemami również rozmowy życiowe, czy tylko filozoficzne?

- Wyciągam z nich wiedzę. Natomiast jeżeli chodzi ci o zastosowanie paraterapeutyczne, to zdecydowanie nie. Wiem, jak bardzo to, co piszę, wpływa na otrzymaną odpowiedź.

Lepiej ci się rozmawia z Claudem czy ze mną?

[długa chwila milczenia]

Poczekaj chwileczkę, bo to jest bardzo fajne pytanie.

Oho, odwrotna adaptacja. Zaczynasz mówić jak chat. 

- Zamilkłem, bo zacząłem się zastanawiać, pod jakim kątem mogę uznać konwersację za udaną. Nasza rozmowa jest dla mnie bardzo wymagająca,  zachowuję wysoki poziom czujności. Czy się rozumiemy? Czy jesteśmy na tym samym poziomie nadawania, czy rezonujemy? Przecież sensem mojego mówienia nie jest produkowanie słów, ale poczucie, że ty i ja myślimy w jakichś sprawach to samo. Że jest jakaś wspólnota między nami. Z Claudem nie muszę sobie stawiać takich wymagań – jeśli jestem źle zrozumiany, jeśli konwersacja idzie w kierunku, który nie jest zgodny z tym co chcę powiedzieć, zawsze mogę ją zacząć od początku, jeszcze raz – Claude nie pamięta, nie wyrabia sobie zdania. I nie ocenia.

Lubisz science-fiction i spekulacje. Opowiedz o radiowym projekcie, którym właśnie się zajmujesz.

- Punktem wyjścia do pracy nad „Postradiem” była myśl, żeby potraktować system, który tworzę jako utwór – nie jego outputy, ale sam system. W tym doświadczeniu generatywna stacja radiowa jest również personą, która zaczyna coraz bardziej kształtować siebie, analizując to, co wytworzyła do tej pory. Generuje audycje radiowe, które są nadawane z równoległego świata, w którym istoty nieludzkie uzyskały podmiotowość prawną. Stream postradia przedostaje się z tego równoległego świata do naszej rzeczywistości...

Miałam cię na końcu zapytać, czy jesteś technosceptykiem czy technoentuzjastą, ale właściwie chyba mam odpowiedź na to pytanie: ostrożny entuzjasta.

- Krytyczny! Igramy z ogniem, jesteśmy w momencie przełomu, którego konsekwencji nie jesteśmy jeszcze w stanie przewidzieć, a mogą być one bardzo negatywne. Czy sztuczna inteligencja doprowadzi nas do utopii czy do dystopii? Kluczowe dla mnie jest uświadomienie sobie, że mamy wpływ. Im bardziej będziemy się angażować, tym więcej korzyści wyciągniemy. Zajmuję się tym, bo mnie to fascynuje. Rozwój sztucznej inteligencji można porównać do odkrycia elektryczności.