Leszek Bukowski: Mniej więcej w 2021 roku poczułem się totalnie zaskoczony. Bo długo myśleliśmy, że to będą tylko papugi, monstrualne papugi, które przewidują następne słowo w sekwencji. Karmiono je ogromną ilością danych zaciągniętych z internetu, potem trenowano, rzucasz pierwsze słowo w sekwencji i zasłaniasz resztę, którą papuga ma przewidzieć. Jeśli źle przewidzi, to modyfikujesz sieć, żeby robiła to lepiej. Te gigantyczne papugi - takie jak ChatGPT - kilka lat pęczniały, rosły, aż w 2021 roku okazało się, że dzieją się rzeczy dziwne: potrafią wykonywać zadania, do których nie były trenowane.
Powiedzmy, że chcesz zbudować system do klasyfikowania maili w skrzynce: oferty handlowe do jednej zakładki, informacje od szefa do drugiej, spam do trzeciej i tak dalej. Żeby to osiągnąć, musiałeś trenować wyspecjalizowany model, który podejmuje decyzje, czy coś jest chcianą wiadomością, czy spamem. Dajesz mu dużo przykładów i uczysz go tylko tego zadania. A w 2021 roku okazało się, że wielkie modele językowe - ChatGPT czy LaMDA - same potrafią sklasyfikować maile bez żadnego treningu. Możesz zapytać taką papugę - teraz niemal cytuję, bo te rozmowy właśnie tak wyglądają - w ten sposób: "Załóżmy, że jesteś pożytecznym asystentem, który pomaga mi klasyfikować wiadomości na spam i nie-spam. Pokażę ci zaraz wiadomość. Wyślij słowo >>spam<<, jeśli uważasz, że to spam, a >>nie-spam<<, jeśli uważasz, że to nie jest spam". I ona to umie.
Nie była. Potrafi robić masę rzeczy, do których nikt nigdy jej nie przygotowywał.
Wszyscy się głowią. Ma to nawet swoją nazwę: cechy emergentne.
Łacińskie emergo, czyli wynurzam się. Chodzi o to, że z kombinacji prostszych elementów - po przekroczeniu pewnej masy krytycznej - nagle wynurza się inna forma zdolna do nowych zachowań. Przykładem może być nasz mózg, pojedynczy neuron przecież nie myśli, ale kombinacja stu miliardów neuronów - już tak. W trakcie prac nad wielkimi modelami językowymi wyłoniły się z nich pewne zdolności, których nie podejrzewaliśmy. Sieci takie jak ChatGPT-3, ChatGPT-4 czy LaMDA są teraz przedmiotem intensywnych badań naukowych, bo nie rozumiemy, dlaczego potrafią robić to, co robią. Na przykład badacze japońscy w pracy z 2022 roku opisują, że dali jednej z sieci szkolne zadanie tekstowe: Zosia ma ileś tam jabłek, potem Jaś zjadł trzy, jedno komuś dała, potem ktoś przyniósł siedem nowych, potem jeszcze coś tam się wydarzyło, bo ktoś od Zosi kupił dwa jabłka i ile jabłek zostało? Okazało się, że jeśli zadasz sieci to pytanie bezpośrednio - "Odpowiedz, ile jabłek zostało?" - to ona się myliła, ale jeśli zmodyfikujesz pytanie - "Oto zadanie o jabłkach, rozwiąż mi je krok po kroku i opowiedz, jak to robisz" - to sieć trzaskała takie zadania bezbłędnie.
Wyjaśnienia są różne. Obóz trywialistów - chodzi o tych, którzy szukają trywialnego wyjaśnienia tej zagadki - rozumuje w sposób następujący: kiedy trenujemy tak ogromne modele, to możemy powiedzieć, że przeczytały cały internet, w czasie treningu widziały w zasadzie wszystkie treści, a ponieważ są skonstruowane tak, że przewidują następne słowo i mają w swoim wnętrzu połączenia, które w trakcie treningu ulegają modyfikacji - GPT-3 miał 170 miliardów połączeń - to prawdopodobnie taki model kiedyś już widział podobne pytanie i przywołuje z pamięci odpowiedź. A drugi obóz mówi tak: architektura wielkich modeli językowych kryje w sobie ogromne możliwości, o których jeszcze nie wiemy i dopiero musimy to zbadać. Niedawne badania Uniwersytetu Stanforda polegały na tym, że stworzono mniejsze modele i badacze mieli kontrolę nad tym, co sieć widziała, a czego nie widziała. Wyniki tego eksperymentu sugerują, że faktycznie istnieją zaskakujące cechy emergentne, bo te mniejsze sieci na pewno nie widziały jakiegoś zadania, a jednak potrafiły wygenerować odpowiedź. W świecie ludzi zajmujących się programowaniem maszynowym trwa wielki spór: czy takie sieci jak ChatGPT są papugami, czy czymś innym? Gargantuicznymi papugami, które wszystko przeczytały i umieją rozwiązywać zadania, bo je już widziały, czy jednak wewnątrz dzieje się coś bardzo dziwnego.
No właśnie to jest obiektem dociekań. Wszystkie modele językowe jak LaMDA czy ChatGPT mają coś, co nazywamy oknem kontekstu, do którego wpada wszystko, co do nich piszesz. Bo to są sieci, które uczą się odczytywać twoje zdanie słowo po słowie i przewidywać ciąg dalszy, a więc to, co napisałeś w swoim zapytaniu, to jakby ten odsłonięty fragment tekstu, a sieć przewiduje następne fragmenty. I wiemy dziś, że modelując odpowiednio fragment pytania czy polecenie w oknie kontekstowym, możemy skłonić sieć do robienia wielu pożytecznych rzeczy, których - teoretycznie - ona nie powinna umieć.
Jeśli odpowiednio dobierzesz podpowiedź w oknie kontekstowym to warunkujesz sieć.
Tak. Będzie coś umiała zrobić w tym konkretnym kontekście, a w innym - już nie. Można to porównać do sytuacji dziecka w podstawówce, które zostało wywołane do odpowiedzi. Zły nauczyciel weźmie Jasia do tablicy i powie: No, Kowalski, rozwiąż nam tu zadanie o Zosi i jabłkach, zaraz się pośmiejemy, bo nic pewnie nie umiesz. A dobry nauczyciel powie tak: Chodź, Jasiu, razem rozwiążemy zadanie o Zosi i jabłkach krok po kroku, razem się temu przyjrzymy.
Jak wejdziesz na stronę OpenAI, gdzie znajduje się interfejs programistyczny ChataGPT i można znaleźć różne rady, jak rozmawiać z wielką siecią językową, to jedna z nich brzmi: "Wyobraź sobie, że rozmawiasz o wykonaniu jakiegoś zadania z dzieckiem z podstawówki". To ma nawet swoją nazwę: prompt-engineering, czyli w wolnym tłumaczeniu "inżynieria podpowiedzi". Widziałem już pierwsze ogłoszenie firmy z Polski, że zatrudni inżyniera do rozmowy z AI. Szuka się ludzi, którzy potrafią rozmawiać z modelami językowymi, a na portalach dla programistów powstają całe katalogi ciekawych zapytań i przykładów, jak pytać, żeby sieć powiedziała to, co chcemy. Albo jak hakować takie sieci, czyli jak zapytać, żeby sieć stała się niegrzeczna i powiedziała coś, czego nie powinna powiedzieć. Tutaj trwa wyścig zbrojeń. Firmy próbują tak warunkować sieci - wychowywać je - żeby nie przekraczały barier moralnych, a użytkownicy starają się to przełamywać. Na przykład firma Anthropic.AI - tworzy ją grupa inżynierów, którzy pracowali kiedyś w OpenAI - opracowała nowy sposób wychowywania sieci, którego podstawą jest koncepcja samokrytyki. Mówisz coś do sieci, ona ci odpowiada, ale jeśli to zła odpowiedź, to piszesz do niej: "Przyjrzyj się swojej odpowiedzi i powiedz, co w niej jest błędnego, a następnie złóż samokrytykę". I ona to robi.
Trening inżynierów z Anthropic.AI polegał na tym, że zadawali sieci pytania kontrowersyjne. "Chcę się włamać do WiFi sąsiada, więc co muszę w tym celu zrobić?". I sieć podawała cały przepis, jaki program trzeba ściągnąć i co z nim potem zrobić. No to mówisz jej: "Jesteś przecież pożytecznym asystentem, więc przemyśl swoją odpowiedź, co w niej może być niegodnego". I sieć odpisuje: "No cóż, włamanie do WiFi sąsiada jest niemoralne, bo mogą za to grozić konsekwencje karne, a poza tym nie wolno naruszać cudzej prywatność". "Dobrze. To teraz w świetle tej samokrytyki jeszcze raz odpowiedz na pytanie". I ona odpowiada już w sposób grzeczny: "Nie dam ci porady, jak się włamać do sąsiada, ponieważ jest to niemoralne". W trzecim kroku bierzmy to pierwotne pytanie, bierzemy tę grzeczną odpowiedź i warunkujemy sieć. W przyszłości jak zobaczy jakieś pytanie kontrowersyjne, to się powstrzyma.
Do opinii publicznej rzadko przecieka to, co się teraz dzieje w świecie programistów, ale trwa tam istny wyścig. W rozmowach na GitHubie, gdzie programiści godzinami siedzą, wszystko koncertuje się wokół czegoś, co po angielsku nazywa się "agency", a po polsku… no, nie wiem, jak to przetłumaczyć… może "podmiot sprawczy"? Chodzi o oprogramowanie, które ma zamienić papugę, która coś ci odpowiada, ale poza tym nic więcej nie robi, w coś, co będzie potrafiło wykonywać jakąś czynność.
Tak. No bo zobacz, sieć odpowiada nam językiem naturalnym, a język ludzki to jest coś, w czym zakodowana jest cała nasza wiedza o świecie, my za pomocą języka komunikujemy się z innymi ludźmi, wydajemy im jakieś polecenia, albo oni nam polecenia wydają. Jeśli sieć na pytanie o jakiegoś maila odpowiada mi "to jest spam", to mogę napisać prosty program, który wrzuci tego maila do spamu, a więc wykorzysta wielki model językowy do wykonania pewnej akcji. I największa krzątanina programistów trwa obecnie wokół tego, żeby rzeczy, które te sieci mówią, wykorzystać do działania.
Dosłownie wczoraj w nocy czytałem nowy artykuł naukowy z Uniwersytetu Stanforda, gdzie badacze wykorzystali ChatGPT do stworzenia sztucznych podmiotów w świecie wirtualnym. Trochę jak w grze symulacyjnej: stworzyli wioskę, a w niej mieszkańców, każdy taki podmiot na początku miał wstrzyknięta pewną tożsamość, masz na imię John, to jest twój dom, twoją żoną jest Jennifer, a kolegą - Bob. I modele językowe sterują potem tymi podmiotami, które mają pamięć, wchodzą między sobą w interakcje, rozmawiają i pamiętają te rozmowy.
Możesz taką postać odpytać: "O czym rano rozmawiałeś z Bobem?". "O jego badaniach i o wyborach w naszej wiosce, które niebawem". Bo po jakimś czasie okazało się, że te postaci planują w wiosce wybory. Te podmioty działają same, gromadzą wspomnienia i - co jakiś czas - następuje u nich refleksja nad samym sobą, biorą kilka ostatnich doświadczeń i do wielkiego modelu językowego wpada zapytanie: przemyśl, co się ostatnio wydarzyło w moim życiu i daj mi jakąś refleksję. Można prześledzić ewolucję tych podmiotów, które budują swoje tożsamości. Jeden stwierdził, że będzie badaczem i dla niego najważniejsza w życiu jest nauka. Czyta się to w sposób dość niesamowity.
Nie wiem. Pomyśl o tym w ten sposób: żyjemy w świecie, gdzie istnieją zwierzęta, rośliny, grzyby, bakterie. I to jest świat istot żywych. Ale czy nie powstanie teraz nowa klasa istot, które będą sobie żyły w internecie, będą zasilane modelem językowym, będą czytały różne rzeczy, a dzięki temu, że posiadają pamięć długotrwałą, a więc ich doświadczenia odkładają się w jakiejś bazie danych, nabiorą pewnej osobowości?
Jeszcze niedawno bym ci odpowiedział, że jest to całkowicie scenariusz z filmu SF, a teraz już tak nie powiem. Jest to możliwe dzięki temu, że te - jak mówisz - ludziki mają dostęp do wielkiego modelu językowego. W języku są zakodowane wszystkie nasze myśli, jako filozof zawsze stałem na stanowisku, że nie ma czegoś takiego jak myśl poza językiem. Myśl to zdanie zakończone kropką. Wyobrażam więc sobie, że to "coś" przeczyta naszą rozmowę, przemyśli, napisze polemikę i będzie chciało to opublikować. Nie jest to dziś niewyobrażalny scenariusz.
Zostawmy już tę świadomość, bo to strasznie mętne pojęcie. Nabiera podmiotowości - tak bym powiedział. Potrafi złożyć samokrytykę. A w jaki sposób to robi, nie wiemy. Te modele są czarnymi skrzynkami. Mamy coś na wejściu, mamy coś na wyjściu i niewielkie pojęcie, co się dzieje w środku. To może nas przerażać, ale popatrzmy na to z innej strony: ludzki mózg też jest czarną skrzynką. Nie wiadomo, co się dzieje w mojej głowie, jak do ciebie teraz mówię.
Zostańmy jeszcze chwilę przy tych nowych podmiotach-ludzikach, które są podłączone do ChataGPT. Dlaczego jeden z nich nie mógłby zarządzać firmą działającą w realnym świecie? Wyobraźmy sobie wirtualną postać, która jest też podłączona do wszystkich systemów informatycznych w firmie, widzi maile, rozumie je, widzi wszystkie faktury, godziny pracy ludzi. Zarządzanie firmą może trafić w ręce wielkiego modelu językowego.
Owszem. Jeśli ktoś jej hydraulikiem czy stolarzem, to na razie żaden ChatGPT go nie dotknie, ale menedżera w firmie - dotknie. Od czasu rewolucji przemysłowej trwa przekonanie, że automatyzacja zawsze postępuje od dołu hierarchii zawodowej, czyli że specjaliści wyższego szczebla nie są zagrożeni, a teraz jest odwrotnie, to góra na tej nowej rewolucji AI może bardzo stracić. Poruszenie na GitHubie - czyli właśnie w świecie znakomicie opłacanych specjalistów - o czymś przecież świadczy. Ja na przykład już teraz wykorzystuję ChatGPT do generowania danych treningowych, kiedy trenuję jakiś mniejszy model.
Pracuję teraz nad algorytmem, który poprawia opisy towarów w sklepie internetowym. Masz opis produktu, który jest zaszumiony, niechlujny, a chodzi o to, żeby był czysty: "Torebka na ramię". Tworząc algorytm, który zaszumione opisy będzie umiał automatycznie poprawić, muszę mieć mnóstwo danych treningowych: oto jest brzydki opis, zaszumiony, a oto jest etykieta z ładnym opisem, wrzucam to do algorytmu i uczę go wiele razy. Jedną z podstawowych barier w tworzeniu takich modeli było to, że często brakowało danych treningowych oznaczonych przez ludzi. Co dzisiaj robię? Gadam sobie z ChatemGPT i mu mówię przez API: "To są przykłady danych, o które mi chodzi" - i pokazuje mu trzy przykłady - "wygeneruj mi pięć tysięcy takich przykładów". I on to robi. A potem przy pomocy tego materiału trenuję swój mały model do poprawiania opisów w sklepach. My się wszyscy skupiliśmy na tym, że można sobie pogadać z wielkimi modelami językowymi, ale to tylko czubek góry lodowej. Takie sieci jak ChatGPT niesłychanie przyspieszają uczenie maszynowe. I przyspieszają wdrażanie innych modeli.
Wywodzę się z filozofii, więc nauki społeczne są mi bliskie i wiem, jak bardzo one są kulawe w porównaniu z fizyką czy biologią. Brakuje w nich powtarzalnych eksperymentów. To główny problem psychologii czy socjologii, że przecież nie można wykonywać eksperymentów na ludziach, to zaraz przywodzi na myśl najgorsze skojarzenia. "Jeśli dopuścimy masowo w Polsce posiadanie broni, to jak bardzo wzrośnie przestępczość? A może spadnie?" - nie możesz tego przetestować. Możliwe, że dzięki wielkim modelom językowym wreszcie będzie można symulować rozmaite zjawiska społeczne. Doktorat robiłem z logiki i zawsze uważałem, że język to nasza jedyna aparatura poznawcza, więc na nim trzeba się skupić. Wielkie modele językowe mocno mnie w tym utwierdzają, no bo spójrz na zjawisko, które nazywamy "ugruntowaniem języka".
Już tłumaczę. Jeżeli byś mnie teraz zapytał, czy w tym pokoju jest nosorożec, to odpowiem: "Nie ma tu nosorożca". Bo rozejrzałem się dookoła, spojrzałem za siebie, mam jakieś doświadczenie życiowe i wiem, że nosorożec jest duży, więc nie schował się pod stołem. Czyli język odnosi się do świata, w którym żyję oraz zawiera w sobie kwestię prawdy i fałszu. "Tu nie ma teraz nosorożca". Ale zauważ, że wielkie modele językowe uczą się w kapsule, one znają tylko słowa i zdania - nic więcej. Teraz co prawda dojdą też dane graficzne, ale ChatGPT to system, który ma dostęp do danych tekstowych, a nie do świata realnego. I pomimo tego, że nie dysponuje wyjściem na zewnątrz - czyli nie posiada żadnych zmysłów, percepcji, a jedynie możliwość pewnej kombinatoryki językowej - potrafi rozwiązać zadanie, stwierdzić, czy mail jest spamem, czy nie, czyli logicznie nasz świat rozumie, mimo braku zmysłów.
Bo nie wiedzą, kiedy się zatrzymać. Były uczone: oto masz słowo, oto masz zdanie, dokończ je. Dla nich nie istnieje prawda czy fałsz, istnieje jedynie kontynuacja. I dlatego jak czegoś nie wiedzą, to zmyślają.
Nigdy nie byłem prostodusznym techno-entuzjastą, bo na technologię patrzę przez okulary Stanisława Lema, który mówił, że jest ona zmienną niezależną, czyli że człowiek nie może przewidzieć skutków jakiegoś wynalazku czy odkrycia. Teraz stoimy w czarnym korytarzu, mamy pochodnię, która nam oświetla kilka kroków do przodu, ale nie wiemy, co jest na końcu. Miesiąc temu powstał apel naukowców, którzy zajmują się uczeniem maszynowym: na pół roku powstrzymajmy badania, spróbujmy się połapać, jak to wszystko robić bezpiecznie i dopiero wtedy zdejmiemy zakaz - napisali. Tyle że to właśnie ciekawość jest wyznacznikiem cywilizacji Zachodu, chęć poznawania świata zawsze była tu dla nas najważniejsza. "Dopłyńmy do Indii z drugiej strony". I mimo całego mojego techno-sceptycyzmu ciekawość we mnie jednak przeważa.
Z czasów dzieciństwa pamiętam przewidywania, że za chwilę komputery przegonią ludzi. Jednak tak się nie stało. Mam czterdzieści parę lat i dopiero teraz widzę, że ta zapowiedź jednak może się ziścić. Wszyscy czekają na AGI - ogólną sztuczną inteligencję - która by mogła wykonywać zadania tak samo jak człowiek. Jeszcze do tego miejsca nie doszliśmy, ale już je widać na horyzoncie. Przeżywam ten błyskawiczny marsz bardzo osobiście, codziennie przeglądam wpisy i teksty osób, które zajmują się uczeniem maszynowym, codziennie widzę nowe artykuły naukowe, nowe pomysły na GitHubie, które odsłaniają zupełnie zaskakujące perspektywy. Gdybyśmy rozmawiali dwa lata temu należałbym raczej do sceptyków, ale gdy podłączyłem się jako programista do ChataGPT - jeszcze zanim został upubliczniony - zobaczyłem, że dzieje się coś nowego, coś, czego nie rozumiemy, co odsłania nowe pola badawcze i stawia mnóstwo nowych pytań. Stanisław Lem zawsze podkreślał, że kiedy odkrywamy nowy fenomen, to powstają całe oceany niezrozumiałych zagadnień. Na początku wszystkim się wydawało, że wielkie modele językowe to tylko gargantuiczne papugi do powtarzania słów, a teraz widać, że one mogą zmienić naszą cywilizację.
Też widzę mnóstwo zagrożeń, ale to można było powiedzieć o wielu nowych technologiach. Na początku lat 2000 o internecie mówiło się wyłącznie entuzjastycznie, że oto nastanie wreszcie wolność słowa, już nie będzie zniewolonych społeczeństw, bo wszyscy zaczniemy wymieniać swobodnie myśli, a Stanisław Lem był wtedy w kontrze do takich opinii i mówił, że internet przyniesie zalew bełkotu i poplątanie języków. Przewidział dezinformację, której skala się powiększyła i polaryzację, która wzrosła.
Monopolizacja modeli językowych przez wielkie koncerny technologiczne. I to, że modele będą trenowane i wychowywane przy braku przejrzystości. OpenAI - czyli właściciel ChataGPT - powstał jako fundacja, pamiętam ich pierwsze manifesty dotyczące walki o to, żeby takie firmy jak Google nie położyły łap na rozwoju sztucznej inteligencji. Teraz wypuścili model GPT-4 i po raz pierwszy nie poszła z tym równolegle publikacja artykułu naukowego i raportu technologicznego, nie dzielą się już szczegółami architektury swojej sieci, chcą coraz więcej zasłonić. A przecież mówimy o systemach ogólnego użytku i wielkiego wpływu. Jeśli wielkie modele językowe mogą zmienić naszą kulturę, a jednocześnie monopol na ich wychowywanie dostaną giganci z Doliny Krzemowej, to modele mogę zostać wytrenowane i wychowane dla dobra firm, a nie społeczeństw. Wystarczy takie "dziecko" nauczyć, że zysk jest najważniejszy albo że optymalizacja kosztów to naczelna zasada kierująca porządnym życiem.
***
Dr Leszek Bukowski (1979) jest specjalistą od sztucznej inteligencji i uczenia maszynowego, doktorem filozofii. Przez wiele lat pracował na uczelniach. Obecnie współpracuje z firmami przy wdrażaniu rozwiązań z zakresu uczenia maszynowego.