Zaznacz stronę

Przez długi czas wydawało nam się, że interfejs jest naturalnym centrum pracy. Okna, formularze, kolumny, zakładki, raporty i przyciski tworzyły środowisko, w którym człowiek miał poruszać się po systemie tak, by wydobywać z niego informacje, składać je w decyzje i przekładać na działanie. Nauczyliśmy się tej logiki do tego stopnia, że przestaliśmy zadawać sobie pytanie, czy naprawdę obcujemy z istotą procesu, czy tylko z jego historycznie wygodną reprezentacją.

Dziś coraz wyraźniej widać, że graficzny interfejs nie był finałem tej historii. Był raczej bardzo dobrą odpowiedzią na złożoność epoki, w której powstał. Świat systemów stawał się coraz trudniejszy do ogarnięcia, a człowiek nie był w stanie stale utrzymywać w pamięci komend, ścieżek, parametrów i stanów. Trzeba było tę złożoność jakoś zobaczyć, oswoić i uporządkować. GUI zrobiło to w sposób elegancki. Nie było błędem, nie było kaprysem projektowym i nie było pomyłką cywilizacyjną. Było protezą, ale protezą potrzebną.

Problem zaczął się dopiero wtedy, gdy tę protezę uznaliśmy za świat.

Graficzny interfejs uprościł kontakt z maszyną, ale jednocześnie zorganizował pracę wokół ręcznego przemieszczania się między reprezentacjami. Otwieramy jedno okno po to, by skopiować jego zawartość do drugiego. Czytamy dokument, żeby przepisać jego sens do formularza. Patrzymy na tabelę, aby samodzielnie złożyć odpowiedź, którą system mógłby znać już wcześniej, gdyby potrafił lepiej operować na własnych danych. W takim modelu człowiek nie pracuje jeszcze bezpośrednio na sensie, lecz na translacji między warstwami, które same nie potrafią się ze sobą porozumieć.

To właśnie dlatego tak duża część współczesnej pracy biurowej sprawia dziś wrażenie nie tyle trudnej, ile wtórnej. Nie chodzi nawet o wysiłek, ale o strukturę tego wysiłku. Człowiek bardzo często nie tworzy nowej wartości, lecz przenosi kontekst z jednego miejsca do drugiego, pilnuje ciągłości między ekranami i ręcznie spina to, co powinno być powiązane głębiej. GUI rozwiązało problem orientacji, ale uczyniło z użytkownika operatora przejść między fragmentami systemu.

Dlatego tak ważne okazało się pojawienie się modeli językowych. Uderzyły one dokładnie w ten sam problem, ale z innej strony. Nie trzeba już pamiętać, gdzie kliknąć, jak nazywa się funkcja, w której zakładce znajduje się dane pole ani jaką ścieżką dojść do określonego rezultatu. Wystarczy powiedzieć, czego się chce. Z perspektywy człowieka zmęczonego interfejsem wygląda to jak prawdziwy przełom, i w wielu sytuacjach rzeczywiście nim jest.

Łatwo jednak pomylić ten przełom z rozwiązaniem całego problemu. Chat świetnie upraszcza ekspresję intencji, ale nie unosi jeszcze sam z siebie pełnej złożoności pracy. Na krótkim dystansie bywa znakomity. Potrafi streścić, przekształcić, połączyć, wyjaśnić i zasugerować kierunek. Tworzy wrażenie, że po drugiej stronie znajduje się coś, co pamięta, rozumie i prowadzi użytkownika przez bałagan. To wrażenie jest częściowo prawdziwe, ale tylko do pewnego momentu. Gdy rośnie liczba zależności, wyjątków, założeń i warstw, wątek zaczyna się rozmywać. Trzeba dopisywać coraz więcej kontekstu, aby odpowiedzi zachowywały sens, lecz im więcej tego kontekstu dopisujemy, tym bardziej przeciążamy samą formę rozmowy.

I właśnie tutaj odsłania się granica czata. Rozwiązuje on problem wejścia do systemu, ale nie rozwiązuje jeszcze problemu trwałego utrzymania złożoności. Dobrze działa lokalnie, punktowo, na krótszych odcinkach. Gorzej radzi sobie tam, gdzie trzeba stabilnie nieść rozbudowaną strukturę decyzji, relacji i ograniczeń. W takim ujęciu chat okazuje się nie końcem historii, lecz kolejną protezą. GUI było protezą na złożoność, której człowiek nie mógł stale nosić w pamięci. Chat staje się protezą na ciężar samego GUI. To ważny krok, ale wciąż nie jest to warstwa, która rzeczywiście dźwiga cały problem.

Największe nieporozumienie współczesnych rozmów o AI polega chyba na tym, że zakładają one, iż prawdziwa zmiana nastąpi dopiero wtedy, gdy model lepiej „zrozumie chaos”. Tymczasem w wielu obszarach chaos nie leży wcale w danych. Leży raczej w sposobie, w jaki człowiek musi przez te dane przechodzić. W systemach firmowych widać to wyjątkowo wyraźnie. Dla większości użytkowników ERP to zestaw ekranów, kolumn, atrybutów, filtrów i wydruków. Ale dla kogoś, kto zna taki system głębiej, interfejs przestaje być jego istotą. Pod spodem widać model danych, relacje, stany, reguły, procedury, obiekty i zależności. Widać strukturę.

I wtedy pojawia się pytanie, które zmienia wszystko. Skoro model już istnieje, skoro dane są uporządkowane, skoro relacje i logika zostały zamknięte w systemie, to dlaczego człowiek nadal ma ręcznie chodzić po tej strukturze przez ubogą reprezentację ekranów? Dlaczego tak wiele problemów rozwiązuje się dalej przez dodanie kolumny, atrybutu, dodatkowego widoku albo kolejnej instrukcji, skoro istota rzeczy została już wcześniej zamodelowana? To właśnie w tym miejscu GUI zaczyna wyglądać jak historyczne opóźnienie interfejsu wobec modelu. Nie dlatego, że ekran jest zły, ale dlatego, że zbyt długo traktujemy go jak centrum układu, a nie jak cienką powierzchnię nad czymś znacznie głębszym.

Nie oznacza to oczywiście, że człowiek stanie się zbędny. To jeden z najbardziej powierzchownych wniosków, jakie można z tej zmiany wyciągnąć. Człowiek nie jest potrzebny wyłącznie tam, gdzie system czegoś jeszcze nie potrafi. Jest potrzebny również tam, gdzie pojawia się odpowiedzialność, wyjątek, konflikt interesów, ryzyko, polityka działania, audyt i interpretacja skutków. Problem nie polega więc na tym, jak usunąć człowieka z procesu. Problem polega na tym, jak przestać używać człowieka jako ręcznego middleware między fragmentami systemu.

To rozróżnienie jest kluczowe. Dzisiejsza praca bardzo często czyni z człowieka warstwę pośrednią. To on pamięta, co wydarzyło się kilka kroków wcześniej. To on spina sens między ekranami, przepisuje informacje z dokumentów do formularzy, pilnuje, czy kolejne narzędzie nie zgubiło kontekstu, i odpowiada za ciągłość, której system sam nie umie utrzymać. Przyszłość nie musi oznaczać wyeliminowania człowieka. Dużo ważniejsze jest to, by przestał on pełnić rolę kuriera między słabo połączonymi warstwami technologii.

W tym sensie sam „koniec interfejsu” okazuje się tylko połową diagnozy. Interfejs rzeczywiście słabnie. Coraz mniej istotne staje się to, jak znaleźć funkcję, a coraz ważniejsze to, jak wyrazić intencję. Ale jeśli zatrzymamy się na samym czacie, szybko okaże się, że zamieniliśmy jedną protezę na drugą. Zamiast klikać między oknami, będziemy przewijać długie wątki. Zamiast pamiętać strukturę menu, będziemy pamiętać, co już zostało modelowi dopowiedziane. Zamiast ręcznie przenosić kontekst między aplikacjami, zaczniemy ręcznie pilnować, czy AI jeszcze „wie, o co chodzi”.

To nie byłaby jeszcze prawdziwa zmiana. Byłaby to raczej nowa wersja starego ciężaru.

Dlatego następny krok musi pójść dalej. Nie wystarczy sprzęgnąć intencję z rozmową. Trzeba sprzęgnąć ją ze strukturą. Oznacza to systemy, które nie tylko odpowiadają językiem, ale umieją utrzymywać stan, pamiętać decyzje, odróżniać to, co chwilowe, od tego, co konstytutywne, operować na relacjach i pilnować granic działania. Dopiero w takim modelu rozmowa przestaje być samodzielnym środowiskiem pracy, a staje się wejściem do czegoś głębszego: do warstwy, która naprawdę dźwiga złożoność.

Jeśli ten kierunek się utrzyma, zmieni się nie tylko narzędzie, ale sama jednostka pracy. Dziś pracujemy głównie na ekranach, listach, formularzach i widokach. Jutro coraz częściej będziemy pracować na stanach danych, intencjach, regułach, wyjątkach, uprawnieniach i skutkach. To przesunięcie jest głębsze, niż może się wydawać, bo wraz z nim zmienia się również rola człowieka. Z operatora systemu staje się on kimś, kto ustawia cel, rozumie konsekwencje, przejmuje odpowiedzialność i ingeruje tam, gdzie automatyzacja dochodzi do swoich granic.

Nie będzie to świat całkowicie pozbawiony interfejsów. Ale interfejs przestanie być miejscem, w którym naprawdę dzieje się praca. Stanie się raczej tymczasową powierzchnią, przez którą człowiek wchodzi do procesów zachodzących głębiej. To z kolei oznacza koniec pewnej tożsamości zawodowej. Przez lata wartością była znajomość ścieżki: wiedza o tym, gdzie kliknąć, jaki moduł otworzyć, jak obejść ograniczenie systemu, jak znaleźć właściwe pole w odpowiedniej zakładce. W świecie bardziej agentowym coraz mniej będzie liczyć się sama znajomość przejścia, a coraz bardziej rozumienie modelu, celu, wyjątku i granicy.

Jest w tym jednak ryzyko głębsze niż źle zaprojektowany agent czy zbyt szerokie uprawnienia modelu. Największym zagrożeniem nie jest to, że AI zacznie coś robić za nas. Znacznie groźniejsze jest to, że zacznie robić nas bardziej średnimi. Każde narzędzie, które optymalizuje komunikację, ma skłonność do uśredniania człowieka. GUI uśredniało zachowania, bo zamykało działanie w przewidzianych ścieżkach. Redakcja często uśrednia tekst, bo wygładza jego osobliwość do formy bardziej czytelnej i bezpiecznej. Źle użyte AI może pójść jeszcze dalej i zacząć uśredniać nie tylko wypowiedź, ale sam sposób myślenia.

Nie zrobi tego przemocą. Zrobi to przez wygodę. Jeśli system będzie stale proponował wersję bardziej klarowną, bardziej równą, bardziej przewidywalną i bardziej „profesjonalną”, człowiek z czasem zacznie brzmieć nie jak on sam, ale jak wersja siebie przepuszczona przez maszynę. To szczególnie ważne tam, gdzie pisanie, interpretacja i analiza są częścią podmiotowości autora. Narzędzie, które porządkuje proces, może być realnym wzmocnieniem. Ale narzędzie, które w imię porządku neutralizuje osobność, staje się maszyną do produkcji ludzi coraz łatwiejszych do obsługi.

Dlatego przyszłość nie może polegać wyłącznie na coraz sprawniejszym rozmawianiu z AI. Potrzebujemy form, które przejmą ciężar złożoności bez przejmowania człowieka do średniej. To właśnie tutaj zaczyna się temat ważniejszy niż sam „koniec interfejsu”. GUI było odpowiedzią na złożoność, której człowiek nie mógł stale nosić w pamięci. Chat jest odpowiedzią na ciężar GUI. Ale prawdziwa zmiana zaczyna się dopiero wtedy, gdy intencja spotyka się nie tylko z językiem, lecz z uporządkowaną strukturą świata.

To jest punkt, do którego dopiero dochodzimy. Nie żyjemy już w epoce, w której interfejs można uznać za nienaruszalne centrum pracy. Nie weszliśmy jednak jeszcze w świat, w którym sama rozmowa z maszyną wystarcza do niesienia sensu. Jesteśmy pomiędzy. Pomiędzy ekranem a intencją. Pomiędzy klikalnością a agentowością. Pomiędzy wygodą rozmowy a koniecznością utrzymania złożoności.

Dlatego koniec interfejsu nie jest końcem historii. Jest dopiero momentem, w którym po raz pierwszy naprawdę widać, że interfejs był tylko etapem. A po nim nie przychodzi wcale prosty świat rozmowy z maszyną. Przychodzi trudniejsze pytanie o to, jak budować narzędzia, które przejmą ciężar złożoności, nie przejmując zarazem człowieka do średniej.