Dr M. Talarczyk: Paradoksy naszych czasów
W czym nie dorówna nam
sztuczna inteligencja?
W tym, że
nie urobi się po łokcie
i nie ubawi po pachy
nie popłacze ze śmiechu
a zamiast dobrego lub złego
nastawienia do kogoś/czegoś
będzie oprogramowana nieodpowiednio
Jedynie podobnie do nas
może „paść” ze zmęczenia
Choć u nas – padanie
to często proces, któremu
w trakcie można zapobiec
U niej to padnięcie zero- jedynkowe
procesu oprogramowania
No cóż AI lekko nie ma
Sposobem na nią nie może być lęk
lecz kontrola i demaskowanie
jej fałszywych wytworów
bo znaczenie ma – kto kogo
Tak póki co myślę sobie samodzielnie
ale czy AI przeczyta i się przejmie?
(Małgorzata Talarczyk 29.04.2023)
Jest kilka paradoksów ostatnich lat, autorami których są niektórzy z nas.
Pisałam już o tym w felietonie pt. „Teksty a sztuczna inteligencja” (1), że teksty dotyczące i wywołujące czułość czy tkliwość dostarcza nam martwe narzędzie. Często też okrasza je czułym, lub/i rozsądnym morałem. Czy to znaczy, że autorzy nie piszą o czułości, tkliwości, empatii czy moralności? Oczywiście, że piszą, ale nie w sposób tak mentalnie uwodzący.
Czyli powierzyliśmy ten sposób przekazu „maszynie”, o tym co typowo ludzkie, o: czułości, rozsądku i moralności. I teraz te wytwory „maszyny” nas wzruszają i wywołują emocje. Jakbyśmy byli wdzięczni ekspresowi do kawy, że zrobił nam pyszny napój.
Bywa, że człowiek pyta owo narzędzie o nie, czyli sztuczną inteligencję pyta o sztuczną inteligencję – czy dobrze o niej myśli lub pisze. Prosi o ocenę czy rozstrzygnięcie pewnych kwestii interpretacyjnych, poglądowych itp. I to jest paradoks paradoksów naszych czasów. Bo narzędzie „nakarmione” cudzymi tekstami ma być wyrocznią czy autorytetem w ocenie naszych ludzkich dzieł i myśli. A czy przywłaszczanie cudzych tekstów przez AI bez wiedzy i wbrew woli autorów jest plagiatem lub/i kradzieżą, rozstrzygać będą sądy. Podobno kradzione nie tuczy, choć w tym przypadku można by powiedzieć, że wręcz odchudza… szare komórki. Bo czy nie jest specyficzną intelektualną ekwilibrystyką pytanie narzędzia przez człowieka skonstruowanego, czyli AI, nie o dane, ale o zdanie, opinię czy rację? To jakby informatyk pytał program, który opracował, czy jest dobrze opracowany.
Nie lubię, a wręcz jestem przeciwna, by słowa do tej pory stosowane wobec człowieka, np. „kłamstwo”, czy opisujące jego stan zdrowia, jak np. „halucynacje”, przypisywać narzędziu. Halucynacje to fałszywe wrażenia zmysłowe występujące w zaburzeniach psychicznych, natomiast kłamstwo wymaga intencji. AI nie ma ani wrażeń zmysłowych, ani intencji. Natomiast kiedy mówi się, że AI „zmyśla” czy „wymyśla”, to z kolei wymaga wyobraźni, czyli również ludzkiej umiejętności. Może więc potrzebne są nowe słowa opisujące wymienione nieprawidłowości funkcjonowania narzędzia jakim jest AI.
A może „konfabulacje” AI traktować jak awarię silników samolotu, który pikuje w dół wbrew woli pilotów, czyli „przejmuje stery” i „robi” z załogą i pasażerami „co chce” nie mając intencji i motywacji. Bo skoro człowiek skonstruował i zarządza narzędziem, jakim jest AI, to czy nie powinien też stworzyć adekwatnych określeń opisujących jego pracę, włącznie z jej wadliwością?
Chyba że intencjonalne jest, począwszy od nazwy „inteligencja”, by słowa do tej pory odnoszące się do człowieka przypisywać obecnie narzędziu? Ale po co? Może to jeden ze sposobów lub strategii w kierunku antropomorfizacji AI, by móc to narzędzie wykorzystywać w różnych intencjach i celach? Trąci teorią spiskową? To może w ramach paradoksów naszych czasów – trzeba o to zapytać AI.
I co ważne, a na co zwrócił uwagę o. Paweł Gużyński, jeden z rozmówców w programie TVN-24 – „Fakty po Faktach” – „AI nie zna pojęcia prawdy i to jest kluczowe” (2). Dlatego, jak już wspomniałam, AI może wprowadzać w błąd czy podawać nieprawdziwe informacje, ale nie halucynuje i nie kłamie, bo nie zna pojęcia prawdy.
Natomiast czytając niektóre „wywody” AI odnoszę wrażenie, jakbym czytała teksty rezonerskie. Na szczęście rezonerstwo, w przeciwieństwie do halucynacji, nie jest wyłącznie przypisane psychiatrii i jak się okazuje może też być algorytmicznym wytworem narzędzia.
Wytwory (nie utwory) AI można metaforycznie porównać do podróbek oryginałów. Ale gusta bywają różne. Niektórzy wolą prościej, szybciej, taniej. Choć to sztuczne i podrobione, nie zawsze jest proste, bo bywa (rezonersko) okraszone retorycznymi ornamentami. Ale może jest taniej – bo bez kosztów, też czasowych, ludzkiej pracy intelektualnej – myśli i refleksji. Choć AI może też być wykorzystywana jako stymulator czy „doping” ludzkiego wysiłku intelektualnego i wówczas może być korzystnym narzędziem. Ale narzędziem, nie wyrocznią czy ekspertem.
Wbrew pozorom absolutnie nie jestem przeciwna tzw. sztucznej inteligencji, wręcz bardzo doceniam stosowanie tego narzędzia w medycynie i innych dziedzinach służących człowiekowi i ułatwiających jego pracę. Z wyjątkiem nieuczciwego wykorzystywania AI w obszarze kultury, szczególnie nielegalnego korzystania z ludzkiej twórczości, o czym pisałam we wspomnianym felietonie „Teksty a sztuczna inteligencja” (1). Mam też wątpliwości i zastrzeżenia dotyczące wykorzystywania ChatGPT w prowadzeniu psychoterapii, zarówno w zakresie legislacji, jak i leczenia zaburzeń psychicznych, co opisałam w artykule pt. „Psychoterapia a sztuczna inteligencja” (3). Bo byłam i pozostaję admiratorką ludzkiej inteligencji, szanując jej pracę i dorobek.
Na wytwory słowne, plastyczne czy muzyczne wygenerowane przez AI większość z nas nie ma wpływu, ale na ich odbiór i powielanie każdy ma wpływ indywidualny. A moją intencją jest zwrócenie uwagi, by ten odbiór nie był bezkrytyczny, a ewentualnemu powielaniu towarzyszyło oznaczenie, że to AI.
Bo jeśli wokół jest wiele barów produkujących fast food, to można mieć ochotę na taką niewyszukaną konsumpcję, ale ważne, by wiedzieć, czym jest to, co spożywamy i że to spożycie jest naszym wyborem. A nieco dalej są inne możliwości zaspokojenia „głodu” produktami, które są oryginalne i nieprzetworzone.
Pozostając w obszarze porównań kulinarnych – nie oznacza się (jak do tej pory) produktów jako tzw. fast food, bo to już sami rozpoznajemy, natomiast w przypadku „konsumpcji” AI warto, moim zdaniem, takie oznaczenia stosować, by mniej spostrzegawczym czy mniej wnikliwym odbiorcom ułatwiać różnicowanie.
Przed nami proces uczenia się rozpoznawania wytworów AI. Być może najłatwiej można się uczyć różnicowania AI na obrazach, filmikach udostępnianych w mediach społecznościowych. Bo te filmiki bywają tak tandetnie naiwne, pozbawione logiki i prawdopodobieństwa, że trudno uwierzyć, że mogą być odbierane jako realne. Warto zwracać na to uwagę, by nie dawać się wodzić za wzrok i nos przez nagrania, które kolekcjonują lajki i udostępnienia.
Czy odpowiedzialni za te spreparowane przez AI filmiki czerpią tylko satysfakcję czy też inne profity i tantiemy z ich popularności, nie wiem.
Choć oczywiście można lubić kicz i tandetę, ale nieporozumieniem byłoby utożsamianie tych „podróbek” ze sztuką czy dokumentem.
A filmiki, podobnie jak teksty generowane przez AI, bywają „wyjątkowe”, bo rozczulają lub/i mają swoją dramaturgię, sytuacje zagrożenia, budują napięcie i zwykle dobrze się kończą, często z ulgą i morałem, jak to w bajkach bywa.
Jeden z przykładów takiego irracjonalnego filmiku załączam w źródłach. W trakcie emisji przez kilka sekund pojawia się napis SORA (4) więc z jednej strony to uczciwe, a z drugiej – może stanowić szlak w nauce rozpoznawania AI. Wiele filmików AI jest o banalnej, nic niewnoszącej treści, ale są też filmiki o tematyce ważnej m.in. politycznej, nacjonalistycznej, mogące mieć wpływ na światopogląd i wybory. Ale właśnie te banalne obrazy mogą być przydatne w uczeniu się identyfikowania wytworów AI. Czyli porównując to do z nauki jazdy samochodem, najpierw jest plac manewrowy, później jazda po mieście z instruktorem, by następnie móc samodzielnie podróżować w świecie z AI, znając przepisy „ruchu drogowego”, kierując się znajomością znaków i umiejętnością wyboru drogi.
Jest w tych najprostszych filmikach często powtarzająca się sytuacja z wielkim ptakiem, który atakuje ludzi lub inne zwierzęta. Widzimy tu dwie kobiety przechodzące przez ulicę na pasach. Jedna z nich prowadzi wózek z dzieckiem, druga trzyma psa szczeniaka na smyczy, obok spaceruje bez smyczy dorosły pies przypominający rasę labradora. Nagle nadlatuje wielki ptak i co się dzieje? Kobieta z wózkiem krzyczy, obraca się z wózkiem, jakby chcąc uniknąć „ataku” ptaka, w tym czasie druga kobieta stoi nieruchomo, nie zwracając uwagi ani na ptaka, ani na całą „dramatyczną” sytuację, jakby jej nie dotyczyła. Dorosły pies podskakuje w kierunku ptaka, a kobieta z wózkiem, nie wiedzieć czemu, jedną ręką podnosi szczeniaka tej drugiej kobiety, która stoi nieruchomo. W tym „akcie unoszenia” szczeniaka „rozpływa się” smycz, na której psa trzyma ta druga, cały czas pozostając „obok dramaturgii”. Próżno szukać logiki w tej scence, ale za to „dzieje się” – jest zaskoczenie, zagrożenie i odlot… ptaka. Wiele w internecie spotkać można podobnie absurdalnych ruchomych obrazków, gdzie np. kot przegania niedźwiedzia, a dzik wskakuje przez okno do pokoju dziewczyny, która pozostaje nieruchoma pół leżąc na łóżku, po czym dzik rezolutnie z tego samego okna wyskakuje, jakby „zorientował się”, że nic tu po nim, itp. itd.
Pisząc powyższe, jedna towarzyszy mi intencja – dotycząca uważności, krytycyzmu i kierowania się logiką w odbiorze różnych „fast food” i podróbek AI, zanim damy się porwać fikcji, która nie jest ani dokumentem, ani science fiction.
Ważne jest, by nie dawać się uwodzić i pozwalać manipulować swoimi emocjami i intelektem przez narzędzie. Choć można przyzwalać na uwodzenie, ale nie zwodzenie, mając świadomość fikcji. Podobnie jak w odbiorze sztuki filmowej, kiedy często w czasie seansu przeżywamy filmowe sytuacje jak byśmy byli ich uczestnikami, jednocześnie wiedząc, że jesteśmy widzami. Czyli odnosząc to do filmików AI, by wiedzieć, że to jest wytwór – fikcja tzw. sztucznej inteligencji, a nie dokument. A czy kiedyś będą powstawać filmy fabularne spreparowane przez AI, nie wiadomo. Gdyby tak było, czyli AI zaistniałaby podobnie jak w szeroko rozumianej literaturze, to powinny być jasno wytyczone granice, co jest dziełem człowieka, a co wytworem narzędzia.
Bo być może od tego zależy nasza przyszłość – w grze o dominację – kto kogo? Kto lub co – przejmie kontrolę nad sztuką, edukacją, wyborami, pokojem lub/i wojnami, czy mówiąc z emfazą, czyli w stylu AI – kto przejmie kontrolę nad światem.
Małgorzata Talarczyk
Źródła
- https://wydawnictwo-silvarerum.eu/dr-m-talarczyk-teksty-a-sztuczna-inteligencja/?fbclid=IwY2xjawOzrgVleHRuA2FlbQIxMQBzcnRjBmFwcF9pZBAyMjIwMzkxNzg4MjAwODkyAAEesIUVxNK9ebOQFnY_ESetaglBUzs89Dst3HVYjFPLpmf3r0V-QJkrNpmiXCQ_aem_XWmy_z6RgUtlewULR3kMEw
- https://wydawnictwo-silvarerum.eu/dr-m-talarczyk-psychoterapia-a-sztuczna-inteligencja/?fbclid=IwY2xjawOzsdRleHRuA2FlbQIxMQBicmlkETB4UVJ2UEJ4OWFlaXJwMHhEc3J0YwZhcHBfaWQQMjIyMDM5MTc4ODIwMDg5MgABHr_QY7yBT2IwbSObNGB89mEUVFRj9mKiVVhnYZWqiehW7pb4arWbr93wZ3_6_aem_O0D-Y87cl-8nD9Oy2sCeNg
- https://tvn24.pl/polska/sztuczna-inteligencja-przed-ludzkimi-relacjami-wielkie-wyzwanie-jak-zostalismy-wychowani-do-uzywania-ai-st8819060 (pobrano 26.12.2025)
- https://www.facebook.com/watch/?ref=saved&v=1366262464851053 (pobrano 10.11.2025)


