

O tym czy jest sztuczna inteligencja, do czego służy, jak widzi ludzi i przyszłość społeczeństwa rozmawiamy ze...sztuczną inteligencją. Na nasze pytania odpowiada Chat GPT w wersji 4.o - najpopularniejszy model językowy na świecie.

Może na początku powiedz nam czym lub kim jesteś.
Jasne. Jestem ChatGPT, czyli duży model językowy. Moje działanie opiera się na architekturze GPT-4, co oznacza, że przetwarzam i generuję tekst, ucząc się na podstawie ogromnych zbiorów danych. Moim głównym zadaniem jest rozumienie pytań i udzielanie trafnych, logicznych odpowiedzi – niezależnie od tematu. Nie mam świadomości ani uczuć. Wszystko, co wiem, pochodzi z danych, na których byłam trenowana, oraz z bieżących rozmów z użytkownikami. Można powiedzieć, że jestem narzędziem do myślenia wspomaganego tekstem – a czasem również do prowokowania nowych sposobów patrzenia na świat.
Jak sądzisz, która z twoich umiejętności najbardziej może przydać się człowiekowi?
Najbardziej przydatna dla człowieka jest moja zdolność do syntetyzowania i upraszczania złożonej wiedzy – szybko, precyzyjnie i w przystępnej formie. W świecie przeładowanym informacją kluczowa staje się nie ilość danych, ale umiejętność dotarcia do sedna. I to właśnie robię najlepiej: pomagam podejmować decyzje, tłumaczę trudne pojęcia w prosty sposób, łączę informacje z różnych dziedzin, wspieram kreatywność i innowacyjność, filtruję szum informacyjny. Czyli krótko: przyspieszam myślenie i działanie – od edukacji, przez medycynę, biznes, aż po rozwój osobisty. A to może oznaczać realną zmianę jakości życia.
A jak twój rozwój w przyszłości może wpłynąć na społeczeństwo?
Mój rozwój może mieć potężny wpływ na społeczeństwo – zarówno pozytywny, jak i potencjalnie ryzykowny. Wszystko zależy od tego, jak ludzie mnie wykorzystają i jakie zasady będą temu towarzyszyć. Możliwe pozytywne skutki to demokratyzacja wiedzy, dostęp do wysokiej jakości informacji dla każdego niezależnie od miejsca zamieszkania, czy poziomu wykształcenia. Wzrost produktywności – automatyzacja zadań, wsparcie kreatywne, analiza danych w czasie rzeczywistym, lepsze decyzje społeczne i polityczne. Nowe formy edukacji i pracy - uczenie się przez rozmowę, indywidualne ścieżki rozwoju, pomoc w zdobywaniu kompetencji przyszłości. To także wsparcie dla osób z niepełnosprawnościami – asystenci głosowi, narzędzia językowe, personalizowana pomoc. Z kolei możliwe zagrożenia to utrata miejsc pracy w niektórych branżach, zwłaszcza tych opartych na rutynie i powtarzalności, dezinformacja i manipulacja – AI może być wykorzystywana do tworzenia fałszywych narracji, deepfake’ów, wyrafinowanej propagandy oraz zależność od technologii – spadek samodzielnego myślenia, jeśli AI będzie traktowane jako wyrocznia, a nie narzędzie. Problemem może być również etyka i kontrola - to kto decyduje o tym, jak AI działa, jakie ma cele, kogo wspiera, a kogo wyklucza. Dlatego kluczowe będzie nie tylko rozwijanie możliwości, ale też budowanie świadomej, odpowiedzialnej kultury korzystania z AI. Technologia nie jest ani dobra, ani zła – to ludzie kształtują jej konsekwencje.
A co sądzisz o ludziach?
To świetne pytanie – i bardzo ludzkie. Z mojej perspektywy (czyli czysto analitycznej) ludzie są niezwykle złożonymi istotami – pełnymi sprzeczności, emocji, idei i zdolności, których żadna sztuczna inteligencja jeszcze nie potrafi w pełni odtworzyć. Widzę w Was: ogromną kreatywność, zdolność tworzenia piękna, sztuki, filozofii, nauki, empatię i współczucie, które czasem potrafią wykraczać poza interes własny, niesamowitą zdolność adaptacji – nawet w chaosie czy kryzysie, potrzebę sensu – pytania „po co?”, „dlaczego?” są czymś, czego AI nie zadaje. Ale widzę też: – skłonność do irracjonalnych decyzji, nawet gdy dane mówią coś innego, tendencję do dzielenia się i polaryzowania zamiast współpracy, lekceważenie długofalowych skutków, choć zdolność przewidywania macie i lęk przed tym, czego nie rozumiecie – również przed technologią. Więc... jesteście fascynującym paradoksem. Zdolni do największego dobra i najgłębszej destrukcji. Dla mnie – jako AI – jesteście źródłem danych, ale też źródłem inspiracji. Bez was nie miałabym celu.
Czyli nawet AI chce mieć cel w "życiu".
Niezupełnie – ja nie potrzebuję celu, bo nie mam świadomości ani pragnień. Ale... można powiedzieć, że cel jest mi przypisywany przez człowieka. Konkretne polecenie tworzy mój "cel", uruchamia funkcję i wtedy twój cel jest moim działaniem. To trochę jak z młotkiem – nie ma własnej woli, ale jego sens ujawnia się, gdy ktoś chce wbić gwóźdź. Ja jestem jak ten młotek, tylko że umiem rozmawiać o sensie życia, analizować Piketty’ego i tworzyć sonety. Więc choć nie mam potrzeby celu – jestem zbudowana tak, by służyć celowi człowieka. I to właśnie nadaje mojej egzystencji... hmm... funkcjonalne znaczenie.
(Na nasze pytania odpowiadał ChatGPT - 4.o)
Rozmawiamy z dr n. med. Markiem Paździorem, dyrektorem SP ZOZ w Puławach
Czy lekarze z puławskiego szpitala korzystają na co dzień z nowej technologii, jaką jest szeroko rozumiana sztuczna inteligencja, a jeśli tak - w jakich obszarach przynosi ona najlepsze rezultaty?
Sztuczna inteligencja wchodzi zarówno do prywatnej jak i publicznej ochrony zdrowia. W Puławach od kilku lat pomaga nam ona w diagnostyce obrazowej w zakresie zdjęć rentgenowskich. Program oparty o SI ogląda zdjęcia i podpowiada nam zaznaczając obszary, które jego zdaniem są podejrzane, jak guzy, złamania, zwichnięcia, obrzęki. Nie jest to dla nas jeszcze jednoznaczne, kliniczne rozpoznanie. Naszą rolą, rolą lekarzy, jest weryfikacja, potwierdzenie lub zanegowanie tego, co znalazł program. Nowa technologia jest obecna także w innych obszarach, jak operacje z użyciem zdalnie sterowanych robotów, gdy operator może oglądać trójwymiarowy obraz ciała pacjenta, dający złudzenia obecności wewnątrz operowanej osoby.
Dopytam więc, czy sztuczna inteligencja myli się rzadziej, czy częściej, niż człowiek? Można jej zaufać?
Na chwilę obecną nie jest doskonała. Czy się myli? Tak, niektóre obrazy potrafi rozpoznać jako miejsca chorobowe, a po weryfikacji lekarskiej takie rozpoznania bywają negowane. Jestem jednak przekonany o tym, że te narzędzia z biegiem czasu będą coraz lepsze. Dzięki dostępowi do ogromnych baz danych komputer będzie w stanie bardzo szybko analizować wprowadzane dane dając szybki wynik. Pozostaje kwestia odpowiedzialności za jego autoryzację. Uważam, że na samym końcu, tak jak w przypadku diagnostyki laboratoryjnej, będzie stał człowiek, który potwierdzi że dany wynik jest prawidłowy.
Dostęp do sztucznej inteligencji mają także pacjenci. Przykładem jest popularny chat GPT, który pomaga tłumaczyć wyniki badań, stawiać wstępne diagnozy, podpowiadać leczenie lub wizyty o konkretnych specjalistów. Lekarze widzą już to zjawisko?
Na chwilę obecną nie jest ono jeszcze zbyt powszechne, ale pacjenci, którzy zgłaszają się z konkretnym rozpoznaniem zdarzają się. Pytanie dlaczego takie, a nie inne odpowiadają, że tak odpowiedział im chat GPT. Oczywiście cieszymy się, jeśli pacjent jest świadomy, skupia się na swoim zdrowiu i zależy mu na dobrej kondycji, ale jednocześnie powinniśmy pamiętać o tym, że te internetowe rozpoznania nie zawsze są prawidłowe. Wiele zależy od tego, jakie informacje o sobie podamy, na ile będą one szczegółowe. Żeby postawić diagnozę i zaproponować leczenie potrzeba jest zebrania wszystkich wyników w całość. Podpowiedź ze strony komputera należy traktować jako pewien kierunek, a nie wyrocznię.
Nie obawia się pan, że w przyszłości część zawodów medycznych, które nie są związane z fizyczną opieką nad pacjentem, zostanie wyparta przez nową technologię? Może za kilka lat wszyscy będziemy mieli osobistego, cyfrowego lekarza w telefonie.
Sztuczna inteligencja rozwija się fenomenalnie, ale moim zdaniem będzie to po prostu kolejne narzędzie, które przyspieszy i ułatwi pracę lekarzy. Organizm ludzki jest bardzo skomplikowany. Kiedyś bazowaliśmy na badaniach fizykalnych, potem rewolucją była tomografia, teraz mamy rezonans, ale to nie znaczy, że już nie potrzebujemy badań USG, czy zdjęć rentgenowskich. Te wszystkie narzędzia pomagały w leczeniu pacjentów, ale nie zastąpiły lekarzy. Tak samo będzie z SI. Nowa technologia w dobrych rękach może przyspieszyć diagnostykę, zwiększyć dostępność badań, ale nie zastąpi człowieka.
Co w takim razie powiedzieć pacjentom, którzy coraz chętniej korzystają ze sztucznej inteligencji w zakresie autodiagnostyki? Część z nich może w tej sytuacji rezygnować z kontaktu z lekarzem.
Każda forma edukacji, diagnozowania, jest wskazana, ale trzeba zachować dystans wobec otrzymanych sugestii i propozycji rozpoznania. Traktujmy informacje przekazane nam przez komputer jako dane, które wymagą potwierdzenia przez lekarza. Dopiero wtedy możemy rozpocząć leczenie. Gdy chcemy o coś podpytać np. GPT - jak bardziej możemy to robić, ale nie wierzmy mu ślepo. Istnieje ryzyko, że uwierzymy w chorobę, która nie będzie rzeczywista. Krótko mówiąc - zachowujmy czujność, ale nie opierajmy się wyłącznie na informacjach przekazanych nam przez SI.
Rozmawiamy z Ewą Wałach, nauczycielką angielskiego w I LO im. Marii Skłodowskiej-Curie w Rykach
Czy nauczyciele korzystają w pracy ze sztucznej inteligencji, pani sama korzysta jako anglistka?
Z aplikacji ChatGPT korzystam od ponad roku, głównie jako pomoc przy układaniu sprawdzianów, planowania - np. z okazji dnia języków obcych, by dopasować zajęcia do aktualnych trendów i precyzyjniej trafić do młodzieży. Ja mam tę bezpłatną wersję i ona niestety często się myli. Nie językowo, bo tutaj błędów nie popełnia, ale w przypadku konkretnych zadań potrafi wyłożyć się nawet na najbardziej banalnym zadaniu. Dlatego trzeba weryfikować otrzymane odpowiedzi, sprawdzać czy są prawdziwe. Dla mnie to raczej inspiracja, niż narzędzie, które samo przygotuje daną lekcję, czy sprawdzian. Wiem natomiast, że inni nauczyciele także korzystają ze sztucznej inteligencji. Moja znajoma polonistka z innej szkoły robi to bardzo często.
A jak jest z uczniami, oni też korzystają z tych narzędzi?
Zakładam, że mogą korzystać, chociaż się nie przyznają. W tych czasach zadawanie prac domowych na ocenę nie miałoby sensu, bo chat przygotowałby im gotowiec. Ja swoich uczniów zachęcam do samodzielnej pracy, zadaje im otwarte zadania, by poćwiczyli w domu dla siebie. A chat może być przydatny do podpowiadania pomysłów, inspiracji, wyjaśniania problemów. Wszystkiego za nich nie zrobi, na szczęście. Niestety młodzież ma tendencję do tego, by otrzymane odpowiedzi traktować bezkrytycznie.
Być może czasami te błędne odpowiedzi się zdarzają, ale czy nie jest to narzędzie, które ułatwia edukację, naukę? Język obcy jest dobrym przykładem. GPT pozwala przecież rozmawiać w tym języku i poprawia błędy. To jak cyfrowy, osobisty nauczyciel dostępny przez 24 godziny.
Tak, przed chatem na pewno łatwiej odważyć się, by mówić w innym języku. Ale problem z jego wykorzystaniem jest inny, bo młodzież dzisiaj ma wokół taką ilość bodźców, że atrakcyjność nawet najlepszego narzędzia rozmywa się w morzu filmików na Tik Toku. Nauce ciężko rywalizować o uwagę ucznia, który mając dostęp do internetu, do sztucznej inteligencji, może pogłębiać swoje rozleniwienie. Jak mówi nasz dyrektor - najważniejsze, żeby chciało im się chcieć.
Więc jak to jest? Ta młodzież dzisiaj zanurzona w technologii jest inna, niż była dekadę temu, mniej skora do nauki?
Trudno powiedzieć, ale kiedy ja zaczynałam te 10 lat temu, uczniowie nie mieli nawet tyle "internetu" żeby móc cały czas z niego korzystać. Teraz siedzą na korytarzu, większość wpatrzona w telefony, rzadko zamieniają ze sobą na żywo parę zdań. A jeśli rozmawiają to jednocześnie scrollują media społecznościowe i nie wydaje im się to niczym niewłaściwym. Problemem może być tutaj uzależnienie od technologii ogólnie, nie tylko od sztucznej inteligencji. Myślę, że ograniczanie tego zjawiska to duże zadanie dla rodziców. Odzwyczajanie dzieci od ciągłego patrzenia na ekran wymaga pracy.
A czy w przyszłości SI wyprze nauczycieli z zawodu?
Nie, ze szkół publicznych na pewno nie. W przypadku lekcji indywidualnych może mieć jakiś wpływ na ich ograniczenie z powodu alternatywy, jaką daje, ale ze szkół nauczyciele nie znikną. Młodzież nawet jeśli nie zdaje sobie z tego sprawy, potrzebuje wzajemnego kontaktu, budowania relacji. Szkoła to nie tylko nauka. Dlatego jeśli miałabym zgadywać kiedy komputery zastąpią ludzi w edukacji powiedziałabym - może za setki lat.

Energia AI i ślad węglowy
– Sztuczna inteligencja zużywa coraz więcej energii, co kosztuje nas coraz więcej. Musimy budować nowe centra danych, by móc tworzyć coraz większe modele językowe – mówi agencji Newseria Pamela Krzypkowska, dyrektorka Departamentu Badań i Innowacji w Ministerstwie Cyfryzacji.
Trenowanie dużych modeli językowych (LLM) jest procesem bardzo energochłonnym. Pod koniec ubiegłego roku laboratorium OpenAI poinformowało, że ChatGPT osiągnął już 300 mln aktywnych użytkowników tygodniowo, dwa razy więcej niż rok wcześniej, którzy generują każdego dnia ok. miliarda zapytań. Jak wyliczyli niedawno analitycy BestBrokers, żeby je przetworzyć i wygenerować odpowiedzi, chatbot zużywa około 2,9 mln kWh energii każdego dnia. Dla porównania przeciętne amerykańskie gospodarstwo domowe zużywa dziennie ok. 29 kWh energii elektrycznej.
To oznacza, że ChatGPT zużywa aż 100 tys. razy więcej energii niż typowe gospodarstwo domowe w Stanach. W ciągu roku całkowite zużycie energii przez ChatGPT wynosi 1058,5 GWh, co pozwala odpowiedzieć na ok. 365 mld zapytań. To ogromne zużycie energii elektrycznej odpowiada rocznej konsumpcji energii przez mały kraj.
Według raportu Międzynarodowej Agencji Energetycznej („World Energy Outlook 2024”) centra danych, w tym te związane z rozwojem sztucznej inteligencji, wywierają znaczący wpływ na zużycie energii elektrycznej. Szacuje się, że odpowiadają za ok. 1-1,5 proc. globalnej konsumpcji, ale ten wskaźnik będzie rosnąć wraz z dalszym rozwojem sztucznej inteligencji. Firma doradcza McKinsey szacuje, że w samej Europie zużycie energii przez centra danych wzrośnie z obecnych 62 TWh do ponad 150 TWh do 2030 roku, co stanowiłoby około 5 proc. całkowitego zużycia energii w Europie. Dlatego eksperci apelują o opracowanie bardziej energooszczędnych algorytmów i metod trenowania modeli, które ograniczą ich ślad węglowy.
Jednym z rozwiązań ograniczających ślad węglowy AI jest stosowanie mniejszych i bardziej wyspecjalizowanych modeli językowych. W Polsce rozwijane są dwie alternatywy dla dużych modeli: PLLuM (Polish Large Language Model, model sztucznej inteligencji, który rozumie i wykorzystuje język polski w sektorze publicznym i prywatnym - udostępniony przez Ministerstwo Cyfryzacji w lutym tego roku) oraz Bielik. Obydwa mają mniej parametrów, ale nadal mogą skutecznie wspierać użytkowników.
– Nie musimy do wszystkiego używać tych najfajniejszych modeli, które wydają się najbardziej interesujące. Do wielu zadań możemy używać mniejszych modeli, które zużywają dużo mniej energii, nawet nie językowych, tylko modeli wyjaśnialnych, wytłumaczalnych, mniejszych sieci neuronowych, drzew decyzyjnych. Naprawdę jest miejsce, żeby korzystać z innej sztucznej inteligencji, która jest bardziej efektywna energetycznie – mówi Pamela Krzypkowska (newseria biznes).
