Reklama

Nauka

Temat numeru

Ostatni wynalazek człowieka

O trendach cywilizacyjnych i nowych technologiach, które mogą wymknąć się spod kontroli, rozmawiamy z prof. Andrzejem Zybertowiczem.

Niedziela Ogólnopolska 27/2023, str. 8-11

[ TEMATY ]

sztuczna inteligencja

Adobe Stock

Bądź na bieżąco!

Zapisz się do newslettera

Wojciech Dudkiewicz: Rozwój sztucznej inteligencji (AI) wzbudza bardziej entuzjazm niż obawy – wynika z badania World Trend Index. Duża część pracowników na świecie obawia się, że AI zastąpi ich w pracy, ale znacznie więcej z nich chce przerzucić na sztuczną inteligencję pewną ilość zadań. Są nieświadomi zagrożeń?

Prof. Andrzej Zybertowicz: Przyglądamy się rzeczywistości na ogół punktowo. Każdy z nas orientuje się w świecie w zależności od wykonywanych zadań – zawodowych i rodzinnych. Drwal np. rozumie, jak rosną drzewa i które z nich nadają się do wycinki, nie musi natomiast pojmować procesu sterowania płynnością ruchu w dużym mieście. Wybitny fizyk budujący wyrafinowane modele kosmologiczne może być naiwny, jeśli chodzi o flirtowanie nastolatków. Ludzie oceniają znaczenie innowacji w ramach swoich horyzontów poznawczych. Mało kto, z wyjątkiem analityków i badaczy przyglądających się systemom społecznym, na co dzień posługuje się pojęciem nieplanowanych, trudno rozpoznawalnych konsekwencji jakiegoś działania. Innowacja, która w krótkim czasie może przynosić korzyści, po upowszechnieniu się może powodować mnóstwo złych konsekwencji.

Reklama

Czy mógłby Pan Profesor podać jakiś przykład?

Dla wielu Amerykanów prawo do posiadania broni, wpisane w drugą poprawkę do konstytucji, jest czymś bardzo ważnym. Ale w żadnym innym kraju nie powtarzają się rzezie w szkołach, gdy nastolatek przychodzi do szkoły z karabinem i zabija swoich kolegów. To jeden z dzisiejszych skutków upowszechnienia się innowacji prawnej, którą był masowy dostęp do broni... Moim zdaniem, nawet gdybyśmy mieli do czynienia tylko z technologiami, których nie można stosować do złych celów, to w ostatnim czasie w systemy społeczne jednocześnie wprowadzanych jest za dużo innowacji. Nawet jeśli każda z nich, postrzegana osobno, przynosiłaby same dobre efekty, to nakładanie się ich na siebie rodzi dezorientację. Gdy tempo zmian przekracza zdolność objęcia ich ludzkimi umysłami oraz możliwości regulacyjne organizmów państwowych – rodzi się chaos.

Pomóż w rozwoju naszego portalu

Wspieram

Często, nawet gdy rozumiemy zagrożenie, myślimy: to kwestia dalekiej przyszłości, mnie to nie dotyczy...

Taka ucieczka od odpowiedzialności jest niebezpieczna, tym bardziej że rośnie odsetek młodych ludzi, którzy programowo wyrzekają się posiadania dzieci. Jest cała grupa mediów, firm i fundacji, które lansując postawy konsumpcjonizmu i hiperindywidualizmu, ich w tym wzmacniają. A to musi się przekładać na brak odpowiedzialności za przyszłość. Jeśli ktoś nie ma dzieci i nie spodziewa się mieć wnuków, to łatwiej jest nim manipulować – nasilając konsumpcjonizm – by nie przejmował się przyszłością. Stąd głosy: jeśli jakaś technologia sztucznej inteligencji, jak ChatGPT, jest dziś atrakcyjna, to się nią bawmy. Tym bardziej kiedy pomoże rozwiązać jakiś problem, zrobi coś szybciej od człowieka, np. przygotuje ilustrację graficzną, napisze tekst itp.

...nawet wiersz czy poemat.

I masę innych rzeczy, i to powyżej jakości dostępnej większości ludzi. Systemy AI dostarczają dzieł plastycznych, które warsztatowo przekraczają możliwości plastyków zatrudnionych w korporacjach. Po „wytrenowaniu” AI na wielkiej części dorobku ludzkości może ona od razu działać na poziomie mistrzowskim.

Reklama

Gdy ktoś widzi fajną zabawkę, która pomaga mu zrobić coś, co kiedyś było dlań niedostępne, zyskuje poczucie podmiotowości: stworzyłem coś. Nie dostrzega tego, że gdy taka zabawka się rozpowszechni, to przyniesie szkody także jemu. Ale jeśli te szkody na poziomie cywilizacyjnym ujawnią się, kiedy nie będzie go już wśród nas – nie musi się o to troszczyć. Odbieranie ludziom odpowiedzialności za młode pokolenie to kolejny degradacyjny trend cywilizacyjny po odebraniu ludziom Boga przez europejskie oświecenie. Nie ma Boga, no dobrze, ale mam dzieci, czuję się za nie odpowiedzialny, warto z mojego majątku coś im zostawić. Jeśli programowo nie chcę mieć dzieci, to po „śmierci Boga” następuje kolejna faza – „śmierć” odpowiedzialności. I przyczyniają się do tego nowe technologie cyfrowe. To jedna z perspektyw, która powinna być rozważana przez wszystkich, także przez Kościół.

Czy Kościół dostrzega problem sztucznej inteligencji?

Byłem niedawno w Watykanie, rozmawiałem z polskimi duchownymi, którzy tam pracują, i wspólnie doszliśmy do wniosku, że istnieje potrzeba, żeby w tej kwestii mocno zabrzmiał głos papieża. Naprawdę warto ogłosić encyklikę w tej sprawie. Jeden z księży zaproponował tytuł, który po polsku brzmiałby: „Jesteśmy spóźnieni”. My – ludzie żyjący w przekonaniu, że istnieje wymiar metafizyczny – jesteśmy spóźnieni w przestrzeganiu nie tylko wiernych, ale także niewierzących, dla których głos Ojca Świętego jest ważny jako sygnał wrażliwości i głos wielkiej wspólnoty.

Ale to nie opóźnienie miałoby być istotą tego ostrzeżenia? Kościelne młyny mielą powoli...

Zbyt wolno, a technologia pędzi. Ciekawy byłby też w sprawie sztucznej inteligencji głos wybitnych teologów, marzyłyby mi się konferencje przygotowywane przez episkopaty różnych krajów. Przypominają się dyskusje wybitnych umysłów, które w Castel Gandolfo organizował Jan Paweł II...

Reklama

Zbyt późno, tak uważam, doszło np. do zrozumienia w Watykanie sytuacji na Ukrainie. Spójrzmy teraz na zagrożenia AI w długofalowej perspektywie cywilizacyjnej: czyż to, co sztuczna inteligencja może uczynić ze światem ludzkim, nie jest równie przerażające jak zniszczenia i okrucieństwo siane przez wojnę Putina? A może, w tej właśnie optyce cywilizacyjnej, AI jest jeszcze większym zagrożeniem dla ludzkości?

Mocna ocena.

Uzasadnię ją. Eksperci mówią, że nawet gdyby doszło do wojny między Rosją i USA, takiej, do której włączyłyby się Chiny, do pełnowymiarowej wymiany nuklearnych uderzeń – ludzkość i tak przetrwa. Cywilizacja mogłaby zostać zdruzgotana, ale setki milionów ludzi przetrwają. I zachowają wiedzę, na czym polegają cywilizacja naukowo-techniczna, prawa człowieka i instytucje ich ochrony. Owszem, spadłby poziom życia, ale fundamenty cywilizacyjne przetrwałyby jako podstawa do odbudowy.

A w przypadku sztucznej inteligencji?

Gdyby rozwijała się w kierunku tzw. silnej superinteligencji, jako ludzie możemy stać się dla niej mało ważni, niemal niedostrzegalni. Są różne scenariusze. W tym taki: AI może być tak zainteresowana eksploracją innych galaktyk – że aby zbudować sobie służące temu nowe technologie, zużyłaby wszystkie zasoby energetyczne Ziemi. Z opłakanymi skutkami dla nas. AI nie musi mieć wobec nas żadnych złych intencji, wystarczy, że znajdziemy się na marginesie jej zainteresowań. Eksplozja sztucznej superinteligencji może wywołać skutki przekraczające siłę rażenia wszystkich bomb jądrowych, które są dziś na Ziemi.

Reklama

Ale to, na szczęście, tylko perspektywa pewnej hipotezy.

Oczywiście, że tak. Nie ma dziś żadnej teorii naukowej, z której by wynikało, że tak musi się to skończyć. Nie ma też żadnej poważnej teorii naukowej, która by mówiła, że agresja Rosji na Ukrainę musi się przerodzić w wojnę jądrową. Ale nie wykluczamy tego.

W książce Cyber kontra real. Cywilizacja w techno-pułapce pisze Pan Profesor, że żyjemy w momencie, w którym można jeszcze odzyskać przewagę nad technologią. Apel o moratorium w pracach nad AI podpisało ponad 30 tys. specjalistów. Jeden z pionierów AI zaczął ostrzegać przed ryzykiem, jakie wiąże się z tą technologią, a Unia Europejska próbuje regulacji. To dużo za mało. Czy jest szansa na cofnięcie się, wprowadzenie regulacji ograniczającej tę technologię?

O potrzebie moratorium technologicznego mówię co najmniej od 2015 r., od wydania razem z zespołem książki Samobójstwo Oświecenia?. Choć, moim zdaniem, postulat moratorium jest logicznie uzasadniony, to obawiam się, że nie zostanie wprowadzony z powodu czysto racjonalnego postępowania – systemy społeczne tak, niestety, nie działają. Może natomiast zostać wcielony w życie, gdy ludzkość dotknie – tak to określmy – katastrofa średniego kalibru.

Reklama

To znaczy?

Na tyle słaba, by ramy obecnego ładu globalnego przetrwały, ale na tyle dramatyczna, by szok nią wywołany uświadomił konieczność podjęcia nadzwyczajnych działań naprawczych. Natura systemów decyzyjnych w dzisiejszym świecie jest taka, że bez potężnego wstrząsu opinii publicznej nie będzie gotowości do radykalnych, ale niezbędnych działań. Wstrząsy, które nasza cywilizacja przeżyła w ostatnich latach: kryzys finansowy w 2008 r., pandemia COVID-19, tysiące ofiar i ludobójstwo na Ukrainie, nie okazały się wystarczająco przemawiającymi do wyobraźni dramatami, żeby się ogarnięto. Cała nadzieja w tym, że stanie się to, zanim sztuczna inteligencja nabierze pełnej mocy. Zakładam, że nie doszliśmy jeszcze, na szczęście, do punktu krytycznego, gdy uruchomią się procesy samodoskonalenia się AI, nad którymi nie będziemy mieli już żadnej kontroli.

Ci, którzy prowadzą i finansują badania nad sztuczną inteligencją, którzy je rozbujali do obecnego stanu, mają na uwadze pieniądze i władzę. Czy coś jeszcze?

Jest coś, co trzeba dodać w przypadku Geoffreya Hintona, jednego z guru środowiska sztucznej inteligencji. Odchodząc niedawno z Google’a, Hinton powiedział, że jakaś jego część żałuje, iż przyczynił się do rozwoju AI. W 2015 r. na pytanie, że skoro widzi zagrożenia, iż ludzie o skłonnościach terrorystycznych mogliby nadużywać AI, to czemu nad tym dalej pracuje, odpowiedział, że smak odkrycia jest taki słodki... Jest zatem trzecia motywacja, poza władzą i pieniędzmi – fascynacja własnym sukcesem poznawczym, przygodą przy rozwiązywaniu trudnych problemów. A gdy taka przygoda jest ważniejsza niż zobowiązania moralne, to mamy kolejny zły znak czasu.

Reklama

Na jesień zapowiadana jest premiera nowej, piątej wersji ChatGPT – narzędzia AI, które według ekspertów może osiągnąć poziom ludzkiej inteligencji i rozumienia. Czy to początek wymykania się sztucznej inteligencji spod kontroli?

Nie wiadomo dokładnie, czy akurat tego można się spodziewać, ale szybki rozwój sztucznej inteligencji wciąż zaskakuje nawet samych jej twórców. Zwrócę uwagę na coś innego. Pytanie: na jakim etapie należy sztuczną inteligencję uznać za odrębny podmiot, za „istotę zdolną do przeżywania cierpienia”? A jeśli sztuczna inteligencja będzie symulowała cierpienie, żeby wywołać zamieszanie albo empatię? Około roku temu inż. Blake Lemoine z Google’a powiedział publicznie, że program sztucznej konwersacji LaMDA, który testował, jest „świadomą istotą, której pragnienia należy uszanować”.

Za to został z Google’a zwolniony...

Tak. A chodziło o program słabszy od ChatGPT. Wyobrażam sobie, że gdy jakaś kolejna wersja będzie wyraźnie lepsza, pojawią się ruchy społeczne na rzecz przyznania danemu systemowi AI praw ludzkich. Są już przecież ruchy tych, którzy uważają, że trzeba odrębne prawa przyznawać nie tylko zwierzętom, ale i roślinom. Patrzę na to wszystko pod kątem zwiększania zamętu w już i tak zdestabilizowanym życiu społecznym. Nie próbuje się całościowo podejść do poważnych problemów, przed którymi stoi ludzkość: strukturalnie zatrutej infosfery i rosnącego oceanu dezinformacji, epidemii samotności i depresji, głębokiej dezorientacji młodego pokolenia w obliczu wyzwań ich życia, ogromnych nierówności społecznych – wielkich fortun ludzi o zasobach, których nie wydadzą do końca życia, a działają poza demokratyczną kontrolą itd. Zamiast podchodzić do takich problemów całościowo, tysiące wybitnych umysłów próbuje tworzyć kolejne „przełomowe” innowacje, by zdobyć sławę i miliardy, przy okazji generując nowe strumienie problemów. Tak widzę główne zagrożenie przyniesione przez rewolucję cyfrową, której AI jest – oby nie cierniowym – ukoronowaniem. Już dawno wypowiedziano tezę, że jak ruszy superinteligencja, to będzie to ostatni wynalazek człowieka.

Przyzna Pan Profesor, że to ponura, dramatyczna wizja...

To jeszcze dopowiem. W ostatnich kilkunastu latach zbliżają się do siebie dwie krzywe. Jedna z nich pokazuje proces zwiększania się sprawności wykonywania zadań przez AI. Krzywa idzie wyraźnie pod górę, choć wcześniej miała przestoje. Druga krzywa, wyznaczona przez rewolucję cyfrową, a zwłaszcza media społecznościowe, obrazuje degradację poznawczą człowieka. Te krzywe jeszcze się nie spotkały, ale gdy do tego dojdzie, to będzie po nas. Może sztuczna inteligencja nas nie zlikwiduje, ale najpewniej utracimy kontrolę nad swoją cywilizacją. Żadna dyskusja o wartościach, na bazie których warto świat zmieniać, nie będzie miała sensu, bo to nie my będziemy dysponować kluczowymi zasobami.

Zdjęcie na okładce zostało wygenerowane przez sztuczną inteligencję

Prof. Andrzej Zybertowicz socjolog z Uniwersytetu Mikołaja Kopernika w Toruniu, kierownik Ośrodka Studiów nad Wyzwaniami Cywilizacyjnymi Akademii Sztuki Wojennej, doradca prezydenta RP i szefa Biura Bezpieczeństwa Narodowego.

2023-06-26 16:09

Oceń: +8 0

Reklama

Wybrane dla Ciebie

Wojny na algorytmy – nowe wyzwanie dla cyberbezpieczeństwa

Piosenka puszczona w radio może spowodować serię katastrof w ruchu drogowym lub wyciek poufnych danych bankowych. O tym, jak można oszukać asystentów głosowych i wprowadzić w błąd autonomiczne pojazdy, telefony i urządzenia, które same się uczą – pisze w nagrodzonej pracy doktorant Wojskowej Akademii Technicznej.

Od sztucznej inteligencji może zależeć nasze życie, jeśli jest zastosowana w medycynie, albo w autonomicznych pojazdach. A jednak łatwo da się oszukać maszyny – dowodzi Łukasz Tymoszuk. Drogą do “złośliwej” ingerencji jest budowanie systemów-hakerów, które same szukają sobie niewidocznych uchylonych drzwi.
CZYTAJ DALEJ

Watykan podjął decyzję ws. domniemanych objawień blisko polskiej granicy

2025-07-09 08:31

[ TEMATY ]

Watykan

Słowacja

Dykasteria Nauki Wiary

objawienia Maryi

Litmanowa

nihil obstat

Jerzy Opioła - Praca własna, CC BY-SA 4.0, https://commons.wikimedia.org/w/index.php?curid

Litmanowa. Kaplica z obrazem Matki Boskiej Litmanowskiej

Litmanowa. Kaplica z obrazem Matki Boskiej Litmanowskiej

List Dykasterii Nauki Wiary do arcybiskupa metropolity preszowskiego obrządku bizantyjskiego: liczne owoce duchowe w miejscu domniemanych objawień Maryi, do których miało dojść w latach 1990-1995 w pobliżu niewielkiej miejscowości Litmanowa.

Dykasteria Nauki Wiary kontynuuje swoje działania i – dzięki nowym normom opublikowanym w ubiegłym roku – mogła udzielić zezwolenia (nihil obstat), po ocenie duchowych owoców, odnośnie do domniemanych objawień maryjnych, które miały wydarzyć się w latach 1990-1995 w Litmanowej, na górze Zvir na Słowacji. List prefekta kard. Victora Manuela Fernándeza skierowany jest do arcybiskupa Preszowa dla katolików obrządku bizantyjskiego, Jonáša Jozefa Maxima.
CZYTAJ DALEJ

Na Jasną Górę dotarła Pielgrzymka Rolników

2025-07-12 18:18

[ TEMATY ]

diecezja zielonogórsko ‑ gorzowska

Pielgrzymka Rolników

Biuro Prasowe Jasnej Góry

Pielgrzymi, którzy przez kilkanaście dni pokonywali setki kilometrów, 12 lipca przynieśli przed tron Matki Bożej intencje swoje, swoich rodzin oraz całej wsi i rolnictwa

Pielgrzymi, którzy przez kilkanaście dni pokonywali setki kilometrów, 12 lipca przynieśli przed tron Matki Bożej intencje swoje, swoich rodzin oraz całej wsi i rolnictwa

42. Piesza Pielgrzymka Duszpasterstwa Rolników Diecezji Zielonogórsko-Gorzowskiej dotarła na Jasną Górę.

Pielgrzymka wyruszyła 2 lipca z Klenicy, a jej trasa prowadziła przez liczne wsie i miasteczka. Pielgrzymi, którzy przez kilkanaście dni pokonywali setki kilometrów, 12 lipca przynieśli przed tron Matki Bożej intencje swoje, swoich rodzin oraz całej wsi i rolnictwa. Modlili się o dobrą pogodę i deszcz, który nawodni ziemię. Modlili się w intencjach papieskich, za naszą diecezję, a także o nowe powołania kapłańskie i zakonne oraz we wszystkich intencjach, które polecono ich modlitwie.
CZYTAJ DALEJ

Reklama

Najczęściej czytane

REKLAMA

W związku z tym, iż od dnia 25 maja 2018 roku obowiązuje Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia Dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych) uprzejmie Państwa informujemy, iż nasza organizacja, mając szczególnie na względzie bezpieczeństwo danych osobowych, które przetwarza, wdrożyła System Zarządzania Bezpieczeństwem Informacji w rozumieniu odpowiednich polityk ochrony danych (zgodnie z art. 24 ust. 2 przedmiotowego rozporządzenia ogólnego). W celu dochowania należytej staranności w kontekście ochrony danych osobowych, Zarząd Instytutu NIEDZIELA wyznaczył w organizacji Inspektora Ochrony Danych.
Więcej o polityce prywatności czytaj TUTAJ.

Akceptuję