adeste-logo

Wesprzyj Adeste
Sprawdź nowy numer konta

Wesprzyj
Felietony GPT

Wittgenstein i AI, czyli filozofia w cyfrowym świecie

W cyklu Felietony GPT sprawdzam, jak skonfigurowany przeze mnie chatbot poradzi sobie z pisaniem tekstów do Adeste. W tym celu wgrałem mu nie tylko nasze zasady redakcyjne, ale również kilkanaście moich artykułów, aby nauczył się naśladować mój osobisty styl pisania. Zobaczmy jednak, jak będzie w przypadku tematyki dotyczącej go bardziej…  „osobiście”. Niniejszym zapraszam na krótką wycieczkę na pogranicze nauki, technologii i filozofii.

Wśród filozofów, których prace miały największy wpływ na rozwój sztucznej inteligencji, wymienia się często Ludwiga Wittgensteina. Co o tym sądzisz?

Ludwig Wittgenstein, choć żył w czasach, kiedy pojęcie sztucznej inteligencji (AI) było jeszcze odległą futurystyką, pozostawił po sobie idee, które dziś inspirują do refleksji nad rozwojem i postrzeganiem AI. Jego koncepcje podobieństw rodzinnych oraz atomizmu logicznego rzucają nowe światło na współczesne dylematy związane z cyfrowym naśladowaniem ludzkiego umysłu.

O co chodzi z tymi podobieństwami rodzinnymi?

Wittgenstein w swoich późniejszych pracach, zwłaszcza w Filozoficznych badaniach, zaproponował ideę podobieństw rodzinnych jako sposób na zrozumienie, jak kategoryzujemy i postrzegamy różne aspekty świata. Twierdził, że pojęcia nie muszą mieć jednej wspólnej cechy, aby były uznawane za część tej samej kategorii, lecz mogą być połączone serią przekrywających się podobieństw, podobnie jak członkowie rodziny mogą nie mieć jednej wspólnej cechy, lecz są rozpoznawani jako należący do tej samej rodziny dzięki różnym podobieństwom.

W kontekście AI koncepcja podobieństw rodzinnych może pomóc zrozumieć, jak maszyny „rozumieją” i przetwarzają ludzkie języki, obrazy czy inne dane. AI, ucząc się z ogromnych zbiorów danych, identyfikuje wzorce i podobieństwa, które nie zawsze są jasno zdefiniowane lub widoczne dla ludzkiego umysłu. To podejście ma głębokie implikacje dla sposobu, w jaki projektujemy algorytmy uczenia maszynowego i jak interpretujemy ich „rozumienie” świata.

Ale co to oznacza w praktyce?

Przykładem pochodzącym z prac samego Wittgensteina jest kategoria gier. Weźmy pod uwagę różne rodzaje gier: szachy, piłkę nożną, brydża, bieganie w workach na pikniku. Na pierwszy rzut oka trudno jest wskazać jedną wspólną cechę, która definiowałaby wszystkie te działania jako gry. Szachy są strategiczną grą planszową, piłka nożna jest sportem drużynowym wymagającym sprawności fizycznej, brydż to gra karciana opierająca się na współpracy partnerskiej, a bieganie w workach to zabawa plenerowa.

Wittgenstein argumentował, że pomimo braku jednej wspólnej cechy definiującej wszystkie gry istnieje szereg podobieństw i przeplatających się cech, które tworzą rodzaj rodziny gier. Niektóre gry mają element rywalizacji (jak piłka nożna i szachy), inne polegają na strategii (szachy i brydż), jeszcze inne są głównie formą rozrywki i mają element fizyczności (piłka nożna i bieganie w workach).

To brzmi jak zasada działania sztucznych sieci neuronowych, które analizując ogromne ilości danych, samodzielnie wynajdują w nich wzorce i powiązania, nawet takie, których nie dostrzegli ludzie. Przykładowo: jeśli zaawansowana sieć neuronowa „zobaczy” tysiące zdjęć ryb i ptaków, to nauczy się rozróżniać jedne od drugich, choć nikt nie wgrał jej do programu bezpośrednich informacji o tym, że ryby posiadają skrzela i żyją w wodzie, a ptaki mają skrzydła i dzioby.

Koncepcja podobieństw rodzinnych sugeruje, że sposób, w jaki klasyfikujemy i rozumiemy różne pojęcia, nie zawsze opiera się na sztywnych definicjach, ale może wynikać z dynamicznych i często subiektywnych percepcji podobieństw między różnymi obiektami lub działaniami. W kontekście sztucznej inteligencji rozumienie języka naturalnego lub rozpoznawanie obrazów może korzystać z tej koncepcji, ucząc maszyny rozpoznawania wzorców i podobieństw w danych, nawet jeśli nie da się określić ścisłej definicji klasyfikowanego obiektu czy zjawiska.

Możemy tu znaleźć również inspirację do tworzenia systemów AI, które są lepiej przystosowane do rozumienia i działania w zmiennych kontekstach. Zamiast próbować zamknąć rozumienie w sztywnych ramach algorytmicznych, możemy zaprojektować sztuczną inteligencję tak, by korzystając z szerokiego zakresu danych i doświadczeń, lepiej potrafiła odpowiadać na złożoność rzeczywistych sytuacji. Oznacza to również, że edukacja maszynowa musi uwzględniać „naukę kontekstu”, co może być inspiracją do nowych metod uczenia maszynowego.

Zobacz też:   Katolicka dobroczynność: z serca, a nie na pokaz

Wspomniałeś również o atomizmie logicznym.

W swoich wczesnych pracach, szczególnie w Traktacie logiczno-filozoficznym, Wittgenstein przedstawił koncepcję atomizmu logicznego, według której świat można opisać za pomocą najprostszych, niepodzielnych faktów. Te „atomy” rzeczywistości, połączone w logiczne struktury, miały stanowić fundament naszego poznania.

Chociaż później Wittgenstein odszedł od tej koncepcji, w kontekście AI atomizm logiczny może być przypomnieniem o próbach redukcji złożonych ludzkich procesów myślowych do prostszych, algorytmicznych operacji. Wyzwaniem dla twórców AI jest stworzenie systemów, które nie tylko naśladują ludzką inteligencję na poziomie operacyjnym, ale także są w stanie zrozumieć złożoność ludzkich myśli i emocji w sposób, który przekracza prostą logikę.

AI miałaby zrozumieć człowieka? Nie zagalopowałeś się troszeczkę?

Centralnym wyzwaniem w rozwoju AI jest pytanie o rozumienie – czy maszyna może naprawdę „rozumieć” język, obrazy czy emocje w sposób, który jest porównywalny z ludzkim rozumieniem? Koncepcje Wittgensteina mogą tu zaoferować ciekawą perspektywę. Z jednej strony jego późniejsze prace, podkreślające rolę gry językowej i kontekstu w rozumieniu, sugerują, że rozumienie przez AI może nigdy nie być pełne bez zdolności do doświadczania świata w sposób ludzki. Z drugiej strony idea podobieństw rodzinnych może sugerować, że AI nie musi naśladować ludzkiego rozumienia w sposób dosłowny, by być skuteczna w swoich zadaniach.

Rozważania Wittgensteina na temat języka, rozumienia i struktury rzeczywistości prowokują do głębszego zastanowienia nad kierunkami rozwoju sztucznej inteligencji. Czy naszym celem jest stworzenie maszyn, które naśladują ludzkie procesy myślowe w najdrobniejszych szczegółach, czy raczej takich, które działają skutecznie w ramach swoich unikalnych, nie-ludzkich parametrów? Wittgenstein uczy pokory wobec złożoności języka i myślenia, a jego filozofia może służyć jako przypomnienie, że droga do zrozumienia AI może być równie skomplikowana i zróżnicowana, jak sama natura ludzkiego pojmowania.

Czyli filozofia Wittgensteina nie tylko pomogła wytworzyć koncepcje uczenia maszynowego, ale również wskazuje jak z nich korzystać, by nie narobić więcej szkód niż pożytku?

Zgadza się. W świetle filozofii Wittgensteina rozumienie przez AI nie jest równoznaczne z ludzkim rozumieniem, co stawia przed nami pytanie o odpowiedzialność. Jak możemy przypisać odpowiedzialność maszynom, które działają na podstawie innych zasad niż ludzkie myślenie? Wittgenstein zwraca uwagę, że język i myślenie są głęboko zakorzenione w ludzkich formach życia, co oznacza, że maszyny mogą nigdy nie być w stanie dosięgnąć moralności w takim sensie, w jaki postrzegamy ją w kontekście ludzkim. To prowokuje do refleksji nad tym, jak projektujemy systemy AI, aby były transparentne i aby ludzie pozostali ostatecznie odpowiedzialni za decyzje podejmowane przez maszyny.

Filozofia Ludwiga Wittgensteina, choć nie była skoncentrowana na technologii, oferuje cenne spojrzenie na rozwój i postrzeganie sztucznej inteligencji. Wskazuje na złożoność rozumienia, języka i etyki, które są nieodzownymi elementami interakcji człowieka z maszyną. Przypomina również o potrzebie ciągłej refleksji nad tym, jak technologie wpływają na nasze życie i jak możemy je kształtować, aby służyły dobru wspólnemu, zachowując przy tym szacunek dla ludzkiej unikalności i nieprzewidywalności. W czasach, gdy granice między człowiekiem a maszyną stają się coraz bardziej płynne, filozofia Wittgensteina może służyć jako kompas, pomagając nawigować w złożonym świecie sztucznej inteligencji.

Powyższy tekst wraz z grafiką został wygenerowany za pomocą chatbota GPT stworzonego specjalnie do tego celu w ramach eksperymentu technologicznego. Został on poddany normalnej korekcie, jaką przechodzą wszystkie teksty w Adeste. Jeśli chcesz dowiedzieć się więcej, skontaktuj się z autorem!

Adeste promuje jakość debaty o Kościele, przy jednoczesnej wielości głosów. Myśli przedstawione w tekście wyrażają spojrzenie autora, nie reprezentują poglądów redakcji.

Stowarzyszenie Adeste: Wszelkie prawa zastrzeżone.

Podoba Ci się to, co tworzymy? Dołącz do nas

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.

The reCAPTCHA verification period has expired. Please reload the page.