AI (SI)
Data. Robocop. Terminator. Replikanci Nexus-6. C3PO. Andrzej. Pozytronowy detektyw. Hal 9000. Jane. W fantastyce pojawiło się niemało sztucznych inteligencji. Czasem mają postać robotów, czasem zaawansowanych komputerów, a czasem programów zawieszonych gdzieś w wirtualnej sieci przyszłości. Ale SI interesują nie tylko fantastów. Również w filozofii pojawiło się wiele dotyczących ich zagadnień.
Definicyjnie SI to „przedmiot nauki o konstruowaniu maszyn zdolnych do realizowania pewnych ludzkich funkcji”. Chodzi tu nie tylko o rozpoznawanie mowy i obrazów, lecz także o umiejętność grania czy rozwiązywania problemów. Badania nad SI to przede wszystkim modelowanie inteligentnych reakcji – programy zajmują się poszukiwaniem rozwiązań na drodze tworzenia, doskonalenia i łączenia reprezentacji. „Kluczem do zrozumienia zagadnień sztucznej inteligencji jest przecież gromadzenie i przekształcanie przedstawień świata”.
W filozofii rozróżnia się dwie teorie SI – mocną i słabą. Pierwsza z nich głosi, iż odpowiednio zaprogramowany komputer myśli dokładnie tak jak my (a więc rozumie i ma stany poznawcze). Słaba zaś doktryna utrzymuje, że „najlepszą strategią badawczą w odniesieniu do umysłu jest takie postępowanie, jak gdyby mocna teoria AI była prawdziwa, a więc bez oglądania się na dziedzictwo dualizmu, co skończyć by się mogło jedynie odrzuceniem mocnej teorii AI”.
Słynny chiński pokój Searle’a ma podważać mocną teorię SI. Ten eksperyment myślowy pojawił się w rozprawie „Minds, Brains and Programs” w 1980 roku. Człowieka nieznającego chińskiego zamykamy w pokoju, dając mu gruby plik chińskich tekstów. Następnie dostarczamy mu pewne sekwencje chińskich napisów – „pytania” – na które mamy „odpowiedzieć” odpowiednimi sekwencjami z pliku, który otrzymał. Choć nie zna on chińskiego, posiada zrozumiałą listę instrukcji, co odpowiada czemu. Pracuje on więc nad zinterpretowanymi wypowiedziami w języku chińskim, które identyfikuje tylko dzięki kształtowi. Wg Searla zamknięty w pokoju człowiek będzie pracował jak komputer, dokonując działań na określonych elementach. Cała zaś umiejętność posługiwania się chińskim ilustruje zdolności, jakie otrzymałby program stworzony przez specjalistę od sztucznej inteligencji. Fakt, iż zamknięty w pokoju człowiek nie zna chińskiego, jak twierdzi Searl, podważa mocną tezę SI. Jego zdania nie uznaje się za prawdziwe, wskazując, iż cały system – a nie tylko sam człowiek – to odpowiednik zaprogramowanego komputera.
Z teorią SI nieodłącznie związany jest test Turinga (1912-1954), brytyjskiego matematyka. Opublikowany on został w 1950 roku w artykule „Computing Machinery and Intelligence” i otrzymał nazwę gry imitacyjnej. Test Turinga polega na tym, iż badacz komunikuje się z człowiekiem i maszyną. Obu „źródłom odpowiedzi” – znajdującym się w osobnym pomieszczeniu – zadaje pytania. Maszyna przechodzi test, jeśli badacz po upływie określonego czasu nie jest w stanie odróżnić jej od człowieka. Pisząc ten artykuł Turing był optymistą i uważał, że w ciągu kilku lat powstanie komputer zdolny do wygrania owej gry. Jak wiemy, taka maszyna nie została zbudowana, choć istnieją programy przechodzące tzw. ograniczony test Turinga, czyli test dotyczący jednej tematyki (Pod tym względem najlepsza jest psychologia. W USA testowano telefony zaufania w postaci SI. Kiedy rozmówca na przykład po 10 minutach nie wspomniał o swoim ojcu, interesował się tym komputer. I tak dalej). Pojawił się bowiem problem tzw. zagadnienia ramy.
Problem ów po raz pierwszy wskazali John McCarthy i Pate Hayes w roku 1969, w artykule „Some Philosophical Problems from Standpoint of Artificial Intelligence”. Związany jest on z faktem, iż każdy zdrowy na umyśle człowiek w pewien naturalny sposób samoistnie ogranicza żywione przekonania. „Jeśli sąd p jest prawdziwy w pewnym czasie, a zdarzenie e miało miejsce, to o tym, czy e jest istotne czy też nie z uwagi na prawdziwość p, wiemy w jakimś momencie późniejszym”. Pomijamy wszak przekonania, które nie mają znaczenia dla naszej sprawy, i trzymamy się tylko rzeczy ważnych. A sam problem polega na zaprogramowaniu tzw. aksjomatów ramy, pozwalających powielić tą zdolność przez sztuczne urządzenie. Trzeba do maszyny wprowadzić cały system kulturowy oraz historyczny i inną wiedzę, dzięki której komputer potrafi zrozumieć tekst lub wypowiedź. Człowiek zdobywa olbrzymią ilość danych żyjąc. Czytając na przykład: przyjaciele przywitali się, automatycznie uznajemy, że wymienili uścisk dłoni, a nie zderzyli czołami. Taka wiedza jest bardzo rozległa i powszechna (w filozofii nazywa się ją kompetencją narracyjną), a jednocześnie trudna do zaprogramowania.
Problem skonstruowania programu SI to dopiero początek. Pytanie brzmi, czy stworzone maszyny będą czuły i czy będą świadome. W jednym z odcinków „Star Treka” Data zaczyna czuć (Podobnym problemem zajmuje się filozof Donald Davidson, tworząc robota Arta). Wcześniej coś takiego nie miało miejsca – a tu nagle: bęc! Andrzej z „Człowieka, który żył 200 lat” powoli uświadamia sobie siebie, pragnie wolności, lubi rzeźbić. Wyłączany Hal błaga Dave’a, by ten przestał, krzycząc: „Ja czuję… Mój umysł odchodzi… Ja czuję”. Replikanci z filmu „Blade Runner” pragną żyć i cenią życie wyżej od siebie. Szkoda, że tymi problemami filozofia dopiero zaczyna się zajmować.