Sztuczna inteligencja. Jej natura i przyszłość - Margaret A. Boden - ebook

Sztuczna inteligencja. Jej natura i przyszłość ebook

Margaret A. Boden

0,0
24,90 zł

lub
Opis

KRÓTKIE WPROWADZENIE - książki, które zmieniają sposób myślenia! Tomik w zwięzły i przystępny sposób prezentuje historię rozwoju sztucznej inteligencji, jej możliwości i ograniczenia. W jaki sposób działa? W jakich dziedzinach życia może być wykorzystana? Jakie zagrożenia stwarza? Jak zmienia nasze myślenie o człowieczeństwie?

Interdyscyplinarna seria KRÓTKIE WPROWADZENIE piórem uznanych ekspertów skupionych wokół Uniwersytetu Oksfordzkiego przybliża aktualną wiedzę na temat współczesnego świata i pomaga go zrozumieć. W atrakcyjny sposób prezentuje najważniejsze zagadnienia XXI w. – od kultury, religii, historii przez nauki przyrodnicze po technikę. To publikacje popularnonaukowe, które w formule przystępnej, dalekiej od akademickiego wykładu, prezentują wybrane kwestie.

Książki idealne zarówno jako wprowadzenie do nowych tematów, jak i uzupełnienie wiedzy o tym, co nas pasjonuje. Najnowsze fakty, analizy ekspertów, błyskotliwe interpretacje.

Opiekę merytoryczną nad polską edycją serii sprawują naukowcy z Uniwersytetu Łódzkiego: prof. Krystyna Kujawińska Courtney, prof. Ewa Gajewska, prof. Aneta Pawłowska, prof. Jerzy Gajdka, prof. Piotr Stalmaszczyk.

Ebooka przeczytasz w aplikacjach Legimi lub dowolnej aplikacji obsługującej format:

EPUB
MOBI
PDF

Liczba stron: 261




Podziękowania

Za bardzo pomocne rady niech przyjmą wyrazy wdzięczności moi przyjaciele: Phil Husbands, Jeremy Reffin, Anil Seth, Aaron Sloman i Blay Whitby. Za zrozumienie i cierpliwość podziękowania składam też na ręce Lathy Menon.

Margaret A. Boden

Spis ilustracji

1.  Problem małpy i bananów: w jaki sposób małpa ma dosięgnąć do bananów?

Przedruk z: M.A. Boden, Artificial Intelligence and Natural Man, Basic Books, New York 1977, s. 387

2.  Globalna przestrzeń robocza w systemie rozproszonym

Za: B.J. Baars, A Cognitive Theory of Consciousness, Cambridge University Press, Cambridge 1988, s. 88 (za uprzejmą zgodą)

3. Podobieństwa między terminami z zakresu globalnej przestrzeni roboczej a innymi popularnymi pojęciami

Za: B.J. Baars, A Cognitive Theory of Consciousness, Cambridge University Press, Cambridge 1988, s. 44 (za uprzejmą zgodą)

Rozdział 1

Czym jest sztuczna inteligencja?

Sztuczna inteligencja (AI, ang. artificial intelligence) usiłuje sprawić, by komputery wykonywały te same czynności, które wykonują umysły.

Niektóre z tych czynności (np. rozumowanie) zazwyczaj są opisywane jako „inteligentne”. Inne (np. widzenie) nie. Ale wszystkie wymagają umiejętności psychologicznych – takich jak percepcja, kojarzenie, przewidywanie, planowanie, kontrola motoryczna – które umożliwiają ludziom i zwierzętom realizowanie ich celów.

Inteligencja nie jest jednowymiarowa, lecz stanowi bogato ustrukturowaną przestrzeń różnorodnych zdolności przetwarzania informacji. Stosownie do tego sztuczna inteligencja wykorzystuje wiele różnych technik, realizując wiele różnych zadań.

I jest wszędzie.

Praktyczne zastosowania sztucznej inteligencji można znaleźć w domu, samochodzie (i samochodzie autonomicznym), biurze, szpitalu, na niebie… i w Internecie, w tym w Internecie Rzeczy (IoT, ang. Internet of Things) (który łączy w sieć coraz liczniejsze czujniki fizyczne w naszych gadżetach, ubraniach i w naszym otoczeniu). Część z nich znajduje się poza naszą planetą, np. roboty wysłane na Księżyc i na Marsa czy satelity krążące w przestrzeni kosmicznej. Hollywoodzkie animacje, gry wideo i gry komputerowe, systemy nawigacji satelitarnej czy wyszukiwarka Google – wszystko to opiera się na technikach sztucznej inteligencji. Podobnie jak systemy wykorzystywane przez finansistów do przewidywania ruchów na giełdzie i przez rządy państw narodowych do wdrażania decyzji politycznych dotyczących zdrowia i transportu, podobnie jak aplikacje w komórkach. Dodajcie do tego awatary w rzeczywistości wirtualnej i raczkujące modele emocji, opracowywane dla robotów „do towarzystwa”. Nawet galerie sztuki wykorzystują sztuczną inteligencję – na swoich stronach internetowych oraz podczas wystaw sztuki komputerowej. Z mniej przyjemnych rzeczy trzeba wspomnieć o dronach wojskowych, które są wykorzystywane na dzisiejszych polach walki – na szczęście są tam też roboty saperskie.

Sztuczna inteligencja ma dwa główne cele. Pierwszy ma charakter technologiczny – sprawienie, by komputery robiły pożyteczne rzeczy (często przy wykorzystaniu metod mających niewiele wspólnego z działaniem umysłów). Drugi ma charakter naukowy – polega na wykorzystaniu pojęć i modeli sztucznej inteligencji w taki sposób, by pomogły one odpowiedzieć na pytania dotyczące ludzi i innych żywych istot. Większość ludzi pracujących przy sztucznej inteligencji koncentruje się na jednym z tych aspektów, ale niektórzy zajmują się oboma.

Poza dostarczaniem niezliczonych gadżetów technologicznych sztuczna inteligencja wywarła głęboki wpływ na nauki o życiu. Komputerowy model teorii naukowej jest testem jej jasności i spójności oraz przekonującą demonstracją jej – często nieznanych – implikacji. Inną sprawą jest to, czy teoria jest prawdziwa – zależy to bowiem od dowodów pochodzących z rozważanej dziedziny. Ale już samo odkrycie, że teoria jest fałszywa, może być pouczające.

Sztuczna inteligencja umożliwiła, zwłaszcza psychologom i neuronaukowcom1, opracowanie mocnych teorii umysłu-mózgu. Obejmują one modele tego, jak działa mózgfizycznyi – a jest to odmienna, ale równie ważna kwestia – tego, co właściwie mózg robi: na jakie obliczeniowe (psychologiczne) pytania odpowiada i jakiego rodzaju procesy przetwarzania informacji mu to umożliwiają. Wiele pytań pozostaje bez odpowiedzi, ponieważ sama sztuczna inteligencja nauczyła nas, że nasze umysły są o wiele bardziej skomplikowane, niż sądzili wcześniej psychologowie.

Także biologowie korzystają ze sztucznej inteligencji – pod postacią „sztucznego życia” (A-life), czyli opracowywania modeli komputerowych dotyczących różnych aspektów istot żywych. Pomaga im to wyjaśnić różne typy zachowania zwierząt, rozwój form organicznych, ewolucję biologiczną i naturę samego życia.

Sztuczna inteligencja ma wpływ nie tylko na nauki o życiu, lecz także na filozofię. Wielu współczesnych filozofów opiera swoje ujęcia umysłu na pojęciach sztucznej inteligencji. Wykorzystują je, odnosząc się np. do znanego problemu umysł-ciało, zagadki wolnej woli i wielu tajemnic dotyczących świadomości. Owe idee filozoficzne są jednak wysoce kontrowersyjne. Istnieje też głęboka różnica zdań co do tego, czy jakikolwiek system sztucznej inteligencji może posiadać prawdziwą inteligencję, kreatywność czyprawdziwe życie.

Wreszcie – a jest to nie mniej ważne – sztuczna inteligencja zakwestionowała nasz sposób myślenia o człowieczeństwie i jego przyszłości. Rzeczywiście, wielu ludzi niepokoi się, czy w ogóle czeka nas jakakolwiek przyszłość, ponieważ przypuszczają, że sztuczna inteligencja przerośnie inteligencję człowieka. Mimo że kilku myślicieli cieszy się na taką perspektywę, większość jest nią przerażona: co się stanie, pytają, z ludzką godnością i odpowiedzialnością?

Wszystkie te kwestie omówię w kolejnych rozdziałach.

Maszyny wirtualne

Ktoś mógłby powiedzieć, że „myśleć o sztucznej inteligencji, to myśleć o komputerach”. Cóż – i tak, i nie. Nie chodzi o komputery jako takie. Chodzi o to, co robią. Innymi słowy, chociaż sztuczna inteligencja potrzebuje maszyn fizycznych (czyli komputerów), to najlepiej jest myśleć o niej w kontekście korzystania z tego, co informatycy nazywają maszynami wirtualnymi.

Maszyna wirtualna nie jest maszyną przedstawioną w rzeczywistości wirtualnej ani czymś w rodzaju symulacji silnika samochodowego, którą wykorzystuje się do kształcenia mechaników. Maszyna wirtualna jest emulacją pewnego systemu w celu wykonywania na nim procesów dokładnie w taki sam sposób, jak w oryginalnym fizycznym systemie.

W ramach analogii pomyślcie o orkiestrze. Instrumenty muszą działać. Drewno, metal, skóra i ketgut muszą podlegać prawom fizyki, jeśli muzyka ma brzmieć tak, jak powinna. Ale publiczność w ogóle o tym nie myśli. Interesuje ją muzyka. Nie interesują jej też pojedyncze nuty, a co dopiero wibracje powietrza, które wytwarzają dźwięk. Słuchają tworzonych przez nuty muzycznych „kształtów”: melodii i harmonii, motywów przewodnich i wariacji, legato i synkop.

Ze sztuczną inteligencją jest podobnie. Przykładowo, o edytorze tekstu jego projektant myśli jako o czymś, co bezpośrednio zajmuje się słowami i akapitami, tak też doświadczają go użytkownicy. Jednak sam program zazwyczaj nie zawiera ani jednych, ani drugich. (Niektóre zawierają np. informacje o prawach autorskich, które użytkownik z łatwością może wstawić). O sieci neuronowej (zob. rozdział 4) myśli się jako o czymś, co przetwarza informacje równolegle, mimo że jest ona zazwyczaj zaimplementowana w (sekwencyjnym) komputerze o architekturze von Neumanna.

Nie chodzi o to, że maszyna wirtualna jest tylko poręczną fikcją, tworem naszej wyobraźni. Maszyny wirtualne są rzeczywistymi bytami. Potrafią sprawić, by coś się stało zarówno wewnątrz systemu, jak i (jeśli połączone są z urządzeniami takimi jak kamery czy dłonie robotów) w świecie zewnętrznym. Ludzie pracujący przy sztucznej inteligencji, usiłując odkryć, co jest nie tak, gdy program robi coś nieoczekiwanego, rzadko biorą pod uwagę wady sprzętu (hardware). Zazwyczaj interesują ich zdarzenia i interakcje przyczynowe w maszyniewirtualnej, czyli oprogramowaniu (software).

Także języki programowania są2 maszynami wirtualnymi (których instrukcje należy przełożyć na język maszynowy, zanim się je uruchomi). Niektóre definiowane są w kategoriach języków programowania niższego poziomu, tak więc przekształcenia należy dokonać na kilku poziomach. Są one potrzebne, ponieważ większość ludzi nie jest w stanie myśleć o przetwarzaniu informacji na poziomie wzorców bitowych wykorzystywanych w języku maszynowym – nikt nie jest w stanie myśleć o złożonych procesach na tak wielkim poziomie szczegółowości.

Nie dotyczy to tylko języków programowania. Maszyny wirtualne generalnie składają się ze wzorców działania (przetwarzania informacji), które istnieją na różnych poziomach. Co więcej, nie dotyczy to wyłącznie maszyn wirtualnych uruchamianych na komputerach. Jak zobaczymy w rozdziale 6, także ludzki umysł można rozumieć jakomaszynę wirtualną – czy raczej jako zbiór wchodzących ze sobą we wzajemne relacje maszyn wirtualnych, działających równolegle (i rozwijanych czy wykształcanych w różnym czasie) – zaimplementowaną w mózgu.

Postęp w sztucznej inteligencji wymaga postępu w definiowaniu interesujących/użytecznych maszyn wirtualnych. Fizycznie potężniejsze komputery (większe, szybsze) to jedna kwestia. Mogą one nawet być konieczne, aby zostały zaimplementowane pewne rodzaje maszyn wirtualnych. Ale nie da się ich wykorzystywać dopóty, dopóki nie da się na nich uruchomić informacyjnie potężnych maszyn wirtualnych. (Analogicznie, postęp w neuronauce wymaga lepszego zrozumienia tego, jakie psychologicznemaszyny wirtualnezostają zaimplementowane przez fizyczne neurony; zob. rozdział 7).

Używa się różnych rodzajów informacji na temat świata zewnętrznego. Każdy system sztucznej inteligencji potrzebuje urządzeń wejścia i wyjścia, choćby klawiatury i ekranu. Często są to także służące specjalnym celom czujniki (np. kamery czy włoski czuciowe, wrażliwe na zmiany ciśnienia) i/lub efektory (np. syntezatory dźwięku dla muzyki czy mowy albo dłonie robotów). Program sztucznej inteligencji łączy się z tymi interfejsami komputer – świat (powoduje w nich zmianę), jak również wewnętrznie przetwarza informacje.

Przetwarzanie przez sztuczną inteligencję zazwyczaj obejmuje wewnętrzne urządzeniawejścia i wyjścia, które umożliwiają wzajemną interakcję różnym maszynom wirtualnym wewnątrz jednego systemu. Na przykład jeden fragment programu szachowego może wykryć potencjalne zagrożenie, zauważając coś, co dzieje się w innym fragmencie i skontaktować się z jeszcze innym, aby odnaleźć blokujący ruch.

Główne rodzaje sztucznej inteligencji

Sposób przetwarzania informacji zależy od tego, o jakiej maszynie wirtualnej mówimy. Jak zobaczymy w kolejnych rozdziałach, istnieje pięć głównych rodzajów sztucznej inteligencji, a każdy z nich ma wiele odmian. Pierwszym jest klasyczna czy symboliczna sztuczna inteligencja, czasami nazywana GOFAI (ang. good old-fashioned AI – stara dobra sztuczna inteligencja). Kolejnym są sztuczne sieci neuronowe, czyli koneksjonizm. Pozostałe to: programowanie ewolucyjne, automaty komórkowe i systemy dynamiczne.

Poszczególni badacze często korzystają tylko z jednej metody, ale istnieją także hybrydowemaszyny wirtualne. W rozdziale 4 wspomnę np. teorię ludzkiego działania, która nieustannie przełącza się między przetwarzaniem symbolicznym a koneksjonistycznym. (Tłumaczy to, dlaczego i w jaki sposób coś niezwiązanego z wykonywanym w danym środowisku zadaniem może nas od wykonywania tego zadania odciągnąć). Z kolei w rozdziale 5 opiszemy urządzenie sensomotoryczne, które łączy „osadzoną” robotykę3, sieci neuronowe i programowanie ewolucyjne. (Urządzenie to pomaga robotowi znaleźć drogę do „domu”, wykorzystując kartonowy trójkąt jako punkt orientacyjny).

Poza zastosowaniami praktycznymi podejścia te mogą rzucić nieco światła na umysł, zachowanie i życie. Sieci neuronowe przydają się przy modelowaniu aspektów mózgu i przy rozpoznawaniu wzorców oraz uczeniu. Klasyczna sztuczna inteligencja (zwłaszcza w połączeniu ze statystyką) także może modelować uczenie się, jak również planowanie i rozumowanie. Programowanie ewolucyjne rzuca światło na biologię ewolucyjną i rozwój mózgu. Automaty komórkowe i systemy dynamiczne można wykorzystywać do tworzenia modeli rozwoju istot żywych. Niektóre metodologie są bliższe biologii niż psychologii, a niektóre są bliższe zachowaniu nierefleksyjnemu niż świadomemu myśleniu. Aby zrozumieć pełen zakres umysłowości, potrzebujemy ich wszystkich – a zapewne jeszcze innych.

Wielu badaczy sztucznej inteligencji nie przejmuje się tym, jak działa umysł – dążą oni do technologicznej skuteczności, a nie do naukowego zrozumienia. Nawet jeśli stosowane przez nich techniki pochodzą z psychologii, mają z nią teraz niewielki związek. Zobaczymy jednak, że postęp w sztucznej inteligencji ogólnego przeznaczenia (ogólnej sztucznej inteligencji – AGI, ang. artificial general intelligence) będzie wymagał dogłębnego zrozumienia architektury obliczeniowej umysłów.

Jak przewidziano powstanie sztucznej inteligencji

Powstanie sztucznej inteligencji przewidziała w latach 40. XIX wieku lady Ada Lovelace [Lovelace 1843]. Mówiąc bardziej precyzyjnie, przewidziała powstanie jej części. Koncentrowała się na symbolach i logice, nie mogąc mieć jeszcze pojęcia o sieciach neuronowych czy o sztucznej inteligencji ewolucyjnej bądź dynamicznej. Nie interesowały jej też zupełnie psychologiczne cele sztucznej inteligencji – jej zainteresowania miały charakter czysto technologiczny.

Powiedziała na przykład, że „maszyna może komponować wyrafinowane i naukowe utwory muzyczne o dowolnym stopniu złożoności czy rozmiaru”, jak również wyrażać „wielkie fakty świata naturalnego”, otwierając „wspaniałą epokę w historii nauki”. (Nie byłaby więc zaskoczona, gdyby zobaczyła, że dwa stulecia później naukowcy używają Big Data i przemyślnych trików programistycznych, by przyczyniać się do rozwoju wiedzy w zakresie genetyki, farmakologii, epidemiologii… lista jest praktycznie nieskończona).

Maszyna, którą miała na myśli, była Maszyną Analityczną. To złożone z przekładni i kół zębatych urządzenie (nigdy nie ukończone) zostało zaprojektowane przez jej przyjaciela, Charlesa Babbage’a, w 1834 roku. Chociaż miało służyć do algebry i liczb, było zasadniczo odpowiednikiem cyfrowego komputera ogólnego przeznaczenia.

Ada Lovelace dostrzegała możliwe ogólne zastosowania Maszyny, jej zdolność do przetwarzania symboli reprezentujących „wszystkie przedmioty we wszechświecie”. Opisała też rozmaite podstawy współczesnego programowania: przechowywanie instrukcji programu w pamięci, hierarchicznie zagnieżdżone podprogramy, adresowanie, pętle, warunki, komentarze, a nawet błędy (bugs). Nie powiedziała jednak nic na temat tego, w jaki sposób kompozycja muzyczna lub rozumowanie naukowe dałyby się zaimplementować na maszynie Babbage’a. Sztuczna inteligencja (technicznie) była możliwa, to prawda – ale wciąż tajemnicą pozostawało to, jak ją osiągnąć.

Początki sztucznej inteligencji

Tajemnicę tę do pewnego stopnia wyjaśnił sto lat później Alan Turing. W 1936 rokuTuring wykazał, że w zasadzie wszelkie możliwe obliczenia mogą zostać wykonane przez system matematyczny nazywany obecnie uniwersalną maszyną Turinga [Turing 1936]. Ten wymyślony system tworzy i modyfikuje kombinacje binarnych symboli – przedstawianych jako „0” i „1”. Po pracy przy łamaniu szyfrów w Bletchley Park podczas II wojny światowej resztę lat 40. XX wieku Turing poświęcił na obmyślanie tego, w jaki sposób maszyna fizyczna mogłaby zbliżyć się do tej abstrakcyjnie zdefiniowanej maszyny (w 1948 roku, w Manchesterze, pomógł zaprojektować pierwszy nowoczesny komputer) i jak spowodować, aby takie urządzenie działało inteligentnie.

W przeciwieństwie do Ady Lovelace, Turing zaakceptował oba cele sztucznej inteligencji. Chciał, aby nowe maszyny robiły normalne rzeczy, o których mówi się zazwyczaj, że wymagają inteligencji (przypuszczalnie, stosując wysoce nienaturalne techniki), jak również, by modelowały procesy zachodzące w biologicznych umysłach.

Artykuł z 1950 roku, w którym autor żartobliwie zaproponował Test Turinga (zob. rozdział 6), zamierzony był przede wszystkim jako manifest sztucznej inteligencji [Turing 1950]. (Pełniejsza wersja została napisana zaraz po wojnie, ale ustawa o tajemnicy państwowej uniemożliwiła jej publikację). Turing zidentyfikował w nim kluczowe kwestie dotyczące zachodzącego w inteligencji przetwarzania informacji (granie w gry, percepcja, język oraz uczenie się) i przedstawił kuszące aluzje do tego, co już udało się osiągnąć. (Jedynie „aluzje”, ponieważ prace w Bletchley Park wciąż były ściśle tajne). Sugerował nawet podejścia obliczeniowe – takie jak sieci neuronowe i obliczanie ewolucyjne – które stały się wiodące wiele lat później. Ale tajemnica nie została jeszcze w pełni wyjaśniona. Były to uwagi o wysokim stopniu ogólności: były programatyczne, lecz nie były programami.

PrzekonanieTuringa, że sztuczna inteligencja musi być w jakiś sposób możliwa, wsparli na początku lat 40. XX wieku neurolog/psychiatra Warren McCulloch i matematyk Walter Pitts. W swoim artykule, zatytułowanym A Logical Calculus of the Ideas Immanent in Nervous Activity [McCulloch, Pitts 1943], połączyli oni pracę Turinga z dwiema innymi ekscytującymi koncepcjami (pochodzącymi z początku XX wieku): rachunkiem zdań Bertranda Russella i teorią synaps nerwowych Charlesa Sherringtona.

Kluczowym elementem rachunku zdań jest to, że ma ona charakter binarny. O każdym zdaniu zakłada się, że jest albo prawdziwe, albofałszywe. Nie ma wartości pośrednich, dopuszczenia niepewności czy prawdopodobieństwa. Możliwe są jedynie „wartości logiczne”, czyli prawda i fałsz.

Co więcej, buduje się złożone zdania i przeprowadza dedukcyjną argumentację za pomocą operatorów logicznych (takich jak i, lub, jeśli – to), których znaczenie zdefiniowane jest w kategoriach prawdziwości/fałszywości zdań składowych. Przykładowo, jeśli dwa (lub więcej) zdania połączone są przez operator i, to zakłada się, że oba/wszystkie są prawdziwe. Zatem twierdzenie „Maria wyszła za Tomasza i Oliwia wyszła za Piotra” jest prawdziwe wtedy i tylko wtedy, gdy oba zdania, „Maria wyszła za Tomasza” i „Oliwia wyszła za Piotra”, są prawdziwe. Jeśli w rzeczywistości Oliwia nie wyszła za Piotra, to złożone zdanie zawierające operator i jest fałszywe.

McCulloch i Pitts mogli połączyć ze sobą koncepcje Russella i Sherringtona, ponieważ obydwaj opisywali systemy binarne. Wartości logiczne prawda/fałsz zostały przeniesione na włączoną/wyłączoną aktywność komórek mózgu i na 0/1 pojedynczych stanów w maszynach Turinga. Sherrington wierzył nie tylko w to, że neurony są w sensie ścisłym włączone/wyłączone, ale także w to, że mają stałe progi. Bramki logiczne (obliczanie i, lub oraznie) definiowano zatem jako małe sieci neuronowe, które mogą się łączyć w taki sposób, że reprezentują bardzo złożone zdania. Wszystko, co da się przedstawić w języku rachunku zdań, może zostać obliczone przez jakąś sieć neuronową i przez jakąś maszynę Turinga.

Krótko mówiąc, neurofizjologia, logika i obliczanie zostały połączone – a załapała się też psychologia. McCulloch i Pitts sądzili (jak wielu ówczesnych filozofów), że język naturalny zasadniczo sprowadza się do logiki. Zatem wszystkie rozumowania i sądzenia, od naukowych argumentów do schizofrenicznych rojeń, były wodą na ich teoretyczny młyn. Przewidzieli oni czas, w którym dla całej psychologii „specyfikacja sieci [neuronowej] przyczyni się do wszystkiego, co można osiągnąć w tej dziedzinie”.

Zasadnicza implikacja była oczywista: jedno i to samo podejście teoretyczne – mianowicie Turingowskie obliczanie – można zastosować do inteligencji człowieka i inteligencji maszyny. (Artykuł McCullocha/Pittsa miał nawet wpływ na projektowanie komputerów – John von Neumann, który zamierzał wtedy wykorzystać kod dziesiętny, przeczytał go i przeszedł na system binarny).

Turing oczywiście się z tym zgadzał. Ale nie mógł posunąć do przodu prac nad sztuczną inteligencją – dostępna technologia była zbyt prymitywna. Jednak w połowie lat 50. XX wieku powstały potężniejsze i/lub łatwiejsze w użyciu maszyny. „Łatwiejsze w użyciu” nie oznacza tutaj, że łatwiej było naciskać przyciski na komputerze lub przesuwać go po pokoju. Oznacza raczej, że prościej było zdefiniować nowe maszynywirtualne (np. języki programowania), które można było łatwiej wykorzystywać do definiowania maszyn wirtualnych wyższego rzędu (np. programów do wykonywania działań matematycznych bądź planowania).

Badania dotyczące symbolicznej sztucznej inteligencji, prowadzone zasadniczo w duchu manifestu Turinga, rozwijano po obu stronach Atlantyku. Jednym z punktów przełomowych był stworzony pod koniec lat 50. przez Arthura Samuela program grający w warcaby, który trafił na okładki gazet, ponieważ nauczył się pokonywać samego Samuela [Samuel 1959]. Był to znak, że komputery mogą w przyszłości rozwinąć nadludzką inteligencję, przewyższającą zdolności ich programistów.

Drugi sygnał tego rodzaju również miał miejsce pod koniec lat 50., kiedy Maszyna Teorii Logicznej (Logic Theory Machine) nie tylko udowodniła osiemnaście kluczowych twierdzeń logicznych Russella, lecz także znalazła bardziej elegancki dowód na jedno z nich [Newell, Simon 1956]. Rzeczywiście, robiło to ogromne wrażenie. Podczas gdy Samuel był tylko przeciętnym graczem w warcaby, Russell był jednym z wiodących logików na świecie. (Sam Russell był zachwycony tym osiągnięciem, ale „Journal of Symbolic Logic” odmówił publikacji artykułu, którego autorem był program komputerowy, zwłaszcza, że nie dowodził on nowegotwierdzenia).

Maszynę Teorii Logicznej prześcignął niebawem General Problem Solver (GPS) [Newell, Shaw, Simon 1959] – „prześcignął” nie w tym sensie, że GPS potrafił pokonać jeszcze większą liczbę wyjątkowych geniuszy, lecz w tym znaczeniu, że nie ograniczał się tylko do jednej dziedziny. Jak sugeruje nazwa, GPS można było zastosować do każdego problemu, który dawało się przedstawić (jak zostanie wyjaśnione w rozdziale 2) w kategoriach celów, podcelów, działań i operatorów. Zadaniem programistów było określenie celów, działań i operatorów ważnych dla konkretnej dyscypliny. Kiedy to już jednak zrobiono, rozumowanie przeprowadzał sam program.

GPS rozwiązał np. problem „misjonarzy i ludożerców”. (Trzech misjonarzy i trzech ludożerców na jednym brzegu rzeki; łódka, w której mieszczą się dwie osoby; w jaki sposób przeprawić wszystkich przez rzekę, aby w żadnej sytuacji, tj. na żadnym z brzegów ani na łódce, liczba ludożerców nie była wyższa od liczby misjonarzy? W przeciwnym razie misjonarze zostaną zjedzeni tam, gdzie ich liczba będzie mniejsza niż liczba ludożerców). Jest to zadanie trudne nawet dla człowieka, ponieważ wymaga, aby zrobić (w algorytmie) krok wstecz, żeby pójść (z rozwiązaniem) do przodu (tj. by jedna z osób wróciła, żeby popłynąć jeszcze raz)4. (Spróbujcie rozwiązać tę zagadkę sami, korzystając z monet!)

Maszyna Teorii Logicznej i GPS były przykładami starej dobrej sztucznej inteligencji. Dzisiaj są już one z pewnością „przestarzałe”. Ale były też „dobre”, ponieważ stanowiły pionierskie użycie heurystyki i planowania – a obie te rzeczy są niezwykle ważne dla dzisiejszej sztucznej inteligencji (zob. rozdział 2).

Stara dobra sztuczna inteligencja nie była jedynym typem sztucznej inteligencji zainspirowanym przez artykuł o „rachunku logicznym”. Czerpał z niego również koneksjonizm. W latach 50. XX wieku sieci neuronów logicznych McCullocha-Pittsa, zbudowane w tym celu lub zasymulowane w komputerach cyfrowych, wykorzystywano (robił tak np. Albert Uttley [Uttley 1956, 1959]) do modelowania skojarzeniowego uczenia się i odruchów warunkowych. (W przeciwieństwie do dzisiejszych sieci neuronowych stosowały one przetwarzanie lokalne, a nie rozproszone – zob. rozdział 4).

Wczesne modelowanie sieci nie było jednak całkowicie zdominowane przez neurologikę. System zaimplementowany (w komputerach analogowych) przez Raymonda Beurle’a w połowie lat 50. XX wieku był zupełnie inny [Beurle 1956]. Zamiast od starannie zaprojektowanych sieci bramek logicznych, zaczął on od dwuwymiarowych szeregów losowo połączonych jednostek o zmiennych progach. Sądził, że neuronowa samoorganizacja spowodowana jest przez dynamiczne fale aktywacji – budowania, rozprzestrzeniania się, trwania, zamierania i czasami interakcji.

Beurle zdał sobie sprawę, że powiedzieć, iż procesy psychologiczne można modelować za pomocą maszyny logicznej, to coś innego niż powiedzieć, że mózg rzeczywiście jest taką maszyną. Wykazali to już McCulloch i Pitts. Zaledwie cztery lata po swoim przełomowym artykule opublikowali kolejny, w którym dowodzili, że funkcjonowaniu mózgu bliższa jest termodynamika niż logika [Pitts, McCulloch 1947]. Logika ustępowała statystyce, jednostki – kolektywności, a deterministyczna czystość – szumowi prawdopodobieństwa.

Innymi słowy, opisali oni coś, co dzisiaj nazywa się odpornym na błędy obliczaniem rozproszonym, tolerującym błędy (zob. rozdział 4). To nowe podejście postrzegali jako „rozwinięcie” swojego poprzedniego ujęcia, a nie jego zaprzeczenie. Było ono jednak bardziej realistyczne pod względem biologicznym.

Cybernetyka

Wpływ McCullocha na wczesną sztuczną inteligencję nie ograniczał się jednak do starej dobrej sztucznej inteligencji i koneksjonizmu. Jego wiedza w zakresie zarówno neurologii, jak i logiki, uczyniła z niego wpływowego lidera powstającego w latach 40. XX wieku ruchu cybernetycznego.

Cybernetycy koncentrowali się na biologicznej samoorganizacji. Obejmowała ona różne rodzaje adaptacji i metabolizmu, m.in. autonomiczną myśl i zachowanie motoryczne, jak również regulację (neuro)fizjologiczną. Pojęciem centralnym była „kołowa przyczynowość”, czyli sprzężenie zwrotne. Kluczowym przedmiotem zainteresowania była natomiast teleologia, czyli celowość. Idee te były ze sobą blisko związane, ponieważ sprzężenie zwrotne zależało od różnicy między celami: obecną odległość od celu wykorzystywano jako wskazówkę dla następnego kroku.

NorbertWiener (który podczas wojny projektował pociski antybalistyczne) nadał temu ruchowi nazwę w 1948 roku, określając go jako „badanie sterowania i komunikacji w zwierzęciu i w maszynie” [Wiener 1948]. Cybernetycy, którzy zajmowali się modelowaniem komputerowym, często czerpali inspirację raczej z inżynierii sterowania i komputerów analogowych niż z logiki i obliczania cyfrowego. Rozróżnienie to nie było jednak wyraźnie sprecyzowane. Na przykład różnice między celami wykorzystywano zarówno do sterowania pociskami, jak i do kierowania symbolicznym rozwiązywaniem problemów. Co więcej, Turing – mistrz klasycznej sztucznej inteligencji – korzystał z równań dynamicznych (opisujących dyfuzję chemiczną), aby zdefiniować samoorganizujące się systemy, w których nowa struktura, taka jak plamki czy podział na grupy, mogła pojawić się z jednorodnego źródła (zob. rozdział 5) [Turing 1952].

Innymi wczesnymi członkami ruchu byli psycholog eksperymentalny Kenneth Craik, matematyk John von Neumann, neurologowie William Grey Walter i William Ross Ashby, inżynier OliverSelfridge, psychiatra i antropolog Gregory Bateson oraz chemik i psycholog Gordon Pask (wszystkich tych autorów omawiam w: Boden 2006).

Craik, który zmarł (mając 31 lat) w wypadku rowerowym w 1945 roku, a więc przed powstaniem komputerów cyfrowych, w myśleniu o systemie nerwowym odnosił się do obliczania analogowego. Opisał percepcję i działanie motoryczne, jak również inteligencję w ogólności jako kierowane przez sprzężenie zwrotne z „modeli” w mózgu [Craik 1943]. Jego pojęcie modeli mózgowych, czyli reprezentacji, okazało się później niezwykle wpływowe w sztucznej inteligencji.

Von Neumann głowił się nad kwestią samoorganizacji przez lata 30. XX wieku i był entuzjastycznie nastawiony do pierwszego artykułu McCullocha i Pittsa. Poza zmianą swojego podstawowego projektu komputera z wykorzystującego system dziesiętny na binarny, przejął też ich idee, aby wyjaśnić ewolucję biologiczną i reprodukcję. Zdefiniował rozmaiteautomaty komórkowe: systemy złożone z wielu jednostek obliczeniowych, których zmiany następują według prostych reguł zależnych od obecnego stanu jednostek sąsiednich [von Neumann 1951]. Niektóre z nich potrafiły replikować inne. Zdefiniował nawet uniwersalny replikator, potrafiący skopiować wszystko, łącznie z samym sobą. Błędy replikacji – powiedział – mogły prowadzić do ewolucji.

Automaty komórkowe zostały zdefiniowane przez von Neumanna w abstrakcyjnych, informacyjnych kategoriach. Mogły jednak być ucieleśniane na wiele sposobów, np. jako samoskładające się roboty, dyfuzja chemiczna Turinga, fale fizyczne Beurle’a czy – jak niebawem stało się oczywiste – DNA.

Od końca lat 40. XX wieku Ashby pracował nad Homeostatem, elektrochemicznym modelem homeostazy5 fizjologicznej [Ashby 1947, 1952]. Ta intrygująca maszyna mogła osiągnąć stan całkowitej równowagi niezależnie od tego, jakie wartości pierwotnie przypisano jej 100 parametrom (dopuszczano niemal 400 000 różnych warunków początkowych). Ilustrowała ona Ashby’ego teorię dynamicznej adaptacji – zarówno wewnątrz ciała (w szczególności w mózgu), jak i między ciałem a środowiskiem zewnętrznym, w uczeniu się metodą prób i błędów oraz zachowaniu adaptacyjnym.

Grey Walter także badał zachowanie adaptacyjne, ale w zupełnie inny sposób [Grey Walter 1950]. Budował miniroboty przypominające żółwie, których sensomotoryczny obwód elektryczny modelował teorię odruchów nerwowych Sherringtona. Te pionierskie roboty osadzone6 wykazywały zachowania podobne do żywej istoty, takie jak poruszanie się w kierunku światła, omijanie przeszkód i skojarzeniowe uczenie się poprzez odruchy warunkowe. Były na tyle intrygujące, że uczyniono z nich eksponat dostępny dla ogółu publiczności podczas Festiwalu Brytanii w 1951 roku.

Dziesięć lat później Selfridge (wnuk założyciela londyńskiego domu towarowego) wykorzystał metody symboliczne, by wdrożyć system zasadniczo równoległego przetwarzania, nazwany Pandemonium [Selfridge 1959].

Ten program starej dobrej sztucznej inteligencji nauczył się rozpoznawać wzorce dzięki posiadaniu wielu „demonów”7 najniższego poziomu, z których każdy zawsze nadzorował jedno proste wejście percepcyjne, i które przekazywały swoje wyniki „demonom” z wyższego poziomu. Ważyły one cechy, w których jak dotąd rozpoznano spójność (np. jedynie dwie poziome kreski w F), odrzucając wszystkie cechy, które nie pasowały. Poziomy pewności mogły się różnić i miało to znaczenie: „demony”, które krzyczały najgłośniej, osiągały najlepszy skutek. Na koniec główny „demon” wybierał najbardziej wiarygodny wzorzec na podstawie dostępnych (często sprzecznych ze sobą) świadectw. Badanie to niebawem wywarło wpływ zarówno na koneksjonizm, jak i na symboliczną sztuczną inteligencję (jedną z jego bardzo niedawnych konsekwencji jest model świadomości LIDA – zob. rozdział 6).

Bateson nieszczególnie interesował się maszynami, ale swoje pochodzące z lat 60. XX wieku teorie kultury, alkoholizmu i „podwójnie związanej” schizofrenii oparł na ideach dotyczących komunikacji (tj. sprzężenia zwrotnego), z którymi zetknął się wcześniej podczas spotkań cybernetycznych. Z kolei Pask – opisany przez McCullocha jako „geniusz samoorganizujących się systemów” – od połowy lat 50. XX wieku korzystał z idei cybernetycznych i symbolicznych przy wielu różnych projektach. Były to m.in. teatr interaktywny, komunikujące się ze sobą roboty muzyczne, architektura, która uczyła się i dostosowywała do celów swoich użytkowników, pojęcia samoorganizujące się chemicznie oraz maszyny uczące. Te ostatnie umożliwiały ludziom wybór różnych ścieżek poprzez złożoną reprezentację wiedzy, były więc dostosowane zarówno do stopniowego, jak i holistycznego stylu poznawczego (i zmiennej tolerancji nieistotności) po stronie uczącego się.

Krótko mówiąc, jeszcze przed końcem lat 60. XX wieku – a w niektórych przypadkach dużo wcześniej – myślano o wszystkich głównych typach sztucznej inteligencji, a nawet je implementowano.

Większość tych badaczy jest dzisiaj powszechnie szanowana. Jednakże tylko duch Turinga unosił się stale nad sztuczną inteligencją. Przez wiele lat o pozostałych pamiętała jedynie drobna część wspólnoty badawczej. Zwłaszcza Grey Walter i Ashby byli niemal zapomniani aż do końca lat 80., kiedy zaczęli być sławieni (obok Turinga) jako dziadkowie sztucznego życia (A-life). Pask na uznanie musiał czekać jeszcze dłużej. Aby zrozumieć, dlaczego, należy dowiedzieć się, w jaki sposób doszło do podziału w środowisku specjalistów od modelowania komputerowego.

Jak doszło do podziału w sztucznej inteligencji

Aż do lat 60. nie funkcjonował wyraźny podział na ludzi zajmujących się modelowaniem języka czy logicznego myślenia oraz ludzi modelujących celowe/adaptacyjne zachowanie motoryczne. Niektórzy naukowcy pracowali nad obiema tymi rzeczami. (Donald Mackey zasugerował nawet budowę hybrydowych komputerów, łączących sieci neuronowe z przetwarzaniem symbolicznym). I wszyscy sobie kibicowali. Naukowcy badający samoregulację fizjologiczną postrzegali siebie jako zaangażowanych w to samo ogólne przedsięwzięcie, co ich psychologicznie zorientowani koledzy. Wszyscy uczęszczali na te same spotkania: interdyscyplinarne seminaria Macy’ego w Stanach Zjednoczonych (którym od 1946 do 1951 przewodniczył McCulloch) i wpływową londyńską konferencję poświęconą „Mechanizacji procesów myślowych” (zorganizowaną przez Uttleya w 1958 roku) [Blake, Uttley 1959].

Mniej więcej od 1960 roku zaczęła się jednak intelektualna schizma. Mówiąc ogólnie – ci, których interesowało życie, zostali w obszarze cybernetyki, a ci, których interesował umysł, zajęli się obliczaniem symbolicznym. Entuzjastów sieci interesował oczywiście zarówno mózg, jak i umysł. Ale badali oni uczenie skojarzeniowe w ogóle, a nie treść semantyczną czy rozumowanie, więc podpadali raczej pod cybernetykę niż symboliczną sztuczną inteligencję. Na nieszczęście, między tymi podgrupami, których obszary badań coraz bardziej się od siebie oddalały, nie było wiele wzajemnego szacunku.

Nieuniknione było pojawienie się odrębnych koterii socjologicznych. Teoretyczne pytania, które zadawano – biologiczne (różnych rodzajów) i psychologiczne (także różnych rodzajów) – były bowiem odmienne. Odmienne były też wymagane umiejętności techniczne: mówiąc ogólnie, były to logika kontra równania różniczkowe. Rosnąca specjalizacja coraz bardziej utrudniała komunikację i czyniła ją nieopłacalną. Wysoce eklektyczne konferencje przeszły do historii.

Ale i tak podziałowi nie musiało towarzyszyć tyle złej krwi. Nieprzyjazne uczucia po stronie cybernetyków/koneksjonistów zaczęły się jako połączenie zawodowej zazdrości i słusznego oburzenia. Wzmocniło je jeszcze początkowe olbrzymie powodzenie obliczania symbolicznego, zainteresowanie dziennikarzy prowokacyjnym terminem „sztuczna inteligencja” (wymyślonym przez Johna McCarthy’ego w 1956 roku na określenie tego, co wcześniej nazywano „symulacją komputerową”) oraz arogancja, jaką okazywali niektórzy symboliści, połączona z nierealistycznymi oczekiwaniami.

Członkowie obozu symbolistycznego byli pierwotnie mniej nieprzyjaźni, ponieważ postrzegali się jako zwycięzcy tej związanej ze sztuczną inteligencją rywalizacji. Rzeczywiście, w dużej mierze nie zwracali uwagi na wczesne badania sieciowe, mimo że niektórzy ich przywódcy (np. Marvin Minsky) rozpoczynali od badań w tej dziedzinie.

Jednak w 1958 roku Frank Rosenblatt przedstawił i częściowo zaimplementował w swojej fotoelektrycznej maszynie, nazywanej Perceptronem, ambitną teorię neurodynamiczną – definiującą systemy równoległego przetwarzania zdolne do opartego na samoorganizacjiuczenia się na losowej podstawie (i zdolne do inicjacji niezależnej od błędów) [Rosenblatt 1958, 1962]. W przeciwieństwie do Pandemonium, Perceptron nie potrzebował uprzedniej analizy wejściowych wzorców przez programistę. Symboliści nie mogli zignorować tej nowej formy koneksjonizmu. Szybko została ona jednak pojęciowo odrzucona. Jak wyjaśnię w rozdziale 4, w latach 60. Minsky (razem z Seymourem Papertem) przeprowadzili jej zaciekłą krytykę, twierdząc, że perceptrony nie potrafią obliczyć niektórych najprostszych rzeczy [Minsky, Papert 1969].

Odpowiednio do tego wysychały źródła finansowania badań nad sieciami neuronowymi. Taki był właśnie cel obu krytyków, co tyko wzmogło konflikt w obrębie sztucznej inteligencji.

W oczach ogółu społeczeństwa wyglądało to teraz tak, że liczyła się wyłącznie klasyczna sztuczna inteligencja. Wprawdzie żółwie Greya Waltera zyskały wielkie uznanie podczas Festiwalu Brytanii, zaś o Perceptronie Rosenblatta było głośno w prasie pod koniec lat 50., podobnie jak o uczącej się wzorców Adaline (opartej na przetwarzaniu sygnałów) Bernarda Widrowa, jednak krytyka symbolistów całkowicie wygasiła to zainteresowanie. W latach 60. i 70. w mediach dominowała symboliczna sztuczna inteligencja (i to ona wpłynęła na filozofię umysłu).

Taka sytuacja nie trwała długo. Sieci neuronowe – jako „systemy PDP” (ang. parallel distributed processing – rozproszonego przetwarzania równoległego) – z przytupem wróciły na scenę w roku 1986 (zob. rozdział 4). Większość ludzi niezaznajomionych z tematem – i niektórzy z tematem zaznajomieni, którzy powinni byli wiedzieć lepiej – uznali to podejście za całkowicie nowe. Uwiodło ono studentów i doktorantów oraz skupiło na sobie olbrzymie zainteresowanie mediów (i filozofów). Teraz to ludzie związani z symboliczną sztuczną inteligencją mieli nosy spuszczone na kwintę. PDP stało się modne, a o klasycznej sztucznej inteligencji mówiło się powszechnie, że nie zdała egzaminu.

Jeśli chodzi o innych cybernetyków, to ostatecznie wrócili oni na scenę dzięki nazwie „sztuczne życie” (A-life) w 1987 roku. Dziennikarze i studenci poszli za nimi. Symbolicznej sztucznej inteligencji rzucono kolejne wyzwanie.

W XXI wieku stało się jednak jasne, że różne pytania wymagają odmiennych typów odpowiedzi – każdy ma inne umiejętności. Mimo że wciąż istnieją resztki dawnych animozji, mamy obecnie przestrzeń dla szacunku, a nawet współpracy między rozmaitymi podejściami. Przykładowo, z „uczenia głębokiego” korzysta się czasami w potężnych systemach łączących logikę symboliczną z wielowarstwowymi sieciami probabilistycznymi, a do innych podejść hybrydowych należą ambitne modele świadomości (zob. rozdział 6). Biorąc pod uwagę wielkie bogactwo maszyn wirtualnych, które tworzą ludzki umysł, nie powinno nas to dziwić.

1 Do tej pory mówiło się raczej „neurobiolog”, ale kalka językowa z ang. neuroscientist staje się ostatnio tak popularna, że termin „neuronaukowiec” zaczyna być postrzegany jako naturalny [przyp. red.].

2 Mogą być postrzegane jako maszyny wirtualne [przyp. red.].

3 Zob. przyp. 6.

4 Chodzi o to, że w pewnym sensie, mając już cząstkowe rozwiązanie, robimy coś nielogicznego – pozornie „burzymy” to cząstkowe rozwiązanie. Jednak takie postępowanie pozwala nam znaleźć końcowe (globalne) rozwiązanie [przyp. red.].

5 Homeostaza – zdolność utrzymywania stałości parametrów wewnętrznych w systemie (zamkniętym lub otwartym). Pojęcie to zwykle odnosi się do samoregulacji procesów biologicznych [przyp. red.].

6 W sztucznej inteligencji i kognitywistyce termin „robot osadzony” (ang. situated robot) odnosi się do agenta (m.in. robota) osadzonego (działającego) w konkretnym środowisku, na które może mieć wpływ poprzez swoje akcje i które może obserwować [przyp. red.].

7Selfridge wykorzystał w Pandemonium metaforę umysłu jako zbioru demonów (będących odpowiednikami neuronów na poziomie mózgu), które pod wpływem zewnętrznych impulsów wysyłają sobie sygnały („nawołują się”) zgodnie z wewnętrzną hierarchią [przyp. red.].