The VALETZ Magazine nr. 2 (12) - czerwiec,
lipiec, sierpień 2000
[ CP-1250 ]
( wersja ASCII ) ( wersja ISO 8859-2 )
poprzednia strona 
			powrót do indeksu następna strona

  Sztuczna inteligencja
        Granice nauki

Rozwój komputerów oraz informatyki spowodował pojawienie się olbrzymich możliwo?ci obliczeniowych i sprawił, że po raz pierwszy człowiek mógł realnie rozważać stworzenie maszyny dysponującej umysłem. Następujące po sobie odkrycia półprzewodników i technologii cyfrowych, logiki rozmytej, fizjologii neuronu i innych związanych z AI pobudził wyobraYnię naukowców, którzy uwierzyli, że skonstruowanie sztucznego intelektu jest już w zasięgu ręki. Minęło jednak kilkadziesiąt lat i ciągle stoimy na skraju Stumilowego Lasu.

Jedna z pierwszych koncepcji, zwana GOFAI (Good Old Fashioned Artifficial Intelligence) mówiła, że do tego, by mówić o inteligencji wystarczy, aby system AI zachowywał się tak, jakby był obdarzony rozumem. Takie założenie było zgodne z postulatem Turinga, który proponował test na inteligencję polegający na tym, aby badany przeprowadził dwie rozmowy z systemem sztucznej inteligencji oraz żywym człowiekiem, ale w ten sposób, by nie wiedział, z kim aktualnie rozmawia. Jeżeli po dyskusji z maszyną nie wykryje, że nie mówił z człowiekiem, wówczas można uznać, że system AI my?li. Próbowano tego dokonać, wprowadzając do systemu olbrzymie ilo?ci reguł dotyczących wydzielonego fragmentu ?wiata i zaopatrując go w algorytm pozwalający na przeprowadzanie logicznych operacji na tych regułach. Tak powstały systemy ekspertowe. Operowały one na wiedzy zapisanej w sposób symboliczny. To było jednak za mało dla pojawienia się inteligencji. Systemy AI nie potrafiły wytworzyć informacji nowatorskiej, dla której nie znalazły analogii we wprowadzonych wcze?niej regułach. Poza tym system wobec informacji niekompletnej lub sprzecznej stawał się bezradny. Wnioskowanie sprowadzało się do przeszukiwania dużych składnic wiedzy, zapisanej w postaci reguł i faktów. SE nie potrafiły również tworzyć nowych pojęć i znajdować przej?cia znaczeń między różnymi pojęciami, co przecież nie sprawia żadnego problemu człowiekowi. SE, jak dowodzi amerykański filozof Searle, w ogóle nie posługuje się znaczeniem (semantyką), a jedynie symbolami odnoszącymi się do znaczenia (syntaktyką). To powoduje, że system manipuluje jedynie symbolami niezrozumiałymi dla niego, bezrozumnie stosując wcze?niej zaprogramowane reguły postępowania.

Innym pomysłem było skonstruowanie sztucznego neuronu i zaprzęgnięcie go do pracy w tzw. sieci neuronowej. Szybko okazało się, że sieć neuronowa doskonale daje sobie radę z informacją niekompletną i "zaszumioną". W przeciwieństwie do systemów ekspertowych sieci potrafiły wynajdywać ukryte zależno?ci w danych wej?ciowych. Wydawało się, że sieć neuronowa spełni rolę sztucznego mózgu, jednakże okazało się, że nie potrafi ona wykroczyć poza manipulacje na wprowadzonych warto?ciach. Większo?ć sieci neuronowych działa poprawnie wyłącznie dla jednej klasy problemów, co wiąże się z nieumiejętno?cią interpretacji wiedzy i odnoszenia jej do różnych kontekstów. Stworzono sprawne narzędzie do rozwiązywania problemów nieliniowych, kojarzenia pozornie oderwanych informacji, np. rozpoznawania twarzy, przewidywania kursów akcji, jednak w dalszym ciągu nie wykazywało się ono inteligencją. Dobrym przykładem generowania przez sieć rozsądnych wyników przy, jak się okazało, absurdalnych założeniach jest perceptron wytrenowany do rozpoznawania czołgów ukrytych na zdjęciach terenu. Otóż po głębszej analizie wyszło na jaw, że perceptron nauczył się, że na zdjęciach, na których znajdował się czołg była inna pogoda, niż na pozostałych. W innym do?wiadczeniu sieć miała rozpoznawać płeć po zdjęciach twarzy. W wyniku treningu do zbioru kobiet zaliczeni zostali członkowie zespołu The Beatles. Te pomyłki unaoczniają fakt, że sieci neuronowej brakuje wiedzy, którą dysponuje już kilkuletnie dziecko.

Istnieje bardzo dużo definicji sztucznej inteligencji (AI - artifficial intelligence), niemalże każdy autor przytacza swoją własną. Dowodzi to trudno?ci w identyfikacji problemu, nie mówiąc o jego rozwiązaniu. Wiele Yródeł wskazuje na zdolno?ć systemu inteligentnego do adaptacji następującej na skutek napływu nowej informacji, np. sieć neuronowa modyfikuje wagi połączeń wraz z otrzymywaniem kolejnych elementów zbioru uczącego. Kolejną własno?cią jest możliwo?ć zastosowania do problemów wymagających inteligencji i generowanie rozwiązań takich, jakie generowałby człowiek w wyniku operacji my?lowych, np. system ekspertowy potrafi przeprowadzać rozmowę z użytkownikiem imitującą dialog z człowiekiem - ekspertem, a na koniec stawia diagnozę zgodną z wiedzą ekspercką. System inteligentny powinien sobie radzić z informacją sprzeczną, niekompletną, "zaszumioną", np.: sieć neuronowa potrafi rozpoznawać znane jej twarze ludzkie na niewidzianych wcze?niej zdjęciach. Powinien również umieć zdobywać i gromadzić nową wiedzę, najlepiej przez komunikację z użytkownikiem, np.: algorytmy uczenia maszynowego są w stanie samodzielnie tworzyć klasy obiektów i związane z nimi reguły wnioskowania na podstawie "surowej" bazy danych.

Istnieją współcze?nie systemy AI charakteryzujące się powyższymi wła?ciwo?ci, jednak nie można o nich powiedzieć, że są inteligentne. Wspomniany wyżej pogląd Searle'a można rozwinąć, argumentując, że każdy program AI jest zapisany za pomocą znaków ASCII - symboli, którymi komputer bezmy?lnie operuje. Z takich bezrefleksyjnych operacji nie może wyniknąć inteligencja. Nie ma tu miejsca na kreatywno?ć, nie ma też intencjonalnego działania, które wiąże się z zachowaniem inteligentnym, a jest jedynie schematyczne wypełnianie algorytmu. Można zapytać, czym w takim razie systemy AI różnią się od klasycznych programów. Otóż w tradycyjnych systemach programista precyzuje, jakie operacje i w jakiej kolejno?ci system musi wykonać, aby osiągnąć rozwiązanie. W systemach AI programista podaje jedynie dane wej?ciowe, kryteria poprawnego rozwiązania oraz metodę, zgodnie z którą należy go szukać, nie mówi jednak, co krok po kroku system ma robić. Z brakiem okre?lenia drogi doj?cia do wyniku wiąże się częsty fakt, że wygenerowane w systemie AI rozwiązanie nie jest pewne na 100%.

Podane stanowisko stoi w sprzeczno?ci z opinią zwolenników tzw. Silnej AI. Niektórzy z nich uznają, że swoistą inteligencję i cechy żywego organizmu można przypisać na przykład programowi, który symuluje zachowanie żywych stworzeń, np.: funkcjonowanie mrówek w mrowisku. Najogólniej mówiąc, jeżeli takie mrowisko zachowuje się podobnie do naturalnego, to na podstawie takiego symulatora można wnioskować o życiu prawdziwych owadów.

Badania działania mózgu ludzkiego, jak i wielu zwierząt dowodzą, że 24 godziny na dobę jest on atakowany masą informacji, napływającej nie tylko ze zmysłów, ale również z wnętrza organizmu. Uczy się on tego, w jaki sposób sam organizm reaguje na okre?lone sytuacje i między innymi na tej podstawie wytwarza reguły postępowania. Wnioskowanie nie odbywa się tylko na poziomie ?wiadomo?ci za pomocą pojęć, ale również nie?wiadomie. Konkludując, być może do zestawu cech wymaganych przez system inteligentny należy dodać posiadanie rozbudowanych zmysłów oraz swoistego organizmu, który wpływałby na element wolicjonalny systemu, wytwarzając "potrzeby". Wspomniane wcze?niej my?lenie symboliczne (pojęciowe) pojawia się dopiero u wyższych gatunków i związane jest ze zdolno?cią okre?lenia tożsamo?ci i odrębno?ci jednostki, ustanowieniem relacji JA - ¦WIAT, tworzeniem kategorii, a możliwe, że i z komunikacją z innymi osobnikami, czyli powstaniem języka. Może to oznaczać, że zwolennicy GOFAI nazbyt optymistycznie szacowali możliwo?ci systemów AI.

Spekulacje

Być może jest tak, że w systemie złożonym, jakim jest mózg przy przekroczeniu pewnego progu złożono?ci pojawia się efekt synergii. Dzięki niemu może doj?ć do powstania takich zjawisk, jak wola, ?wiadomo?ć, operowanie pojęciami, język, kreatywno?ć, a więc w efekcie inteligencja. Jeżeli stworzony zostanie system, który będzie w stanie odbierać informacje niesymboliczne, przetwarzać je, sortować nie tylko ze względu na kategorie, ale i konteksty, tworzyć pojęcia, z których można tworzyć kolejne pojęcia i na ich podstawie budować model ?wiata, to możliwe, że wówczas będzie można mówić o prawdziwej, sztucznej inteligencji. Poza wszystkim dużą przeszkodą jest moc obliczeniowa komputerów. Upraszczając, można powiedzieć, że mózg składa się z tysięcy niezależnie i równolegle pracujących procesorów. Komputer, na?ladując mózg, musiałby symulować tę wieloprocesorowo?ć, co wymaga potężnej mocy obliczeniowej, może pewną wskazówką tutaj jest skorzystanie z Internetu i potencjału komputerów rozproszonych na całym ?wiecie.

Mimo wielu wad współczesnych systemów AI okazały się one bardzo przydatne w rozwiązywaniu problemów, w których trzeba przeanalizować bardzo duże ilo?ci danych lub dane obarczone błędami. Mogą doskonale wspierać podejmowanie decyzji, podpowiadając najkorzystniejsze warianty. Przykładami tu są medycyna (wykrywanie raka, chorób krwi), prawo (odnajdywanie precedensów i odpowiednich przepisów), Internet (katalogowanie witryn), zarządzanie (wspieranie decyzji), bankowo?ć (kategoryzowanie klientów), ochrona (rozpoznawanie twarzy, podpisu, głosu) itd. Są dużo tańsze i często pewniejsze (brak rutyny i zmęczenia) od człowieka, gdy istnieje konieczno?ć podejmowania dużej liczby podobnych decyzji, np.: przyznawanie kredytów klientom, wyszukiwanie podejrzanych podatników. Stosuje się je również tam, gdzie człowiek nie może być obecny, np.: w kosmosie wspomagają sterowanie próbnikami, nadzorują funkcjonowanie elektrowni jądrowych i inne. AI wdziera się do każdej sfery życia, na przykład już pojawiają się "inteligentne" zabawki, aparaty fotograficzne, domy. Pozostaje kwestia, w jakim stopniu człowiek pozwoli na zawładnięcie ?wiata przez maszyny AI i jaką decyzyjno?ć, i odpowiedzialno?ć im powierzy. Jeżeli przez społeczeństwo zaakceptowana zostanie ekspansja sztucznej inteligencji, to w niedługim czasie kupować będziemy sztucznych doradców finansowych, medycznych, pilotów do samochodów, kucharzy itd., a w dalszej perspektywie wybierać będzie mogli ich "psychikę", np.: automatyczna sekretarka - kokietka albo doradca podatkowy - pesymista, system operacyjny - dowcipni?.

Możliwe, że w przyszło?ci powstanie system inteligentny w naszym rozumieniu tego terminu. O ile nie uda nam się wiernie zasymulować działania zmysłów, organizmu ludzkiego, przeprowadzić przez wszystkie fazy rozwoju człowieka i wdrożyć do społeczeństwa na podobnych prawach, co ludzie, trudno zakładać, że sztuczny system będzie my?lał w analogiczny sposób do nas. Prawie na pewno system ten posługiwać się będzie własnym zestawem pojęć i modelem ?wiata. W związku z tym będziemy musieli od podstaw uczyć się porozumiewania z nim, poznać jego język, sposób percepcji, podej?cie do rzeczywisto?ci. Początkowy kontakt z takim systemem można sobie wyobrazić jako pierwszy kontakt UFO z uzdolnionym szympansem. Możliwe, że już nawiązywane są takie pierwsze kontakty.

 
Marcin Żmigrodzki { korespondencję prosimy kierować na adres redakcji }
poprzednia strona 
			powrót do indeksu następna strona

28
powrót do początku
 
The VALETZ Magazine : http://www.valetz.pl
{ redakcja@valetz.pl }

(c) by The VALETZ Magazine. Wszelkie prawa zastrzeżone.