The VALETZ Magazine nr. 2 (12) - czerwiec,
lipiec, sierpień 2000
[ ISO 8859-2 ]
( wersja ASCII ) ( wersja CP-1250 )
poprzednia strona 
			powrót do indeksu następna strona

  Sztuczna inteligencja
        Granice nauki

Rozwój komputerów oraz informatyki spowodował pojawienie się olbrzymich możliwości obliczeniowych i sprawił, że po raz pierwszy człowiek mógł realnie rozważać stworzenie maszyny dysponującej umysłem. Następujące po sobie odkrycia półprzewodników i technologii cyfrowych, logiki rozmytej, fizjologii neuronu i innych związanych z AI pobudził wyobraźnię naukowców, którzy uwierzyli, że skonstruowanie sztucznego intelektu jest już w zasięgu ręki. Minęło jednak kilkadziesiąt lat i ciągle stoimy na skraju Stumilowego Lasu.

Jedna z pierwszych koncepcji, zwana GOFAI (Good Old Fashioned Artifficial Intelligence) mówiła, że do tego, by mówić o inteligencji wystarczy, aby system AI zachowywał się tak, jakby był obdarzony rozumem. Takie założenie było zgodne z postulatem Turinga, który proponował test na inteligencję polegający na tym, aby badany przeprowadził dwie rozmowy z systemem sztucznej inteligencji oraz żywym człowiekiem, ale w ten sposób, by nie wiedział, z kim aktualnie rozmawia. Jeżeli po dyskusji z maszyną nie wykryje, że nie mówił z człowiekiem, wówczas można uznać, że system AI myśli. Próbowano tego dokonać, wprowadzając do systemu olbrzymie ilości reguł dotyczących wydzielonego fragmentu świata i zaopatrując go w algorytm pozwalający na przeprowadzanie logicznych operacji na tych regułach. Tak powstały systemy ekspertowe. Operowały one na wiedzy zapisanej w sposób symboliczny. To było jednak za mało dla pojawienia się inteligencji. Systemy AI nie potrafiły wytworzyć informacji nowatorskiej, dla której nie znalazły analogii we wprowadzonych wcześniej regułach. Poza tym system wobec informacji niekompletnej lub sprzecznej stawał się bezradny. Wnioskowanie sprowadzało się do przeszukiwania dużych składnic wiedzy, zapisanej w postaci reguł i faktów. SE nie potrafiły również tworzyć nowych pojęć i znajdować przejścia znaczeń między różnymi pojęciami, co przecież nie sprawia żadnego problemu człowiekowi. SE, jak dowodzi amerykański filozof Searle, w ogóle nie posługuje się znaczeniem (semantyką), a jedynie symbolami odnoszącymi się do znaczenia (syntaktyką). To powoduje, że system manipuluje jedynie symbolami niezrozumiałymi dla niego, bezrozumnie stosując wcześniej zaprogramowane reguły postępowania.

Innym pomysłem było skonstruowanie sztucznego neuronu i zaprzęgnięcie go do pracy w tzw. sieci neuronowej. Szybko okazało się, że sieć neuronowa doskonale daje sobie radę z informacją niekompletną i "zaszumioną". W przeciwieństwie do systemów ekspertowych sieci potrafiły wynajdywać ukryte zależności w danych wejściowych. Wydawało się, że sieć neuronowa spełni rolę sztucznego mózgu, jednakże okazało się, że nie potrafi ona wykroczyć poza manipulacje na wprowadzonych wartościach. Większość sieci neuronowych działa poprawnie wyłącznie dla jednej klasy problemów, co wiąże się z nieumiejętnością interpretacji wiedzy i odnoszenia jej do różnych kontekstów. Stworzono sprawne narzędzie do rozwiązywania problemów nieliniowych, kojarzenia pozornie oderwanych informacji, np. rozpoznawania twarzy, przewidywania kursów akcji, jednak w dalszym ciągu nie wykazywało się ono inteligencją. Dobrym przykładem generowania przez sieć rozsądnych wyników przy, jak się okazało, absurdalnych założeniach jest perceptron wytrenowany do rozpoznawania czołgów ukrytych na zdjęciach terenu. Otóż po głębszej analizie wyszło na jaw, że perceptron nauczył się, że na zdjęciach, na których znajdował się czołg była inna pogoda, niż na pozostałych. W innym doświadczeniu sieć miała rozpoznawać płeć po zdjęciach twarzy. W wyniku treningu do zbioru kobiet zaliczeni zostali członkowie zespołu The Beatles. Te pomyłki unaoczniają fakt, że sieci neuronowej brakuje wiedzy, którą dysponuje już kilkuletnie dziecko.

Istnieje bardzo dużo definicji sztucznej inteligencji (AI - artifficial intelligence), niemalże każdy autor przytacza swoją własną. Dowodzi to trudności w identyfikacji problemu, nie mówiąc o jego rozwiązaniu. Wiele źródeł wskazuje na zdolność systemu inteligentnego do adaptacji następującej na skutek napływu nowej informacji, np. sieć neuronowa modyfikuje wagi połączeń wraz z otrzymywaniem kolejnych elementów zbioru uczącego. Kolejną własnością jest możliwość zastosowania do problemów wymagających inteligencji i generowanie rozwiązań takich, jakie generowałby człowiek w wyniku operacji myślowych, np. system ekspertowy potrafi przeprowadzać rozmowę z użytkownikiem imitującą dialog z człowiekiem - ekspertem, a na koniec stawia diagnozę zgodną z wiedzą ekspercką. System inteligentny powinien sobie radzić z informacją sprzeczną, niekompletną, "zaszumioną", np.: sieć neuronowa potrafi rozpoznawać znane jej twarze ludzkie na niewidzianych wcześniej zdjęciach. Powinien również umieć zdobywać i gromadzić nową wiedzę, najlepiej przez komunikację z użytkownikiem, np.: algorytmy uczenia maszynowego są w stanie samodzielnie tworzyć klasy obiektów i związane z nimi reguły wnioskowania na podstawie "surowej" bazy danych.

Istnieją współcześnie systemy AI charakteryzujące się powyższymi właściwości, jednak nie można o nich powiedzieć, że są inteligentne. Wspomniany wyżej pogląd Searle'a można rozwinąć, argumentując, że każdy program AI jest zapisany za pomocą znaków ASCII - symboli, którymi komputer bezmyślnie operuje. Z takich bezrefleksyjnych operacji nie może wyniknąć inteligencja. Nie ma tu miejsca na kreatywność, nie ma też intencjonalnego działania, które wiąże się z zachowaniem inteligentnym, a jest jedynie schematyczne wypełnianie algorytmu. Można zapytać, czym w takim razie systemy AI różnią się od klasycznych programów. Otóż w tradycyjnych systemach programista precyzuje, jakie operacje i w jakiej kolejności system musi wykonać, aby osiągnąć rozwiązanie. W systemach AI programista podaje jedynie dane wejściowe, kryteria poprawnego rozwiązania oraz metodę, zgodnie z którą należy go szukać, nie mówi jednak, co krok po kroku system ma robić. Z brakiem określenia drogi dojścia do wyniku wiąże się częsty fakt, że wygenerowane w systemie AI rozwiązanie nie jest pewne na 100%.

Podane stanowisko stoi w sprzeczności z opinią zwolenników tzw. Silnej AI. Niektórzy z nich uznają, że swoistą inteligencję i cechy żywego organizmu można przypisać na przykład programowi, który symuluje zachowanie żywych stworzeń, np.: funkcjonowanie mrówek w mrowisku. Najogólniej mówiąc, jeżeli takie mrowisko zachowuje się podobnie do naturalnego, to na podstawie takiego symulatora można wnioskować o życiu prawdziwych owadów.

Badania działania mózgu ludzkiego, jak i wielu zwierząt dowodzą, że 24 godziny na dobę jest on atakowany masą informacji, napływającej nie tylko ze zmysłów, ale również z wnętrza organizmu. Uczy się on tego, w jaki sposób sam organizm reaguje na określone sytuacje i między innymi na tej podstawie wytwarza reguły postępowania. Wnioskowanie nie odbywa się tylko na poziomie świadomości za pomocą pojęć, ale również nieświadomie. Konkludując, być może do zestawu cech wymaganych przez system inteligentny należy dodać posiadanie rozbudowanych zmysłów oraz swoistego organizmu, który wpływałby na element wolicjonalny systemu, wytwarzając "potrzeby". Wspomniane wcześniej myślenie symboliczne (pojęciowe) pojawia się dopiero u wyższych gatunków i związane jest ze zdolnością określenia tożsamości i odrębności jednostki, ustanowieniem relacji JA - ŚWIAT, tworzeniem kategorii, a możliwe, że i z komunikacją z innymi osobnikami, czyli powstaniem języka. Może to oznaczać, że zwolennicy GOFAI nazbyt optymistycznie szacowali możliwości systemów AI.

Spekulacje

Być może jest tak, że w systemie złożonym, jakim jest mózg przy przekroczeniu pewnego progu złożoności pojawia się efekt synergii. Dzięki niemu może dojść do powstania takich zjawisk, jak wola, świadomość, operowanie pojęciami, język, kreatywność, a więc w efekcie inteligencja. Jeżeli stworzony zostanie system, który będzie w stanie odbierać informacje niesymboliczne, przetwarzać je, sortować nie tylko ze względu na kategorie, ale i konteksty, tworzyć pojęcia, z których można tworzyć kolejne pojęcia i na ich podstawie budować model świata, to możliwe, że wówczas będzie można mówić o prawdziwej, sztucznej inteligencji. Poza wszystkim dużą przeszkodą jest moc obliczeniowa komputerów. Upraszczając, można powiedzieć, że mózg składa się z tysięcy niezależnie i równolegle pracujących procesorów. Komputer, naśladując mózg, musiałby symulować tę wieloprocesorowość, co wymaga potężnej mocy obliczeniowej, może pewną wskazówką tutaj jest skorzystanie z Internetu i potencjału komputerów rozproszonych na całym świecie.

Mimo wielu wad współczesnych systemów AI okazały się one bardzo przydatne w rozwiązywaniu problemów, w których trzeba przeanalizować bardzo duże ilości danych lub dane obarczone błędami. Mogą doskonale wspierać podejmowanie decyzji, podpowiadając najkorzystniejsze warianty. Przykładami tu są medycyna (wykrywanie raka, chorób krwi), prawo (odnajdywanie precedensów i odpowiednich przepisów), Internet (katalogowanie witryn), zarządzanie (wspieranie decyzji), bankowość (kategoryzowanie klientów), ochrona (rozpoznawanie twarzy, podpisu, głosu) itd. Są dużo tańsze i często pewniejsze (brak rutyny i zmęczenia) od człowieka, gdy istnieje konieczność podejmowania dużej liczby podobnych decyzji, np.: przyznawanie kredytów klientom, wyszukiwanie podejrzanych podatników. Stosuje się je również tam, gdzie człowiek nie może być obecny, np.: w kosmosie wspomagają sterowanie próbnikami, nadzorują funkcjonowanie elektrowni jądrowych i inne. AI wdziera się do każdej sfery życia, na przykład już pojawiają się "inteligentne" zabawki, aparaty fotograficzne, domy. Pozostaje kwestia, w jakim stopniu człowiek pozwoli na zawładnięcie świata przez maszyny AI i jaką decyzyjność, i odpowiedzialność im powierzy. Jeżeli przez społeczeństwo zaakceptowana zostanie ekspansja sztucznej inteligencji, to w niedługim czasie kupować będziemy sztucznych doradców finansowych, medycznych, pilotów do samochodów, kucharzy itd., a w dalszej perspektywie wybierać będzie mogli ich "psychikę", np.: automatyczna sekretarka - kokietka albo doradca podatkowy - pesymista, system operacyjny - dowcipniś.

Możliwe, że w przyszłości powstanie system inteligentny w naszym rozumieniu tego terminu. O ile nie uda nam się wiernie zasymulować działania zmysłów, organizmu ludzkiego, przeprowadzić przez wszystkie fazy rozwoju człowieka i wdrożyć do społeczeństwa na podobnych prawach, co ludzie, trudno zakładać, że sztuczny system będzie myślał w analogiczny sposób do nas. Prawie na pewno system ten posługiwać się będzie własnym zestawem pojęć i modelem świata. W związku z tym będziemy musieli od podstaw uczyć się porozumiewania z nim, poznać jego język, sposób percepcji, podejście do rzeczywistości. Początkowy kontakt z takim systemem można sobie wyobrazić jako pierwszy kontakt UFO z uzdolnionym szympansem. Możliwe, że już nawiązywane są takie pierwsze kontakty.

 
Marcin Żmigrodzki { korespondencję prosimy kierować na adres redakcji }
poprzednia strona 
			powrót do indeksu następna strona

28
powrót do początku
 
The VALETZ Magazine : http://www.valetz.pl
{ redakcja@valetz.pl }

(c) by The VALETZ Magazine. Wszelkie prawa zastrzeżone.