Nowe technologieNowości

Sztuczna inteligencja, czy maszyny mogą mieć świadomość?

Czy maszyny mogą mieć świadomość?

Pytanie, czy maszyny mogą mieć świadomość, nie jest nowe, ponieważ zwolennicy silnej sztucznej inteligencji (silnej AI) i słabej AI wymieniali argumenty filozoficzne przez dłuższy okres czasu. John R. Searle, choć krytycznie nastawiony do silnej SI, scharakteryzował silną SI, przyjmując, że “…odpowiednio zaprogramowany komputer jest naprawdę umysłem, w tym sensie, że komputery wyposażone we właściwe programy można dosłownie powiedzieć, że rozumieją i mają stany poznawcze” (Searle, 1980, s. 417). W przeciwieństwie do tego słaba Sztuczna Inteligencja zakłada, że maszyny nie mają świadomości, umysłu i czucia, lecz jedynie symulują myślenie i rozumienie.

Myśląc o sztucznej świadomości, napotykamy na kilka problemów (Manzotti i Chella, 2018). Najbardziej fundamentalnie, istnieje trudność w wyjaśnianiu świadomości, w jaki sposób subiektywność może wyłonić się z materii – często nazywanej “twardym problemem świadomości” (Chalmers, 1996). Ponadto, nasze rozumienie ludzkiej świadomości jest kształtowane przez nasze własne fenomenalne doświadczenie. Podczas gdy my wiemy o ludzkiej świadomości z perspektywy pierwszej osoby, sztuczna świadomość będzie dla nas dostępna tylko z perspektywy trzeciej osoby. Wiąże się z tym pytanie, jak rozpoznać, czy maszyna ma świadomość.

Podstawowym założeniem sztucznej świadomości jest to, że znajduje się ona w świecie fizycznym maszyn i robotów (Manzotti i Chella, 2018). Ponadto, jakakolwiek definicja sztucznej świadomości podana przez człowieka będzie musiała być dokonana z perspektywy trzeciej osoby, bez polegania na fenomenalnej świadomości.

Jedną ze strategii jest unikanie wąskiej definicji świadomości maszynowej lub unikanie podawania definicji w ogóle. Przykładem tej strategii jest David Levy (Levy, 2009, s. 210), który woli przyjąć pragmatyczne podejście, zgodnie z którym wystarczy mieć ogólną zgodę co do tego, co rozumiemy pod pojęciem świadomości i sugeruje “po prostu użyjmy słowa i zajmijmy się nim”.

Inni autorzy skupiają się na samoświadomości. Jeśli chodzi o roboty samoświadome, Chatila i inni (2018, s. 1) uważają to za istotne: “…. podstawowe zasady i metody, które pozwoliłyby robotom zrozumieć ich otoczenie, być świadomym tego, co robią, podejmować odpowiednie i terminowe inicjatywy, uczyć się na podstawie własnych doświadczeń i pokazać, że wiedzą, że się nauczyli i jak to zrobili”. W przeciwieństwie do tego Kinouchi i Mackin koncentrują się na adaptacji na poziomie systemu (Kinouchi i Mackin, 2018, s. 1), “Świadomość jest uważana za funkcję efektywnej adaptacji na poziomie systemu, opartą na dopasowywaniu i organizowaniu indywidualnych wyników podstawowych jednostek przetwarzania równoległego. Zakłada się, że ta świadomość odpowiada temu, w jaki sposób nasz umysł jest “świadomy”, kiedy podejmujemy chwilowe decyzje w naszym codziennym życiu.

W celu rozwiązania specyficznych dla sztucznej świadomości pytań pomocne jest rozważenie refleksji filozoficznej wokół świadomości, która skupia się na świadomości człowieka (i zwierząt). Istnieje wiele koncepcji świadomości. Normalnie rozróżniamy pomiędzy (a) świadomym bytem, tj. bytem czuwającym, czuwającym, posiadającym samoświadomość i subiektywne doświadczenia jakościowe, (b) świadomym czegoś, na przykład róży, oraz (c) świadomymi stanami psychicznymi, tj. stanami psychicznymi, w których podmiot jest świadomy bycia, takimi jak świadomość zapachu róży (Van Gulick, 2018; Gennaro, 2019).

Dla dyskusji na temat sztucznej świadomości, rozróżnienie Ned Block’a pomiędzy fenomenalną świadomością i świadomością dostępu okazuje się szczególnie pomocne (Block, 1995). Podczas gdy fenomenalna świadomość odnosi się do doświadczenia, do tego, jak to jest być w stanie świadomości, świadomość dostępu odnosi się do dostępności stanu psychicznego do wykorzystania przez organizm, na przykład w rozumowaniu i kierowaniu zachowaniem, i opisuje, jak stan psychiczny jest związany z innymi stanami psychicznymi. Debata na temat sztucznej świadomości wyraźnie skorzystałaby na skupieniu się na świadomości dostępu.

Dehaene et al. (2017) rozróżnia dwa podstawowe wymiary świadomej kalkulacji: globalna dostępność (C1) i samokontrola (C2). Globalna dostępność, którą charakteryzują jako informacje dostępne globalnie dla organizmu, przypomina świadomość dostępu Neda Block’a (Block, 1995). Samokontrola (C2), którą uważają za odpowiadającą introspekcji, “odnosi się do relacji autoreferencyjnej, w której system poznawczy jest w stanie monitorować swoje własne przetwarzanie i uzyskiwać informacje o sobie” (str. 486-487).

Jak pokazują przykłady podejścia do definiowania sztucznej świadomości podane powyżej, różni autorzy podkreślają różne aspekty. Wyraźnie jest miejsce na więcej refleksji i badań nad tym, jak mogłyby wyglądać definicje sztucznej świadomości osób trzecich.

Sztuczna świadomość i interakcja człowieka z Robertem

Ogólnie rzecz biorąc, naukowcy generalnie zgadzają się, że obecne maszyny i roboty nie są świadome – pomimo ogromnej liczby przedstawień science fiction, które wydają się sugerować inaczej. Jednak w badaniu przeprowadzonym wśród 184 studentów, odpowiedzi na pytanie “Czy uważasz, że współczesne komputery elektroniczne są świadome? Nie: 82%; Niepewność: 15%; Tak: 3% (Reggia i in., 2015). Co ciekawe, pytanie w ankiecie dotyczyło “współczesnych komputerów elektronicznych”, a nie AI czy robotów.

Można się spodziewać, że pytania związane ze świadomością pojawią się najłatwiej w przypadku robotów społecznych i interakcji między człowiekiem a robotem (Sheridan, 2016). Zgodnie z definicją podaną przez Kate Darling (Darling, 2012, s. 2) robot społeczny “jest fizycznie ucieleśnionym, autonomicznym agentem, który komunikuje się i wchodzi w interakcje z ludźmi na poziomie społecznym”. Przykładami robotów społecznych są Kismet MIT, Aldebaran NAO i robot społeczny Sophia firmy Hanson Robotics.

Roboty społeczne mają kilka cech, które czynią je wyjątkowymi dla ludzi: Są zdolne do podejmowania ograniczonych decyzji i uczenia się, mogą wykazywać zachowania i wchodzić w interakcje z ludźmi. Ponadto możliwości takie jak niewerbalna bezpośredniość zachowań społecznych robotów (Kennedy i in., 2017), rozpoznawanie mowy i komunikacja werbalna (Grigore i in., 2016), ekspresja twarzy i postrzegana “osobowość” robotów (Hendriks i in., 2011) odgrywają ważną rolę w tym, jak ludzie reagują na roboty.

W konsekwencji, ludzie mają tendencję do rozwijania jednokierunkowych więzi emocjonalnych z robotami, projektują cechy podobne do rzeczywistych, przypisują ludzkie cechy charakterystyczne (antropomorficzne) i przypisują intencje robotom społecznym (Scheutz, 2011; Darling, 2012; Gunkel, 2018). Typowym przykładem, jeśli nie kulminacją tej tendencji, może być społeczny robot humanoidalny Sophia, któremu w 2017 roku przyznano obywatelstwo saudyjsko-arabskie (Katz, 2017).

Wszystko to rodzi pytania o status robotów, a także o to, jak reagować na roboty społeczne i jak się z nimi komunikować (Gunkel, 2018). Czy roboty społeczne to tylko rzeczy? Czy też roboty społeczne są quasi-agentami lub quasi-osobami (Peter Asaro)? Społecznie interaktywni inni? Quasi-inni? Czy roboty powinny mieć swoje prawa?

Nawet jeśli istnieje ogólna zgoda co do tego, że obecne roboty nie mają czujności ani świadomości, niektórzy autorzy (tacy jak Coeckelbergh, 2010; Darling, 2012; Gunkel, 2018) opowiedzieli się za przyznaniem praw do robotów. Na przykład, opierając się na badaniach nad brutalnym zachowaniem wobec robotów, Kate Darling twierdzi, że traktowanie robotów bardziej jak zwierzęta domowe niż jak zwykłe rzeczy jest zgodne z naszymi wartościami społecznymi.

Podczas gdy dokładne argumenty przemawiające za przyznaniem praw do robotów różnią się, tym, co jest wspólne dla tych stanowisk, jest to, że koncentrują się one na społecznych rolach, jakie ludzie przypisują robotom, relacjach i więzach emocjonalnych, jakie ludzie budują z robotami, lub na społecznym kontekście, w którym ludzie wchodzą w interakcję z robotami. Nie przypisują one statusu opartego na możliwościach robotów, ale opowiadają się za prawami opartymi na roli, jaką roboty odgrywają dla ludzi.

Istnieje jednak zasadniczy problem z tym podejściem “społecznych ról”. Sugestie dotyczące sposobu interakcji z robotami nie są spójne ze sposobem, w jaki oddziałujemy z ludźmi (patrz również Katz, 2017). Podejście “ról społecznych”, przeniesione na istoty ludzkie, wskazywałoby, że wartość lub prawa człowieka zależą w dużym stopniu od jego ról społecznych lub interesów innych osób. Twierdzenie to byłoby sprzeczne z ogólnie przyjętym poglądem, że istoty ludzkie mają status moralny niezależny od swoich ról społecznych. Z tej perspektywy podmiot ma status moralny “…jeśli i tylko wtedy, gdy on sam lub jego interesy moralnie są w jakimś stopniu istotne dla jego własnego dobra” (Jaworska i Tannenbaum, 2018).

Dla zapisywania statusu i praw człowieka, osobowość jest najważniejsza. Pojęcie osoby obejmuje szereg możliwości i głównych tematów, takich jak racjonalność; świadomość; postawa osobista (stosunek do podmiotu); zdolność odwzajemnienia postawy osobistej; komunikacja werbalna; i samoświadomość (Dennett, 1976). Daniel C. Dennett uważa je wszystkie za niezbędne warunki osobowości moralnej.

W przeciwieństwie do tego, zgodnie z podejściem “społecznych ról”, prawa nie są przypisywane na podstawie statusu moralnego robota lub jego możliwości, ale na podstawie społecznych ról, które odgrywa on dla innych. Wyjaśnia to, dlaczego świadomość nie ma znaczenia dla tej pozycji. Nie jest bowiem wiarygodne twierdzenie, że obecne roboty mają znaczenie moralne dla siebie, o ile brakuje im takich cech, jak czujność czy świadomość.

Może się to jednak zmienić w przyszłości. Wtedy może być możliwe, aby pomyśleć o koncepcji “robotyzacji” i przypisać status moralny tym przyszłym robotom, w oparciu o ich możliwości. Toczy się już interesująca i kontrowersyjna dyskusja na temat nadania robotom osobowości prawnej (Bryson i in., 2017; Solaiman, 2017) – w debacie na temat kwestii moralnych i prawnych.