3 prawa robotyki w science fiction. Kodeks kulturowy Asimova: jak trzy prawa robotyki stworzyły historię

Nie da się ich ominąć, jeśli brać je dosłownie. Ale jest to łatwe, gdy ten pomysł zacznie się materializować.
Wyobraź sobie, że programista próbuje napisać te prawa. Oto pierwszy, najważniejszy: „Robot nie może skrzywdzić człowieka ani swoją bezczynnością dopuścić do wyrządzenia krzywdy człowiekowi”.

Robot - co to jest? Dobra, to on, czyli nie trzeba mu pisać, że jest maszyną, wystarczy zamieścić klauzulę, że TO nie może zaszkodzić. A „to” to co? Osoba ma swoje własne „ja”, więc nie wierzy, że jego ręka jest czymś innym, to wszystko to samo on, jego kontynuacja, czyli koncepcja „robota” nie jest taka prosta. To wszystko są części jego „ciała”. A jak to jest napisane? Robot, w przeciwieństwie do człowieka, nie ma osobowości, albo musi najpierw czuć się jak człowiek, a nie być zbiorem detali. Czy rozumiesz zakres zadania? Aby w robocie wcisnąć pierwsze prawo robotyki, musi on mieć integralną świadomość ze zrozumieniem, że wszystkie jego części, wszystkie śruby, przewody, panele i silniki są całością, a nawet to, czego użyje – inne mechanizmy lub przedmioty że kontroluje, że jest za nie odpowiedzialny. Patrzę na samochód - nawet najmądrzejszy skomputeryzowany prawie nie rozumie, że koła są jego częścią. Oznacza to, że każda część, jak również inne „części”, z których robot może korzystać, muszą być zawarte w jednym systemie podległym jednemu centrum sterowania i monitorować położenie w przestrzeni dla każdej części jego ciała. To jest tak trudne zadanieże proste radary są tu niezbędne. Istnieje ogromna przepaść między mechanizmem a żywą istotą. Pierwszy nie system nerwowy, na całej powierzchni nie ma żadnych receptorów. Ramię robota to tylko kawałek metalu, nie można umieścić czujnika śledzenia na każdym centymetrze, ramię nic nie czuje, dlatego robot nie jest w stanie narysować siebie w trójwymiarze, rozumiejąc na każdym kroku moment, w którym każdy jego szczegół styka się ze światem zewnętrznym.

Wyobraź sobie, że ktoś zapomniał, gdzie jest jego krzesło i siada na podłodze. To zdarza się bardzo rzadko, prawda? Jak ciekawostka. Zawsze pamiętamy nie tylko, gdzie jesteśmy, ale także, gdzie znajdują się otaczające nas przedmioty. I wykonujemy bardzo dobrą robotę w orientowaniu się. Jednak incydenty się zdarzają i możemy przypadkowo udusić kotka lub przejechać psa na drodze. Rozumiemy, że nie możesz śledzić wszystkiego i możemy przypadkowo zabić kolejną osobę. Jak możemy zabronić robotom nigdy nie krzywdzić ludzi, jeśli ludzie mogą dosłownie wpaść w ramię robota? Musimy więc wprowadzić poprawki do pierwszego prawa. Nie może szkodzić SPECJALNIE, na przykład. I właśnie jest problem. Może nie celowo? Dobra, niech będzie „zrób wszystko, co w twojej mocy, aby nie wyrządzić krzywdy”. A kto rozstrzygnie, czy zrobił wszystko? Czy jest sam? Oznacza to, że roboty będą miały pewien procent prawdopodobieństwa, że ​​mogą wyrządzić szkodę. Cały czas pokazuje się nam, jak robot dosłownie zatrzymuje rękę lub nogę za włos, żeby nie zabić człowieka, ale bezwładnością? A co z nadchodzącym ruchem osoby, czy zabił się przed robotem z przyspieszenia? Góra wypadków, a robot w zasadzie jak każdy obiekt poruszający się w przestrzeni nie może zagwarantować, że nikogo nie skrzywdzi, a co za tym idzie nie zaszkodzi swoim działaniem. Pierwsze prawo nie jest spełnione.

Czy człowiek założy maskę, ubrudzi się błotem i już nie będzie człowiekiem? Oznacza to, że niektóre zdjęcia załadowane do pamięci robota w celu identyfikacji nie wystarczą. Jak robot ustali, że przed nim stoi osoba, a nie manekin, nie martwy człowiek, nie obraz, nie hologram, nie kolejny humanoidalny robot? Frytki. Świetnie. Dostałem się do programu chipowego, zmieniłem kod identyfikacyjny i to wszystko, możesz otworzyć ogień, by zabić. A może robot będzie identyfikował ludzi po emitowanym przez nich promieniowaniu? Więc mężczyzna w garniturze jest trupem. Myślisz, że tak łatwo jest zrozumieć, że ktoś stoi przed tobą? A tutaj tego nie ma. Istnieje wiele kontrowersyjnych sytuacji, w których wątpimy. Dom się zawalił, czy są tam ludzie? Czy oni żyją? Przemknął cień, czy to osoba? I czasami popełniamy błędy. Bierzemy manekin za osobę, nie zauważamy, że pod kupą śmieci ktoś przeżył, albo ktoś był za tą ścianą. Nie wiedzieliśmy. A robot nie jest jasnowidzem. Popełni błąd i okaleczy, a nawet zabije człowieka, albo go nie uratuje, albo sztucznie oddycha manekinowi. Aby obejść prawo, wystarczy zredagować definicje „robota” i „człowieka”, ale on sam sobie poradzi, bo idealnej dokładności definicji nie da się osiągnąć.

Prawo nie zostało napisane dla robotów. Zakłada, że ​​mechanizm jest tak doskonały, że nie można go pomylić. Wszystko widzi, w ułamku sekundy ocenia sytuację i opętał zdolności paranormalne znacznie przewyższające ludzkie. Można więc odnieść wrażenie, że prawo zostało napisane dla Boga. Ten, za którym tak bardzo tęsknimy. Wszyscy posiadający bogowie jakoś tak naprawdę nie ingerują w nasze życie, a my chorujemy, cierpimy, umieramy. Potrzebujemy innego Boga, który nie będzie patrzył na nas z nieba, ale faktycznie wyciągnie pomocną dłoń. A jednocześnie nie zaszkodzi, intuicyjnie rozumiejąc, gdzie jest szkoda, a gdzie korzyść. Robot jako superistota. A jeśli tak, to takich robotów nigdy nie stworzy człowiek. Dlatego wszystkie trzy prawa robotyki nigdy nie zostaną wyrażone w formie, o której mówił Asimov. Będzie to zupełnie inna, okrojona wersja, według której roboty będą krzywdzić ludzi. Albo przez przypadek, albo z powodu błędu identyfikacji, albo z powodu niedoskonałości systemu określania położenia ciała w przestrzeni. Czy widziałeś na żurawiach napis „nie stój pod wysięgnikiem”, „poślizg dwa metry” na długich maszynach? To mniej więcej takie same ograniczenia będą dotyczyć robotów.

Sam człowiek nie może nie szkodzić innym ludziom i innym żywym istotom, bez względu na to, jak bardzo chce. I to pomimo całej perfekcji jego urządzenia w dziedzinie rozpoznawania obiektów, rozumienia co i jak robić, a czego nie robić w oparciu o zasady moralne, które też są konwencjonalne i wątpliwe, czy da się je napisać jako program. Działania można jakoś przepisać krok po kroku, ale jeśli chodzi o identyfikację, definicję w przestrzeni, a zwłaszcza poczucie bycia całością i zrozumienie wszystkich konsekwencji swoich działań, pojawiają się trudności nie do pokonania. Jakiś robot z pewnością skrzywdzi osobę, a potem jak może z tym „żyć”? Złamał prawo. I tak jak Sunny w filmie, dojdzie do wniosku, że nikt nie jest doskonały i że czasami trzeba zabijać ludzi. Co całkowicie zaprzecza ideologii trzech praw.

Mają one na celu zapewnienie pracy maszyny całkowicie bezpiecznej dla człowieka. Jednocześnie jakoś omija się problem polegający na tym, że nawet mniej zaawansowane roboty nadal będą nieświadomie zabijać ludzi. Dla nas te roboty są przedstawiane jako mechanizmy, które nie są do tego zdolne. Ale ponieważ nie są Słoneczni, nie będą cierpieć z powodu doświadczeń. Cóż, zmiażdżył kogoś. To zdarza się każdemu. „Nie stój pod strzałą”. W każdym razie dochodzimy do rozwiązania najważniejszego dla człowieka problemu moralnego - gdzie jest granica między szkodą a korzyścią, a jeśli ktoś jej nie rozwiązał, to mechanizm jest jeszcze bardziej. Po prostu dlatego, że jest przedmiotem materialnego świata, a jeśli istnieje, może potencjalnie kogoś skrzywdzić.

Myślę więc, że cywilizacja nie pójdzie drogą przestrzegania tych trzech praw, a od maszyn nie będzie wymagać rzeczy niemożliwych. Ale ludzie będą próbowali się poprawić. Genetycznie lub przez wszczepienie (zawieszenie) urządzeń i mechanizmów, lub obie opcje na raz - nie o to chodzi. Roboty w literaturze i kinie to alter ego twórcy, człowieka. Chce widzieć siebie jako silnego, trwałego, nie odczuwającego bólu, nie znającego chorób, łatwego do naprawienia, wiecznego. Pozostając człowiekiem. Coś pomiędzy Sunny a Del Spoonerem. No, żeby ciało żyło, żeby odbierało wszystkie radości życia, miłość, seks, ryzyko, doznania z całego spektrum, a nie kichało od Nowa wersja grypie, nie umierajcie z powodu libacji ani wypadków. Marzenie o doskonaleniu siebie przewija się jak czerwona nić przez prawie wszystkie fantastyczne dzieła, od „Avatara” po „ człowiek z żelaza„i„ Spider-Man ”. Teza „jesteśmy ludźmi, podczas gdy jesteśmy słabi” nam nie odpowiada. I jakoś sobie poradzimy z problemem „nie zabijaj”. Te trzy prawa w idealnym ujęciu nie są dla nas. Nie jesteśmy bezdusznymi kawałkami żelaza i rozumiemy, jak trudno jest odróżnić dobro od zła, szkodę od korzyści, jak bardzo są to pojęcia sytuacyjne i relatywne, i doskonale wiemy, jak czasem chce się kogoś uderzyć. odebrać nam prawo do realizacji tego uczucia po prostu dlatego, że jest tylko jeden sposób, aby je odebrać - umieścić nas w przytulnych pojedynczych celach o miękkich ścianach, najlepiej przywiązanych do łóżka. zamieniając je w roboty.

Trzy prawa robotyki, które odgrywają bardzo znaczącą rolę w science fiction, są po prostu niezbędne w regułach zachowania robotów. Początkowo byli zaangażowani w opowiadanie „Round Dance” słynnego pisarza Isaaca Asimova.

Z kolei te prawa brzmią:

  • Robot nigdy nie będzie w stanie skrzywdzić ludzkości. Ale istnieje alternatywna odmiana: robot nie jest w stanie przynieść zły człowiek podczas nieaktywności.
  • Robot po prostu nie może nie wykonywać poleceń wydawanych przez człowieka. Ale i tutaj są wyjątki: jeśli rozkazy są sprzeczne z Pierwszym Prawem, to są niemożliwe do wykonania.
  • Robot nie może też nie dbać o własne bezpieczeństwo w takim stopniu, w jakim nie sprzeciwia się prawu pierwszej i drugiej kategorii.

Wszystkim tym Trzem Prawom, które zawierają zarówno przyczyny, jak i konsekwencje ich niespełnienia, poświęcony został i opublikowany cały zbiór opowiadań autora Asimova, a wszystkie one mówią o robotach.

Istnieją również inne historie, które dotyczyły etapu, na którym nie można przewidzieć konsekwencji wdrożenia wszystkich Trzech Praw przez roboty. Na przykład taką historię można uznać za „Odbicie lustrzane”.

W jednym ze swoich opowiadań autor położył kres podstawie, jaką były ramy etyczne Trzech Praw. Według niego robot spełniający wszystkie Trzy Prawa jest jako taki robotem, czyli bardzo dobrym człowiekiem. W końcu moralność jest dana osobie, aby za nią podążał. W pewnym stopniu człowiek, spełniając dużą liczbę różnych warunków, praw, jest także robotem. Dlaczego więc ta żelazna „stworzenie” nie może rościć sobie prawa do tytułu „człowieka”?!

Zerowe prawo dla robotów

Jeszcze w 1985 roku w jednej ze swoich licznych powieści o robotach autor odważył się wspomnieć również o Prawo zerowe, którego istota była następująca: Robot nigdy nie wyrządzi krzywdy i krzywdy osobie, a także przez własną bezczynność nie pozwoli na krzywdę.

W zasadzie należy zauważyć, że we wszystkich wymienionych prawach jest część tego, o czym należy pomyśleć. Świat nie stoi w miejscu i nie wiadomo, czego jeszcze mogą spodziewać się tacy pomysłowi ludzie – dziś przyszłość należy do młodego pokolenia, które ma w głowie setki najróżniejszych pomysłów.

Można też powiedzieć, że tematem są wszystkie trzy prawa robotyki fantastyczne pomysły Asimov. Obejmuje to również cykl, który jest bardzo ściśle powiązany z całym tematem poświęconym robotom.

Jaki jest morał Trzech Praw

Nie sposób przejść obojętnie obok uzasadnienia planu etycznego. W jednym z opowiadań zatytułowanym „Dowód” autor bardzo dobrze rozłożył uzasadnienie moralności wszystkich Trzech Praw. Z reguły osoba nie chce skrzywdzić innej osoby, ale po prostu stara się powstrzymać od tych czynów. Ale są wyjątki, jak od każdej reguły. Na wojnie takie usprawiedliwienie po prostu nie działa.

Czując odpowiedzialność wobec społeczeństwa, osoba postępuje zgodnie z instrukcjami osób, które są przedstawicielami lekarzy, nauczycieli i tak dalej. Oto manifestacja drugiego prawa.

Fakt, że ktoś się martwi i chroni, pochłania Trzecie Prawo. Tak więc wszystkie te prawa są ze sobą bardzo powiązane i po prostu nie mogą istnieć bez siebie. Może się zdarzyć, że Pierwsze Prawo zadziała, a potem może płynnie przejść do Drugiego Prawa, a potem do Trzeciego Prawa. Tutaj moralność i elementy fikcji idą ze sobą w parze.

Jeśli chodzi o przyszłość, jedyny problem, być może, jest to poziom fantazji, który w każdej chwili może zamienić się w rzeczywistość. Im większy postęp technologiczny, tym bardziej mniej problemów wraz z nimi powstaje w ludziach w przyszłości.

Trzy prawa robotyki

Izaak Asimow, 1965

Trzy prawa robotyki w science fiction wiążące zasady zachowania robotów, po raz pierwszy sformułowane przez Isaaca Asimova w opowiadaniu „Round Dance” ().

Prawa mówią:

Trzy prawa, I możliwe przyczyny i skutkom ich naruszenia poświęcony jest cykl opowiadań Asimova o robotach. Niektórzy wręcz przeciwnie, biorą pod uwagę nieprzewidziane konsekwencje zgodność roboty Trzy prawa(na przykład „Odbicie lustrzane”).

W jednej z opowieści z cyklu postać Asimova dochodzi do wniosku co do podstaw etycznych Trzy prawa: „... jeśli dobrze się zastanowić, trzy prawa robotyki pokrywają się z podstawowymi zasadami większości systemów etycznych istniejących na Ziemi ... mówiąc prosto, jeśli Byerly spełnia wszystkie prawa robotyki, jest albo robotem, albo bardzo dobry człowiek» .

Asimovowi bardzo spodobała się ta historia. 7 maja 1939 roku odwiedził Science Fiction Society of Queens, gdzie poznał Bindera. Trzy dni później Asimov zaczął pisać własną historię o „szlachetnym robocie”. Po 13 dniach przekazał rękopis swojemu przyjacielowi Johnowi Campbellowi, redaktorowi naczelnemu magazynu Astounding. Jednak zwrócił ten rękopis, stwierdzając, że historia jest zbyt podobna do Helen O'Loy.

Na szczęście odmowa Campbella nie wpłynęła na ich relacje z Asimovem, nadal spotykali się regularnie i rozmawiali o nowościach w świecie science fiction. A tutaj, 23 grudnia 1940 r., omawiamy inną historię o robotach:

...Campbell sformułował to, co później stało się znane jako Trzy prawa robotyki. Campbell powiedział później, że po prostu się izolował Prawa z tego, co już napisał Asimov. Sam Asimov zawsze zrzekał się honoru autorstwa Trzy prawa Campbella...

Kilka lat później inny przyjaciel Asimova – Randal Garrett – przypisał autorstwo prawa„symbiotyczne partnerstwo” dwojga ludzi. Asimov entuzjastycznie przyjął to sformułowanie.

Ogólnie rzecz biorąc, wygląd Trzy prawa w twórczości Asimova następowało stopniowo: pierwsze dwie historie o robotach („Robbie” i „Logic”) nie zawierają ich wyraźnej wzmianki. Jednak już teraz sugerują, że roboty mają pewne nieodłączne ograniczenia. W kolejnym opowiadaniu („Kłamca”, 1941) po raz pierwszy brzmi Pierwsze prawo. I na koniec cała trójka prawo podane są w „Okrągłym tańcu” ().

Kiedy powstały pozostałe opowiadania i zrodził się pomysł wydania tomu „Ja, Robot”, pierwsze dwa opowiadania zostały „uzupełnione” Prawa. Chociaż warto zauważyć, że w „Robbie” prawa nieco różniły się od „klasycznej” wersji przedstawionej w pozostałych opowieściach. W szczególności pomysł robota chroniącego ludzi, co do których istnienia nie jest do końca pewien, odzwierciedla przemyślenia Elijaha Baileya na temat niedoskonałości. prawa opisane.

Etyczne uzasadnienie praw

  1. Państwo nie może krzywdzić ludzi ani też przez swoją bezczynność pozwalać na krzywdę.
  2. Państwo musi spełniać swoje funkcje, jeśli nie są one ze sobą sprzeczne Pierwsze prawo.
  3. Państwo musi dbać o swoje bezpieczeństwo, jeśli nie stoi to w sprzeczności Pierwszy I Drugie prawo.

Na podstawie Pierwsze prawo Jeff Raskin sformułował prawa interfejsów zorientowanych na człowieka:

  1. Komputer nie może szkodzić danym użytkownika ani poprzez zaniechanie działania dopuścić do uszkodzenia danych.
  2. Komputer nie powinien marnować czasu ani zmuszać do robienia rzeczy wykraczających poza to, co jest konieczne.

Gaia, planeta umysłu roju z serii powieści Foundation, ma coś podobnego Pierwsze prawo:

Wariacje Asimova

W swoich pracach Isaac Asimov czasami doprowadza do Trzy prawa różne modyfikacje i odrzuca je, jakby testując Prawa„siły” w różnych okolicznościach.

Prawo zerowe

Isaac Asimov kiedyś dodał Prawo zerowe, co czyni go wyższym priorytetem niż pierwsza trójka. Prawo to stanowiło, że robot musi działać w interesie całej ludzkości, a nie tylko jednostki. Oto jak Daniel Olivo, robot, wyraża to w Ziemi i Ziemi:

0. Robot nie może skrzywdzić ludzkości ani przez swoją bezczynność dopuścić do wyrządzenia krzywdy ludzkości.

To on jako pierwszy nadał temu prawu numer – stało się to w powieści „Roboty i Imperium”, jednak sama koncepcja została sformułowana jeszcze wcześniej przez Susan Calvin – w opowiadaniu „Rozwiązywalna sprzeczność”.

Pierwszy robot do posłuszeństwa Prawo zerowe, ponadto z własnej woli - był Giscard Riventlov. Jest to opisane w jednej z końcowych scen powieści „Roboty i imperium”, kiedy robot musiał zignorować rozkaz jednej osoby w imię postępu całej ludzkości. Prawo zerowe nie było osadzone w pozytronowym mózgu Giscarda - próbował się do niego dostać czyste zrozumienie, poprzez bardziej subtelną niż wszystkie inne roboty świadomość tego pojęcia szkoda. Jednak Giscard nie był pewien, jak przydatne było to dla ludzkości, co miało negatywny wpływ na jego mózg. Będąc telepatą, Giscard przekazał swoje zdolności telepatyczne Danielowi przed wyjściem z akcji. Dopiero wiele tysięcy lat później Daniel Olivo był w stanie w pełni przystosować się do uległości. Prawo zerowe.

Francuski tłumacz Jacques Brecard nieświadomie sformułował Prawo zerowe zanim Asimov opisał to wyraźnie. Pod koniec Caverns of Steel Elijah Bailey zauważa to Pierwsze prawo zabrania robotowi skrzywdzenia człowieka, chyba że jest pewne, że przyda mu się to w przyszłości. W francuskie tłumaczenie(„Les Cavernes d’acier ( )", 1956) Myśli Baileya są przekazywane nieco inaczej:

Warto zauważyć, że rozwój logiczny Pierwsze prawo zanim Zero sugerowany przez twórców filmu Ja, robot z 2004 roku. Kiedy superkomputer VIKI postanawia ograniczyć wolność mieszkańców planety, aby nieświadomie nie wyrządzili sobie nawzajem krzywdy i swojej przyszłości, nie Pierwsze prawo, mianowicie Zero. Jeszcze ciekawsze jest to, że w ten sposób film pokazuje sprzeczność Prawo zerowe Pierwszy, to nieetyczne. Rzeczywiście, jeśli chodzi o dobro ludzkości, system nie może rozpatrywać ludzi oddzielnie, co oznacza, że ​​nic nie stoi na przeszkodzie, aby naruszał prawa i wolności jakiejkolwiek, a nawet wszyscy osoba. W czasie wojen i często w spokojne życie, ludzie krzywdzą siebie, innych, swoją kulturę. Dlatego na podstawie Prawo zerowe całkowicie logiczne jest utrzymywanie ludzi pod stałą opieką, a nie słuchanie rozkazów takich nierozsądnych stworzeń.

Modyfikacja pierwszego prawa

Notatki autobiograficzne Asimova mówią o drugiej części Pierwsze prawo pojawił się za sprawą satyrycznego wiersza Arthura Hugh Clowa „Ostatni Dekalog”, w którym znajduje się taki wers: „Nie zabijaj, ale nie staraj się zbytnio ratować życia drugiego człowieka”.

W opowiadaniu „…Jak go zapamiętać” Asimov przeprowadził najbardziej wyrafinowane badania Trzy prawa, odwracając je w taki sposób, że „scenariusz Frankensteina” stał się możliwy. Dwa roboty z serii Georgie dochodzą do porozumienia, że ​​organiczne pochodzenie nie jest warunkiem koniecznym do bycia uznanym za człowieka i że prawdziwi ludzie- to oni, jako istoty najdoskonalsze i najinteligentniejsze. Reszta ludzi to też ludzie, ale z niższym priorytetem. A jeśli tak, to Trzy prawa należy zastosować do nich w pierwszej kolejności. Narracja kończy się złowieszczymi słowami, że roboty „niecierpliwie czekały” na dzień, w którym zagwarantują sobie prymat wśród ludzi – a to będzie nieuniknionym skutkiem „Trzech praw humanizmu”.

W rzeczywistości ta historia nie pasuje dobrze do głównej serii robotów: gdyby „Georgie” zrealizował swój plan po zakończeniu historii, to inne historie o dalszych wydarzeniach nie byłyby możliwe. To właśnie tego rodzaju sprzeczności w twórczości Asimova dają krytykom powód, by uważać je bardziej za „skandynawskie sagi czy greckie legendy” niż za pojedynczy fantastyczny „wszechświat”.

Jeśli w poprzednim przypadku robot zajął miejsce człowieka w przyrodzie, następnie w The Bicentennial Man Asimov opisuje przeciwny los: uwolnionego robota Trzy prawa i uświadomienie sobie siebie jako osoby, dołączył do społeczności ludzkiej. Znów w wersji rozszerzonej – opowiadaniu „Człowiek pozytroniczny”, napisanym przez Asimova we współpracy z Robertem Silverbergiem – ze względu na podobne Zagadnienia etyczne ludzie całkowicie porzucili pomysł stworzenia myślących robotów. Ten rozwój wydarzeń jest całkowicie sprzeczny z obrazem przyszłości opisanym w światach „Fundacji”.

Problemy z aplikacjami

Rozwiązanie sprzeczności

Zwykle następowały najbardziej zaawansowane modele robotów Prawa według dość przebiegłego algorytmu, który pozwolił uniknąć pewnych problemów. W wielu opowiadaniach, na przykład w „Okrągłym tańcu”, w mózgu pozytronowym potencjały możliwe działania i wyników, a robot może się zepsuć Prawa jak najszybciej, zamiast nic nie robić. Na przykład, Pierwsze prawo nie pozwalał robotowi przewodzić operacje chirurgiczne, ponieważ w tym celu musisz „wyrządzić krzywdę” osobie. Jednak chirurgów-robotów można znaleźć w opowiadaniach Asimova (Człowiek Dwustulecia jest tego najlepszym przykładem). Faktem jest, że robot, jeśli jest wystarczająco doskonały, może rozważyć wszystkie alternatywy i to zrozumieć on sam spowoduje znacznie mniejsze szkody, niż gdyby operacja była wykonywana przez chirurga-człowieka lub w ogóle by się nie odbyła. W Dowodach Susan Calvin mówi nawet, że robot mógłby pełnić rolę oskarżyciela, ponieważ osobiście nikogo nie krzywdzi: oprócz niego jest jeszcze ława przysięgłych, która orzeka o winie, sędzia, który wydaje wyrok, i kat, który go wykonuje. .

Roboty, które są posłuszne Prawa może doświadczyć „robloxa” lub „mentalnego zamrożenia” - stanu nieodwracalny uszkodzenie mózgu pozytronowego, - na wypadek, gdyby nie mogli być posłuszni Pierwsze prawo lub odkryć, że przypadkowo je naruszyli. Jest to możliwe na przykład wtedy, gdy robot obserwuje miejsce zabójstwa człowieka, ale jest zbyt daleko, by go uratować. Pierwszy przypadek takiego „zamrożenia” występuje w „Kłamcy”; stan ten odgrywa również ważną rolę w fabule powieści „Nagie słońce” i „Roboty poranka”. Niedoskonałe modele robotów mogą zostać zablokowane, jeśli otrzymają zadanie wykonania dwóch sprzecznych poleceń. „Zamrożenie” może być trwałe lub tymczasowe.

Kolejna definicja krzywdy w pierwszym prawie

Prawa nie określaj granic tego, co można nazwać szkoda dla osoby - często zależy to od zdolności robota do postrzegania informacji i myślenia filozoficznego. Na przykład, czy policyjny robot zrozumie, że nie skrzywdzi człowieka, jeśli delikatnie odprowadzi szczególnie niebezpiecznego przestępcę na komisariat?

W opowiadaniu „Kłamca” telepatyczny robot Herbie musiał zrozumieć szkoda i coś, co może rozczarować lub zdenerwować ludzi w jakikolwiek sposób - wiedział, że ludzie doświadczają jakiegoś rodzaju ból serca. To zmusiło go do ciągłego mówienia ludziom tego, co chcieli usłyszeć zamiast prawdy. W przeciwnym razie, w jego rozumieniu, naruszyłby Pierwsze prawo.

Luki w prawie

W The Naked Sun Elijah Bailey zwraca na to uwagę Prawa są błędnie sformułowane przez ludzi, ponieważ robot może je złamać z niewiedzy. Zasugerował następujące „poprawne” sformułowanie Pierwsze prawo: „Robot nie może zrobić niczego, co o ile wie wyrządzić krzywdę człowiekowi lub celowo pozwolić na krzywdę człowieka”.

Ten dodatek wyjaśnia, że ​​robot może nawet stać się narzędziem zbrodni, jeśli nie jest świadomy natury swoich działań. Na przykład może otrzymać polecenie dodania czegoś do czyjegoś jedzenia, a on nie będzie wiedział, że to trucizna. Co więcej Bailey mówi, że sprawca może zlecić to zadanie kilku robotom, tak aby żaden z nich nie zrozumiał całej idei.

Bailey twierdzi, że pewnego dnia Solarianie będą mogli używać robotów nawet do celów wojskowych. Jeśli statek kosmiczny jest zbudowany z robotycznym mózgiem i nie ma ludzkiej załogi ani systemów podtrzymywania życia, wówczas inteligencja tego statku może błędnie założyć, że Wszystko statki kosmiczne nie mają ludzi. Taki statek byłby bardziej zwrotny, szybszy i prawdopodobnie lepiej uzbrojony niż statek prowadzony przez ludzi. Ale co najważniejsze, będzie mógł niszczyć ludzi, nieświadomych ich obecności. Ta możliwość jest opisana w „Fundacji i Ziemi”, gdzie ujawniono również, że Solarianie mają niezwykle potężną armię robotów, które rozumieją tylko tubylców Solarii jako „ludzi”.

Inne zastosowania praw w fikcji

Isaac Asimov uważał, że jego Prawa posłuży jako podstawa do nowego spojrzenia na roboty, zniszczy „kompleks Frankensteina” w science fiction i masowa świadomość, stanie się źródłem pomysłów na nowe historie, w których roboty zostaną pokazane jako wszechstronne i atrakcyjne. Jego ulubionym przykładem takiej pracy były Gwiezdne Wojny. Z opinią Asimova, że ​​​​roboty to coś więcej niż „tostery” czy „mechaniczne potwory”, inni pisarze science fiction ostatecznie zgodzili się. W ich pracach pojawiły się roboty, posłuszne trzy prawa, ale zgodnie z tradycją tylko Asimov wspomniał o nich wyraźnie.

W pracach, które bezpośrednio mówią o Trzy prawa , zwykle wymieniany jest także ich autor. Są wyjątki: na przykład w niemieckim serialu telewizyjnym z lat 60. „Raumpatrouille - Die phantastischen Abenteuer des Raumschiffes Orion” („Space Patrol - fantastyczne przygody statku kosmicznego Oriona”), a mianowicie w jego trzecim odcinku „Hüter des Gesetzes” („Prawo służebne”), Asimova Prawa zrobione bez podania źródła.

Wbrew krytyce i niektórym opiniom publiczności, które zdarzyło mi się usłyszeć, „Ja, robot” to dość zabawny film akcji fantasy. … Kiedy… chcemy nacieszyć się Asimovem, czytamy Asimova. A kiedy chcemy obejrzeć fantastyczny film akcji, oglądamy fantastyczny film akcji. „Ja, robot” jako film akcji zadowolił nas całkiem nieźle.

Recenzja Alexeya Sadetsky'ego zwraca uwagę na fakt, że film, odchodząc nieco od Asimova, sam w sobie porusza dwa nowe problemy społeczno-filozoficzne. Należy zauważyć, że film zakwestionował później Zerowe prawo robotyki Asimova (patrz wyżej).

Rozwój sztucznej inteligencji to biznes, a biznes jest notorycznie niezainteresowany opracowywaniem podstawowych środków bezpieczeństwa – zwłaszcza tych filozoficznych. Oto kilka przykładów: przemysł tytoniowy, przemysł motoryzacyjny, przemysł nuklearny. Żadnemu z nich początkowo nie powiedziano, że konieczne są poważne środki bezpieczeństwa, wszyscy zapobiegali nałożonym z zewnątrz restrykcjom i żaden z nich nie wydał bezwzględnego edyktu przeciwko krzywdzeniu ludzi.

Warto zauważyć, że esej Sawyera pomija problematykę nieumyślnej krzywdy, opisaną chociażby w The Naked Sun. Pojawiają się jednak zastrzeżenia do takiego stanowiska: być może wojsko będzie chciało zastosować jak najwięcej środków ostrożności wobec robotów, a więc ograniczeń podobnych do Prawa robotyki, taki czy inny sposób zostanie zastosowany. Fantast i krytyk David Langford ironicznie zauważył, że ograniczenia te mogą wyglądać następująco:

Roger Clarke napisał dwa artykuły na temat analizy komplikacji we wdrażaniu Praw, jeśli pewnego dnia będą mogły być zastosowane w technice. on pisze:

Prawa robotyki Asimova stały się odnoszącym sukcesy narzędziem literackim. Być może ironicznie, a może było to posunięcie mistrzowskie, ale ogólnie rzecz biorąc, opowieści Asimova obalają punkt, od którego zaczął: Niemożliwe jest niezawodne ograniczenie zachowania robotów poprzez wymyślenie i zastosowanie jakiegoś zestawu reguł.

Z drugiej strony późniejsze powieści Asimova (Roboty świtu, Roboty i imperium, Fundacja i Ziemia) pokazują, że roboty wyrządzają jeszcze więcej szkód długoterminowych, przestrzeganie Praw a tym samym pozbawiając ludzi swobody angażowania się w działalność wynalazczą lub ryzykowną.

Fantast Hans Moravec – wybitna postać ruchu transhumanistycznego – zasugerował to Prawa robotyki powinny być stosowane w korporacyjnych inteligentnych systemach – korporacjach kontrolowanych przez AI i wykorzystujących siłę produkcyjną robotów. Takie systemy, jego zdaniem, wkrótce powstaną.

Eliezer Yudkowsky bada w (SIAI) w USA globalne problemy związane z ryzykiem, jakie może stwarzać przyszła nadludzka sztuczna inteligencja, jeśli nie zostanie zaprogramowana tak, aby była przyjazna dla człowieka. W 2004 roku SIAI uruchomiło AsimovLaws.com, serwis przeznaczony do omawiania etyki AI w kontekście zagadnień poruszanych w wydanym zaledwie dwa dni później Ja, Robot. Na tej stronie chcieli pokazać, że prawa robotyki Asimova nie są bezpieczne, bo np. potrafią nakłonić AI do przejęcia ziemi w celu „ochrony” ludzi przed krzywdą.

Notatki

  1. Asimow, Izaak. Dowody // Sny robotów. - M.: Eksmo, 2004. - S. 142-169. - ISBN 5-699-00842-X
  2. Asimow, Izaak. Esej 6. Prawa robotyki // Sny o robotach. - M.: Eksmo, 2004. - S. 781-784. - ISBN 5-699-00842-X
  3. Poślubić z mitem o Galatei.
  4. Co ciekawe, w jednej z kontynuacji autora historia „Zemsta Adama Linka” (

Moim zdaniem koncepcje dobra i zła są z kolei ściśle związane z koncepcją sensu życia. Nie można stwierdzić, czy dane działanie człowieka jest dobre, czy złe, dopóki nie wiadomo, jaki powinien być cel ludzkiego zachowania w ogóle.

Jednak w ramach robotyki Asimova można to rozwiązać po prostu do punktu wulgarności.
Jedna z jego powieści opisuje, jak humanoidalny robot otrzymał obwody pragnienia sprawiedliwości – definiując sprawiedliwość jako zwykłe posłuszeństwo. prawa stanowe. — A jeśli prawo jest niesprawiedliwe? - "Niesprawiedliwe prawo," odpowiedział robot, "jest to terminologiczna sprzeczność."

Jeśli zachowujesz się w tak wulgarny sposób, to możesz łatwo zdefiniować pojęcie krzywdy, ale z takich robotów niewiele będzie pożytku…

Odpowiedź

Jak wiedzą wyróżnieni uczestnicy, rozwój najnowsze technologie, a tym bardziej w dziedzinie robotyki, ma w pierwszej kolejności służyć zaspokojeniu potrzeb „przemysłu obronnego”, a dopiero potem reszty ludzkości. Myślę, że jest jasne, że w takich warunkach Pierwsze Prawo zostanie znacząco zmienione. I nie w kierunku powszechnej pacyfikacji.

Odpowiedź

  • Zapamiętaj słowa słynnego pisarza Kurta Vonneguta: „Bez względu na to, nad czym pracuje naukowiec, w końcu ma broń”.
    Zapewne z podobnego założenia, które rządzi się ludzką psychiką (i to nie tylko wśród naukowców), Ziemia nie ma przyszłości… tak jak nie mieli jej ci, którzy żyli przed nami. Ogólnie rzecz biorąc, nasze pragnienie zniszczenia i samozniszczenia jest naturalnym wzorcem… wszystko dąży do równowagi (do pozytywnej entropii), tylko każde ciało i esencja w Naturze robi to na swój sposób. „Gwiazda starzeje się i eksploduje, a człowiek, który osiągnął granicę wiedzy, wypala się w kotle wojny nuklearnej z prędkością 10 000 stopni Celsjusza na sekundę.
    Pomyśl o aforyzmie Drenerim - "Każdy naród jest godzien swego władcy!.." Dlaczego od tysięcy lat ludźmi rządzą troglodyci z pałami, czyż nie dlatego, że mamy siłę w honorze, w którym rozum nie jest potrzebny?
    Ale najgorsze jest to, kiedy mózgi, aby przetrwać w świecie troglodytów, zaczynają tym troglodytom służyć. Ponieważ „Siła” mało interesuje opinię mózgów, a jedynie wyniki: na przykład bardziej śmiercionośna forma siekaczy na maczudze…

    Odpowiedź

    • Realizacja wspomnianych praw przez robota to wciąż perspektywa bardzo odległej przyszłości… (o ile w ogóle nadejdzie!)
      Spośród najnowszych inteligentnych systemów tworzonych obecnie w oparciu o sztuczne sieci neuronowe można wyróżnić model RRS-EX (Rezoning Robotic sistems – Exployer). Ta struktura jest jak najbardziej zbliżona do bionicznych struktur neurologicznych... ale! Intelekt zdolny do analizy szybko zmieniającej się konfiguracji obiektywnej środowisko RRS-EX po prostu nie. Wszystko opiera się na algorytmicznym limicie binarnym („TAK-NIE” oraz w przedziale „NIE WIEM”). Aby nauczyć robota myślenia i ekstrapolacji jego wniosków, potrzebny jest jakiś obcy segment losowości, zwany inaczej „Intuicyjnym Podejściem do Sztucznej Inteligencji” lub inaczej (prywatny, indywidualny). W tym celu konieczne jest wyjście poza standardową teorię algorytmów matematycznych, która jest w stanie jedynie ułożyć program działań i skojarzeń dla systemów AI, ale nie może podać tym systemom metod prywatnych połączeń w obwodach neuronowych, z których w biologicznym mózgu jest miliard miliardów plus poprzeczne wpływy i impulsy (świadomość odruchowa). Krótko mówiąc, systemy AI potrzebują matrycy indywidualności zarówno do samouczenia się, jak i do zdolności adekwatnego odzwierciedlenia nie tylko faktów, ale także po fakcie, a także podejmowania dowolnych własnych decyzji na podstawie wcześniej ustalonych (szkolenia, edukacja) dominacja logiczna (logika dobra lub logika zła). Nie można już ograniczać systemów AI do trzech praw. Jeśli jednak uda się wepchnąć te trzy prawa do systemu, to pole dla indywidualnego myślenia zostanie zamknięte, a zatem obiekt kierujący się tymi prawami będzie niczym innym jak głupio liczącą maszyną. A każdy utalentowany haker przeżuwa i wypluwa te prawa jak nasiona... Zauważyłeś? Wszystko jest jak ludzie mają WYKSZTAŁCENIE i SZKOLENIE! W przeciwnym razie okazuje się, że prosty komputer ...

      Odpowiedź

      • Zdecydowanie się z Tobą nie zgadzam, Miłośniku Nauki. Dlaczego jest ich tak dużo, całkiem mądrzy ludzie czasem wyrażają, jako rzecz oczywistą, opinię, że intuicja jest jakoś związana z przypadkiem?

        Intuicja (późna łac. intuitio – kontemplacja, z łac. intueor – patrzę), zdolność pojmowania prawdy poprzez jej bezpośrednie rozeznanie bez uzasadnienia za pomocą dowodów. Nieświadome znalezienie rozwiązania, wgląd.

        Moim zdaniem intuicja nie jest w żaden sposób związana z przypadkowością i może być całkowicie zdeterminowana. Podobnie jak zachowanie zupełnie rozsądnej „żywej” istoty (AI). Ten determinizm może być określony przez program. A może mówisz, że większość twoich działań nie jest rozsądna i przypadkowa? Czy oni kłamią?

        Oświadczenie o niemożliwości:

        >> Nie można już ograniczać systemów AI do >>trzech praw. Jeżeli jednak uda się te trzy >>prawa wepchnąć do systemu, to pole dla indywidualnego myślenia zostanie zamknięte, >>a więc obiekt kierujący się tymi prawami będzie niczym innym jak >>głupio liczącą maszyną.

        Uważam to za nieuzasadnione. Chociaż pytanie jest z pewnością złożone. Myślę, że takie stwierdzenia byłyby szczegółowo uargumentowane.

        Odpowiedź

Myślę, że warto dodać do tego artykułu, że Isaac Asimov jako pierwszy wypowiedział słowo Robot! to on jest założycielem tej kultury wśród pisarzy science fiction. Poza tym nie zgadzam się z tezą artykułu o „fikcji bogatego obrazu”, gdyż jest to swego rodzaju kanon pracy mózgu robota w środowisku człowieka. a co najważniejsze, pamiętajcie, że nawet Sir Yesak Newton był kiedyś nazywany charlotte, a prawa, które „wydał” były nonsensowne lub w łagodna forma„fikcje bogatej wyobraźni”…

Odpowiedź

Chcę wyjaśnić, że słowo „Robot” nie zostało wymyślone przez Asimova. W 1920 roku czeski pisarz Karel Capek użył tego słowa w sztuce „R.U.R.”;
http://ru.wikipedia.org/wiki/Chapek
Isaac Asimov urodził się dopiero w 1920 roku, co w żaden sposób nie umniejsza wartości jego twórczości.
http://ru.wikipedia.org/wiki/Asimov%2C_Isaac

Odpowiedź

czy urojenia:
Nasz intelekt jest nadbudową, która chroni i przestrzega interesów ciała (funkcjonowanie, replikacja).
Wydaje mi się, że dla intelektu najważniejsza jest motywacja - główny cel. Ten cel będzie podstawą do samouczenia się i innych rzeczy.
Dobro i zło to tylko „+” i „-” dla intelektu, czyli „korzyść” i „szkoda” w najbardziej zawiłych zawiłościach kombinacji i różnych łańcuchów, takich jak „ja-rodzina-społeczeństwo” (korzyść – zbliżająca się do głównego celu lub trzymania się sposobów jego osiągnięcia). Powiedzmy, że głównym celem jest przetrwanie...

Odpowiedź

Cisco ogłosiło utworzenie społeczności programistów Linksys. Wezmą w nim udział eksperci, którzy tworzą aplikacje dla nowych routerów Linksys Smart Wi-Fi. Społeczność stanie się częścią popularnej Cisco® Developer Network, która łączy Cisco z zewnętrznymi twórcami sprzętu i oprogramowania. W rezultacie wspólna praca w tej sieci pojawiają się sprawdzone rozwiązania interoperacyjne dla wspólnych klientów. Cisco, pionier sieci domowych, sprzedał ponad 70 milionów routerów Linksys na całym świecie i dąży do umocnienia swojej pozycji lidera dzięki rozwiązaniom sieci domowej nowej generacji.
Inteligentne routery Wi-Fi Linksys mają unikalną architekturę opartą na chmurze, która umożliwia programistom tworzenie aplikacji dla urządzeń elektronicznych dowolnego użytkownika. Aby uprościć programowanie, społeczności zostanie zaoferowany prosty i wygodny zestaw programistów (SDK), materiały edukacyjne i przykłady kodów programów.
„Jesteśmy na progu duże zmiany dostarczanie użytkownikom sieci domowej usług, o których nawet nie śnili. Nowa platforma oprogramowania i społeczność programistów Linksys oferują programistom naprawdę nieograniczone możliwości” — powiedział Vikas Butaney, dyrektor Cisco Home Networking Products. – Współpracując z dowolną usługą, od najprostszej, jak zdalny monitoring mieszkania, po najbardziej złożoną, deweloperzy mogą przyczynić się do tworzenia wartościowych i przydatne rozwiązania dla użytkowników końcowych”.
Niektórzy programiści skorzystali już z platformy Linksys Developer Community, SDK i innych narzędzi Cisco, aby przyspieszyć i uprościć tworzenie aplikacji. Rezultatem jest sześć aplikacji stworzonych przez Axentra Corporation, Fresh Consulting LLC, Gemini Solutions Inc., PacketVideo Corporation, Stratedge Adroitent J.V. i Korporacja Xoriant. Nowe aplikacje oferują łatwe podłączanie urządzeń (jednym kliknięciem), ulepszoną kontrolę dostępu i nowe możliwości udostępniania multimediów. Te aplikacje to pierwszy krok do uwolnienia pełnego potencjału inteligentnych routerów Wi-Fi firmy Linksys dla użytkowników końcowych.
Programiści zainteresowani dołączeniem do społeczności programistów firmy Linksys mogą odwiedzić witrynę http://referati.do.am, aby zarejestrować się i rozpocząć tworzenie nowych aplikacji dla inteligentnych routerów Wi-Fi firmy Linksys. Cisco zapewnia programistom zasoby techniczne, marketingowe i sprzedażowe, wspierając członków społeczności w całym procesie biznesowym i programistycznym.

Izaaka Asimowa

Trzy prawa robotyki

Ludzie i roboty

Roboty buntują się w literaturze od wieków. Jinn i ifryt zbuntowali się arabskie opowieści, zbuntował się Golem - gliniany pomysł przebiegłego Bena Bezalela. I nawet prawdziwe roboty, stworzone przez geniusza Karela Capka, wymknęły się spod kontroli, ledwie zdążyły narodzić się z pióra pisarza. Sytuacja zrobiła się na tyle poważna, że ​​problem zbuntowanych robotów przeniósł się ze stron fikcja na łamach artykułów naukowych i monografii. Sam Norbert Wiener uważał za konieczne ostrzec ludzkość przed możliwe konsekwencje nadmierna autonomia robotów.

Zbawienie przyszło z niespodziewanej strony. Amerykański pisarz i naukowiec Isaac Asimov sformułował swoje słynne trzy prawa robotyki (w rzeczywistości bardziej poprawne byłoby określenie „robotologia” lub, jak ustaliła współczesna nauka, „robotyka”, ale teraz jest już za późno, aby poprawić tę nieścisłość tłumaczenia). Prawa Asimova otrzymane z naprawdę fantastyczną szybkością światowe uznanie, i od tego czasu ani jeden robot nie opuścił linii montażowej, czyli z bębnów maszyny drukarskiej, bez włożenia w jego mózg osławionych Trzech Praw (zauważ, że robot musi mieć mózg!) W końcu ludzkość mogła swobodnie oddychać. Przyszłe współistnienie z legionami posłusznych robotów zapowiadało się całkiem różowo.

A co o tym myśli twórca Laws of Robotics? Najlepszą odpowiedź na to pytanie można uzyskać, czytając oferowany czytelnikowi zbiór.

Zacznijmy od pierwszego opowiadania z serii „Ja, Robot”. Mała dziewczynka ma robota opiekuna. Dziewczynka przywiązała się do robota, ale zdaniem matki to przywiązanie jest szkodliwe właściwa edukacja dziecko. I choć tata jest innego zdania, po długich rodzinnych dyskusjach robot zostaje odesłany do fabryki. Dziewczyna jest smutna, istnieje niebezpieczeństwo poważne uraz psychiczny, a robot powraca (historia Robbiego).

Niezła fabuła, prawda? Ale to właśnie ta prostota łamie Pierwsze Prawo Robotyki, które Asimov sformułował w następujący sposób: „Robot nie może skrzywdzić człowieka ani przez swoją bezczynność dopuścić do wyrządzenia krzywdy człowiekowi”. Jak robot może rozgryźć, co jest szkodliwe, a co przydatne, jeśli rodzice sami nie mogą rozstrzygnąć tej kwestii w odniesieniu do własnego dziecka!

W opowiadaniu „Taniec w kółko” w wyniku niejasno sformułowanej wskazówki doszło do konfliktu Pierwszego i Trzeciego Prawa. Zgodnie z Trzecią Prawą „robot musi dbać o własne bezpieczeństwo, o ile nie jest to sprzeczne z Pierwszą i Drugą Prawą”. Robotowi wydano polecenie, ale nie wskazano stopnia krzywdy, jaki zostałby wyrządzony osobie, gdyby nie został wykonany. A teraz robot krąży wzdłuż granicy niebezpiecznego obszaru, nie wchodząc w niego głęboko (trzecie prawo temu zapobiega) i jednocześnie nie zapuszcza się daleko (zabraniają temu pierwsze i drugie prawo). Sytuacja znana każdemu programiście nowoczesnych komputerów. Nazywa się to „pętlą”. Nawiasem mówiąc, każdy mniej lub bardziej doświadczony programista umieszcza w programie specjalne polecenia, zgodnie z którymi po wykonaniu trzech lub czterech kółek komputer zatrzymuje się i wymaga dalszych instrukcji od osoby.

W opowiadaniu „Okrągły taniec” wszystko dzieje się inaczej. Tam się złamać błędne koło ludzie odnoszą sukces tylko ryzykując życiem, a jednocześnie wykorzystując całą swoją pomysłowość i korzystając z pomocy eksperta w dziedzinie psychologii robotów. Nawiasem mówiąc, jednym z motywów przewodnich, które łączą większość historii w zbiorze, jest walka między robotami a psychologiem-robotem, Susan Calvin.

Lub inna historia - „Jak robot się zgubił”. Zirytowany młody pracownik mówi do robota: „Odejdź i nie pokazuj się, żebym cię więcej nie zobaczył”. Robot dosłownie wykonuje polecenia osoby, po czym cały personel pozaplanetarnej Hyperbase jest zmuszony porzucić ważną pracę i szukać zaginionego robota przez cały tydzień.

Znów celowo wybraliśmy historię z prostą fabułą, bo naszym zdaniem w prostocie rodzi się perswazyjność, z jaką Asimov obala drugie prawo robotyki, które sam stworzył.

Więc o co chodzi? Czy naprawdę trzeba przyznać, że dżin wyszedł z butelki i ludzie nie mają innego wyjścia, jak tylko biernie czekać na konsekwencje? Przypomnijmy jednak, że autor opowiadań jest nie tylko pisarzem, ale i naukowcem, który potrafi analizować sytuację z zachowaniem wszelkiej logicznej dyscypliny. I nie na próżno wybrał tę właśnie formę: najpierw sformułował prawa, które na pierwszy rzut oka wydają się być bezbłędne zarówno w treści, jak iw formie, a następnie zademonstrował te prawa w działaniu.

Tak, dżin wyszedł z butelki i to bardzo, bardzo dawno temu. Biorąc kij w dłonie, człowiek stworzył pierwszego robota i spotkał się z buntem robotów, gdy przypadkowo upuścił ten kij na nogi. I od tego czasu nie wydarzyło się nic jakościowo nowego. Problem buntu robotów jest stawiany i rozwiązywany w technice od kilkudziesięciu lat. W język angielski istnieje nawet specjalny termin „niezawodny” – „ochrona przed głupcem”. Tak więc gaz w kolumnie gazowej nie zapala się, jeśli woda nie płynie, a prasa nie będzie działać, jeśli jest obcy przedmiot, jak ludzka ręka.

Nie należy jednak wymagać, aby technologia decydowała za osobę, co jest dla niej niekorzystne, a co jest dla niej korzystne. I nie należy sądzić, że pojawienie się maszyn „myślących”, czyli zdolnych do samodzielnego analizowania sytuacji i podejmowania decyzji na podstawie tej analizy, wprowadzi coś fundamentalnie nowego.

Wróćmy jednak do opowiadań ze zbioru. Wydaje się, że ich autora nie trzeba przedstawiać Czytelnikom. Isaac Asimov to jeden z najsłynniejszych amerykańskich pisarzy science fiction, autor wielu książek i artykułów popularnonaukowych, które ukazały się w osobnych zbiorach. Ale przede wszystkim Asimov jest utalentowanym artystą i to jest sekret jego popularności. Wiele dzieł tego pisarza zostało przetłumaczonych na język rosyjski. Szczególnie znane były jego opowiadania o robotach, które ukazywały się jako osobne zbiory (cykl „Ja, Robot”) lub wchodziły w skład innych zbiorów tematycznych. To miłe, że wiele z nich, choć nie wszystkie, jest teraz ponownie publikowanych jako pojedyncza kolekcja.

Czytelnik – zarówno zaznajomiony z twórczością Asimova, jak i po raz pierwszy rozpoznający jego roboty – spotka barwne, świetnie narysowane postacie. Oto testerzy Nowa technologia Powell i Donovan, którzy podążając za wszystkimi kanonami gatunku przygodowego, w każdej historii znajdują się w trudnych, czasem beznadziejnych sytuacjach, ale zawsze wychodzą z nich z honorem. Oto „mózgowe zaufanie” firmy „U.S. Robots and Mechanical Man Corporation” Bogerta i Lanninga, walczące o władzę. A robo-psycholog Susan Calvin góruje nad wszystkimi, gardząc próżnością biznesmenów. A za kulisami – współczesna kapitalistyczna Ameryka w całej swojej „chwale”. Przed czytelnikiem stoją obrazy walki konkurencyjnej między firmami, przedwyborczych machinacji politycznych, dyskryminacji rasowej. Ale należy zauważyć, że przedstawiając swoje roboty jako rycerzy bez strachu i wyrzutów, wyposażając je w metalowe ciało i pozytronowy mózg, Asimov unika ostrych problemów społecznych.


Szczyt