3 leggi della robotica nella fantascienza. Il codice culturale di Asimov: come le tre leggi della robotica hanno fatto la storia

Non possono essere aggirati, se presi alla lettera. Ma è facile una volta che questa idea inizia a materializzarsi.
Immagina che un programmatore cerchi di scrivere queste leggi. Ecco il primo, il più importante: "Un robot non può danneggiare una persona o, con la sua inerzia, permettere che una persona subisca danni".

Robot - che cos'è? Ok, questo è lui, cioè non è necessario scrivergli che è una macchina, basta includere la clausola che QUESTO non può nuocere. E "questo" è cosa? Una persona ha il suo "io", quindi non crede che la sua mano sia qualcos'altro, è lo stesso lui, la sua continuazione, cioè il concetto di "robot" non è così semplice. Queste sono tutte parti del suo "corpo". E come si scrive? Un robot, a differenza di una persona, non ha una personalità, oppure deve prima sentirsi una persona, e non essere un insieme di dettagli. Capisci lo scopo del compito? Per inserire la prima legge della robotica in un robot, deve avere una coscienza integrale con la comprensione che tutte le sue parti, tutte le viti, i fili, i pannelli e i motori sono un tutto, e anche ciò che userà - altri meccanismi o oggetti che controlla, che ne è responsabile. Sto guardando un'auto: anche la più intelligente computerizzata difficilmente capisce che le ruote ne fanno parte. Cioè, ogni parte, così come altre "parti" che il robot può utilizzare, deve essere inclusa in un unico sistema subordinato a un centro di controllo e monitorare la posizione nello spazio per ogni parte del suo corpo. È così compito difficile che i radar semplici sono indispensabili qui. C'è un enorme divario tra un meccanismo e un essere vivente. I primi no sistema nervoso, non ci sono recettori su tutta la superficie. Il braccio di un robot è solo un pezzo di metallo, non puoi mettere un sensore di tracciamento su ogni centimetro, il braccio non sente nulla, e quindi il robot non è in grado di disegnare un'immagine tridimensionale di se stesso, comprendendo ad ogni momento in cui ogni suo dettaglio è in contatto con il mondo esterno.

Immagina che una persona abbia dimenticato dov'è la sua sedia e si sieda sul pavimento. Succede molto raramente, giusto? Come una curiosità. Ricordiamo sempre non solo dove siamo, ma anche dove sono gli oggetti intorno a noi. E facciamo un ottimo lavoro nell'orientarci. Tuttavia, gli incidenti accadono e possiamo strangolare accidentalmente un gattino o investire un cane per strada. Comprendiamo che non puoi tenere traccia di tutto e che possiamo uccidere accidentalmente un'altra persona. Come possiamo vietare ai robot di non fare mai del male alle persone se le persone possono letteralmente cadere nel braccio del robot? Quindi, dobbiamo apportare modifiche alla prima legge. Non può danneggiare SPECIALMENTE, per esempio. E proprio c'è un problema. Forse non apposta? Ok, lascia che sia "fai tutto ciò che è in tuo potere per non causare danni". E chi determinerà se ha fatto tutto? È da solo? Cioè, i robot avranno una certa percentuale di probabilità che possano causare danni. Ci viene mostrato continuamente come un robot ferma letteralmente un braccio o una gamba per un capello, per non uccidere una persona, ma per inerzia? E per quanto riguarda il movimento in arrivo di una persona, si è ucciso contro un robot per accelerazione? Una montagna di incidenti e il robot, in linea di principio, come qualsiasi oggetto che si muove nello spazio, non può garantire che non farà del male a qualcuno e, quindi, non danneggerà con la sua azione. La prima legge non è soddisfatta.

Una persona indosserà una maschera, verrà imbrattata nel fango e non sarà più una persona? Cioè, alcune foto caricate nella memoria del robot per l'identificazione non sono sufficienti. In che modo il robot determinerà che è una persona di fronte a lui, e non un manichino, no uomo morto, non un'immagine, non un ologramma, non un altro robot umanoide? Patatine fritte. Grande. Sono entrato nel programma del chip, ho cambiato il codice identificativo e basta, puoi aprire il fuoco per uccidere. O il robot identificherà le persone dalle radiazioni che emanano da loro? Quindi l'uomo in giacca e cravatta è un cadavere. Pensi che sia così facile capire che una persona è di fronte a te? E qui non lo è. Ci sono molte situazioni controverse in cui dubitiamo. La casa è crollata, c'è gente? Sono vivi? Un'ombra balenò, è una persona? E a volte commettiamo errori. Prendiamo un manichino per una persona, non ci accorgiamo che sotto un mucchio di immondizia qualcuno è sopravvissuto, o qualcuno era dietro questo muro. Non lo sapevamo. E il robot non è chiaroveggente. Farà un errore e paralizzerà, o addirittura ucciderà una persona, o non la salverà, o darà la respirazione artificiale a un manichino. Per aggirare la legge è sufficiente modificare le definizioni di "robot" e "umano", ma lui stesso ci riuscirà, poiché non è possibile ottenere la perfetta accuratezza delle definizioni.

La legge non è stata scritta per i robot. Presume che il meccanismo sia così perfetto da non poter essere confuso. Vede tutto, valuta la situazione in una frazione di secondo e possiede capacità paranormali di gran lunga superiori a quelli umani. Quindi l'impressione è che la legge sia stata scritta per Dio. Quello che ci manca tanto. Tutti coloro che hanno dei in qualche modo non interferiscono realmente nelle nostre vite, e ci ammaliamo, soffriamo, moriamo. Abbiamo bisogno di un altro Dio che non ci guardi dal cielo, ma ci dia davvero una mano. E allo stesso tempo, non danneggerà, comprendendo intuitivamente dov'è il danno e dov'è il vantaggio. Robot come superessere. E se è così, allora tali robot non saranno mai creati dall'uomo. E quindi, tutte e tre le leggi della robotica non saranno mai enunciate nella forma di cui parlava Asimov. Sarà una versione completamente diversa, troncata, secondo la quale i robot danneggeranno gli umani. O per caso, o per un errore di identificazione, o per l'imperfezione del suo sistema per determinare la posizione del corpo nello spazio. Hai visto sulle gru la scritta "non stare sotto il braccio", "sbandare di due metri" su macchine lunghe? Più o meno le stesse restrizioni saranno per i robot.

Una persona stessa non può fare a meno di danneggiare altre persone e altri esseri viventi, non importa quanto lo voglia. E questo nonostante tutta la perfezione del suo dispositivo nel campo del riconoscimento degli oggetti, capire cosa e come fare e cosa non fare sulla base di principi morali, che sono anche convenzionali ed è dubbio che possano essere scritti come un programma. Le azioni possono in qualche modo essere prescritte passo dopo passo, ma non appena si arriva all'identificazione, alla definizione nello spazio, e soprattutto al sentirsi come un oggetto intero e alla comprensione di tutte le conseguenze delle proprie azioni, ci sono difficoltà insormontabili. Una specie di robot danneggerà sicuramente una persona, e allora come può "convivere" con questo? Ha infranto la legge. E proprio come Sunny nel film, arriverà alla conclusione che nessuno è perfetto e che a volte è necessario o va bene uccidere le persone. Il che nega completamente l'ideologia delle tre leggi.

Hanno lo scopo di garantire il funzionamento di una macchina assolutamente sicura per l'uomo. Allo stesso tempo, il problema è in qualche modo aggirato dal fatto che anche i robot meno avanzati continueranno a uccidere inconsapevolmente le persone. Per noi, questi robot sono presentati come meccanismi che non sono in grado di farlo. Ma poiché non sono solari, non soffriranno di esperienze. Beh, ha schiacciato qualcuno. Succede a tutti. "Non stare sotto la freccia." Ad ogni modo, arriviamo alla soluzione del problema morale più importante per una persona: dov'è il confine tra danno e beneficio, e se una persona non lo ha risolto, allora il meccanismo lo è ancora di più. Semplicemente perché è un oggetto del mondo materiale e, se esiste, può potenzialmente danneggiare qualcuno.

Quindi, penso che la civiltà non seguirà il percorso di seguire queste tre leggi e l'impossibile non sarà richiesto alle macchine. Ma le persone cercheranno di migliorare se stesse. Geneticamente o impiantando dispositivi e meccanismi (sospesi), o entrambe le opzioni contemporaneamente, non è questo il punto. I robot nella letteratura e nel cinema sono l'alter ego del creatore, l'umano. Vuole vedersi forte, duraturo, che non prova dolore, non conosce malattie, facilmente riparabile, eterno. Pur restando umani. Qualcosa tra Sunny e Del Spooner. Bene, in modo che il corpo sia vivo, per ricevere tutte le gioie della vita, l'amore, il sesso, il rischio, le esperienze dell'intero spettro e non starnutire da nuova versione influenza, non morire per libagioni o incidenti. Il sogno di migliorarsi corre come un filo rosso in quasi tutte le opere fantastiche, da "Avatar" a " uomo di ferro"e" Spider-Man ". La tesi "siamo persone mentre siamo deboli" non ci soddisfa. E affronteremo in qualche modo il problema del "non uccidere". Le tre leggi in termini ideali non fanno per noi. Non siamo pezzi di ferro senz'anima e capiamo quanto sia difficile distinguere il bene dal male, il danno dal beneficio e quanto siano concetti situazionali e relativi, e sappiamo esattamente come a volte vuoi colpire qualcuno. toglici il diritto di realizzare questo sentimento semplicemente perché c'è solo un modo per togliercelo: metterci in accoglienti celle solitarie con pareti morbide, preferibilmente legate a un letto. trasformandoli in robot.

Le tre leggi della robotica, che occupano un ruolo molto significativo nella fantascienza, sono semplicemente necessarie nelle regole del comportamento dei robot. Inizialmente, sono stati coinvolti nella storia "Round Dance", del famoso scrittore Isaac Asimov.

A loro volta, queste leggi leggono:

  • Un robot non potrà mai danneggiare l'umanità. Ma c'è una variante alternativa: il robot non è in grado di portare uomo cattivo mentre inattivo.
  • Un robot semplicemente non può fare a meno di seguire gli ordini impartiti da una persona. Ma anche qui ci sono delle eccezioni: se gli ordini sono contrari alla Prima Legge, allora sono impossibili da eseguire.
  • Inoltre, il robot non può che prendersi cura della propria sicurezza nella misura in cui non contrasta con la legge della prima e della seconda categoria.

Tutte queste Tre Leggi, che contengono sia le cause che le conseguenze del loro mancato adempimento, sono state dedicate e hanno pubblicato un'intera raccolta di racconti dell'autore Asimov, e parlano tutti di robot.

Ci sono anche altre storie che hanno affrontato la fase in cui le conseguenze dell'attuazione di tutte e tre le leggi da parte dei robot non possono essere previste. Ad esempio, una storia del genere può essere considerata "Mirror Reflection".

In una delle sue storie, l'autore ha posto fine alla base, che era il quadro etico delle Tre Leggi. Secondo lui, un robot che soddisfa tutte le Tre Leggi è, in quanto tale, un robot, o una persona molto buona. Dopotutto, la moralità viene data a una persona in modo che la segua. In una certa misura, anche una persona, che soddisfa una grande quantità di varie condizioni, leggi, è un robot. Allora perché questa "creatura" di ferro non può reclamare il titolo di "umano"?!

Legge zero per i robot

Nel 1985, in uno dei suoi tanti romanzi sui robot, l'autore ha osato menzionare anche di Legge zero, la cui essenza era la seguente: il robot non causerà mai danni e danni a una persona, e anche per la sua stessa inazione, non permetterà danni.

In linea di principio, va notato che in tutte le leggi citate c'è una parte di ciò che dovrebbe essere pensato. Il mondo non si ferma e non si sa cos'altro possano aspettarsi persone così ingegnose: oggi il futuro appartiene alle giovani generazioni, che hanno in testa centinaia di idee di ogni genere.

Si può anche dire che tutte e tre le leggi della robotica sono anche un argomento per idee fantastiche Asimov. Ciò include anche il ciclo, che è strettamente correlato all'intero argomento dedicato ai robot.

Qual è la morale delle Tre Leggi

Impossibile passare senza accennare alla ratio del progetto etico. In una delle storie intitolate "Evidence", l'autore ha scomposto molto bene la logica della moralità di tutte e tre le leggi. Di norma, una persona non vuole danneggiare un'altra persona, ma cerca semplicemente di astenersi da questi atti. Ma ci sono delle eccezioni, come per ogni regola. In guerra, questa giustificazione semplicemente non funziona.

Sentendosi responsabile nei confronti della società, una persona segue le istruzioni di quelle persone che sono rappresentanti di medici, insegnanti e così via. Ecco la manifestazione della seconda legge.

Il fatto che una persona si preoccupi e si protegga assorbe la Terza Legge. Pertanto, tutte queste leggi sono molto interconnesse e semplicemente non possono esistere l'una senza l'altra. Può darsi che la Prima Legge opererà, e poi potrà agevolmente passare alla Seconda, e poi alla Terza Legge. Qui, moralità ed elementi di finzione vanno di pari passo.

Per quanto riguarda il futuro, l'unico problema, che può essere, questo è il livello della fantasia, che in qualsiasi momento può trasformarsi in realtà. Più la tecnologia avanza, più meno problemi con loro sorge nelle persone in futuro.

Le tre leggi della robotica

Isacco Asimov, 1965

Tre leggi della robotica nella fantascienza regole vincolanti comportamenti per robot, formulati per la prima volta da Isaac Asimov nel racconto "Round Dance" ().

Le leggi dicono:

Tre Leggi, E possibili ragioni e alle conseguenze della loro violazione, è dedicato un ciclo di storie di Asimov sui robot. Alcuni di loro, al contrario, considerano conseguenze impreviste conformità robot Tre Leggi(ad esempio "Riflessione speculare").

In una delle storie del ciclo, il personaggio di Asimov giunge a una conclusione sulla base etica Tre Leggi: “... se pensi attentamente, le Tre Leggi della Robotica coincidono con i principi di base della maggior parte dei sistemi etici che esistono sulla Terra ... in poche parole, se Byerly soddisfa tutte le Leggi della Robotica, o è un robot, o molto buon uomo» .

Ad Asimov è piaciuta molto questa storia. Il 7 maggio 1939 visitò la Science Fiction Society of Queens, dove incontrò Binder. Tre giorni dopo, Asimov iniziò a scrivere la sua storia del "nobile robot". Dopo 13 giorni, ha dato il manoscritto al suo amico John Campbell, redattore capo della rivista Astounding. Tuttavia, ha restituito quel manoscritto, affermando che la storia era troppo simile a Helen O'Loy.

Fortunatamente il rifiuto di Campbell non ha intaccato il loro rapporto con Asimov, hanno continuato a incontrarsi regolarmente ea parlare di novità nel mondo della fantascienza. E qui il 23 dicembre 1940, discutendo di un'altra storia sui robot:

... Campbell ha formulato quello che in seguito divenne noto come Le tre leggi della robotica. Campbell in seguito disse che si era semplicemente isolato Legislazione da quanto aveva già scritto Asimov. Lo stesso Asimov ha sempre ceduto l'onore della paternità Tre Leggi Campbell...

Alcuni anni dopo, un altro amico di Asimov - Randal Garrett - attribuì la paternità legislazione"partnership simbiotica" di due persone. Asimov accettò con entusiasmo questa formulazione.

In generale, l'aspetto Tre Leggi nelle opere di Asimov è avvenuto gradualmente: le prime due storie sui robot ("Robbie" e "Logica") non contengono la loro menzione esplicita. Tuttavia, implicano già che i robot hanno alcune limitazioni intrinseche. Nella storia successiva ("Bugiardo", 1941) suona per la prima volta Prima Legge. E infine tutti e tre legge sono dati nel "Round dance" ().

Quando il resto delle storie è stato scritto ed è nata l'idea di pubblicare la raccolta "I, Robot", le prime due storie sono state "integrate" Legislazione. Anche se vale la pena notare che in "Robbie" le leggi erano in qualche modo diverse dalla versione "classica" esposta nel resto delle storie. In particolare, l'idea di un robot che protegga persone di cui non è del tutto sicuro esista fa eco ai pensieri di Elijah Bailey sull'imperfezione. legislazione descritto.

Giustificazione etica delle leggi

  1. Lo stato non deve danneggiare le persone o, con la sua inerzia, permettere che vengano danneggiate.
  2. Lo stato deve svolgere le sue funzioni, se non contraddicono Prima Legge.
  3. Lo stato deve prendersi cura della sua sicurezza, se ciò non contraddice Primo E Seconda Legge.

Basato Prima Legge Jeff Raskin ha formulato le leggi delle interfacce orientate all'uomo:

  1. Il computer non può danneggiare i dati dell'utente o, per inerzia, consentire che i dati vengano danneggiati.
  2. Il computer non dovrebbe farti perdere tempo o costringerti a fare cose oltre il necessario.

Gaia, il pianeta della mente alveare nella serie di romanzi della Fondazione, ha qualcosa di simile a Prima Legge:

Variazioni di Asimov

Nelle sue opere, Isaac Asimov a volte porta a Tre leggi varie modifiche e le confuta, come se stesse provando Legislazione"forza" in diverse circostanze.

Legge Zero

Isaac Asimov una volta aggiunto Legge Zero, rendendolo una priorità più alta rispetto ai primi tre. Questa legge stabiliva che il robot doveva agire nell'interesse di tutta l'umanità, e non solo di un individuo. Così lo esprime Daniel Olivo, il robot, in Ground and Earth:

0. Un robot non può danneggiare l'umanità o, con la sua inerzia, permettere che l'umanità subisca danni.

Fu lui il primo a dare un numero a questa legge - questo accadde nel romanzo "Robots and Empire", tuttavia, il concetto stesso fu formulato anche prima da Susan Calvin - nel racconto "Resolvable Contradiction".

Il primo robot a obbedire Legge Zero, inoltre, di sua spontanea volontà, - era Giscard Riventlov. Questo è descritto in una delle scene finali del romanzo "Robots and Empire", quando il robot ha dovuto ignorare l'ordine di una persona per il bene del progresso di tutta l'umanità. Legge Zero non era incorporato nel cervello positronico di Giscard - ha cercato di raggiungerlo pura comprensione, attraverso una consapevolezza del concetto più sottile di tutti gli altri robot danno. Tuttavia, Giscard non era sicuro di quanto fosse utile per l'umanità, il che ha avuto un effetto negativo sul suo cervello. Essendo un telepate, Giscard ha trasferito le sue capacità telepatiche a Daniel prima di uscire dall'azione. Fu solo molte migliaia di anni dopo che Daniel Olivo fu in grado di adattarsi completamente alla sottomissione. Legge Zero.

Il traduttore francese Jacques Brecard ha formulato inconsapevolmente Legge Zero prima che Asimov lo descrivesse esplicitamente. Verso la fine di Caverns of Steel, Elijah Bailey lo osserva Prima Legge vieta a un robot di fare del male a una persona, a meno che non sia certo che ciò gli sarà utile in futuro. In traduzione in francese( "Les Cavernes d'acier ( )", 1956) I pensieri di Bailey sono trasmessi in modo leggermente diverso:

E 'degno di nota sviluppo logico Prima Legge Prima Zero suggerito dai realizzatori del film del 2004 I, Robot. Quando il supercomputer V.I.K.I. decide di limitare la libertà degli abitanti del pianeta in modo che non danneggino inavvertitamente l'un l'altro e il loro futuro, non Prima Legge, vale a dire Nullo. Ancora più interessante è che in questo modo il film mostra la contraddizione Legge Zero Primo, non è etico. In effetti, quando si tratta del benessere dell'umanità, il sistema non può considerare le persone separatamente, il che significa che nulla gli impedisce di violare i diritti e la libertà di qualsiasi o addirittura tutti persona. Durante le guerre, e spesso dentro vita pacifica, le persone danneggiano se stesse, gli altri, la loro cultura. Pertanto, sulla base Legge Zeroè perfettamente logico tenere le persone sotto costante tutela, non seguendo gli ordini di tali creature irragionevoli.

Modifica della prima legge

Le note autobiografiche di Asimov dicono che la seconda parte Prima Leggeè apparso a causa del poema satirico di Arthur Hugh Clow "The Last Decalogue", dove c'è una frase del genere: "Non uccidere, ma non sforzarti troppo per salvare la vita di un altro".

Nella storia "...Come ricordarlo" Asimov ha condotto la ricerca più sofisticata Tre Leggi, invertendoli in modo tale che lo "scenario Frankenstein" diventasse possibile. Due robot della serie Georgie giungono a un accordo sul fatto che l'origine organica non è una condizione necessaria per essere considerati umani, e questo persone vere- questi sono loro, come le creature più perfette e intelligenti. Anche il resto delle persone sono persone, ma con una priorità inferiore. E se è così, allora Tre leggi dovrebbe essere applicato prima a loro. La narrazione si conclude con le minacciose parole che i robot hanno "aspettato con infinita pazienza" il giorno in cui affermeranno il loro primato tra gli umani - e questo sarà l'inevitabile risultato delle "Tre Leggi dell'Umanesimo".

In effetti, questa storia non si adatta bene alla serie principale di robot: se "Georgie" avesse portato a termine il suo piano dopo la fine della storia, allora non sarebbero state possibili altre storie su ulteriori eventi. È questo tipo di contraddizione nelle opere di Asimov che dà ragione ai critici di considerarle più simili a "saghe scandinave o leggende greche" che a un singolo "universo" fantastico.

Se nel caso precedente il robot ha preso il posto dell'uomo nella natura, poi in The Bicentennial Man, Asimov descrive il destino opposto: un robot liberato da Tre Leggi e realizzandosi come persona, entrò a far parte della comunità umana. Ancora una volta, nella versione estesa - il racconto "Positronic Man", scritto da Asimov in collaborazione con Robert Silverberg, - a causa di simili problemi etici le persone hanno completamente abbandonato l'idea di creare robot pensanti. Questo sviluppo degli eventi è completamente contrario all'immagine del futuro descritta nei mondi di "Fondazione".

Problemi applicativi

Risoluzione delle contraddizioni

Di solito seguivano i modelli di robot più avanzati Legislazione secondo un algoritmo piuttosto astuto che ha evitato alcuni problemi. In molte storie, ad esempio nel "Round Dance", nel cervello positronico, potenziali azioni possibili e risultati e il robot potrebbe rompersi Legislazione il prima possibile, invece di non fare nulla. Per esempio, Prima Legge non ha permesso al robot di condurre operazioni chirurgiche, perché per questo devi "danneggiare" una persona. Tuttavia, i chirurghi robotici possono essere trovati nelle storie di Asimov (Bicentennial Man ne è un ottimo esempio). Il fatto è che il robot, se è abbastanza perfetto, può soppesare tutte le alternative e capirlo egli stesso causerà molto meno danno che se l'operazione fosse eseguita da un chirurgo umano o non avrebbe avuto luogo affatto. In Evidence, Susan Calvin afferma addirittura che un robot potrebbe fungere da pubblico ministero, dal momento che personalmente non fa del male a nessuno: oltre a lui, c'è anche una giuria che determina la colpevolezza, un giudice che emette la sentenza e un boia che la esegue. .

Robot che obbediscono Legislazione può sperimentare "roblox" o "congelamento mentale" - uno stato irreversibile danno al cervello positronico, - nel caso non possano obbedire Prima Legge o scoprire di averlo accidentalmente violato. Ciò è possibile, ad esempio, se il robot osserva la scena dell'omicidio di una persona, ma è troppo lontano per salvarlo. Il primo caso di tale "congelamento" si verifica in "The Liar"; questo stato gioca anche un ruolo importante nella trama dei romanzi "The Naked Sun" e "Robots of the Morning Dawn". I modelli di robot imperfetti possono essere bloccati se viene loro affidato il compito di obbedire a due ordini contrastanti. Il "congelamento" può essere permanente o temporaneo.

Un'altra definizione di danno nella prima legge

Legislazione non definire i confini di ciò che può essere chiamato danno per una persona - spesso dipende dalla capacità del robot di percepire le informazioni e pensare filosoficamente. Ad esempio, un robot della polizia capirà che non danneggerà una persona se scorta delicatamente un criminale particolarmente pericoloso alla stazione?

Nella storia "The Liar", il robot telepatico Herbie ha dovuto capire danno e qualcosa che può deludere o sconvolgere le persone in qualsiasi modo - sapeva che le persone sperimentano una sorta di mal di cuore. Questo lo ha costretto a dire costantemente alla gente quello che volevano sentire invece della verità. Altrimenti, nella sua comprensione, violerebbe Prima Legge.

Lacune nelle leggi

In The Naked Sun, Elijah Bailey lo osserva Legislazione sono formulati in modo errato dalle persone perché il robot può romperli per ignoranza. Suggerì la seguente formulazione "corretta". Prima Legge: "Il robot non può fare nulla che, per quanto ne sa arrecare danno a un essere umano o deliberatamente permettere che gli esseri umani vengano danneggiati”.

Questa aggiunta chiarisce che un robot può persino diventare un'arma del delitto se non è a conoscenza della natura delle sue azioni. Ad esempio, gli potrebbe essere ordinato di aggiungere qualcosa al cibo di qualcuno e non saprà che è veleno. Inoltre, Bailey afferma che l'autore può assegnare questo compito a diversi robot, in modo che nessuno di loro capisca l'intera idea.

Bailey afferma che un giorno i solariani saranno in grado di utilizzare i robot anche per scopi militari. Se un'astronave è costruita con un cervello robotico e nessun equipaggio umano o sistemi di supporto vitale, allora l'intelligenza di questa nave potrebbe erroneamente presumere che su Tutto le astronavi non hanno persone. Una nave del genere sarebbe più manovrabile, più veloce e forse meglio armata di una guidata da umani. Ma soprattutto, sarà in grado di distruggere le persone, ignare della loro presenza. Questa possibilità è descritta in "Foundation and Earth", dove viene anche rivelato che i solariani hanno un esercito di robot estremamente potente, che comprende solo i nativi di Solaria come "umani".

Altri usi delle leggi nella narrativa

Isaac Asimov credeva che il suo Legislazione servirà come base per un nuovo sguardo ai robot, distruggerà il "complesso di Frankenstein" nella fantascienza e coscienza di massa, diventerà una fonte di idee per nuove storie, dove i robot vengono mostrati come versatili e attraenti. Il suo esempio preferito di tale lavoro era Star Wars. Con l'opinione di Asimov che i robot sono più che semplici "tostapane" o "mostri meccanici", altri scrittori di fantascienza alla fine furono d'accordo. I robot sono apparsi nelle loro opere, obbedendo tre leggi, ma, per tradizione, solo Asimov li ha menzionati esplicitamente.

In opere che parlano direttamente di Tre leggi , di solito viene menzionato anche il loro autore. Ci sono eccezioni: ad esempio, nella serie TV tedesca degli anni '60 "Raumpatrouille - Die phantastischen Abenteuer des Raumschiffes Orion" ("Space Patrol - le fantastiche avventure dell'astronave Orion"), precisamente nel suo terzo episodio "Hüter des Gesetzes" ("Legge dei servi"), di Asimov Legislazione preso senza citare la fonte.

Contrariamente alle critiche e ad alcuni feedback del pubblico che mi è capitato di sentire, "I, Robot" è un film d'azione fantasy piuttosto divertente. … Quando … vogliamo goderci Asimov, leggiamo Asimov. E quando vogliamo guardare un fantastico film d'azione, guardiamo un fantastico film d'azione. "I, Robot" come film d'azione ci ha soddisfatto abbastanza.

La recensione di Alexey Sadetsky richiama l'attenzione sul fatto che il film, allontanandosi un po' da Asimov, sollevava di per sé due nuovi problemi socio-filosofici. Va notato che il film ha messo in discussione il successivo Legge zero della robotica Asimov (vedi sopra).

Lo sviluppo dell'intelligenza artificiale è un business e il business è notoriamente disinteressato allo sviluppo di misure di sicurezza fondamentali, in particolare quelle filosofiche. Ecco alcuni esempi: l'industria del tabacco, l'industria automobilistica, l'industria nucleare. A nessuno di loro è stato inizialmente detto che erano necessarie serie misure di sicurezza, e tutti hanno impedito restrizioni imposte dall'esterno, e nessuno di loro ha approvato un editto assoluto contro il danneggiamento delle persone.

Vale la pena notare che il saggio di Sawyer trascura le questioni del danno non intenzionale, come descritto, ad esempio, in The Naked Sun. Tuttavia, ci sono obiezioni a una tale posizione: forse i militari vorranno usare quante più precauzioni possibili per i robot, e quindi restrizioni simili a Leggi della robotica, in un modo o nell'altro verrà applicato. Fantast e il critico David Langford hanno ironicamente osservato che queste restrizioni potrebbero essere le seguenti:

Roger Clarke ha scritto due articoli sull'analisi delle complicazioni nell'attuazione delle leggi, se un giorno potessero essere applicate alla tecnologia. Sta scrivendo:

Le leggi della robotica di Asimov divennero uno strumento letterario di successo. Forse ironicamente, o forse è stato un colpo da maestro, ma nel complesso le storie di Asimov confutano il punto da cui era partito: è impossibile limitare in modo affidabile il comportamento dei robot inventando e applicando una serie di regole.

D'altra parte, i romanzi successivi di Asimov (Robots of Dawn, Robots and Empire, Foundation and Earth) mostrano che i robot fanno ancora più danni a lungo termine, osservando le Leggi e privando così le persone della loro libertà di impegnarsi in attività creative o rischiose.

Il fantastico Hans Moravec - una figura di spicco nel movimento transumanista - lo ha suggerito Leggi della robotica dovrebbe essere utilizzato nei sistemi intelligenti aziendali - società controllate dall'intelligenza artificiale e che utilizzano la forza di produzione dei robot. Tali sistemi, secondo lui, emergeranno presto.

Eliezer Yudkowsky sta studiando presso (SIAI) negli Stati Uniti i problemi di rischio globale che una futura IA sovrumana potrebbe porre se non fosse programmata per essere amica dell'uomo. Nel 2004, SIAI ha lanciato AsimovLaws.com, un sito progettato per discutere l'etica dell'IA nel contesto delle questioni sollevate in I, Robot, pubblicato solo due giorni dopo. Su questo sito web, hanno voluto dimostrare che le leggi della robotica di Asimov non sono sicure, poiché, ad esempio, possono indurre l'IA a conquistare la terra per "proteggere" le persone dai pericoli.

Appunti

  1. Asimov, Isacco. Prove // ​​Sogni robotici. - M.: Eksmo, 2004. - S. 142-169. -ISBN 5-699-00842-X
  2. Asimov, Isacco. Saggio # 6. Leggi della robotica // Sogni di robot. - M.: Eksmo, 2004. - S. 781-784. -ISBN 5-699-00842-X
  3. mer con il mito di Galatea.
  4. È interessante notare che, in uno dei sequel dell'autore, la storia "La vendetta di Adam Link" (

A mio avviso, i concetti di bene e male, a loro volta, sono strettamente associati al concetto di significato della vita. È impossibile dire se una certa azione umana sia per il bene o per il male, finché non si sa quale dovrebbe essere lo scopo del comportamento umano in generale.

Tuttavia, nell'ambito della robotica di Asimov, questo può essere risolto semplicemente fino alla volgarità.
Uno dei suoi romanzi descrive come a un robot umanoide sia stato dato il circuito di un desiderio di giustizia, definendo la giustizia come mera obbedienza. leggi statali. "E se la legge è ingiusta?" - "Una legge ingiusta", rispose il robot, "questa è una contraddizione terminologica".

Se agisci in modo così volgare, puoi facilmente definire il concetto di danno, ma tali robot saranno poco utili ...

Risposta

Come sanno gli illustri partecipanti, lo sviluppo le ultime tecnologie, e ancor di più nel campo della robotica, è progettato per soddisfare prima le esigenze dell '"industria della difesa", e solo successivamente il resto dell'umanità. Penso che sia chiaro che in tali condizioni la Prima Legge sarà modificata in modo significativo. E non nella direzione della pacificazione universale.

Risposta

  • Ricorda le parole del famoso scrittore Kurt Vonnegut: "Non importa su cosa lavori uno scienziato, finisce con un'arma".
    Probabilmente con una premessa simile, che governa la psicologia umana (e non solo tra gli scienziati), la Terra non ha futuro... così come non l'ha avuto chi è vissuto prima di noi. In generale, il nostro desiderio di distruzione e autodistruzione è uno schema naturale ... tutto tende all'equilibrio (verso un'entropia positiva), solo ogni corpo ed essenza in Natura lo fa a modo suo. “La stella invecchia ed esplode, mentre una persona, raggiunto il limite della conoscenza, brucia a 10.000 gradi Celsius al secondo nel calderone della guerra nucleare.
    Pensa all'aforisma Drenerim: "Ogni nazione è degna del suo sovrano! .." Perché per migliaia di anni le persone sono state governate da trogloditi con mazze, non è forse perché abbiamo la forza in onore, in cui i cervelli non sono necessari?
    Ma la cosa peggiore è quando i cervelli, per sopravvivere nel mondo dei trogloditi, iniziano a servire questi trogloditi. Perché "Force" interessa poco nell'opinione dei cervelli, ma solo nei risultati: ad esempio, una forma più letale di incisivi su una mazza ...

    Risposta

    • L'attuazione delle suddette leggi da parte di un robot è ancora la prospettiva di un futuro molto lontano ... (ammesso che arrivi!)
      Degli ultimi sistemi intelligenti che vengono ora creati sulla base di reti neurali artificiali, si può individuare il modello RRS-EX (Rezoning Robotic sistems - Exployer). Questa struttura è il più vicino possibile alle strutture neurologiche bioniche... ma! Un intelletto capace di analizzare una configurazione oggettiva in rapida evoluzione ambiente RRS-EX semplicemente no. Tutto poggia sul limite algoritmico del binario ("SI-NO" e nell'intervallo "NON SO"). Per insegnare a un robot a pensare ed estrapolare le sue conclusioni, è necessario un segmento estraneo di casualità, altrimenti chiamato "Approccio intuitivo per l'intelligenza artificiale" o altro (privato, individuale). Per fare questo è necessario uscire dalla teoria standard degli algoritmi matematici, che è solo in grado di stabilire un programma di azioni e associazioni per i sistemi di IA, ma non può dare a questi sistemi metodi di connessioni private in circuiti neurali, di cui ce ne sono un miliardo di miliardi nel cervello biologico, più influenze e impulsi trasversali (consapevolezza riflessa). In breve, i sistemi di intelligenza artificiale necessitano di una matrice di individualità sia per l'autoapprendimento che per la capacità di riflettere adeguatamente non solo i fatti, ma anche a posteriori, nonché prendere le proprie decisioni in base a quanto stabilito in precedenza (formazione, istruzione) logica dominante (la logica del bene o la logica del male). Non è più possibile limitare i sistemi di intelligenza artificiale a tre leggi. Se tuttavia è possibile inserire queste tre leggi nel sistema, allora il campo per il pensiero individuale sarà chiuso, quindi l'oggetto guidato da queste leggi non sarà altro che una stupida macchina calcolatrice. E qualsiasi hacker di talento masticherà e sputerà queste leggi come semi... Hai notato? Tutto è come se le persone avessero ISTRUZIONE e FORMAZIONE! Altrimenti, risulta un semplice computer ...

      Risposta

      • Non sono assolutamente d'accordo con te, amante della scienza. Perché sono così tanti, abbastanza persone intelligenti a volte esprimono, naturalmente, l'opinione che l'intuizione sia in qualche modo collegata al caso?

        Intuizione (tardo latino intuitio - contemplazione, dal latino intueor - guardo), la capacità di comprendere la verità attraverso la sua discrezione diretta senza prove con l'aiuto di prove. Ricerca inconscia di una soluzione, intuizione.

        Secondo me, l'intuizione non è in alcun modo collegata alla casualità e può essere completamente determinata. Così come il comportamento di una creatura "vivente" (AI) completamente ragionevole. Questo determinismo può essere specificato dal programma. O dici che la maggior parte delle tue azioni non sono ragionevoli e casuali? Stanno mentendo?

        Dichiarazione di impossibilità:

        >> Non è più possibile limitare i sistemi di IA a >>tre leggi. Se, tuttavia, è possibile inserire queste tre >>leggi nel sistema, allora il campo per il pensiero individuale sarà chiuso, >>quindi, l'oggetto guidato da queste leggi non sarà altro che >>una stupida macchina calcolatrice.

        Lo ritengo infondato. Anche se la questione è certamente complessa. Tali affermazioni, penso, sarebbero ben argomentate in dettaglio.

        Risposta

Penso che valga la pena aggiungere a questo articolo che Isaac Asimov è stata la prima persona a pronunciare la parola Robot! è lui il fondatore di questa cultura tra gli scrittori di fantascienza. Inoltre, non sono d'accordo con l'aftor dell'articolo sulla "finzione di un'immagine ricca" poiché si tratta di una sorta di canone per il lavoro di un cervello robotico in un ambiente umano. e, cosa più importante, ricorda che anche Sir Yesak Newton un tempo era anche chiamato Charlotte, e le leggi che "emanava" erano sciocchezze o in forma lieve"finzioni di una ricca immaginazione" ...

Risposta

Ci tengo a precisare che la parola "Robot" non è stata inventata da Asimov. Nel 1920, Karel Capek, uno scrittore ceco, usò questa parola nella commedia "R.U.R.";.
http://ru.wikipedia.org/wiki/Chapek
Isaac Asimov è nato solo nel 1920, il che non sminuisce in alcun modo il valore delle sue opere.
http://ru.wikipedia.org/wiki/Asimov%2C_Isaac

Risposta

se delusioni:
Il nostro intelletto è una sovrastruttura che protegge e aderisce agli interessi del corpo (funzionamento, replicazione).
Per l'intelletto, mi sembra, la cosa principale è la motivazione, l'obiettivo principale. Questo obiettivo sarà la base per l'autoapprendimento e altre cose.
Il bene e il male sono solo "+" e "-" per l'intelletto, cioè "beneficio" e "danno" nelle più intricate complessità di combinazioni e varie catene come "I-family-society" (beneficio - avvicinandosi al principale obiettivo o aderendo ai modi per raggiungerlo). Diciamo che l'obiettivo principale è sopravvivere...

Risposta

Cisco ha annunciato la creazione della Linksys Developer Community. Comprenderà esperti che creano applicazioni per i nuovi router Linksys Smart Wi-Fi. La comunità entrerà a far parte della popolare rete di sviluppatori Cisco®, che collega Cisco con sviluppatori hardware e software esterni. Di conseguenza lavoro congiunto in questa rete compaiono soluzioni interoperabili collaudate per clienti comuni. Cisco, pioniere delle reti domestiche, ha venduto più di 70 milioni di router Linksys in tutto il mondo e si impegna a rafforzare la propria leadership con soluzioni di rete domestica di nuova generazione.
I router Linksys Smart Wi-Fi hanno un'esclusiva architettura basata su cloud che consente agli sviluppatori di creare applicazioni per i dispositivi elettronici di qualsiasi utente. Per semplificare lo sviluppo, verrà offerto alla comunità un kit per sviluppatori software (SDK) semplice e conveniente, materiali didattici ed esempi di codici di programma.
"Siamo sulla soglia grandi cambiamenti fornendo agli utenti della rete domestica servizi che non avrebbero mai sognato. La nuova piattaforma software e la community di sviluppatori Linksys offrono opportunità davvero illimitate per gli sviluppatori", ha affermato Vikas Butaney, direttore dei prodotti Cisco Home Networking. – Lavorando con qualsiasi servizio, dal più semplice, come il monitoraggio remoto di un appartamento, al più complesso, gli sviluppatori possono contribuire alla creazione di preziosi e soluzioni utili per gli utenti finali".
Alcuni sviluppatori hanno già sfruttato la piattaforma Linksys Developer Community, l'SDK e altri strumenti Cisco per velocizzare e semplificare lo sviluppo delle applicazioni. Il risultato sono sei applicazioni create da Axentra Corporation, Fresh Consulting LLC, Gemini Solutions Inc., PacketVideo Corporation, Stratedge Adroitent J.V. e Xoriant Corporation. Le nuove applicazioni offrono una facile connessione del dispositivo (un clic), un controllo degli accessi potenziato e nuove funzionalità di condivisione dei contenuti multimediali. Queste app sono il primo passo per sbloccare tutto il potenziale dei router Linksys Smart Wi-Fi per gli utenti finali.
Gli sviluppatori interessati ad entrare a far parte della comunità di sviluppatori Linksys possono visitare http://referati.do.am per registrarsi e iniziare a creare nuove applicazioni per i router Linksys Smart Wi-Fi. Cisco fornisce risorse tecniche, di marketing e di vendita agli sviluppatori, supportando i membri della comunità durante l'intero processo aziendale e di sviluppo.

Isacco Asimov

Le tre leggi della robotica

Umani e robot

I robot si ribellano nella letteratura da secoli. Jinn ed efreet si ribellarono Racconti arabi, il Golem si ribellò, nato da un'idea di argilla dell'astuto Ben Bezalel. E anche i veri robot, creati dal genio di Karel Capek, sono andati fuori controllo, avendo appena avuto il tempo di nascere dalla penna dello scrittore. La situazione è diventata talmente grave che il problema dei robot ribelli è migrato dalle pagine finzione sulle pagine di articoli scientifici e monografie. Lo stesso Norbert Wiener ha ritenuto necessario mettere in guardia l'umanità possibili conseguenze eccessiva autonomia dei robot.

La salvezza è arrivata da un quartiere inaspettato. Lo scrittore e scienziato americano Isaac Asimov ha formulato le sue famose Tre leggi della robotica (in effetti, sarebbe più corretto dire "robotologia" o, come ha stabilito la scienza moderna, "robotica", ma ora è troppo tardi per correggere questa inesattezza di traduzione). Le leggi di Asimov sono state ricevute con una velocità davvero fantastica riconoscimento mondiale, e da allora nessun robot è uscito dalla catena di montaggio, cioè dai tamburi di una macchina da stampa, senza che le famigerate Tre Leggi siano state poste nel suo cervello (nota che un robot deve avere un cervello!) Finalmente l'umanità poté respirare liberamente. La futura convivenza con le legioni di robot obbedienti sembrava piuttosto rosea.

E cosa ne pensa il creatore delle leggi della robotica? La migliore risposta a questa domanda può essere ottenuta leggendo la raccolta offerta al lettore.

Cominciamo con la primissima storia della serie "I, Robot". Una bambina ha un robot babysitter. La ragazza si è affezionata al robot, ma, secondo sua madre, questo attaccamento è dannoso educazione adeguata bambino. E sebbene papà abbia un'opinione diversa, dopo lunghe discussioni in famiglia, il robot viene rispedito in fabbrica. La ragazza è triste, c'è un pericolo serio trauma mentale, e il robot ritorna (storia di Robbie).

Un bel complotto, vero? Ma è proprio questa semplicità che infrange la Prima Legge della robotica, che Asimov ha formulato come segue: "Un robot non può danneggiare una persona o, con la sua inerzia, permettere che si faccia del male a una persona". Come può un robot capire cosa è dannoso e cosa è utile se i genitori stessi non possono decidere questo problema in relazione al proprio figlio!

Nella storia "Round Dance", a seguito di un'indicazione formulata in modo poco chiaro, la Prima e la Terza Legge sono entrate in conflitto tra loro. Secondo la Terza Legge, "un robot deve prendersi cura della propria sicurezza, purché non contraddica la Prima e la Seconda Legge". Al robot è stato dato un comando, ma non è stato indicato il grado di danno che sarebbe stato inflitto a una persona se non fosse stato seguito. E ora il robot sta girando lungo il confine di un'area pericolosa, senza addentrarsi in essa (la Terza Legge lo impedisce) e allo stesso tempo non andare lontano (questo è impedito dalla Prima e dalla Seconda Legge). Una situazione familiare a qualsiasi programmatore di computer moderni. Si chiama "loop". A proposito, qualsiasi programmatore più o meno esperto inserisce nel programma comandi speciali, secondo i quali, dopo aver completato tre o quattro cerchi, il computer si ferma e richiede ulteriori istruzioni dalla persona.

Nella storia "Round dance" tutto accade diversamente. Lì per rompere Circolo vizioso le persone riescono solo rischiando la vita e allo stesso tempo usando tutta la loro ingegnosità e avvalendosi dell'aiuto di un esperto di psicologia dei robot. A proposito, uno dei leitmotiv che accomuna la maggior parte delle storie della raccolta è il combattimento tra robot e la psicologa robotica umana Susan Calvin.

O un'altra storia: "Come si è perso il robot". Infastidito, il giovane operaio dice al robot: “Vattene e non farti vedere che non ti vedo più”. Il robot segue letteralmente le istruzioni della persona, dopodiché l'intero staff dell'Hyperbase fuori dal pianeta è costretto a lasciare un lavoro importante e cercare il robot scomparso per un'intera settimana.

Abbiamo scelto ancora una volta deliberatamente una storia con una trama semplice, perché, a nostro avviso, è nella semplicità che nasce la persuasività con cui Asimov sfata la Seconda Legge della Robotica, da lui stesso creata.

Allora qual è il problema? È davvero necessario ammettere che il genio è uscito dalla bottiglia e le persone non hanno altra scelta che aspettare passivamente le conseguenze? Ricordiamo, tuttavia, che l'autore dei racconti non è solo uno scrittore, ma anche uno scienziato in grado di analizzare la situazione con tutto il rigore logico. E non è stato vano che abbia scelto questa particolare forma: prima ha formulato leggi che a prima vista sembrano impeccabili sia nel contenuto che nella forma, e poi ha dimostrato queste leggi in azione.

Sì, il genio è uscito dalla bottiglia, e molto, molto tempo fa. Prendendo un bastone tra le mani, un uomo ha creato il primo robot e ha incontrato una ribellione di robot quando ha accidentalmente lasciato cadere questo bastone sui suoi piedi. E da allora non è successo nulla di qualitativamente nuovo. Il problema della ribellione dei robot è stato posto e risolto nella tecnologia per diversi decenni. IN lingua inglese esiste persino un termine speciale "infallibile" - "protezione da uno sciocco". Quindi, il gas nella colonna del gas non si accende se l'acqua non scorre e la pressa non funzionerà se c'è corpo estraneo, come una mano umana.

Ma non dovrebbe essere richiesta la tecnologia per decidere per una persona cosa è a suo danno e cosa è a suo vantaggio. E non si deve pensare che l'emergere di macchine "pensanti", cioè macchine capaci di analizzare autonomamente la situazione e prendere decisioni basate su questa analisi, introdurrà qualcosa di fondamentalmente nuovo.

Torniamo, però, ai racconti della raccolta. Sembra che non sia necessario presentare il loro autore ai lettori. Isaac Asimov è uno dei più famosi scrittori di fantascienza americani, autore di molti libri e articoli scientifici popolari che sono stati pubblicati in raccolte separate. Ma soprattutto Asimov è un artista di talento, e questo è il segreto della sua popolarità. Molte opere di questo scrittore sono state tradotte in russo. Particolarmente famose sono state le sue storie sui robot, che sono state pubblicate come raccolte separate (il ciclo "I, Robot") o incluse in altre raccolte tematiche. È bello che molti di loro, anche se non tutti, vengano ora ripubblicati come un'unica raccolta.

Il lettore - che ha familiarità con il lavoro di Asimov e riconosce per la prima volta i suoi robot - incontrerà personaggi brillanti e ottimamente disegnati. Ecco i collaudatori nuova tecnologia Powell e Donovan, che, seguendo tutti i canoni del genere avventuroso, in ogni storia si trovano in situazioni difficili, a volte senza speranza, ma ne escono sempre con onore. Ecco la "fiducia del cervello" della compagnia "U.S. Robots and Mechanical Man Corporation" Bogert e Lanning, in lizza per il potere. E la robo-psicologa Susan Calvin domina tutti, disprezzando la vanità degli uomini d'affari. E dietro le quinte c'è l'America capitalista moderna in tutta la sua "gloria". Davanti al lettore ci sono immagini di lotte competitive tra aziende, macchinazioni politiche pre-elettorali, discriminazione razziale. Ma va notato che raffigurando i suoi robot come cavalieri senza paura e rimprovero, dotandoli di un corpo metallico e di un cervello positronico, Asimov evita acuti problemi sociali.


Superiore