3 lois de la robotique dans la science-fiction. Le code culturel d'Asimov : comment les trois lois de la robotique sont entrées dans l'histoire

Il n’y a aucun moyen de les contourner si vous les prenez au pied de la lettre. Mais c’est facile une fois que cette idée commence à prendre vie.
Imaginons qu'un programmeur essaie d'écrire ces lois. Voici la première, la plus importante : « Un robot ne peut pas nuire à une personne ni, par inaction, permettre qu’une personne soit blessée. »

Qu'est-ce qu'un robot ? D'accord, c'est lui-même, c'est-à-dire que vous n'avez pas besoin de lui écrire qu'il est une machine, incluez simplement une clause selon laquelle CECI ne peut pas causer de mal. Et qu'est ce que c'est"? Une personne a son propre « je », donc elle ne considère pas que sa main est autre chose, c'est toujours lui, sa continuation, c'est-à-dire que le concept de « robot » n'est pas si simple. Ce sont toutes des parties de son « corps ». Et c'est comme ça qu'ils vont l'écrire ? Un robot, contrairement à une personne, n'a pas de personnalité, ou il doit d'abord se sentir comme une personne, et non comme un ensemble de pièces. Comprenez-vous le caractère global de la tâche ? Pour introduire la première loi de la robotique dans un robot, celui-ci doit avoir une conscience complète, sachant que toutes ses pièces, toutes les vis, tous les câbles, panneaux et moteurs forment un tout, et même ce qu'il utilisera - d'autres mécanismes ou objets -. sont contrôlés par lui, qu’il en est « responsable ». Je regarde une voiture - même l'informatisé le plus intelligent comprend à peine que les roues en font partie. Autrement dit, chaque pièce, ainsi que les autres « pièces » que le robot peut utiliser, doivent être incluses dans un système unique, subordonné à un centre de contrôle, et surveiller l'emplacement dans l'espace de chaque partie de son corps. C'est tellement tâche difficile, que de simples radars ne suffisent pas ici. Il existe un écart énorme entre un mécanisme et un être vivant. Les premiers ne le font pas système nerveux, il n'y a pas de récepteurs sur toute la surface. La main d'un robot n'est qu'un morceau de métal, on ne peut pas mettre un capteur de suivi sur chaque centimètre, la main ne ressent rien, et donc le robot n'est pas capable de dessiner une image tridimensionnelle de lui-même, à chaque instant comprendre où se situe chacune de ses parties, en contact avec le monde extérieur.

Imaginons qu'une personne ait oublié où se trouve sa chaise et s'assoie par terre. Cela arrive très rarement, n'est-ce pas ? Quelle curiosité. Nous nous rappelons toujours non seulement où nous sommes, mais aussi où se trouvent les objets qui nous entourent. Et nous nous acquittons très bien de la tâche d’orientation. Cependant, des accidents surviennent et nous pouvons accidentellement étrangler un chaton ou écraser un chien sur la route. Nous comprenons que vous ne pouvez pas tout suivre et que nous pourrions accidentellement tuer une autre personne. Comment pouvons-nous interdire aux robots de faire du mal aux gens si les gens peuvent littéralement tomber sous le bras du robot ? Cela signifie que nous devons apporter des ajustements à la première loi. Il ne peut pas causer de préjudice SPÉCIFIQUEMENT, par exemple. Et puis il y a tout de suite un problème. Pas exprès peut-être ? D'accord, que ce soit « faites de votre mieux pour ne pas causer de mal ». Et qui déterminera s’il a tout fait ? Lui-même? Autrement dit, les robots auront un certain pourcentage de probabilité qu'ils puissent causer des dommages. On nous montre toujours comment un robot arrête littéralement un bras ou une jambe par un cheveu pour ne pas tuer une personne, mais par inertie ? Et le mouvement venant en sens inverse d'une personne, s'est-il lui-même suicidé contre un robot en accélérant ? Il y a beaucoup d'accidents et un robot, en principe, comme tout objet se déplaçant dans l'espace, ne peut garantir qu'il ne heurtera personne et, par conséquent, ne causera pas de dommages par son action. La première loi ne peut pas être remplie.

Une personne mettra-t-elle un masque, se couvrira-t-elle de boue et ne sera-t-elle plus une personne ? Autrement dit, les photographies chargées dans la mémoire du robot pour identification ne suffisent pas. Comment un robot va-t-il déterminer que devant lui se trouve une personne et non un mannequin ? homme mort, pas une peinture, pas un hologramme, pas un autre robot humanoïde ? Puces. Super. Je suis entré dans le programme de puce, j'ai changé le code d'identification, et c'est tout, vous pouvez ouvrir le feu pour tuer. Ou le robot identifiera-t-il les personnes grâce aux radiations qui en émanent ? Cela signifie que l’homme en combinaison spatiale est un cadavre. Pensez-vous qu’il est si facile de comprendre qu’il y a une personne devant vous ? Mais non. Il existe de nombreuses situations controversées dans lesquelles nous doutons. La maison s’est effondrée, y a-t-il du monde ? Sont-ils vivants ? Une ombre apparut à proximité, était-ce un homme ? Et nous faisons parfois des erreurs. Nous prenons un mannequin pour une personne et ne remarquons pas qu’il y avait quelqu’un de vivant sous le tas d’ordures, ni qu’il y avait quelqu’un derrière ce mur. Nous ne savions pas. Et le robot n'est pas clairvoyant. Il commettra une erreur et blessera, voire tuera une personne, ou ne parviendra pas à la sauver, ou ne pratiquera pas la respiration artificielle sur un mannequin. Pour contourner la loi, il suffit de modifier les définitions de « robot » et « humain », mais cela se contournera tout seul, puisqu'une parfaite exactitude des définitions ne peut être obtenue.

La loi n'a pas été écrite pour les robots. Il suppose que le mécanisme est si parfait qu’il ne peut pas se tromper. Il voit tout, évalue la situation en une fraction de seconde et a capacités paranormales, bien supérieur à ceux des humains. L’impression est donc que la loi a été écrite pour Dieu. Celui qui nous manque tant. Tous les dieux qui les possèdent n’interfèrent pas vraiment dans nos vies, et nous tombons malades, souffrons et mourons. Nous avons besoin d’un autre Dieu qui ne nous regarde pas du ciel, mais qui nous donne réellement un coup de main. Et en même temps, cela ne fera aucun mal, car nous comprenons intuitivement où se trouve le mal et où se trouve le bénéfice. Le robot comme super-être. Et si tel est le cas, de tels robots ne seront jamais créés par des humains. Et par conséquent, les trois lois de la robotique ne seront jamais énoncées sous la forme dont parlait Asimov. Il s’agira d’une version complètement différente, tronquée, dans laquelle les robots feront du mal aux humains. Soit par hasard, soit à cause d’une erreur d’identification, soit à cause de l’imperfection de son système de détermination de la position du corps dans l’espace. Avez-vous vu l'inscription sur les grues « ne restez pas sous la flèche », « dérapez de deux mètres » sur les machines longues ? Presque les mêmes restrictions s’appliqueront aux robots.

Une personne elle-même ne peut s'empêcher de nuire à d'autres personnes et à d'autres êtres vivants, peu importe à quel point elle le souhaite. Et ceci malgré toute la perfection de son dispositif dans le domaine de la reconnaissance des objets, de la compréhension de ce qui et comment doit être fait et de ce qui ne peut pas être fait sur la base de principes moraux, qui sont aussi une convention et il est douteux qu'ils puissent être écrits. comme programme. Les actions peuvent d'une manière ou d'une autre s'écrire étape par étape, mais dès qu'il s'agit de s'identifier, de se définir dans l'espace, et surtout de se sentir comme un objet à part entière et de comprendre toutes les conséquences de ses actions, il y a des difficultés insurmontables. Un robot va certainement nuire à une personne, et alors comment peut-il « vivre » avec ça ? Il a enfreint la loi. Et tout comme Sunny dans le film, il en arrivera à la conclusion que personne n’est parfait et qu’il est parfois nécessaire ou possible de tuer des gens. Ce qui nie complètement l’idéologie des trois lois.

Ils visent à garantir le fonctionnement d'une machine absolument sans danger pour l'homme. De plus, cela évite d’une manière ou d’une autre le problème selon lequel même des robots moins avancés tueront toujours des gens sans le savoir. Ces robots nous sont présentés comme des mécanismes qui n’en sont pas capables. Mais comme ils ne sont pas ensoleillés, ils ne souffriront pas de soucis. Eh bien, j'ai renversé quelqu'un. Ça arrive à tout le monde. "Ne reste pas sous la flèche." Néanmoins, nous arrivons à une solution au problème moral le plus important pour une personne - où se situe la limite entre le préjudice et le bénéfice, et si une personne ne l'a pas résolu, alors encore moins pour le mécanisme. Tout simplement parce qu’il s’agit d’un objet du monde matériel, et s’il existe, il peut potentiellement nuire à quelqu’un.

Je pense donc que la civilisation ne suivra pas le chemin consistant à suivre ces trois lois et que l’impossible ne sera pas exigé des machines. Mais les gens essaieront de s’améliorer. Génétiquement ou en implantant (suspendus) des dispositifs et des mécanismes, ou les deux options à la fois - là n'est pas la question. Les robots dans la littérature et au cinéma sont l'alter ego du créateur, une personne. Il veut se considérer comme fort, résilient, sans douleur, sans maladie, facilement réparable et éternel. Tout en restant humain. Un croisement entre Sunny et Del Spooner. Eh bien, pour que le corps soit vivant, pour recevoir toutes les joies de la vie, l'amour, le sexe, le risque, les expériences de tout le spectre, et pour ne pas éternuer nouvelle version grippe, ne mourez pas de libations ou d'un accident. Le rêve de s'améliorer est comme un fil rouge dans presque toutes les œuvres de science-fiction, d'"Avatar" à " Homme de fer" et "Spider-Man". La thèse "nous sommes des gens alors que nous sommes faibles" ne nous convient pas. Et nous résoudrons d'une manière ou d'une autre le problème de "tu ne tueras pas". Les trois lois en termes idéaux ne sont pas pour nous Nous ne sommes pas des morceaux de fer sans âme, et nous comprenons combien il est difficile de distinguer le bien du mal, le mal du bien, et à quel point ces concepts sont situationnels et relatifs, et nous savons exactement à quel point nous voulons parfois frapper quelqu'un, et personne. nous enlèvera le droit de réaliser ce sentiment simplement parce qu'il n'y a qu'une seule façon de l'enlever : nous mettre dans des cellules d'isolement confortables avec des murs mous, de préférence attachés à un lit, tout comme VIKI voulait le faire. dans le film « Moi, Robot ». La véritable humanité ne peut être réalisée que de cette manière : la privation du libre arbitre.

Les trois lois de la robotique, qui jouent un rôle très important dans la science-fiction, sont tout simplement nécessaires aux règles de comportement des robots. Au départ, ils ont été impliqués dans l'histoire « Round Dance » du célèbre écrivain Isaac Asimov.

À leur tour, ces lois stipulent :

  • Un robot ne pourra jamais nuire à l’humanité. Mais il existe une variante alternative : le robot n'est pas capable d'apporter mauvais pour une personne, sans rien faire.
  • Un robot ne peut tout simplement pas s'empêcher d'exécuter les ordres donnés par une personne. Mais même ici, il y a des exceptions : si les ordres contredisent la Première Loi, alors ils sont impossibles à mettre en œuvre.
  • En outre, un robot ne peut que veiller à sa propre sécurité dans la mesure où celle-ci n'est pas contrecarrée par la loi des première et deuxième catégories.

À ces trois lois a été consacré et publié tout un recueil d'histoires de l'auteur Asimov, qui contiennent à la fois les causes et les conséquences de leur non-respect, et elles parlent toutes de robots.

Il existe également d’autres histoires qui traitent de l’étape dans laquelle les conséquences du fait que les robots respectent les Trois Lois ne peuvent être prévues. Par exemple, « Mirror Reflection » peut être considéré comme une telle histoire.

Dans l’un de ses récits, l’auteur a mis fin au fondement qu’était le cadre éthique des Trois Lois. Selon lui, un robot qui remplit les Trois Lois est, en tant que tel, un robot ou une très bonne personne. Après tout, la moralité est donnée à l'homme pour qu'il la suive. Dans une certaine mesure, une personne, remplissant un grand nombre de conditions et de lois diverses, est aussi un robot. Alors pourquoi cette « créature » de fer ne peut-elle pas revendiquer le titre d’« homme » ?!

Loi zéro pour les robots

En 1985, dans l'un de ses nombreux romans sur les robots, l'auteur osa également évoquer Loi Zéro, dont l'essence était la suivante : un robot ne causera jamais de mal ou de mal à une personne, et par sa propre inaction, il ne permettra pas que des dommages soient causés.

En principe, il convient de noter que dans toutes les lois mentionnées, il y a une partie de ce à quoi il faut réfléchir. Le monde ne reste pas immobile et on ne sait pas à quoi d'autre les gens peuvent s'attendre - aujourd'hui, l'avenir appartient à la jeune génération, qui a des centaines d'idées de toutes sortes en tête.

On peut également dire que les trois lois de la robotique sont également un sujet de réflexion. des idées fantastiques Azimova. Cela inclut également ce cycle, qui est très étroitement lié à l'ensemble du thème dédié aux robots.

Quelle est la morale des Trois Lois ?

Il est impossible de passer sous silence sans évoquer la justification du projet éthique. Dans l’une des histoires intitulée « Preuves », l’auteur a très bien exposé la justification de la moralité des trois lois. En règle générale, ce n'est pas qu'une personne ne veuille pas nuire à une autre personne, mais essaie simplement de s'abstenir de ces actions. Mais il y a ici des exceptions, comme pour toute règle. En temps de guerre, cette logique ne s’applique tout simplement pas.

Se sentant responsable envers la société, une personne suit les instructions des personnes qui représentent les médecins, les enseignants, etc. Voici la manifestation de la deuxième loi.

Le fait qu'une personne s'inquiète et se protège est absorbé par la Troisième Loi. Ainsi, toutes ces lois sont très interconnectées et ne peuvent tout simplement pas exister les unes sans les autres. Il se peut que la Première Loi opère, et qu’elle puisse ensuite passer en douceur à la Deuxième, puis à la Troisième Loi. Ici, les éléments de moralité et de fantaisie vont de pair.

Concernant l'avenir, alors le seul problème, qui peut être un niveau de fantaisie, qui peut à tout moment se transformer en réalité. Plus la technologie évolue, plus moins de problèmes les gens auront des problèmes avec eux à l’avenir.

Trois lois de la robotique

Isaac Asimov, 1965

Trois lois de la robotique dans la science-fiction - règles obligatoires comportement pour les robots, formulé pour la première fois par Isaac Asimov dans l'histoire « Round Dance » ().

Les lois stipulent :

Trois lois, et raisons possibles et les conséquences de leur violation sont consacrées à la série d’histoires d’Asimov sur les robots. Certains d’entre eux considèrent au contraire des conséquences inattendues conformité robots Trois lois(par exemple « Réflexion miroir »).

Dans l'une des histoires de la série, le personnage d'Asimov arrive à une conclusion sur le fondement éthique Trois lois: "...si vous y réfléchissez, les Trois Lois de la Robotique coïncident avec les principes de base de la plupart des systèmes éthiques existant sur Terre... en termes simples, si Byerly suit toutes les Lois de la Robotique, il est soit un robot, soit un très Homme bon» .

Asimov a vraiment aimé cette histoire. Le 7 mai 1939, il visita la Queens Science Fiction Society, où il rencontra Binder. Trois jours plus tard, Asimov commençait à écrire sa propre histoire du « noble robot ». Au bout de 13 jours, il remit le manuscrit à son ami John Campbell, rédacteur en chef du magazine Astounding. Cependant, il a rendu le manuscrit, disant que l'histoire ressemblait trop à celle d'Helen O'Loy.

Heureusement, le refus de Campbell n'a pas affecté leur relation avec Asimov ; ils ont continué à se rencontrer régulièrement et à discuter des nouveaux développements dans le monde de la science-fiction. Et ici, le 23 décembre 1940, alors qu'il discutait d'une autre histoire sur les robots :

... Campbell a formulé ce qui deviendra plus tard connu sous le nom de Trois lois de la robotique. Campbell a déclaré plus tard qu'il avait simplement isolé Lois d'après ce qu'Asimov a déjà écrit. Asimov lui-même a toujours concédé l'honneur de la paternité Trois lois Campbell....

Quelques années plus tard, un autre ami d'Asimov, Randal Garrett, en attribua la paternité. Lois"partenariat symbiotique" entre deux personnes. Asimov a accepté avec enthousiasme cette formulation.

D'une manière générale, l'apparence Trois lois Dans les œuvres d’Asimov, cela s’est produit progressivement : les deux premières histoires sur les robots (« Robbie » et « Logic ») n’en contiennent aucune mention explicite. Cependant, ils impliquent déjà que les robots ont certaines limitations internes. Dans l'histoire suivante ("Liar", 1941), on entend pour la première fois Première loi. Et enfin, les trois au complet Loi sont donnés dans la « Round Dance » ().

Lorsque les histoires restantes ont été écrites et que l'idée de publier la collection « Moi, Robot » est née, les deux premières histoires ont été « ajoutées » Lois. Il convient toutefois de noter que dans « Robbie », les lois étaient quelque peu différentes de la version « classique » présentée dans les autres histoires. En particulier, l'idée d'un robot protégeant des personnes dont il n'est pas entièrement sûr de l'existence fait écho aux réflexions d'Elijah Bailey sur l'imperfection. Lois décrit.

Justification éthique des lois

  1. L’État ne devrait pas nuire aux gens ni permettre qu’un préjudice leur soit causé par l’inaction.
  2. L'État doit remplir ses fonctions si celles-ci ne contredisent pas Première loi.
  3. L'État doit veiller à sa sécurité, à moins que cela ne contredise D'abord Et Deuxièmes lois.

Basé Première loi Jeff Raskin a formulé les lois des interfaces orientées vers l'humain :

  1. L'ordinateur ne peut pas endommager les données de l'utilisateur ni, par inaction, permettre que les données soient endommagées.
  2. L’ordinateur ne doit pas vous faire perdre du temps ni vous obliger à faire plus que nécessaire.

Gaia, la planète de l'esprit collectif dans la série de romans Foundation, a quelque chose de similaire à Première loi:

Variations proposées par Azimov

Dans ses œuvres, Isaac Asimov apporte parfois Trois lois diverses modifications et les réfute, comme pour tester Lois"pour la force" dans différentes circonstances.

Loi Zéro

Isaac Asimov une fois ajouté Loi Zéro, ce qui en fait une priorité plus élevée que les trois principales. Cette loi stipule qu'un robot doit agir dans l'intérêt de toute l'humanité, et pas seulement d'un individu. C’est ainsi que le robot Daniel Olivo le dit dans le roman Sol et Terre :

0. Un robot ne peut pas causer de tort à l’humanité ni, par son inaction, permettre qu’un préjudice lui soit causé.

C'est lui qui a été le premier à donner un numéro à cette loi - cela s'est produit dans le roman "Robots and Empire", cependant, le concept lui-même a été formulé encore plus tôt par Susan Kelvin - dans la nouvelle "Solvable Contradiction".

Le premier robot à obéir Loi Zéro, et de son plein gré, était Giscard Riventlov. Ceci est décrit dans l'une des scènes finales du roman "Robots and Empire", lorsque le robot a dû ignorer l'ordre d'une personne pour le bien du progrès de toute l'humanité. Loi Zéro n'était pas intégré dans le cerveau positronique de Giscard - il a essayé de venir à lui par compréhension pure, grâce à une conscience du concept plus subtile que tous les autres robots nuire. Cependant, Giscard n'était pas sûr de savoir à quel point cela serait bénéfique pour l'humanité, ce qui affectait négativement son cerveau. Étant télépathe, Giscard a transféré ses capacités télépathiques à Daniel avant de se mettre hors service. Ce n'est qu'après plusieurs milliers d'années que Daniel Olivo fut capable de s'adapter pleinement à la soumission Loi Zéro.

Le traducteur français Jacques Brecard a formulé involontairement Loi Zéro avant qu'Asimov ne le décrive explicitement. Vers la fin de Caves of Steel, Elijah Bailey note que Première loi interdit à un robot de nuire à une personne sauf s'il est certain que cela lui sera utile dans le futur. Dans traduction française("Les Cavernes d'acier ( )", 1956). Les pensées de Bailey sont exprimées de manière quelque peu différente :

Il est à noter que développement logique Première loi avant Zéro suggéré par les créateurs du film I, Robot de 2004. Lorsque le supercalculateur V.I.K.I décide de limiter la liberté des habitants de la planète afin qu'ils ne nuisent pas les uns aux autres et à leur avenir, il ne le fait pas. Première loi, à savoir Nul. Ce qui est encore plus intéressant, c'est que le film montre ainsi la contradiction Loi Zéro D'abord, son caractère contraire à l'éthique. En effet, lorsqu'il s'agit du bien de l'humanité, le système ne peut pas considérer les personnes individuellement, ce qui signifie que rien ne l'empêche de violer les droits et libertés de quiconque, voire tout le monde personne. Pendant les guerres, et souvent pendant une vie paisible, les gens se font du mal, font du mal aux autres, à leur culture. Par conséquent, sur la base de Loi Zéro Il est tout à fait logique de garder les gens sous tutelle constante sans suivre les ordres de créatures aussi déraisonnables.

Modification de la première loi

Les notes autobiographiques d'Asimov disent que la deuxième partie Première loi est apparu à cause du poème satirique « Le dernier décalogue » d’Arthur Hugh Clow, où se trouve la phrase suivante : « Tu ne tueras pas, mais n’essaye pas trop de sauver la vie d’autrui. »

Dans l'histoire « ... Pour se souvenir de lui », Asimov a mené les recherches les plus sophistiquées Trois lois, les inversant de telle manière qu’un « scénario Frankenstein » devienne possible. Deux robots de la série Georgie s'accordent sur le fait que l'origine biologique n'est pas une condition nécessaire pour être considéré comme humain, et que de vraies personnes- ce sont les créatures les plus parfaites et les plus intelligentes. D’autres personnes sont aussi des personnes, mais avec moins de priorité. Et si c'est le cas, alors Trois lois devrait leur être appliqué en premier. Le récit se termine par les mots inquiétants selon lesquels les robots étaient dans une « attente patiente et sans fin » du jour où ils affirmeraient leur primauté parmi les humains – et ce serait le résultat inévitable des « Trois lois de l’humanité ».

En fait, cette histoire ne s'intègre pas très bien dans la série principale d'œuvres sur les robots : si les « Georgies » avaient réalisé leur plan après la fin de l'histoire, alors d'autres histoires sur les événements ultérieurs n'auraient pas été possibles. Ce sont précisément ces types de contradictions dans les œuvres d'Asimov qui donnent aux critiques des raisons de les considérer davantage comme des « sagas scandinaves ou des légendes grecques » que comme un seul « univers » fantastique.

Si dans le cas précédent le robot a pris la place de l'homme dans la nature, puis dans Bicentennial Man Asimov décrit le destin inverse : un robot libéré de Trois lois et s'est réalisé en tant que personne, rejoint la communauté des personnes. Encore une fois, dans la version étendue - la nouvelle "The Positron Man", co-écrite par Asimov avec Robert Silverberg - en raison de problèmes similaires problèmes éthiques les gens ont complètement abandonné l’idée de créer des robots pensants. Cette évolution des événements contredit complètement l'image du futur décrite dans les mondes de la « Fondation ».

Problèmes d'application

Résolution des contradictions

Les modèles de robots les plus avancés sont généralement suivis Lois selon un algorithme plutôt astucieux qui nous a permis d'éviter certains problèmes. Dans de nombreuses histoires, par exemple dans "Round Dance", le cerveau positronique était comparé potentiels actions possibles et les résultats et le robot pourrait violer Lois, le plus tôt possible, au lieu de ne rien faire. Par exemple, Première loi n'a pas permis au robot d'effectuer opérations chirurgicales, puisque cela nécessite de « nuire » à une personne. Cependant, dans les histoires d'Asimov, vous pouvez trouver des robots chirurgiens (un exemple frappant en est « L'Homme du bicentenaire »). Le fait est qu’un robot, s’il est suffisamment avancé, peut peser toutes les alternatives et comprendre que lui-même causera beaucoup moins de dommages que si l'opération était réalisée par un chirurgien humain ou si elle n'avait pas eu lieu du tout. Dans Evidence, Susan Calvin dit même que le robot pourrait faire office de procureur, puisqu'il ne fait personnellement de mal à personne : en plus de cela, il y a aussi un jury qui détermine la culpabilité, un juge qui prononce la peine et un bourreau qui porte IT out. .

Des robots obéissant Lois, peut subir un « roblock » ou un « gel mental » - une condition irréversible dommages au cerveau positronique - au cas où ils ne pourraient pas obéir Première loi ou découvrez qu'ils l'ont accidentellement violé. Cela est possible, par exemple, si le robot observe la scène d'une personne tuée, mais se trouve trop loin pour la sauver. Le premier cas d'un tel « gel » se produit dans « Menteur » ; Cette condition joue également un rôle important dans l'intrigue des romans "The Naked Sun" et "Robots of the Dawn". Les modèles de robots imparfaits peuvent être bloqués s’ils sont chargés d’obéir à deux ordres contradictoires. Le « gel » peut être irréversible ou temporaire.

Une autre définition du préjudice dans la Première Loi

Lois ne définissent en aucune manière les limites de ce qu'on peut appeler nuire pour une personne, cela dépend souvent de la capacité du robot à percevoir les informations et à penser de manière philosophique. Par exemple, un robot de police comprendra-t-il qu’il ne fera de mal à personne s’il escorte soigneusement un criminel particulièrement dangereux jusqu’au commissariat ?

Dans l'histoire "Menteur", le robot télépathique Herbie a été forcé de comprendre nuire et quelque chose qui pourrait décevoir ou contrarier les gens de quelque façon que ce soit - il savait que les gens éprouvent une certaine chagrin. Cela l’obligeait à constamment dire aux gens ce qu’ils voulaient entendre au lieu de dire la vérité. Autrement, selon lui, il aurait violé Première loi.

Lacunes dans les lois

Dans The Naked Sun, Elijah Bailey note que Lois sont mal formulés par les humains car un robot peut les violer par ignorance. Il a suggéré la formulation « correcte » suivante Première loi: "Un robot ne peut rien faire qui pour autant qu'il sache, causera un préjudice à un être humain ou intentionnellement permettre qu’un être humain soit blessé. »

Cet ajout montre clairement qu’un robot peut même devenir une arme du crime s’il n’est pas conscient de la nature de ses actions. Par exemple, on peut lui ordonner d’ajouter quelque chose à la nourriture de quelqu’un sans qu’il sache que c’est du poison. De plus, Bailey affirme qu'un criminel pourrait confier cette tâche à plusieurs robots, sans que personne ne comprenne l'ensemble du plan.

Bailey affirme que les Solariens pourront un jour utiliser des robots même à des fins militaires. Si un vaisseau spatial est construit avec un cerveau de type robot et ne dispose pas d'un équipage humain ni de systèmes de survie, alors l'intelligence de ce vaisseau peut supposer à tort que tout le monde il n'y a personne sur les vaisseaux spatiaux. Un tel navire sera plus maniable, plus rapide et peut-être mieux armé qu’un navire contrôlé par des humains. Mais surtout, il pourra détruire des gens sans connaître leur présence. Cette possibilité est décrite dans "Fondation et Terre", où il est également révélé que les Solariens disposent d'une armée de robots extrêmement puissante, qui ne comprennent les "humains" que comme des natifs de Solaria.

Autres utilisations des lois dans la fiction

Isaac Asimov croyait qu'il Lois servira de base à une nouvelle vision des robots, détruira le « complexe Frankenstein » de la science-fiction et conscience de masse, deviendra une source d'idées pour de nouvelles histoires où les robots sont présentés comme polyvalents et attrayants. Son exemple préféré d’une telle œuvre était Star Wars. L'opinion d'Asimov selon laquelle les robots sont plus que de simples « grille-pain » ou des « monstres mécaniques » a finalement été acceptée par d'autres auteurs de science-fiction. Dans leurs œuvres, des robots sont apparus, obéissant Trois lois, mais, selon la tradition, seul Asimov les mentionnait explicitement.

Dans des œuvres qui parlent directement Trois lois , leur auteur est généralement mentionné. Il y a des exceptions : par exemple, dans la série allemande des années 1960 "Raumpatrouille - Die phantastischen Abenteuer des Raumschiffes Orion" ("Space Patrol - les aventures fantastiques du vaisseau spatial Orion"), notamment dans son troisième épisode "Hüter des Gesetzes" ( "Loi sur les serviteurs"), Asimov Lois attiré sans en préciser la source.

Contrairement aux critiques et à certains retours du public que j'ai entendus, I, Robot est un film d'action de science-fiction plutôt amusant. ... Quand nous ... voulons profiter d'Asimov, nous lisons Asimov. Et quand on veut regarder un film d’action de science-fiction, on regarde un film d’action de science-fiction. « Moi, Robot » en tant que film d'action nous a pleinement satisfait.

La critique d'Alexeï Sadetski attire l'attention sur le fait que le film, s'éloignant légèrement d'Asimov, pose lui-même deux nouveaux problèmes socio-philosophiques. Il convient de noter que le film a jeté le doute sur la suite Loi zéro de la robotique Asimov (voir ci-dessus).

Le développement de l’IA est une affaire et les entreprises, comme nous le savons, ne sont pas intéressées par le développement de mesures de sécurité fondamentales, notamment philosophiques. Voici quelques exemples : industrie du tabac, industrie automobile, industrie nucléaire. Aucun d’entre eux n’a été informé au départ que des mesures de sécurité sérieuses étaient nécessaires, et tous ont été empêchés par des restrictions imposées de l’extérieur, et aucun d’entre eux n’a adopté un décret absolu contre tout préjudice aux personnes.

Il convient de noter que l'essai de Sawyer omet les questions de préjudices involontaires, telles qu'abordées, par exemple, dans The Naked Sun. Cependant, il y a aussi des objections à cette position : les militaires pourraient vouloir utiliser autant de précautions de sécurité que possible pour les robots, et donc des restrictions similaires à Lois de la robotique, d’une manière ou d’une autre sera appliqué. L'écrivain et critique de science-fiction David Langford a ironiquement noté que ces restrictions pourraient être les suivantes :

Roger Clark a écrit deux ouvrages consacrés à l'analyse des complications dans la mise en œuvre des Lois, si un jour elles pouvaient être appliquées à la technologie. Il écrit :

Les lois de la robotique d'Asimov sont devenues un outil littéraire à succès. Peut-être par ironie, ou peut-être par un coup de maître, les histoires d'Asimov réfutent généralement le point par lequel il a commencé : il est impossible de contraindre de manière fiable le comportement des robots en inventant et en appliquant un ensemble de règles.

D'un autre côté, les romans ultérieurs d'Asimov (Robots de l'Aube, Robots et Empire, Fondation et Terre) montrent que les robots causent encore plus de dommages à long terme, observer les lois et privant ainsi les gens de la liberté d'adopter un comportement créatif ou risqué.

L'écrivain de science-fiction Hans Moravec - figure éminente du mouvement transhumaniste - a suggéré que Lois de la robotique devrait être utilisé dans les systèmes intelligents d’entreprise – des sociétés contrôlées par l’IA et utilisant la puissance productive des robots. De tels systèmes, à son avis, apparaîtront bientôt.

Eliezer Yudkowsky explore au (SIAI) aux États-Unis le risque mondial que pourrait créer la future IA surhumaine si elle n'est pas programmée pour être respectueuse de l'homme. En 2004, la SIAI a lancé AsimovLaws.com, un site Web conçu pour discuter de l'éthique de l'IA dans le contexte des questions soulevées dans le film I, Robot, sorti seulement deux jours plus tard. Sur ce site, ils voulaient montrer que les lois robotiques d'Asimov sont dangereuses car, par exemple, elles pourraient encourager l'IA à s'emparer de la Terre afin de « protéger » les humains du mal.

Remarques

  1. Asimov, Isaac. Preuve // ​​Rêves de robots. - M. : Eksmo, 2004. - P. 142-169. - ISBN5-699-00842-X
  2. Asimov, Isaac. Essai n°6. Lois de la robotique // Robot Dreams. - M. : Eksmo, 2004. - P. 781-784. - ISBN5-699-00842-X
  3. Épouser. avec le mythe de Galatée.
  4. Il est intéressant de noter que dans l’une des suites de l’auteur, l’histoire « La vengeance d’Adam Link » (

À mon avis, les concepts de bien et de mal, à leur tour, sont étroitement liés au concept de sens de la vie. Il est impossible de dire si une certaine action humaine est bonne ou mauvaise tant que l’on ne sait pas quel devrait être le but du comportement humain.

Cependant, dans le cadre de la robotique d’Asimov, ce problème peut être résolu jusqu’à la vulgarité.
L'un de ses romans décrit comment un robot humanoïde avait intégré un circuit dans la poursuite de la justice - définissant la justice simplement comme le respect lois de l'État. "Et si la loi était injuste ?" « Une loi injuste, répondit le robot, est une contradiction terminologique. »

Si vous agissez de manière aussi vulgaire, vous pouvez facilement définir la notion de préjudice, mais de tels robots ne seront pas d'une grande utilité...

Répondre

Comme on le sait aujourd'hui, le développement dernières technologies, et plus encore dans le domaine de la robotique, est conçu d’abord pour satisfaire les besoins de l’industrie de défense, et ensuite seulement ceux du reste de l’humanité. Je pense qu'il est déjà clair que dans de telles conditions, la Première Loi sera considérablement modifiée. Et pas dans le sens d’une pacification universelle.

Répondre

  • Souvenez-vous des paroles du célèbre écrivain Kurt Vonnegut : « Quel que soit le travail d’un scientifique, il se retrouve avec une arme. »
    Probablement avec un postulat similaire, qui régit la psychologie humaine (et pas seulement parmi les scientifiques), la Terre n'a pas d'avenir... tout comme ceux qui ont vécu avant nous n'en avaient pas. En général, notre désir de destruction et d'autodestruction est une loi naturelle... tout aspire à l'équilibre (entropie positive), seul chaque corps et entité dans la Nature le fait à sa manière. « Une étoile vieillit et explose, mais une personne, ayant atteint la limite de la connaissance, brûle à 10 000 degrés Celsius par seconde dans un chaudron de guerre nucléaire.
    Pensez à l'aphorisme de Drenerim : « Chaque peuple est digne de son dirigeant !.. » Pourquoi les troglodytes armés de massues ont-ils gouverné les gens pendant des milliers d'années, n'est-ce pas parce que nous sommes honorés par la force, qui n'exige pas de cerveau ?
    Mais le pire, c'est quand les cerveaux, pour survivre dans le monde des troglodytes, se mettent à servir ces troglodytes. Car la « Force » n'a que peu d'intérêt dans l'avis des cerveaux, mais seulement dans les résultats : par exemple, une forme plus meurtrière des incisives sur un gourdin...

    Répondre

    • Le respect des lois mentionnées ci-dessus par un robot est encore une perspective d'un avenir très lointain... (si cela se réalise !)
      Parmi les derniers systèmes intelligents désormais créés sur la base de réseaux de neurones artificiels, on peut souligner le modèle RRS-EX (Rezoning Robotic Systems - Exployer). Cette structure se rapproche le plus possible des structures neurologiques bioniques... mais ! Intelligence capable d’analyser une configuration d’objectifs en évolution rapide environnement RRS-EX ne le fait tout simplement pas. Tout se résume à la limite algorithmique du binaire (« OUI-NON » et entre « JE NE SAIS PAS »). Afin d’apprendre à un robot à penser et à extrapoler ses conclusions, il faut un certain segment de hasard étranger, autrement appelé « Approche intuitive pour l’intelligence artificielle » ou autrement (privé, individuel). Pour ce faire, il faut sortir de la théorie standard des algorithmes mathématiques, qui ne peuvent qu'établir un programme d'actions et d'associations pour les systèmes d'IA, mais ne peuvent pas donner à ces systèmes des méthodes de connexions privées dans des circuits neuronaux, qui existent par milliards. des milliards dans le cerveau biologique, plus des influences et impulsions transversales (conscience réflexe). En bref, les systèmes d'IA ont besoin d'une matrice d'individualité à la fois pour l'auto-apprentissage et pour la capacité de refléter de manière adéquate non seulement les faits, mais aussi après coup, ainsi que de prendre leurs propres décisions sur la base de la dominante logique établie précédemment (formation, éducation) (la logique du bien ou la logique du mal). Ici, il n’est plus possible de limiter les systèmes d’IA à trois lois. S'il est néanmoins possible d'entasser ces trois lois dans le système, alors le champ de la pensée individuelle sera fermé et l'objet régi par ces lois ne sera plus qu'une machine à calculer bêtement. Et n'importe quel hacker doué mâchera et crachera ces lois comme des graines... L'avez-vous remarqué ? Tout est comme l'ÉDUCATION et la FORMATION des gens ! Sinon on se retrouve avec un simple ordinateur...

      Répondre

      • Fortement en désaccord avec vous, Science Lover. Pourquoi y en a-t-il autant, tout à fait personnes intelligentes Parfois, ils expriment, bien entendu, l'opinion que l'intuition est en quelque sorte liée au hasard ?

        Intuition (Lat. Lat. intuitio - contemplation, du Lat. intueor - regarder attentivement), la capacité de comprendre la vérité en l'observant directement sans justification à l'aide de preuves. Recherche inconsciente d'une solution, perspicacité.

        À mon avis, l’intuition n’a rien à voir avec le hasard et peut être entièrement déterminée. Ainsi que le comportement d’un être « vivant » (IA) complètement intelligent. Ce déterminisme peut être réglé précisément par le programme. Ou diriez-vous que la plupart de vos actions ne sont pas raisonnables et aléatoires ? Est-ce qu'ils mentent ?

        Déclaration d'impossibilité :

        >> Ici, il n'est plus possible de limiter les systèmes d'IA >> à trois lois. S'il est néanmoins possible d'entasser ces trois >> lois dans le système, alors le champ de la pensée individuelle sera fermé, >> donc l'objet régi par ces lois ne sera rien de plus qu' >> une machine bêtement calculatrice.

        Je pense que c'est sans fondement. Même si la question est bien sûr difficile. Je pense qu'il serait bon de justifier de telles déclarations en détail.

        Répondre

Je pense qu'il vaut la peine d'ajouter à cet article qu'Isaac AZIMOV est la première personne à prononcer le mot Robot ! C'est lui qui est le fondateur de cette culture parmi les écrivains de science-fiction. De plus, je ne suis pas d'accord avec l'auteur de l'article concernant « l'invention d'une image riche » puisqu'il s'agit d'une sorte de canon du travail d'un cerveau robotique chez les humains. et surtout, rappelez-vous que même Sir Isaac Newton à son époque était également appelé charlotan, et que les lois qu'il « a données » étaient absurdes ou forme douce"fictions d'une riche imagination"...

Répondre

Je tiens à préciser que le mot « Robot » n'a pas été inventé par Asimov. En 1920, Karel Capek, un écrivain tchèque, utilisa ce mot dans la pièce "R.U.R.";.
http://ru.wikipedia.org/wiki/Chapek
Isaac Asimov n'est né qu'en 1920, ce qui n'enlève rien à la valeur de ses œuvres.
http://ru.wikipedia.org/wiki/Azimov%2C_Isaac

Répondre

Y a-t-il des idées fausses ?
Notre intellect est une superstructure qui protège et adhère aux intérêts du corps (fonctionnement, réplication).
Pour l'intelligence, il me semble que l'essentiel est la motivation - l'objectif principal. Cet objectif sera la base de l’auto-apprentissage et d’autres choses.
Le bien et le mal ne sont que «+» et «-» pour l'intellect, c'est-à-dire «bénéfice» et «dommage» dans les complexités les plus complexes de combinaisons et de chaînes diverses telles que «je-famille-société» (le bénéfice se rapproche à l'objectif principal ou adhérer aux moyens de l'atteindre). Disons que le but principal est de survivre...

Répondre

Cisco a annoncé la création d'une communauté de développeurs Linksys. Il comprendra des spécialistes créant des applications pour les nouveaux routeurs Linksys Smart Wi-Fi. La communauté fera partie du populaire réseau de développeurs Cisco®, connectant Cisco aux créateurs externes de matériel et de logiciels. Par conséquent collaboration ce réseau fournit des solutions testées et compatibles pour les clients communs. Cisco, pionnier des réseaux domestiques, a vendu plus de 70 millions de routeurs Linksys dans le monde et s'engage à étendre son leadership en développant des solutions de réseaux domestiques de nouvelle génération.
Les routeurs Linksys Smart Wi-Fi disposent d'une architecture cloud unique qui permet aux développeurs de créer des applications pour n'importe quel appareil électronique grand public. Pour simplifier le développement, la communauté se verra proposer un kit de développement logiciel (SDK) simple et pratique, matériel éducatif et des exemples de codes de programme.
"Nous sommes sur le seuil grands changements, offrant aux utilisateurs du réseau domestique des services dont ils n'auraient jamais rêvé. La nouvelle plate-forme logicielle et la communauté de développeurs Linksys ouvrent des possibilités véritablement illimitées aux développeurs », a déclaré Vikas Butaney, directeur produit Cisco pour les réseaux domestiques. – En travaillant avec n’importe quel service, du plus simple, comme la surveillance à distance d’un appartement, au plus complexe, les promoteurs peuvent contribuer à la création de services précieux et solutions utiles pour les utilisateurs finaux."
Certains développeurs ont déjà profité de la plateforme Linksys Developer Community, du SDK et d'autres outils Cisco pour rendre le développement d'applications plus rapide et plus facile. En conséquence, six applications ont été créées par Axentra Corporation, Fresh Consulting LLC, Gemini Solutions Inc., PacketVideo Corporation, Stratified Adroitent J.V. et Xoriant Corporation. Les nouvelles applications offrent une connectivité simple en un clic, des fonctionnalités avancées de contrôle d'accès et de nouvelles capacités de partage multimédia. Ces applications constituent la première étape pour libérer le large potentiel des routeurs Linksys Smart Wi-Fi pour les utilisateurs finaux.
Les développeurs souhaitant rejoindre la communauté des développeurs Linksys peuvent visiter http://referati.do.am pour s'inscrire et commencer à créer de nouvelles applications pour les routeurs Linksys Smart Wi-Fi. Cisco fournit des ressources techniques, marketing et commerciales aux développeurs, aidant ainsi les membres de la communauté tout au long des processus commerciaux et de développement.

Isaac Asimov

Trois lois de la robotique

Les gens et les robots

Les robots se rebellent dans la littérature depuis des temps immémoriaux. Les génies et les ifrits se sont rebellés contes arabes, le Golem, l'idée d'argile du rusé Ben Bezalel, s'est rebellé. Et même les vrais robots, créés par le génie de Karel Capek, sont devenus incontrôlables dès leur naissance sous la plume de l’écrivain. La situation est devenue si grave que le problème des robots rebelles a migré des pages fiction sur les pages d'articles scientifiques et de monographies. Norbert Wiener lui-même a jugé nécessaire de mettre en garde l'humanité contre conséquences possibles indépendance excessive des robots.

Le salut est venu d’une direction inattendue. L'écrivain et scientifique américain Isaac Asimov a formulé ses célèbres Trois lois de la robotique (en fait, il serait plus correct de dire « robotologie » ou, comme cela s'est établi dans la science moderne, « robotique », mais il est maintenant trop tard pour corriger cela imprécision de la traduction). Les lois d'Asimov ont été reçues avec une rapidité vraiment fantastique reconnaissance mondiale, et depuis lors, pas un seul robot n'est sorti de la chaîne de montage, c'est-à-dire des bobines de l'imprimerie, sans que les fameuses Trois Lois soient incrustées dans son cerveau (attention, un robot doit avoir un cerveau !). L’humanité pourrait enfin respirer librement. La coexistence future avec des légions de robots obéissants semblait sans nuages.

Qu’en pense le créateur des Lois de la Robotique ? La meilleure réponse à cette question peut être obtenue en lisant le recueil proposé au lecteur.

Commençons par la toute première histoire de la série « Moi, Robot ». Une petite fille a une nounou robot. La jeune fille s'est attachée au robot, mais, selon sa mère, cet attachement est nocif Bonne éducation enfant. Et bien que papa ait un avis différent, après de longues discussions familiales, le robot est renvoyé à l'usine. La fille est triste, il y a un risque de grave traumatisme mental, et le robot revient (histoire « Robbie »).

Une intrigue simple, n'est-ce pas ? Mais c’est précisément cette simplicité qui fait voler en éclats la première loi de la robotique, formulée ainsi par Asimov : « Un robot ne peut pas nuire à une personne ni, par inaction, permettre qu’une personne soit blessée. » Comment un robot peut-il déterminer ce qui est nocif et ce qui est utile si les parents eux-mêmes ne peuvent pas résoudre ce problème concernant leur propre enfant !

Dans l'histoire « Round Dance », à la suite d'une instruction peu claire, les première et troisième lois sont entrées en conflit les unes avec les autres. Selon la Troisième Loi, « un robot doit veiller à sa propre sécurité dans la mesure où cela est conforme aux Première et Deuxième Lois ». Le robot a reçu une commande, mais le degré de préjudice qui serait causé à une personne s'il n'était pas suivi n'était pas indiqué. Ainsi, le robot tourne le long de la limite de la zone dangereuse, sans y pénétrer profondément (la Troisième Loi l'empêche) et en même temps sans aller loin (les Première et Deuxième Lois l'empêchent). Une situation familière à tout programmeur informatique moderne. C'est ce qu'on appelle du « bouclage ». À propos, tout programmeur plus ou moins expérimenté introduit des commandes spéciales dans le programme selon lesquelles, après avoir effectué trois ou quatre cercles, l'ordinateur s'arrête et nécessite des instructions supplémentaires de la part de la personne.

Dans l'histoire « Round Dance », tout se passe différemment. Il y a une pause là cercle vicieux les gens ne réussissent qu'en risquant leur vie et en utilisant en même temps toute leur ingéniosité et en utilisant l'aide d'un expert en psychologie robotique. À propos, l'un des leitmotivs qui unissent la plupart des histoires de la collection est le combat entre les robots et la psychologue des robots humains Susan Calvin.

Ou une autre histoire : « Comment le robot s'est perdu ». Agacé, le jeune ouvrier dit au robot : « Va-t-en et ne montre pas ton visage pour que je ne te reverre plus. » Le robot exécute littéralement les instructions de la personne, après quoi tout le personnel de l'Hyperbase hors planète est obligé d'abandonner un travail important et de rechercher le robot disparu pendant une semaine entière.

Nous avons encore une fois délibérément choisi une histoire avec une intrigue simple, car, à notre avis, c'est dans la simplicité que naît la conviction avec laquelle Asimov démystifie la deuxième loi de la robotique, qu'il a lui-même créée.

Alors, quel est le problème ? Devons-nous vraiment admettre que le génie est sorti de la bouteille et que les gens n’ont d’autre choix que d’attendre passivement les conséquences ? Rappelons cependant que l'auteur des récits n'est pas seulement un écrivain, mais aussi un scientifique, capable d'analyser la situation avec toute la rigueur logique. Et ce n'est pas pour rien qu'il a choisi cette forme particulière : il a d'abord formulé des lois qui, à première vue, semblaient impeccables tant dans le contenu que dans la forme, puis a démontré ces lois en action.

Oui, le génie est sorti de la bouteille, et il y a très, très longtemps. Prenant un bâton dans ses mains, un homme a créé le premier robot, et il a rencontré une émeute de robots lorsqu'il a accidentellement laissé tomber ce bâton sur ses pieds. Et rien de qualitativement nouveau ne s’est produit depuis lors. Le problème de la rébellion des robots est posé et résolu technologiquement depuis plusieurs décennies maintenant. DANS langue anglaise Il existe même un terme spécial « infaillible » - « protection contre les imbéciles ». Ainsi, le gaz dans le chauffe-eau à gaz ne s'enflammera pas s'il n'y a pas d'eau qui coule, et la presse ne fonctionnera pas s'il n'y a pas d'eau. Objet étranger, par exemple une main humaine.

Mais la technologie ne devrait pas être obligée de décider à la place d’une personne de ce qui lui est nocif et de ce qui lui est bénéfique. Et il ne faut pas penser que l’émergence de machines « pensantes », c’est-à-dire capables d’analyser de manière indépendante une situation et de prendre des décisions basées sur cette analyse, introduira quelque chose de fondamentalement nouveau.

Revenons cependant aux histoires du recueil. Il semble qu'il ne soit pas nécessaire de présenter leur auteur aux lecteurs. Isaac Asimov est l'un des écrivains américains de science-fiction les plus célèbres, auteur de nombreux livres et articles de vulgarisation scientifique publiés dans des collections séparées. Mais Asimov est avant tout un artiste talentueux, et c’est précisément le secret de sa popularité. De nombreuses œuvres de cet écrivain ont été traduites en russe. Ses histoires sur les robots, publiées sous forme de recueils séparés (série « Moi, Robot ») ou incluses dans d'autres recueils thématiques, sont devenues particulièrement célèbres. C’est bien que beaucoup d’entre eux, mais pas tous, soient désormais réédités sous la forme d’une seule collection.

Le lecteur - à la fois familier avec le travail d'Asimov et reconnaissant pour la première fois ses robots - rencontrera des personnages brillants et parfaitement écrits. Les testeurs sont là aussi nouvelle technologie Powell et Donovan, qui, suivant tous les canons du genre aventure, se retrouvent dans chaque histoire dans des situations difficiles, parfois désespérées, mais en sortent toujours avec honneur. Voici le « brain trust » de la société « U.S. Robots and Mechanical Men Corporation » Bogert et Lanning, en lice pour le pouvoir. Et dominant tout le monde se trouve la robopsychologue Susan Calvin, qui méprise la vanité des gens occupés. Et dans les coulisses se trouve l’Amérique capitaliste moderne dans toute sa « splendeur ». Le lecteur est confronté à des images de concurrence entre entreprises, de machinations politiques électorales et de discrimination raciale. Mais il faut savoir qu'en présentant ses robots comme des chevaliers sans crainte ni reproche, les dotant d'un corps métallique et d'un cerveau positronique, Asimov évite les problèmes sociaux pressants.


Haut