3 قانون رباتیک در داستان های علمی تخیلی کد فرهنگی آسیموف: چگونه سه قانون رباتیک در تاریخ ثبت شد

اگر آنها را به معنای واقعی کلمه در نظر بگیرید راهی برای دور زدن آنها وجود ندارد. اما زمانی که این ایده شروع به عملی شدن کند، آسان است.
بیایید تصور کنیم یک برنامه نویس سعی می کند این قوانین را بنویسد. در اینجا اولین و مهمترین مورد وجود دارد: "روبات نمی تواند به یک شخص آسیب برساند یا با بی عملی اجازه دهد که یک فرد آسیب ببیند."

ربات چیست؟ خوب، این خودش است، یعنی نیازی نیست به او بنویسید که او یک ماشین است، فقط یک بند وارد کنید که این نمی تواند باعث آسیب شود. و این چیه"؟ شخص "من" خود را دارد، بنابراین او فکر نمی کند که دست او چیز دیگری است، همچنان اوست، ادامه او، یعنی مفهوم "ربات" چندان ساده نیست. اینها همه اعضای «بدن» او هستند. و اینگونه خواهند نوشت؟ یک ربات، بر خلاف یک شخص، شخصیتی ندارد، یا ابتدا باید احساس کند که یک شخص است، نه مجموعه ای از قطعات. آیا ماهیت جهانی کار را درک می کنید؟ برای اعمال قانون اول رباتیک به یک ربات، باید آگاهی کاملی داشته باشد با این درک که تمام اجزای آن، تمام پیچ ها، سیم کشی ها، پانل ها و موتورها یک کل هستند، و حتی آنچه که از آن استفاده خواهد کرد - مکانیسم ها یا اشیاء دیگر - توسط آن کنترل می شوند، که او "مسئول" آنها است. من به یک ماشین نگاه می کنم - حتی باهوش ترین ماشین کامپیوتری به سختی درک می کند که چرخ ها بخشی از آن هستند. به این معنی که هر بخش و همچنین سایر "قطعاتی" که ربات می تواند از آنها استفاده کند، باید در یک سیستم واحد، تابع یک مرکز کنترل قرار گیرند و مکان هر قسمت از بدن خود را در فضای فضایی نظارت کنند. آن چنان کار دشوار، که رادارهای ساده در اینجا کافی نیستند. شکاف بزرگی بین یک مکانیسم و ​​یک موجود زنده وجود دارد. اولین ها این کار را نمی کنند سیستم عصبی، هیچ گیرنده ای در کل سطح وجود ندارد. دست یک ربات فقط یک تکه فلز است، نمی توان روی هر سانتی متر یک سنسور ردیابی قرار داد، دست چیزی را احساس نمی کند و بنابراین ربات قادر نیست هر لحظه یک تصویر سه بعدی از خود ترسیم کند. درک جایی که هر یک از اجزای آن در تماس با دنیای خارج قرار دارد.

بیایید تصور کنیم که شخصی فراموش کرده است که صندلی خود کجاست و روی زمین می نشیند. این خیلی به ندرت اتفاق می افتد، اینطور نیست؟ مثل یک کنجکاوی ما همیشه نه تنها به یاد می آوریم که کجا هستیم، بلکه اشیاء اطراف ما کجا هستند. و ما به خوبی با وظیفه جهت یابی کنار می آییم. با این حال، تصادفات رخ می دهد، و ما می توانیم به طور تصادفی یک بچه گربه را خفه کنیم یا یک سگ را در جاده زیر بگیریم. ما درک می کنیم که شما نمی توانید همه چیز را پیگیری کنید و ممکن است به طور تصادفی فرد دیگری را بکشیم. چگونه می توانیم ربات ها را از آسیب رساندن به مردم منع کنیم اگر مردم به معنای واقعی کلمه زیر بازوی ربات بیفتند؟ این بدان معناست که ما باید اصلاحاتی را در قانون اول انجام دهیم. برای مثال، نمی تواند به طور خاص آسیب برساند. و بلافاصله یک مشکل وجود دارد. شاید عمدی نیست؟ خوب، بگذارید "تمام تلاش خود را بکنید تا آسیبی به شما وارد نشود." و چه کسی تعیین خواهد کرد که آیا او همه کارها را انجام داده است؟ خودش؟ یعنی ربات ها درصدی از احتمال آسیب رساندن به آن را خواهند داشت. همیشه به ما نشان داده می شود که چگونه یک ربات به معنای واقعی کلمه دست یا پا را با یک مو متوقف می کند تا یک نفر را بکشد، اما اینرسی؟ و حرکت روبه‌روی یک نفر، آیا خودش در هنگام شتاب گرفتن خود را در برابر ربات کشته است؟ تصادفات زیادی رخ می دهد و یک ربات، در اصل، مانند هر جسمی که در فضا حرکت می کند، نمی تواند تضمین کند که به کسی برخورد نمی کند و در نتیجه با عمل خود آسیبی به آن وارد نمی کند. قانون اول قابل اجرا نیست.

آیا کسی نقاب می‌زند، گل می‌شود و دیگر آدم نمی‌شود؟ یعنی عکس های بارگذاری شده در حافظه ربات برای شناسایی کافی نیست. چگونه یک ربات تشخیص می دهد که یک نفر در مقابلش است نه یک مانکن؟ مرد مردهنه یک نقاشی، نه یک هولوگرام، نه یک ربات انسان نمای دیگر؟ چیپس. عالی. من وارد برنامه تراشه شدم، کد شناسایی را تغییر دادم و تمام شد، شما می توانید برای کشتن آتش باز کنید. یا ربات افراد را با تشعشعات ساطع شده از آنها شناسایی می کند؟ این بدان معناست که مردی که در لباس فضایی پوشیده یک جسد است. آیا فکر می کنید اینقدر آسان است که بفهمید یک نفر در مقابل شما وجود دارد؟ اما نه. وقتی شک می کنیم موقعیت های بحث برانگیز زیادی وجود دارد. خانه فرو ریخت، مردم آنجا هستند؟ آیا آنها زنده هستند؟ سایه ای از نزدیک چشمک زد، آیا این یک مرد بود؟ و ما گاهی اوقات اشتباه می کنیم. ما یک مانکن را با یک شخص اشتباه می‌گیریم و متوجه نمی‌شویم که کسی زنده زیر انبوه زباله‌ها بوده یا کسی پشت آن دیوار بوده است. ما نمی دانستیم. و ربات روشن بین نیست. او مرتکب اشتباه می شود و یک نفر را مجروح می کند یا حتی می کشد یا نمی تواند او را نجات دهد یا تنفس مصنوعی روی یک مانکن انجام می دهد. برای دور زدن قانون، کافی است تعاریف "ربات" و "انسان" را ویرایش کنید، اما به خودی خود این کار را انجام می دهد، زیرا نمی توان به دقت کامل تعاریف دست یافت.

این قانون برای روبات ها نوشته نشده است. او فرض می کند که مکانیسم آنقدر عالی است که نمی تواند اشتباه کند. او همه چیز را می بیند، وضعیت را در کسری از ثانیه ارزیابی می کند و دارد توانایی های ماوراء الطبیعه، بسیار برتر از انسان است. بنابراین تصور این است که قانون برای خدا نوشته شده است. همونی که خیلی دلمون تنگ شده همه خدایی که آنها را دارند به نوعی واقعاً در زندگی ما دخالت نمی کنند و ما بیمار می شویم، رنج می بریم و می میریم. ما به خدای دیگری نیاز داریم که از بهشت ​​به ما نگاه نکند، بلکه در واقع دست یاری دراز کند. و در عین حال هیچ ضرری نخواهد داشت، به طور شهودی درک می کند که ضرر کجاست و منفعت کجاست. ربات به عنوان یک موجود فوق العاده و اگر چنین است، پس چنین روبات هایی هرگز توسط انسان ساخته نخواهند شد. و بنابراین، هر سه قانون رباتیک هرگز به شکلی که آسیموف در مورد آن صحبت کرد، بیان نمی شود. این یک نسخه کاملا متفاوت و کوتاه خواهد بود که در آن ربات ها به انسان آسیب می رسانند. یا به طور تصادفی یا به دلیل خطای شناسایی یا به دلیل نقص سیستم تعیین موقعیت بدن در فضا. آیا نوشته روی جرثقیل ها "زیر بوم نمانید" ، "دو متر لغزید" روی ماشین های طولانی دیده اید؟ تقریباً همین محدودیت ها برای روبات ها اعمال خواهد شد.

خود شخص هر چقدر هم که بخواهد نمی تواند به دیگران و دیگر موجودات زنده آسیب برساند. و این علیرغم تمام کمالات دستگاهش در زمینه شناخت اشیاء، فهمیدن اینکه چه کاری و چگونه باید انجام داد و چه کارهایی را نمی توان بر اساس اصول اخلاقی انجام داد که اینها هم قراردادی هستند و در نوشتن آنها تردید وجود دارد. به عنوان یک برنامه اقدامات را می توان به نحوی گام به گام نوشت، اما به محض اینکه به شناسایی، تعریف در فضا و به خصوص احساس یک شیء کامل و درک تمام عواقب اعمال شما می رسد، مشکلات غیرقابل حلی وجود دارد. برخی از ربات ها قطعاً به شخص آسیب می رسانند و پس چگونه می تواند با این "زندگی" کند؟ او قانون را زیر پا گذاشت. و درست مثل سانی در فیلم به این نتیجه خواهد رسید که هیچ کس کامل نیست و گاهی لازم یا ممکن است آدم ها را بکشید. که کاملاً ایدئولوژی سه قانون را نفی می کند.

هدف آنها اطمینان از عملکرد ماشینی است که برای انسان کاملاً ایمن است. علاوه بر این، به نحوی از این مشکل جلوگیری می‌کند که حتی ربات‌های پیشرفته‌تر همچنان ناآگاهانه مردم را می‌کشند. این روبات ها به عنوان مکانیزم هایی به ما معرفی می شوند که توانایی این کار را ندارند. اما، از آنجایی که آنها آفتابی نیستند، از نگرانی رنج نخواهند برد. خب من یک نفر را زیر پا گذاشتم. برای همه اتفاق می افتد. زیر پیکان نمانید. با این حال ، ما به حل مهمترین مشکل اخلاقی برای یک شخص می رسیم - مرز بین ضرر و منفعت کجاست و اگر شخصی آن را حل نکرده باشد ، برای مکانیسم حتی کمتر است. صرفاً به این دلیل که شیء جهان مادی است و اگر وجود داشته باشد، به طور بالقوه می تواند به کسی آسیب برساند.

پس فکر می کنم تمدن مسیر پیروی از این سه قانون را طی نخواهد کرد و غیرممکن ها از ماشین ها خواسته نخواهد شد. اما مردم تلاش خواهند کرد تا خود را بهبود بخشند. از نظر ژنتیکی یا با کاشت (آویزان) دستگاه ها و مکانیسم ها، یا هر دو گزینه به طور همزمان - این موضوع نیست. ربات‌ها در ادبیات و سینما، منش دیگری از خالق، یک فرد هستند. او می خواهد خود را قوی، انعطاف پذیر، بدون احساس درد، ندانستن بیماری، به راحتی ترمیم و ابدی ببیند. در عین حال انسان ماندن. تلاقی بین سانی و دل اسپونر. خوب، برای اینکه بدن زنده باشد، تا تمام لذت های زندگی، عشق، جنسی، ریسک، تجربیات تمام طیف را دریافت کند و از عطسه نکند. نسخه جدیدآنفولانزا، در اثر لیفت کردن یا تصادف نمی میرید. رویای بهبود خود مانند یک نخ قرمز تقریباً در تمام آثار علمی تخیلی، از «آواتار» تا « مرد آهنی"و "مرد عنکبوتی". تز "ما مردم هستیم در حالی که ضعیف هستیم" مناسب ما نیست. و ما به نوعی مشکل "نباید بکشی" را دریابیم. این سه قانون در شرایط ایده آل برای ما مناسب نیستند. ما تکه های آهن بی روح نیستیم و می دانیم که تشخیص خوب از بد، ضرر از منفعت چقدر دشوار است و اینها چقدر مفاهیم موقعیتی و نسبی هستند و دقیقاً می دانیم که گاهی می خواهیم به کسی ضربه بزنیم و هیچ کس. حق درک این احساس را از ما سلب می کند، زیرا تنها یک راه برای از بین بردن آن وجود دارد - ما را در سلول های انفرادی دنج با دیوارهای نرم، ترجیحاً بسته به تخت، درست مانند آنچه که VIKI می خواست انجام دهد در فیلم "من، ربات" انسانیت واقعی فقط از این طریق می تواند تحقق یابد - یعنی با تبدیل آنها به ربات.

سه قانون رباتیک که نقش بسیار مهمی در داستان های علمی تخیلی ایفا می کنند، به سادگی در قوانین رفتاری ربات ها ضروری هستند. در ابتدا آنها درگیر داستان "رقص گرد" نویسنده مشهور اسحاق آسیموف بودند.

به نوبه خود، این قوانین بیان می کنند:

  • یک ربات هرگز نمی تواند به بشریت آسیب برساند. اما یک تغییر جایگزین وجود دارد: ربات قادر به آوردن نیست بد برای یک فرد، در حالی که هیچ کاری انجام نمی دهید.
  • یک ربات به سادگی نمی تواند دستورات داده شده توسط یک فرد را انجام دهد. اما حتی در اینجا استثناهایی وجود دارد: اگر دستورات با قانون اول مغایرت داشته باشند، اجرای آنها غیرممکن است.
  • همچنین یک ربات نمی تواند از ایمنی خود مراقبت کند تا جایی که با قانون دسته اول و دوم مقابله نشود.

مجموعه کاملی از داستان‌های نویسنده آسیموف به همه این سه قانون اختصاص یافته و منتشر شده است که هم دلایل و هم پیامدهای عدم رعایت آنها را در بر می‌گیرد و همگی درباره روبات‌ها صحبت می‌کنند.

داستان های دیگری نیز وجود دارد که به مرحله ای می پردازد که در آن نمی توان عواقب اجرای هر سه قانون توسط روبات ها را پیش بینی کرد. مثلاً «انعکاس آینه» را می‌توان چنین داستانی در نظر گرفت.

نویسنده در یکی از داستان های خود به مبنایی که چارچوب اخلاقی سه قانون بود پایان داد. به گفته او، روباتی که تمام قوانین سه گانه را برآورده می کند، به این ترتیب، یک ربات یا یک فرد بسیار خوب است. بالاخره اخلاق به انسان داده می شود تا از آن پیروی کند. تا حدودی، یک فرد با رعایت تعداد زیادی از شرایط و قوانین مختلف، یک ربات نیز هست. پس چرا این «مخلوق» آهنین نمی تواند ادعای «مرد» بودن کند؟!

قانون صفر برای ربات ها

در سال 1985، نویسنده در یکی از رمان های متعدد خود در مورد ربات ها نیز جرأت کرد به آن اشاره کند قانون صفرکه ماهیت آن به این صورت بود: ربات هیچ گاه باعث آسیب یا آسیب به شخص نمی شود و با عدم اقدام خود اجازه نمی دهد آسیبی وارد شود.

اصولاً باید توجه داشت که در تمامی قوانین ذکر شده جای تامل وجود دارد. جهان ساکن نیست و معلوم نیست مردم چه چیزهای مبتکرانه دیگری می توانند انتظار داشته باشند - امروز آینده متعلق به نسل جوان است که صدها نوع ایده در سر دارند.

همچنین می توان گفت که هر سه قانون رباتیک نیز موضوعی هستند ایده های خارق العادهعظیمووا این همچنین شامل آن چرخه می شود که بسیار نزدیک به کل موضوع اختصاص داده شده به روبات ها است.

اخلاق سه قانون چیست؟

بدون ذکر دلیل طرح اخلاقی نمی توان گذشت. در یکی از داستان ها به نام «شواهد»، نویسنده به خوبی دلیل اخلاقی بودن هر سه قانون را بیان کرده است. به عنوان یک قاعده، اینطور نیست که شخص نمی خواهد به شخص دیگری آسیب برساند، بلکه سعی می کند از این اعمال خودداری کند. اما استثنائاتی در اینجا وجود دارد، مانند هر قاعده ای. در جنگ، این منطق به سادگی اعمال نمی شود.

فرد با احساس مسئولیت در قبال جامعه از دستورات افرادی که نماینده پزشکان، معلمان و غیره هستند پیروی می کند. در اینجا تجلی قانون دوم می آید.

این واقعیت که انسان نگران است و از خود محافظت می کند توسط قانون سوم جذب می شود. بنابراین، همه این قوانین بسیار به هم مرتبط هستند و به سادگی نمی توانند بدون یکدیگر وجود داشته باشند. ممکن است قانون اول عمل کند و سپس به آرامی به قانون دوم و سپس به قانون سوم منتقل شود. در اینجا عناصر اخلاق و فانتزی با یکدیگر همراه می شوند.

پس در مورد آینده تنها مشکل، که ممکن است سطحی از فانتزی باشد که هر لحظه می تواند به واقعیت تبدیل شود. هرچه فناوری بیشتر توسعه یابد، بیشتر می شود مشکلات کمترمردم در آینده با آنها مشکل خواهند داشت.

سه قانون رباتیک

ایزاک آسیموف، 1965

سه قانون رباتیکدر داستان های علمی تخیلی - قوانین اجباریرفتار برای روبات ها، اولین بار توسط ایزاک آسیموف در داستان "رقص گرد" ().

قوانین می گوید:

سه قانون، و دلایل ممکنو عواقب نقض آنها به مجموعه داستان های آسیموف در مورد روبات ها اختصاص دارد. برخی از آنها، برعکس، عواقب ناخواسته را در نظر می گیرند انطباقروبات ها سه قانون(به عنوان مثال "انعکاس آینه").

در یکی از داستان های سریال، شخصیت آسیموف در مورد مبنای اخلاقی به نتیجه می رسد سه قانون: "...اگر در مورد آن فکر کنید، سه قانون رباتیک با اصول اساسی اکثر سیستم های اخلاقی موجود بر روی زمین منطبق است... به زبان ساده، اگر بایرلی از تمام قوانین رباتیک پیروی کند، او یا یک ربات است یا یک ربات. خیلی مردخوب» .

آسیموف این داستان را خیلی دوست داشت. در 7 می 1939، او از انجمن علمی تخیلی کوئینز بازدید کرد و در آنجا با بیندر ملاقات کرد. سه روز بعد، آسیموف شروع به نوشتن داستان خود از "ربات نجیب" کرد. پس از 13 روز، او دست نوشته را به دوستش جان کمپبل، سردبیر مجله Astounding داد. با این حال، او دست نوشته را پس داد و گفت که داستان بسیار شبیه به هلن اولوی است.

خوشبختانه، امتناع کمپبل بر روابط آنها با آسیموف تأثیری نداشت. و در اینجا در 23 دسامبر 1940، در حالی که در مورد داستان دیگری در مورد روبات ها بحث می کنیم:

... کمبل آنچه را که بعدها به آن معروف شد، فرموله کرد سه قانون رباتیک. کمپبل بعداً گفت که او به سادگی منزوی شده است قوانیناز آنچه آسیموف قبلاً نوشته است. آسیموف خود همیشه افتخار نویسندگی را پذیرفت سه قانونکمپبل...

چند سال بعد، یکی دیگر از دوستان آسیموف، راندال گرت، نویسندگی را نسبت داد قوانین"مشارکت همزیستی" بین دو نفر. آسیموف با اشتیاق این فرمول را پذیرفت.

به طور کلی، ظاهر سه قانوندر آثار آسیموف، این به تدریج اتفاق افتاد: دو داستان اول در مورد روبات ها ("رابی" و "منطق") هیچ اشاره صریحی به آنها ندارند. با این حال، آنها قبلاً نشان می دهند که ربات ها دارای محدودیت های داخلی هستند. در داستان بعدی (دروغگو، 1941) برای اولین بار شنیده می شود قانون اول. و در نهایت هر سه به طور کامل قانوندر "رقص گرد" ().

وقتی داستان های باقی مانده نوشته شد و ایده انتشار مجموعه «من، روبات» به وجود آمد، دو داستان اول «اضافه شد». قوانین. اگرچه شایان ذکر است که در «رابی» قوانین تا حدودی با نسخه «کلاسیک» که در داستان‌های دیگر آمده بود متفاوت بود. به طور خاص، ایده رباتی که از افرادی محافظت می کند که او کاملاً از وجود آنها مطمئن نیست، بازتاب افکار الیجا بیلی در مورد نقص است. قوانینشرح داده شده.

توجیه اخلاقی قوانین

  1. دولت نباید به مردم آسیب برساند یا اجازه ندهد که از طریق انفعال آسیب به آنها برسد.
  2. دولت باید وظایف خود را در صورت عدم تناقض انجام دهد قانون اول.
  3. دولت باید از امنیت خود مراقبت کند، مگر اینکه این امر مغایرت داشته باشد اولینو قوانین دوم.

مستقر قانون اولجف راسکین قوانین رابط های انسان مدار را فرموله کرد:

  1. رایانه نمی‌تواند به داده‌های کاربر آسیب برساند یا از طریق عدم اقدام، اجازه آسیب رساندن به داده‌ها را بدهد.
  2. کامپیوتر نباید وقت شما را تلف کند یا شما را مجبور به انجام بیش از حد لازم کند.

گایا، سیاره ذهن کندو در مجموعه رمان های بنیاد، چیزی شبیه به آن دارد قانون اول:

تغییرات پیشنهاد شده توسط عظیموف

اسحاق آسیموف در آثار خود گاهی می آورد سه قانوناصلاحات مختلف و آنها را رد می کند، گویی در حال آزمایش است قوانین"برای قدرت" در شرایط مختلف.

قانون صفر

اسحاق آسیموف یک بار اضافه کرد قانون صفر، آن را در اولویت بالاتری نسبت به سه مورد اصلی قرار می دهد. این قانون بیان می کرد که یک ربات باید به نفع تمام بشریت عمل کند و نه فقط یک فرد. ربات دانیل اولیوو در رمان زمین و زمین اینگونه بیان می کند:

0. یک ربات نمی تواند آسیبی به بشریت وارد کند یا با انفعال اجازه دهد که آسیبی به بشریت برسد.

این او بود که اولین کسی بود که به این قانون شماره داد - این اتفاق در رمان "ربات ها و امپراتوری" افتاد ، با این حال ، خود این مفهوم حتی زودتر توسط سوزان کلوین - در داستان کوتاه "تضاد قابل حل" فرموله شد.

اولین روباتی که اطاعت کرد قانون صفرو به میل خود، ژیسکار ریونتلف بود. این در یکی از صحنه‌های پایانی رمان «ربات‌ها و امپراتوری» توضیح داده شده است، زمانی که ربات مجبور شد دستور یک نفر را به خاطر پیشرفت همه بشر نادیده بگیرد. قانون صفردر مغز پوزیترونیک ژیسکار تعبیه نشده بود - او سعی کرد از طریق او به او بیاید درک ناب، از طریق آگاهی ظریف تر از این مفهوم نسبت به همه ربات های دیگر صدمه. با این حال، ژیسکار مطمئن نبود که چقدر برای بشریت مفید است، که بر مغز او تأثیر منفی گذاشت. ژیسکار به عنوان یک تله پات، توانایی های تله پاتی خود را قبل از خارج شدن از کمیسیون به دانیل منتقل کرد. تنها پس از هزاران سال، دانیل اولیوو توانست به طور کامل خود را با تسلیم شدن وفق دهد قانون صفر.

ژاک برکار، مترجم فرانسوی، ناخواسته فرمول بندی کرد قانون صفرقبل از اینکه آسیموف آن را به صراحت توصیف کند. نزدیک به انتهای غارهای فولادی، الیجا بیلی اشاره می کند که قانون اولربات را از آسیب رساندن به شخص منع می کند مگر اینکه مطمئن باشد که در آینده برای او مفید خواهد بود. که در ترجمه فرانسوی("Les Cavernes d'acier ( )»، 1956) افکار بیلی تا حدودی متفاوت منتقل می شود:

قابل ذکر است که توسعه منطقی قانون اولقبل از صفرپیشنهاد سازندگان فیلم I, Robot در سال 2004. وقتی ابررایانه V.I.K.I تصمیم می گیرد آزادی ساکنان کره زمین را محدود کند تا ناخواسته به یکدیگر و آینده خود آسیب نرسانند. قانون اول، برای مثال خالی. جالبتر اینکه فیلم به این ترتیب تناقض را نشان می دهد قانون صفر اولین، غیر اخلاقی بودن آن در واقع، وقتی صحبت از مصلحت بشریت به میان می‌آید، نظام نمی‌تواند افراد را به صورت فردی در نظر بگیرد، به این معنی که هیچ چیز مانع از نقض حقوق و آزادی هر کسی یا حتی نمی‌شود. هر کسشخص در طول جنگ، و اغلب در طول زندگی آرام، مردم به خود، دیگران، فرهنگ خود آسیب می رسانند. بنابراین، بر اساس قانون صفرکاملاً منطقی است که مردم را بدون پیروی از دستورات چنین موجودات نامعقولی تحت سرپرستی دائمی قرار دهیم.

اصلاح قانون اول

یادداشت های زندگی نامه آسیموف می گوید که قسمت دوم قانون اولبه دلیل شعر طنز "آخرین دکالوگ" اثر آرتور هیو کلو ظاهر شد که در آن این جمله وجود دارد: "نباید بکشی، اما برای نجات جان دیگری تلاش زیادی نکن".

آسیموف در داستان "... برای یاد او" پیچیده ترین تحقیقات را انجام داد سه قانونو معکوس کردن آنها به گونه ای که "سناریوی فرانکشتاین" ممکن شد. دو ربات از سری جورجی به توافق می رسند که منشاء ارگانیک شرط لازم برای انسان نیست و اینکه مردم واقعی- آنها کامل ترین و باهوش ترین موجودات هستند. افراد دیگر نیز مردم هستند، اما با اولویت کمتر. و اگر چنین است، پس سه قانونابتدا باید در مورد آنها اعمال شود. روایت با این سخنان شوم پایان می‌یابد که روبات‌ها در «انتظار بی‌پایان صبور» از روزی بودند که اولویت خود را در میان انسان‌ها اعلام کنند - و این نتیجه اجتناب‌ناپذیر «سه قانون بشریت» خواهد بود.

در واقع، این داستان چندان در مجموعه اصلی آثار مربوط به ربات ها نمی گنجد: اگر «جورجی ها» پس از پایان داستان نقشه خود را اجرا می کردند، داستان های دیگر درباره وقایع بعدی امکان پذیر نبود. دقیقاً این نوع تضادها در آثار آسیموف است که به منتقدان دلیل می‌دهد تا آنها را بیشتر به عنوان «حماسه‌های اسکاندیناوی یا افسانه‌های یونانی» ببینند تا یک «جهان» خارق‌العاده.

اگر در مورد قبلی ربات جای انسان را در طبیعت گرفت، سپس در Bicentennial Man Asimov سرنوشت مخالف را توصیف می کند: روباتی که از آن آزاد شده است سه قانونو خود را به عنوان یک شخص درک کرد، به جمع مردم پیوست. باز هم در نسخه توسعه یافته - رمان "مرد پوزیترونی" که توسط آسیموف به همراه رابرت سیلوربرگ نوشته شده است - به دلیل مشابه مشکلات اخلاقیمردم ایده ایجاد ربات های متفکر را کاملاً کنار گذاشته اند. این توسعه رویدادها کاملاً با تصویر آینده توصیف شده در جهان های "بنیاد" در تضاد است.

مشکلات برنامه

رفع تناقضات

پیشرفته ترین مدل های ربات معمولاً دنبال می شدند قوانینطبق یک الگوریتم نسبتاً حیله گر که به ما امکان می دهد از برخی مشکلات جلوگیری کنیم. در بسیاری از داستان ها، به عنوان مثال در «رقص گرد»، مغز پوزیترونیک مقایسه شد پتانسیل ها اقدامات ممکنو نتایج و ربات می تواند نقض کند قوانین، در اسرع وقت به جای هیچ کاری. مثلا، قانون اولبه ربات اجازه انجام نداد عمل های جراحی، زیرا این مستلزم "آسیب رساندن" به شخص است. با این حال، در داستان‌های آسیموف می‌توانید ربات‌های جراح را بیابید (نمونه بارز آن «مرد دویست ساله» است). نکته این است که یک ربات، اگر به اندازه کافی پیشرفته باشد، می تواند همه گزینه ها را بسنجید و آن را درک کند خودشآسیب بسیار کمتری نسبت به زمانی که عمل توسط یک جراح انسانی انجام شده باشد یا اصلاً انجام نشده باشد، ایجاد خواهد کرد. سوزان کالوین در شواهد حتی می‌گوید که ربات می‌تواند به عنوان دادستان عمل کند، زیرا شخصاً به کسی آسیب نمی‌رساند: علاوه بر آن، هیئت منصفه نیز وجود دارد که گناه را تعیین می‌کند، قاضی که حکم را صادر می‌کند و جلادی که اجرا می‌کند. آن را بیرون آورد.

روبات ها اطاعت می کنند قوانین، ممکن است "رابلاک" یا "انجماد ذهنی" را تجربه کند - یک وضعیت غیر قابل برگشتآسیب به مغز پوزیترونیک - در صورتی که نتوانند اطاعت کنند قانون اولیا متوجه شوید که آنها به طور تصادفی آن را نقض کرده اند. این امکان وجود دارد، به عنوان مثال، اگر ربات صحنه کشته شدن یک فرد را مشاهده کند، اما برای نجات او بسیار دور باشد. اولین نمونه از چنین «انجماد» در «دروغگو» رخ می دهد; این شرط در طرح رمان‌های «خورشید برهنه» و «ربات‌های سپیده‌دم» نیز نقش مهمی دارد. اگر موظف به اطاعت از دو دستور متضاد باشند، مدل‌های ربات ناقص ممکن است مسدود شوند. "یخ زدن" می تواند غیرقابل برگشت یا موقت باشد.

تعریف دیگری از ضرر در قانون اول

قوانینبه هیچ وجه مرزهای چیزی را که می توان نامید مشخص نکنید صدمهبرای یک فرد، این اغلب به توانایی ربات برای درک اطلاعات و تفکر فلسفی بستگی دارد. به عنوان مثال، آیا یک ربات پلیس متوجه خواهد شد که اگر با دقت یک جنایتکار خطرناک را به داخل ایستگاه اسکورت کند، به شخص آسیبی نمی رساند؟

در داستان "دروغگو"، ربات تله پاتیک هربی مجبور به درک شد صدمهو چیزی که می تواند مردم را به هر طریقی ناامید یا ناراحت کند - او می دانست که مردم تجربه خاصی را دارند درد دل. این او را مجبور کرد که به جای حقیقت، دائماً آنچه را که می‌خواهند بشنوند به مردم بگوید. در غیر این صورت به درک او تخلف می کرد قانون اول.

خلأهای موجود در قوانین

الیجا بیلی در The Naked Sun به این موضوع اشاره می کند قوانینتوسط انسان ها به اشتباه فرموله شده اند زیرا یک ربات می تواند آنها را نقض کند از روی جهل. او فرمول «درست» زیر را پیشنهاد کرد قانون اول: "روبات نمی تواند چنین کاری را انجام دهد تا جایی که او می داند، باعث آسیب به انسان می شود یا از قصداجازه دهید به یک انسان آسیب برسد.»

این اضافه نشان می دهد که یک ربات حتی می تواند به یک سلاح قتل تبدیل شود اگر از ماهیت اعمال خود آگاه نباشد. مثلاً به او دستور داده شود که چیزی در غذای شخصی بیفزاید و او متوجه نشود که آن زهر است. علاوه بر این، بیلی می‌گوید که یک مجرم می‌تواند این کار را به چندین ربات بسپارد، بدون اینکه کسی کل نقشه را بفهمد.

بیلی ادعا می کند که سولاریان ها روزی می توانند از روبات ها حتی برای مقاصد نظامی استفاده کنند. اگر یک سفینه فضایی با مغزی شبیه ربات ساخته شده باشد و خدمه انسانی یا سیستم های پشتیبانی حیات نداشته باشد، پس هوش این کشتی ممکن است به اشتباه فرض کند که هر کسهیچ انسانی در سفینه فضایی وجود ندارد. چنین کشتی‌هایی مانورپذیرتر، سریع‌تر و احتمالاً مسلح‌تر از کشتی‌هایی هستند که توسط مردم کنترل می‌شود. اما مهمتر از همه، او قادر خواهد بود مردم را بدون اطلاع از حضور آنها نابود کند. این احتمال در "بنیاد و زمین" توضیح داده شده است، جایی که همچنین نشان می دهد که سولاریان ها ارتش بسیار قدرتمندی از روبات ها دارند که "انسان" را فقط به عنوان بومی سولاریا درک می کنند.

کاربردهای دیگر قوانین در داستان

اسحاق آسیموف معتقد بود که او قوانینبه عنوان مبنایی برای دیدگاه جدیدی از روبات ها عمل می کند، "مجتمع فرانکشتاین" را در داستان های علمی تخیلی نابود می کند و آگاهی توده ای، منبع ایده هایی برای داستان های جدید خواهد بود که در آن ربات ها همه کاره و جذاب نشان داده می شوند. نمونه مورد علاقه او از چنین آثاری جنگ ستارگان بود. نظر آسیموف مبنی بر اینکه ربات ها چیزی بیش از «توستر» یا «هیولاهای مکانیکی» هستند، در نهایت مورد موافقت سایر نویسندگان داستان های علمی تخیلی قرار گرفت. در آثار آنها، روبات ها ظاهر شدند و اطاعت کردند سه قانون، اما طبق سنت فقط آسیموف به صراحت آنها را ذکر کرد.

در آثاری که مستقیماً در مورد آنها صحبت می شود سه قانون ، معمولاً نویسنده آنها ذکر می شود. استثنائاتی وجود دارد: به عنوان مثال، در سریال آلمانی دهه 1960 "Raumpatrouille - Die phantastischen Abenteuer des Raumschiffes Orion" ("گشت فضایی - ماجراهای خارق العاده سفینه فضایی Orion")، یعنی در قسمت سوم آن "Hüter des Gesetzes" "قانون خدمتگزار")، آسیموف قوانینبدون ذکر منبع جذب شد.

برخلاف انتقادها و برخی بازخوردهای مخاطبانی که شنیده ام، I, Robot یک فیلم اکشن علمی تخیلی بسیار سرگرم کننده است. ... وقتی ما ... می خواهیم از آسیموف لذت ببریم، آسیموف را می خوانیم. و وقتی می خواهیم یک فیلم اکشن علمی تخیلی ببینیم، یک فیلم اکشن علمی تخیلی تماشا می کنیم. «من روبات» به عنوان یک فیلم اکشن ما را کاملا راضی کرد.

نقد الکسی سادتسکی توجه را به این واقعیت جلب می کند که فیلم، با کمی فاصله گرفتن از آسیموف، خود دو مشکل اجتماعی-فلسفی جدید را ایجاد کرد. لازم به ذکر است که این فیلم بعدها را مورد تردید قرار داد قانون صفر رباتیکآسیموف (به بالا مراجعه کنید).

توسعه هوش مصنوعی یک تجارت است و همانطور که می دانیم کسب و کار علاقه ای به توسعه اقدامات امنیتی اساسی - به ویژه اقدامات فلسفی ندارد. در اینجا چند نمونه آورده شده است: صنعت تنباکو، صنعت خودرو، صنعت هسته ای. در ابتدا به هیچ یک از آنها گفته نشد که اقدامات امنیتی جدی لازم است و همه آنها با محدودیت های اعمال شده از خارج جلوگیری شد و هیچ یک از آنها حکم مطلقی را در مورد آسیب رساندن به مردم اتخاذ نکردند.

شایان ذکر است که مقاله ساویر موضوعات آسیب ناخواسته را حذف می کند، همانطور که برای مثال در خورشید برهنه بحث شده است. با این حال، مخالفت هایی نیز با این موضع وجود دارد: ارتش ممکن است بخواهد تا حد امکان از اقدامات احتیاطی ایمنی برای روبات ها استفاده کند و بنابراین محدودیت هایی مشابه قوانین رباتیک، به هر طریقی اعمال خواهد شد. دیوید لنگفورد نویسنده و منتقد علمی تخیلی به طعنه اشاره کرد که این محدودیت ها ممکن است به شرح زیر باشد:

راجر کلارک دو اثر نوشت که به تجزیه و تحلیل عوارض در اجرای قوانین اختصاص داشت، اگر روزی بتوان آنها را در فناوری به کار برد. او می نویسد:

قوانین رباتیک آسیموف به یک ابزار ادبی موفق تبدیل شده است. داستان‌های آسیموف، شاید به طعنه، یا شاید یک شاهکار، به طور کلی نکته‌ای را که او با آن شروع کرد رد می‌کند: محدود کردن رفتار روبات‌ها با اختراع و به‌کارگیری مجموعه‌ای از قوانین غیرممکن است.

از سوی دیگر، رمان‌های بعدی آسیموف (ربات‌های سپیده‌دم، روبات‌ها و امپراتوری، بنیاد و زمین) نشان می‌دهد که روبات‌ها آسیب‌های طولانی‌مدت‌تری به بار می‌آورند. رعایت قوانینو در نتیجه آزادی افراد را برای انجام رفتارهای خلاقانه یا مخاطره آمیز سلب می کند.

نویسنده داستان های علمی تخیلی هانس موراوک - یکی از چهره های برجسته در جنبش فراانسانی - پیشنهاد کرده است که قوانین رباتیکباید در سیستم‌های هوشمند شرکتی استفاده شود - شرکت‌هایی که توسط هوش مصنوعی کنترل می‌شوند و از قدرت تولیدی روبات‌ها استفاده می‌کنند. چنین سیستم هایی، به نظر او، به زودی بوجود می آیند.

Eliezer Yudkowsky در (SIAI) در ایالات متحده خطر جهانی را که هوش مصنوعی فوق بشری آینده می تواند ایجاد کند، در صورتی که برای انسان دوستی برنامه ریزی نشده باشد، بررسی می کند. در سال 2004، SIAI AsimovLaws.com را راه‌اندازی کرد، وب‌سایتی که برای بحث در مورد اخلاق هوش مصنوعی در زمینه مسائل مطرح‌شده در فیلم I, Robot که تنها دو روز بعد منتشر شد، طراحی شده بود. در این سایت، آن‌ها می‌خواستند نشان دهند که قوانین روباتیک آسیموف ناامن است، زیرا، برای مثال، آنها می‌توانند هوش مصنوعی را تشویق کنند که زمین را به تصرف خود درآورد تا از انسان‌ها در برابر آسیب «محافظت» کند.

یادداشت

  1. آسیموف، آیزاک.شواهد // رویاهای ربات. - م.: اکسمو، 2004. - ص 142-169. - شابک 5-699-00842-X
  2. آسیموف، آیزاک.انشا شماره 6. قوانین رباتیک // رویاهای ربات. - م.: اکسمو، 2004. - ص 781-784. - شابک 5-699-00842-X
  3. چهارشنبه با اسطوره گالاتیا
  4. جالب است که در یکی از دنباله های نویسنده، داستان "انتقام آدام لینک" (

به نظر من مفاهیم خیر و شر به نوبه خود با مفهوم معنای زندگی ارتباط تنگاتنگی دارند. تا زمانی که معلوم نشود هدف از رفتار انسان باید چه باشد، نمی‌توان گفت که آیا یک عمل انسانی برای خیر است یا شر.

با این حال، در چارچوب روباتیک آسیموف، این موضوع به سادگی تا حد ابتذال قابل حل است.
یکی از رمان‌های او توضیح می‌دهد که چگونه یک ربات انسان‌نما مداری را برای پیگیری عدالت تعبیه کرده است - عدالت را صرفاً به عنوان احترام تعریف می‌کند. قوانین ایالتی. "اگر قانون ناعادلانه باشد چه؟" روبات پاسخ داد: "قانون ناعادلانه یک تناقض اصطلاحی است."

اگر چنین رفتار مبتذلانه ای داشته باشید، به راحتی می توانید مفهوم آسیب را تعریف کنید، اما چنین روبات هایی فایده چندانی ندارند ...

پاسخ

همانطور که در حال حاضر برجسته شناخته شده است، توسعه آخرین فناوری هاو حتی بیشتر از آن در زمینه رباتیک، ابتدا برای برآوردن نیازهای صنایع دفاعی و تنها پس از آن بقیه بشریت طراحی شده است. من فکر می کنم از قبل روشن است که در چنین شرایطی قانون اول به طور قابل توجهی تغییر خواهد کرد. و نه در جهت آرامش عمومی.

پاسخ

  • سخنان نویسنده معروف کورت وونگات را به خاطر بیاورید: "دانشمند هر کاری روی آن کار کند، در نهایت با یک سلاح به پایان می رسد."
    احتمالاً با فرضی مشابه، که بر روانشناسی انسان (و نه تنها در میان دانشمندان) حاکم است، زمین آینده ای ندارد... همانطور که کسانی که قبل از ما زندگی می کردند، آینده ای نداشتند. به طور کلی میل ما به نابودی و خود ویرانگری یک قانون طبیعی است... همه چیز برای تعادل (آنتروپی مثبت) تلاش می کند، فقط هر جسم و موجودی در طبیعت این کار را به روش خود انجام می دهد. "یک ستاره پیر می شود و منفجر می شود، اما یک نفر که به مرز دانش رسیده است، در یک دیگ جنگ هسته ای با دمای 10000 درجه سانتیگراد در ثانیه می سوزد.
    به قصار درنریم فکر کنید - "هر مردمی لایق فرمانروای خود است!" چرا تروگلودیت ها با چماق هزاران سال بر مردم حکومت کرده اند، آیا به این دلیل نیست که ما با قدرتی که به مغز نیازی ندارد افتخار می کنیم؟
    اما بدترین چیز زمانی است که مغزها برای زنده ماندن در دنیای تروگلودیت ها شروع به خدمت به این تروگلودیت ها می کنند. زیرا "قدرت" به نظر مغزها علاقه چندانی ندارد، اما فقط به نتایج آن علاقه مند است: به عنوان مثال، شکل کشنده تر ثنایا روی یک چماق...

    پاسخ

    • اجرای قوانین فوق توسط ربات همچنان چشم انداز آینده ای بسیار دور است... (اگر اصلاً بیاید!)
      در میان جدیدترین سیستم‌های هوشمندی که اکنون بر اساس شبکه‌های عصبی مصنوعی ایجاد می‌شوند، می‌توان مدل RRS-EX (Rezoning Robotic Systems - Expployer) را برجسته کرد. این ساختار تا حد امکان به ساختارهای عصبی بیونیک نزدیک است... اما! هوشی که قادر به تجزیه و تحلیل یک پیکربندی هدف به سرعت در حال تغییر است محیط RRS-EX به سادگی این کار را نمی کند. همه چیز به حد الگوریتمی باینری می رسد ("YES-NO" و در بین "I DON'T KNOW"). برای اینکه به یک روبات بیاموزیم که فکر کند و نتیجه‌گیری‌هایش را تعمیم دهد، به بخش خاصی از تصادفی بودن نیاز است که در غیر این صورت «رویکرد شهودی برای هوش مصنوعی» یا به‌طور دیگری (خصوصی، فردی) نامیده می‌شود. برای انجام این کار، لازم است نظریه استاندارد الگوریتم‌های ریاضی را رها کنیم، که فقط می‌تواند برنامه‌ای از اقدامات و ارتباطات را برای سیستم‌های هوش مصنوعی تعیین کند، اما نمی‌تواند به این سیستم‌ها روش‌های اتصال خصوصی در مدارهای عصبی را بدهد، که میلیاردها مورد از آن وجود دارد. میلیاردها در مغز بیولوژیکی، به علاوه تأثیرات و تکانه های عرضی (آگاهی رفلکس). به طور خلاصه، سیستم‌های هوش مصنوعی هم برای خودآموزی و هم برای توانایی انعکاس کافی نه تنها حقایق، بلکه پس از آن، و همچنین اتخاذ هر گونه تصمیم‌گیری بر اساس غالب منطقی که قبلاً تعیین شده بود، به ماتریسی از فردیت نیاز دارند (آموزش، تعلیم و تربیت) (منطق خیر یا منطق بد). در اینجا دیگر نمی توان سیستم های هوش مصنوعی را به سه قانون محدود کرد. با این وجود، اگر بتوان این سه قانون را در سیستم جمع کرد، میدان برای تفکر فردی بسته خواهد شد، بنابراین، شیئی که توسط این قوانین اداره می شود چیزی بیش از یک ماشین احمقانه محاسبه کننده نخواهد بود. و هر هکر با استعدادی این قوانین را مانند دانه می جود و تف می دهد... آیا متوجه شدید؟ همه چیز مثل آموزش و پرورش مردم است! در غیر این صورت شما با یک کامپیوتر ساده ...

      پاسخ

      • به شدت با شما مخالفم، عاشق علم. چرا اینقدر زیاد، کاملا افراد باهوشگاهی اوقات آنها به طور طبیعی این عقیده را ابراز می کنند که شهود به نحوی با شانس مرتبط است؟

        شهود (Late Lat. Lat. intuitio - تعمق، از Lat. intueor - با دقت نگاه کردن)، توانایی درک حقیقت با مشاهده مستقیم آن بدون توجیه با کمک شواهد. یافتن ناخودآگاه راه حل، بینش.

        به نظر من شهود ربطی به تصادفی ندارد و کاملا قابل تشخیص است. و همچنین رفتار یک موجود زنده کاملاً هوشمند (AI). این جبر را می توان دقیقاً توسط برنامه تنظیم کرد. یا می گویید که بیشتر اعمال شما منطقی و تصادفی نیست؟ آیا آنها دروغ می گویند؟

        بیانیه عدم امکان:

        >> در اینجا دیگر نمی توان سیستم های هوش مصنوعی >> را به سه قانون محدود کرد. با این وجود، اگر بتوان این سه قانون >> را در سیستم جمع کرد، میدان برای تفکر فردی بسته خواهد شد، >> بنابراین، هدفی که توسط این قوانین اداره می شود چیزی بیش از >> یک ماشین احمقانه محاسبه نخواهد بود.

        به نظر من بی اساس است اگرچه این سوال البته پیچیده است. من فکر می کنم خوب است که چنین اظهاراتی را با جزئیات توجیه کنیم.

        پاسخ

من فکر می کنم ارزش این را دارد که به این مقاله اضافه کنیم که ایزاک عظیموف اولین کسی است که کلمه Robot را بیان کرده است! اوست که پایه گذار این فرهنگ در میان نویسندگان علمی تخیلی است. علاوه بر این، من با نویسنده مقاله در مورد "اختراع یک تصویر غنی" موافق نیستم زیرا این نوعی قانون کار یک مغز روباتیک در بین مردم است. و مهمتر از همه، به یاد داشته باشید که حتی سر اسحاق نیوتن در زمان خود نیز شارلوتان نامیده می شد، و قوانینی که او "اعلام کرد" مزخرف بود یا فرم نرم"داستان های یک تخیل غنی" ...

پاسخ

من می خواهم روشن کنم که کلمه "ربات" توسط آسیموف اختراع نشده است. در سال 1920، کارل کاپک، نویسنده چک، این کلمه را در نمایشنامه «R.U.R.» به کار برد.
http://ru.wikipedia.org/wiki/Chapek
ایزاک آسیموف تنها در سال 1920 به دنیا آمد که به هیچ وجه از ارزش آثار او نمی کاهد.
http://ru.wikipedia.org/wiki/Azimov%2C_Isaac

پاسخ

آیا تصورات نادرستی وجود دارد؟
عقل ما روبنائی است که از منافع بدن (عملکرد، تکثیر) محافظت می کند و به آن پایبند است.
برای هوش، به نظر من، نکته اصلی انگیزه است - هدف اصلی. این هدف پایه ای برای خودآموزی و چیزهای دیگر خواهد بود.
خیر و شر فقط «+» و «-» برای عقل است، یعنی «نفع» و «ضرر» در پیچیده ترین پیچیدگی های ترکیب ها و زنجیره های مختلف مانند «من-خانواده-جامعه» (منفعت در حال نزدیک شدن است. به هدف اصلی، یا پایبندی به راه های رسیدن به آن). بیایید بگوییم که هدف اصلی زنده ماندن است ...

پاسخ

سیسکو از ایجاد یک جامعه توسعه دهندگان Linksys خبر داده است. این شامل متخصصانی خواهد بود که برای روترهای جدید وای فای هوشمند Linksys برنامه ایجاد می کنند. این انجمن بخشی از شبکه محبوب توسعه دهندگان Cisco® خواهد بود که سیسکو را با سازندگان سخت افزار و نرم افزار خارجی متصل می کند. در نتیجه همکاریاین شبکه راه حل های آزمایش شده و سازگار را برای مشتریان معمولی ارائه می دهد. سیسکو، پیشگام در شبکه های خانگی، بیش از 70 میلیون روتر Linksys را در سراسر جهان فروخته است و متعهد است که رهبری خود را با توسعه نسل بعدی راه حل های شبکه خانگی گسترش دهد.
روترهای وای فای هوشمند Linksys دارای معماری منحصر به فرد مبتنی بر ابر هستند که به توسعه دهندگان اجازه می دهد تا برنامه های کاربردی برای هر دستگاه الکترونیکی مصرف کننده ایجاد کنند. برای ساده سازی توسعه، یک کیت توسعه نرم افزار ساده و راحت (SDK) به جامعه ارائه می شود. مواد آموزشیو نمونه هایی از کدهای برنامه
"ما در آستانه هستیم تغییرات بزرگ، به کاربران شبکه خانگی خدماتی را ارائه می دهد که هرگز در خواب هم نمی دیدند. Vikas Butaney، مدیر محصولات Cisco برای شبکه های خانگی، گفت: پلت فرم نرم افزار جدید و انجمن توسعه دهندگان Linksys امکانات واقعا نامحدودی را برای توسعه دهندگان باز می کند. - کار با هر سرویسی، از ساده ترین، مانند نظارت از راه دور یک آپارتمان، تا پیچیده ترین، توسعه دهندگان می توانند در ایجاد خدمات با ارزش و راه حل های مفیدبرای کاربران نهایی."
برخی از توسعه دهندگان قبلاً از پلتفرم Linksys Developer Community، SDK و سایر ابزارهای Cisco برای توسعه سریعتر و آسان تر برنامه استفاده کرده اند. در نتیجه، شش برنامه توسط Axentra Corporation، Fresh Consulting LLC، Gemini Solutions Inc.، PacketVideo Corporation، Stratified Adroitent J.V ایجاد شد. و شرکت Xoriant. برنامه های جدید دارای اتصال ساده دستگاه با یک کلیک، ویژگی های کنترل دسترسی پیشرفته و قابلیت های جدید اشتراک گذاری رسانه هستند. این برنامه ها اولین گام در بازگشایی پتانسیل گسترده روترهای وای فای هوشمند Linksys برای کاربران نهایی هستند.
توسعه دهندگان علاقه مند به پیوستن به جامعه توسعه دهندگان Linksys می توانند برای ثبت نام و ایجاد برنامه های جدید برای مسیریاب های Wi-Fi هوشمند Linksys به http://referati.do.am مراجعه کنند. سیسکو منابع فنی، بازاریابی و فروش را در اختیار توسعه دهندگان قرار می دهد و از اعضای جامعه در سراسر فرآیندهای تجاری و توسعه پشتیبانی می کند.

اسحاق آسیموف

سه قانون رباتیک

مردم و روبات ها

ربات ها از زمان های بسیار قدیم در ادبیات عصیان کرده اند. جن ها و افریت ها قیام کردند قصه های عربی، گولم، زاییده فکر سفالی بن بزالل حیله گر، شورش کرد. و حتی ربات های واقعی که توسط نابغه کارل کپک ساخته شده بودند، به محض اینکه از قلم نویسنده متولد شدند، از کنترل خارج شدند. وضعیت آنقدر جدی شده است که مشکل روبات های سرکش از صفحات مهاجرت کرده است داستاندر صفحات مقالات علمی و تک نگاری. خود نوربرت وینر هشدار دادن به بشریت را ضروری دانست عواقب احتمالیاستقلال بیش از حد روبات ها

رستگاری از جهتی غیرمنتظره آمد. نویسنده و دانشمند آمریکایی، آیزاک آسیموف، سه قانون رباتیک معروف خود را فرموله کرد (در واقع، درست تر است که بگوییم "رباتولوژی" یا همانطور که در علم مدرن ثابت شده است "رباتیک"، اما اکنون برای اصلاح این موضوع خیلی دیر شده است. عدم دقت ترجمه). قوانین آسیموف با سرعت فوق العاده ای دریافت شد به رسمیت شناختن در سراسر جهانو از آن زمان تا کنون حتی یک ربات از خط مونتاژ، یعنی از قرقره های ماشین چاپ خارج نشده است، بدون اینکه قانون بدنام سه قانون در مغز آن تعبیه شده باشد (توجه داشته باشید، یک ربات باید مغز داشته باشد!). بالاخره بشریت توانست آزادانه نفس بکشد. همزیستی آینده با لژیون روبات های مطیع کاملاً بدون ابر به نظر می رسید.

نظر خالق قوانین رباتیک در این مورد چیست؟ بهترین پاسخ به این سوال را می توان با مطالعه مجموعه ای که به خواننده ارائه می شود، به دست آورد.

بیایید با اولین داستان از مجموعه "من، ربات" شروع کنیم. یک دختر بچه یک پرستار بچه ربات دارد. این دختر به ربات وابسته شد، اما به گفته مادرش، این وابستگی مضر است تحصیلات مناسبکودک. و اگرچه پدر نظر دیگری دارد، اما پس از بحث های طولانی خانوادگی، ربات به کارخانه بازگردانده می شود. دختر غمگین است، خطر جدی وجود دارد ضربه روانی، و ربات برمی گردد (داستان "رابی").

طرح ساده، اینطور نیست؟ اما دقیقاً همین سادگی است که قانون اول رباتیک را در هم می شکند که آسیموف آن را چنین فرموله کرد: "روبات نمی تواند به یک شخص آسیب برساند یا از طریق بی عملی اجازه آسیب رساندن به شخص را بدهد." چگونه یک ربات می تواند بفهمد که چه چیزی مضر است و چه چیزی مفید است اگر خود والدین نتوانند این مسئله را در رابطه با فرزند خود حل کنند!

در داستان "رقص گرد"، در نتیجه یک دستورالعمل نامشخص، قانون اول و سوم با یکدیگر در تضاد قرار گرفتند. طبق قانون سوم، "روبات باید از ایمنی خود مراقبت کند تا جایی که این قانون با قوانین اول و دوم مطابقت دارد." دستوری به ربات داده شد، اما میزان آسیبی که در صورت رعایت نکردن آن به فرد وارد می شد، مشخص نشد. و به این ترتیب ربات در امتداد مرز منطقه خطرناک دور می زند، بدون اینکه به عمق آن برود (قانون سوم مانع از این می شود) و در عین حال بدون رفتن به دور (قانون اول و دوم از این امر جلوگیری می کند). وضعیتی که برای هر برنامه نویس کامپیوتر مدرنی آشناست. به آن "حلقه" می گویند. ضمناً، هر برنامه نویس کم و بیش باتجربه ای دستورات خاصی را در برنامه قرار می دهد که بر اساس آن، پس از انجام سه یا چهار دایره، رایانه متوقف می شود و دستورات بیشتری را از شخص می خواهد.

در داستان "رقص گرد" همه چیز متفاوت است. آنجا استراحت است دور باطلافراد تنها با به خطر انداختن جان خود و در عین حال استفاده از تمام نبوغ خود و استفاده از کمک یک متخصص روانشناسی ربات موفق می شوند. به هر حال، یکی از لایتموتیف هایی که بیشتر داستان های مجموعه را متحد می کند، نبرد بین روبات ها و روانشناس ربات انسانی سوزان کالوین است.

یا داستان دیگری - "چگونه ربات گم شد." کارگر جوان عصبانی به ربات می گوید: برو و صورتت را نشان نده تا دیگر تو را نبینم. این ربات به معنای واقعی کلمه دستورات شخص را انجام می دهد و پس از آن کل کارکنان Hyperbase خارج از سیاره مجبور می شوند کارهای مهم را رها کرده و به مدت یک هفته به دنبال ربات گم شده بگردند.

ما دوباره عمداً داستانی با طرح ساده انتخاب کردیم، زیرا به نظر ما، قانع‌کننده‌ای که آسیموف قانون دوم رباتیک را که خودش خلق کرده است، در سادگی زاده می‌شود.

پس قضیه چیه؟ آیا واقعاً باید بپذیریم که جن از بطری خارج شده است و مردم چاره ای ندارند جز اینکه منفعلانه منتظر عواقب آن باشند؟ اما به یاد داشته باشیم که نویسنده داستان‌ها نه تنها یک نویسنده، بلکه دانشمندی است که می‌تواند با تمام دقت منطقی اوضاع را تحلیل کند. و بی جهت نبود که او این شکل خاص را انتخاب کرد: ابتدا قوانینی را تدوین کرد که در نگاه اول هم از نظر محتوا و هم از نظر شکل بی عیب و نقص به نظر می رسید و سپس این قوانین را در عمل نشان داد.

بله، جن از بطری خارج شده است، و خیلی خیلی خیلی وقت پیش. مردی با گرفتن یک چوب در دستان خود اولین ربات را ساخت و زمانی که به طور تصادفی این چوب را روی پاهایش انداخت با شورش روبات ها مواجه شد. و از آن زمان تاکنون هیچ اتفاق کیفی جدیدی رخ نداده است. مشکل شورش ربات ها چندین دهه است که در فناوری مطرح و حل شده است. که در زبان انگلیسیحتی یک اصطلاح خاص "بی ابهام" وجود دارد - "محافظت در برابر احمق ها". بنابراین، گاز موجود در آبگرمکن گازی در صورت عدم جریان آب مشتعل نمی شود و در صورت وجود پرس کار نمی کند. جسم خارجیمثلاً دست انسان.

اما نباید به تکنولوژی نیاز داشت که برای شخص تصمیم بگیرد که چه چیزی برای او مضر است و چه چیزی مفید است. و نباید فکر کرد که پیدایش ماشین‌های «فکر»، یعنی ماشین‌هایی که قادر به تجزیه و تحلیل مستقل یک موقعیت و تصمیم‌گیری بر اساس این تحلیل هستند، اساساً چیز جدیدی را معرفی می‌کند.

اما اجازه دهید به داستان های مجموعه برگردیم. به نظر می رسد نیازی به معرفی نویسنده آنها به خوانندگان نباشد. ایزاک آسیموف یکی از مشهورترین نویسندگان داستان های علمی تخیلی آمریکایی، نویسنده بسیاری از کتاب ها و مقالات علمی محبوب است که در مجموعه های جداگانه منتشر شده است. اما مهمتر از همه، آسیموف یک هنرمند با استعداد است و این دقیقا راز محبوبیت اوست. بسیاری از آثار این نویسنده به روسی ترجمه شده است. داستان‌های او درباره روبات‌ها که در قالب مجموعه‌های جداگانه (مجموعه «من، روبات») منتشر شد یا در مجموعه‌های موضوعی دیگر گنجانده شد، شهرت ویژه‌ای پیدا کرد. خوب است که بسیاری از آنها، اگرچه نه همه آنها، اکنون در قالب یک مجموعه واحد بازنشر می شوند.

خواننده - که هم با کار آسیموف آشناست و هم ربات های او را برای اولین بار می شناسد - با شخصیت های روشن و عالی آشنا می شود. تسترها اینجا هستند تکنولوژی جدیدپاول و دونوان که با پیروی از تمام قوانین ژانر ماجراجویی، در هر داستانی در موقعیت‌های دشوار و گاه ناامیدکننده‌ای قرار می‌گیرند، اما همیشه با افتخار از آن‌ها بیرون می‌آیند. در اینجا "اعتماد مغزی" شرکت "U.S. Robots and Mechanical Men Corporation" بوگرت و لنینگ است که برای قدرت رقابت می کنند. و سوزان کالوین روبوسیکولوژیست که از بیهودگی افراد پرمشغله بیزار است، بر همه سربلند است. و در پشت پرده آمریکای مدرن سرمایه داری با تمام «شکوه» خود قرار دارد. تصاویری از رقابت بین شرکت ها، دسیسه های سیاسی انتخاباتی و تبعیض نژادی به خواننده ارائه می شود. اما لازم به ذکر است که آسیموف با به تصویر کشیدن ربات های خود به عنوان شوالیه بدون ترس و سرزنش، بدنه ای فلزی و مغز پوزیترونیک به آن ها عطا می کند و از ایجاد مشکلات اجتماعی اجتناب می کند.


بالا