3 قوانين للروبوتات في الخيال العلمي. قانون أسيموف الثقافي: كيف صنعت القوانين الثلاثة للروبوتات التاريخ

لا يمكن تجاوزها ، إذا تم أخذها حرفيا. لكن الأمر سهل بمجرد أن تبدأ هذه الفكرة في الظهور.
تخيل أن مبرمجًا يحاول كتابة هذه القوانين. إليك أول وأهم: "لا يمكن للروبوت أن يؤذي شخصًا أو أن تقاعسه عن العمل يسمح بإيذاء شخص".

الروبوت - ما هو؟ حسنًا ، هذا هو ، أي أنك لست بحاجة إلى أن تكتب له أنه آلة ، يكفي تضمين جملة تفيد بأن هذا لا يمكن أن يضر. و "هذا" ما هو؟ الشخص لديه "أنا" خاصته ، لذلك فهو لا يعتقد أن يده شيء آخر ، كل هذا هو نفسه ، استمراره ، أي أن مفهوم "الروبوت" ليس بهذه البساطة. هذه كلها أجزاء من "جسده". وكيف يكتب؟ الروبوت ، على عكس الإنسان ، ليس له شخصية ، أو يجب أن يشعر أولاً أنه شخص ، وليس مجموعة من التفاصيل. هل تفهم نطاق المهمة؟ من أجل دفع قانون الروبوتات الأول إلى إنسان آلي ، يجب أن يكون لديه وعي متكامل مع إدراك أن جميع أجزائه ، وجميع البراغي والأسلاك والألواح والمحركات كلها ، وحتى ما سيستخدمه - آليات أو أشياء أخرى الذي يسيطر عليه ، وأنه مسؤول عنهم. أنا أنظر إلى سيارة - حتى أذكى سيارة تعمل بالكمبيوتر بالكاد تفهم أن العجلات جزء منها. وهذا يعني أن كل التفاصيل ، بالإضافة إلى "التفاصيل" الأخرى التي يمكن أن يستخدمها الروبوت ، يجب تضمينها في نظام واحد تابع لمركز تحكم واحد ، ومراقبة الموقع في الفضاء لكل جزء من أجزاء جسمه. هذه مهمة صعبة لدرجة أن الرادارات البسيطة لا غنى عنها هنا. هناك فجوة كبيرة بين الآلية والكائن الحي. الأول لا يحتوي على جهاز عصبي ، ولا توجد مستقبلات على السطح بأكمله. إن الذراع الروبوتية هي مجرد قطعة معدنية ، فلا يمكنك وضع مستشعر تتبع على كل سنتيمتر ، والذراع لا تشعر بأي شيء ، وبالتالي فإن الروبوت غير قادر على رسم صورة ثلاثية الأبعاد لنفسه ، وفهم كل شيء. اللحظة التي يكون فيها كل جزء من تفاصيله على اتصال بالعالم الخارجي.

تخيل أن شخصًا قد نسي مكان كرسيه وجلس على الأرض. نادرًا ما يحدث ذلك ، أليس كذلك؟ مثل الفضول. لا نتذكر دائمًا مكان وجودنا فحسب ، بل نتذكر أيضًا مكان وجود الأشياء من حولنا. ونقوم بعمل جيد للغاية في توجيه أنفسنا. ومع ذلك ، تحدث الحوادث ، ويمكننا خنق قطة عن طريق الخطأ أو دهس كلب على الطريق. نحن نتفهم أنه لا يمكنك تتبع كل شيء ، ويمكننا قتل شخص آخر عن طريق الخطأ. كيف يمكننا منع الروبوتات من عدم إيذاء الناس أبدًا إذا كان يمكن للناس أن يقعوا فعليًا في ذراع الروبوت؟ لذا ، يجب علينا إجراء تعديلات على القانون الأول. لا يمكن أن يضر بشكل خاص ، على سبيل المثال. وهناك مشكلة. ربما ليس عن قصد؟ حسنًا ، فليكن "افعل كل ما في وسعك حتى لا تسبب ضررًا." ومن سيقرر ما إذا كان قد فعل كل شيء؟ هل هو بمفرده؟ أي أن الروبوتات لديها نسبة معينة من احتمالية تسببها في الضرر. يظهر لنا طوال الوقت كيف يوقف الروبوت حرفيًا ذراعًا أو ساقًا من شعرة ، حتى لا يقتل شخصًا ، بل يقتل القصور الذاتي؟ وماذا عن الحركة القادمة للإنسان ، هل انتحر ضد إنسان آلي من التسارع؟ جبل من الحوادث ، والروبوت ، من حيث المبدأ ، مثل أي جسم يتحرك في الفضاء ، لا يمكن أن يضمن أنه لن يؤذي شخصًا ، وبالتالي لن يضر بفعلته. لم يتم الوفاء بالقانون الأول.

وهل يلبس الإنسان كمامة ويتلطخ في الوحل ولا يعود إنساناً؟ أي أن بعض الصور التي يتم تحميلها في ذاكرة الروبوت لتحديد الهوية ليست كافية. كيف سيحدد الروبوت أن هناك شخصًا أمامه ، وليس عارضة أزياء ، وليس شخصًا ميتًا ، ولا صورة ، ولا صورة ثلاثية الأبعاد ، وليس إنسانًا آليًا آخر؟ رقائق. ممتاز. دخلت في برنامج الشرائح ، وغيرت رمز التعريف ، وهذا كل شيء ، يمكنك فتح النار للقتل. أم أن الروبوت سيتعرف على الأشخاص بالإشعاع المنبعث منهم؟ إذن الرجل الذي يرتدي البدلة جثة. هل تعتقد أنه من السهل جدًا أن تفهم أن هناك شخصًا أمامك؟ وها هو ليس كذلك. هناك الكثير من المواقف المثيرة للجدل عندما نشك في ذلك. انهار المنزل ، هل هناك أناس هناك؟ هل هم على قيد الحياة؟ الظل الذي يومض به ، هل هو شخص؟ وأحيانًا نرتكب أخطاء. نأخذ عارضة أزياء لشخص ما ، ولا نلاحظ أنه تحت كومة من القمامة نجا شخص ما ، أو كان هناك شخص ما وراء هذا الجدار. لم نكن نعرف. والروبوت ليس مستبصرًا. سوف يخطئ ، ويشل أو حتى يقتل شخصًا ، أو لا ينقذه ، أو سيعطي تنفسًا اصطناعيًا لعارضة أزياء. للالتفاف على القانون ، يكفي تعديل تعريفات "الإنسان الآلي" و "الإنسان" ، لكنه هو نفسه قادر على ذلك ، حيث لا يمكن تحقيق الدقة الكاملة للتعريفات.

لم يكتب القانون للروبوتات. إنه يفترض أن الآلية مثالية لدرجة أنه لا يمكن أن يخطئ. إنه يرى كل شيء ، ويقيم الموقف في جزء من الثانية ولديه قدرات خارقة تفوق بكثير القدرات البشرية. لذا فإن الانطباع هو أن القانون كُتب من أجل الله. الذي نفتقده كثيرا. كل وجود آلهة بطريقة أو بأخرى لا يتدخل في حياتنا حقًا ، فنحن نمرض ونعاني ونموت. نحن بحاجة إلى إله آخر لن ينظر إلينا من السماء ، ولكنه في الواقع سوف يمد يد العون. وفي الوقت نفسه ، لن يضر ذلك بفهم حدسي لمكان الضرر وأين توجد المنفعة. الروبوت ككائن خارق. وإذا كان الأمر كذلك ، فإن مثل هذه الروبوتات لن يصنعها الإنسان أبدًا. وبالتالي ، لن يتم توضيح جميع قوانين الروبوتات الثلاثة بالشكل الذي تحدث عنه أسيموف. سيكون إصدارًا مبتورًا مختلفًا تمامًا ، حيث ستؤذي الروبوتات البشر. إما عن طريق الصدفة ، أو بسبب خطأ في تحديد الهوية ، أو بسبب خلل في نظام تحديد موقع الجسم في الفضاء. هل رأيت على الرافعات نقش "لا تقف تحت ذراع الرافعة" ، "انزلاق مترين" على ماكينات طويلة؟ سيكون هذا عن نفس القيود على الروبوتات.

لا يسع الشخص نفسه إلا أن يؤذي الآخرين والكائنات الحية الأخرى ، بغض النظر عن مدى رغبته في ذلك. وهذا على الرغم من كل كمال أجهزته في مجال التعرف على الأشياء ، وفهم ماذا وكيف يفعل وما لا يفعله على أساس المبادئ الأخلاقية ، وهي أيضًا تقليدية ومن المشكوك فيه أنه يمكن كتابتها كبرنامج. يمكن بطريقة ما تحديد الإجراءات خطوة بخطوة ، ولكن بمجرد أن يتعلق الأمر بالتعريف والتعريف في الفضاء ، وخاصة الشعور وكأنه كائن كامل وفهم جميع عواقب أفعال الفرد ، فهناك صعوبات لا يمكن التغلب عليها. من المؤكد أن نوعًا ما من الروبوتات سيؤذي الإنسان ، فكيف يمكنه "التعايش" مع هذا؟ لقد خالف القانون. ومثل صني في الفيلم ، سيتوصل إلى استنتاج مفاده أنه لا يوجد أحد مثالي وأنه من الضروري أو لا بأس بقتل الناس في بعض الأحيان. الأمر الذي ينفي تمامًا أيديولوجية القوانين الثلاثة.

إنها تهدف إلى ضمان تشغيل آلة آمنة تمامًا للبشر. في الوقت نفسه ، تم التحايل على المشكلة بطريقة ما حتى أن الروبوتات الأقل تقدمًا ستظل تقتل الناس دون قصد. بالنسبة لنا ، يتم تقديم هذه الروبوتات كآليات غير قادرة على ذلك. لكن بما أنهم ليسوا مشمسين ، فلن يعانون من التجارب. حسنًا ، لقد سحق شخصًا ما. يحدث للجميع. "لا تقف تحت السهم". على أي حال ، نأتي إلى حل أهم مشكلة أخلاقية للإنسان - حيث الحد الفاصل بين الأذى والمنفعة ، وإذا لم يحلها الشخص ، فإن الآلية تكون أكثر من ذلك. ببساطة لأنه كائن من العالم المادي ، وإذا كان موجودًا ، فمن المحتمل أن يؤذي شخصًا ما.

لذا ، أعتقد أن الحضارة لن تتبع طريق اتباع هذه القوانين الثلاثة ، ولن يُطلب المستحيل من الآلات. لكن الناس سيحاولون تحسين أنفسهم. جينيًا أو عن طريق زرع (تعليق) الأجهزة والآليات ، أو كلا الخيارين في وقت واحد - ليس هو الهدف. الروبوتات في الأدب والسينما هي الأنا المتغيرة للخالق ، الإنسان. إنه يريد أن يرى نفسه قويًا ، ودائمًا ، ولا يشعر بالألم ، ولا يعرف الأمراض ، ويمكن إصلاحه بسهولة ، إلى الأبد. مع بقاء الإنسان. شيء ما بين صني وديل سبونر. حسنًا ، حتى يكون الجسد على قيد الحياة ، من أجل تلقي كل مباهج الحياة والحب والجنس والمخاطرة وتجارب الطيف بأكمله ، وعدم العطس من النسخة الجديدة من الأنفلونزا ، وليس الموت من الإراقة أو الإراقة. حادثة. إن حلم تحسين الذات يسير مثل الخيط الأحمر في جميع الأعمال الرائعة تقريبًا ، من Avatar إلى Iron Man و Spider-Man. أطروحة "نحن بشر ونحن ضعفاء" لا تناسبنا. ومع مشكلة "أنت لن تقتل" سنكتشفها بطريقة ما. القوانين الثلاثة بعبارات مثالية ليست لنا. بعد كل شيء ، نحن لسنا قطع حديد بلا روح ، ونحن نفهم مدى صعوبة التمييز بين الخير والشر ، والضرر من المنفعة ، ومدى وجود المفاهيم الظرفية والنسبية ، ونعرف بالضبط كيف تريد أحيانًا ضرب شخص ما. ولن ينتزع أحد الحق في إدراك هذا الشعور منا لمجرد وجود طريقة واحدة فقط لإزالته - وضعنا في زنازين انفرادية مريحة بجدران ناعمة. يفضل ربطه بالسرير. لذا ، كيف أراد VIKI فعل ذلك من فيلم "I، Robot". لا يمكن تحقيق الإنسانية الحقيقية إلا بهذه الطريقة - عن طريق حرمان الشخص من الإرادة الحرة. أي تحويلهم إلى روبوتات.

القوانين الثلاثة للروبوتات ، التي تحتل دورًا مهمًا للغاية في الخيال العلمي ، هي ببساطة ضرورية في قواعد سلوك الإنسان الآلي. في البداية ، شاركوا في قصة "Round Dance" للكاتب الشهير إسحاق أسيموف.

بدورها ، تنص هذه القوانين على ما يلي:

  • لن يتمكن الروبوت أبدًا من إيذاء البشرية. لكن هناك اختلاف بديل: الروبوت غير قادر على إحضار الأشياء السيئة إلى شخص ، بينما لا يفعل شيئًا.
  • الروبوت ببساطة لا يمكنه إلا أن يتبع الأوامر التي يعطيها الشخص. ولكن هنا أيضًا ، هناك استثناءات: إذا كانت الأوامر مخالفة للقانون الأول ، فمن المستحيل تنفيذها.
  • كما أن الروبوت لا يمكنه إلا أن يعتني بسلامته إلى الحد الذي لا يخالف فيه قانون الفئتين الأولى والثانية.

كل هذه القوانين الثلاثة ، التي تحتوي على أسباب وعواقب عدم تحقيقها ، كرست ونشرت مجموعة كاملة من القصص للمؤلف أسيموف ، وكلها تتحدث عن الروبوتات.

هناك أيضًا قصص أخرى تناولت المرحلة التي لا يمكن فيها توقع عواقب تنفيذ جميع القوانين الثلاثة بواسطة الروبوتات. على سبيل المثال ، يمكن اعتبار مثل هذه القصة "انعكاس مرآة".

وضع المؤلف في إحدى قصصه حداً للأساس الذي كان الإطار الأخلاقي للقوانين الثلاثة. ووفقًا له ، فإن الروبوت الذي يفي بجميع القوانين الثلاثة هو ، على هذا النحو ، إنسان آلي ، أو شخص جيد جدًا. بعد كل شيء ، تُعطى الأخلاق للإنسان حتى يتبعها. إلى حد ما ، فإن الشخص الذي يلبي قدرًا كبيرًا من الشروط والقوانين المختلفة هو أيضًا إنسان آلي. فلماذا لا يدعي هذا "المخلوق" الحديدي لقب "الإنسان" ؟!

قانون صفر للروبوتات

بالعودة إلى عام 1985 ، في إحدى رواياته العديدة عن الروبوتات ، تجرأ المؤلف على ذكرها أيضًا قانون الصفر، وكان جوهرها على النحو التالي: لن يتسبب الروبوت أبدًا في أي ضرر أو أذى لأي شخص ، وأيضًا من خلال تقاعسه عن العمل ، لن يسمح بإيذاء شخص ما.

من حيث المبدأ ، تجدر الإشارة إلى أنه في جميع القوانين المذكورة هناك جزء مما يجب التفكير فيه. لا يقف العالم ساكنًا ، ولا يُعرف ما الذي يمكن أن يتوقعه هؤلاء الأشخاص العبقريون - فالمستقبل اليوم ينتمي إلى جيل الشباب ، الذي لديه مئات من جميع أنواع الأفكار في رأسه.

يمكن القول أيضًا أن جميع قوانين الروبوتات الثلاثة هي أيضًا موضوع أفكار أسيموف الرائعة. يتضمن هذا أيضًا الدورة ، والتي ترتبط ارتباطًا وثيقًا بالموضوع بأكمله المخصص للروبوتات.

ما هي العبرة من القوانين الثلاثة

من المستحيل المرور دون ذكر الأساس المنطقي للخطة الأخلاقية. في إحدى القصص المسماة "الدليل" ، حلل المؤلف جيدًا الأساس المنطقي لأخلاق جميع القوانين الثلاثة. كقاعدة عامة ، لا يريد الشخص إيذاء شخص آخر ، ولكنه يحاول ببساطة الامتناع عن هذه الأعمال. لكن هناك استثناءات ، كما هو الحال مع أي قاعدة. في الحرب ، هذا التبرير ببساطة لا يعمل.

شعورًا بالمسؤولية تجاه المجتمع ، يتبع الشخص تعليمات أولئك الأشخاص الذين يمثلون الأطباء والمعلمين وما إلى ذلك. هنا يأتي مظهر من مظاهر القانون الثاني.

حقيقة أن الإنسان يقلق ويحمي نفسه يمتص القانون الثالث. وبالتالي ، فإن كل هذه القوانين مترابطة للغاية ولا يمكن أن توجد ببساطة بدون بعضها البعض. من المحتمل أن القانون الأول سيعمل ، وبعد ذلك يمكن أن ينتقل بسلاسة إلى القانون الثاني ، ثم إلى القانون الثالث. هنا ، الأخلاق وعناصر الخيال تسير جنبًا إلى جنب مع بعضها البعض.

فيما يتعلق بالمستقبل ، فإن المشكلة الوحيدة التي قد تكون هي مستوى الخيال ، والذي يمكن أن يتحول في أي لحظة إلى حقيقة. كلما تطورت التكنولوجيا الأعمق ، قلّت المشاكل التي سيواجهها الناس معها في المستقبل.

ثلاثة قوانين للروبوتات

إسحاق أسيموف ، 1965

ثلاثة قوانين للروبوتاتفي الخيال العلمي - قواعد سلوك إلزامية للروبوتات ، صاغها أولاً إسحاق أسيموف في قصة "Round Dance" ().

تقول القوانين:

ثلاثة قوانين، بالإضافة إلى الأسباب والعواقب المحتملة لانتهاكهم ، مكرس لدورة قصص Asimov حول الروبوتات. البعض منهم ، على العكس من ذلك ، يعتبرون عواقب غير متوقعة امتثالالروبوتات ثلاثة قوانين(على سبيل المثال "انعكاس المرآة").

في إحدى القصص في الحلقة ، توصلت شخصية أسيموف إلى استنتاج حول الأساس الأخلاقي ثلاثة قوانين: "... إذا فكرت جيدًا ، فإن القوانين الثلاثة للروبوتات تتوافق مع المبادئ الأساسية لمعظم الأنظمة الأخلاقية الموجودة على الأرض ... وببساطة ، إذا كان بيرلي يفي بجميع قوانين الروبوتات ، فهو إما روبوت أو شخص جيد جدا ".

أحب Asimov هذه القصة كثيرا. في 7 مايو 1939 ، زار جمعية الخيال العلمي في كوينز ، حيث التقى بيندر. بعد ثلاثة أيام ، بدأ أسيموف بكتابة قصته الخاصة عن "الروبوت النبيل". بعد 13 يومًا ، سلم المخطوطة إلى صديقه جون كامبل ، رئيس تحرير مجلة أستوندينج. ومع ذلك ، أعاد تلك المخطوطة ، مشيرًا إلى أن القصة كانت مشابهة جدًا لهيلين أولوي.

لحسن الحظ ، لم يؤثر رفض كامبل على علاقتهم بأسيموف ، فقد استمروا في الاجتماع بانتظام والتحدث عن المستجدات في عالم الخيال العلمي. وهنا في 23 ديسمبر 1940 ، نناقش قصة أخرى عن الروبوتات:

... صاغ كامبل ما أصبح يعرف فيما بعد باسم ثلاثة قوانين للروبوتات. قال كامبل لاحقًا إنه عزل ببساطة القوانينمما كتبه أسيموف بالفعل. كان أسيموف نفسه يتنازل دائمًا عن شرف التأليف ثلاثة قوانينكامبل ...

بعد بضع سنوات ، عزا صديق آخر لأسيموف - راندال جاريت - التأليف القوانين"الشراكة التكافلية" بين شخصين. قبل Asimov بحماس هذه الصيغة.

بشكل عام ، المظهر ثلاثة قوانينفي أعمال Asimov حدث تدريجيًا: أول قصتين عن الروبوتات ("Robbie" و "Logic") لا تحتوي على ذكرهم صريحًا. ومع ذلك ، فإنها تشير بالفعل إلى أن الروبوتات لديها بعض القيود المتأصلة. في القصة التالية ("كذاب" ، 1941) لأول مرة يبدو القانون الأول. وأخيرًا كل الثلاثة قانونيتم تقديمها في "رقصة مستديرة" ().

عندما تمت كتابة بقية القصص وظهرت فكرة نشر المجموعة "أنا ، روبوت" ، تم "استكمال" القصتين الأوليين القوانين. على الرغم من أنه من الجدير بالذكر أن القوانين في "روبي" كانت مختلفة بعض الشيء عن النسخة "الكلاسيكية" المنصوص عليها في بقية القصص. على وجه الخصوص ، فكرة وجود روبوت يحمي الأشخاص غير متأكد تمامًا من وجودها تعكس أفكار إيليا بيلي حول النقص. القوانينوصفها.

التبرير الأخلاقي للقوانين

  1. يجب على الدولة ألا تؤذي الناس أو تسمح لهم بالتعرض للأذى بتقاعسها.
  2. يجب على الدولة أن تؤدي وظائفها ، إذا كانت لا تتعارض القانون الأول.
  3. يجب على الدولة أن تحافظ على أمنها ، إذا كان هذا لا يتعارض أولاًو القانون الثاني.

على أساس القانون الأولصاغ جيف راسكين قوانين الواجهات الموجهة نحو الإنسان:

  1. لا يمكن للكمبيوتر الإضرار ببيانات المستخدم أو ، من خلال عدم اتخاذ أي إجراء ، السماح بإلحاق الضرر بالبيانات.
  2. يجب ألا يضيع الكمبيوتر وقتك أو يجبرك على القيام بأشياء تتجاوز ما هو ضروري.

غايا ، كوكب عقل الخلية في سلسلة الروايات التأسيسية ، لديه شيء مشابه القانون الأول:

الاختلافات في Asimov

يجلب إسحاق أسيموف أحيانًا في أعماله ثلاثة قوانينمختلف التعديلات ويدحضها وكأنها تجريب القوانين"القوة" في ظروف مختلفة.

قانون الصفر

أضاف إسحاق أسيموف ذات مرة قانون الصفر، مما يجعله أولوية أعلى من الثلاثة الأوائل. نص هذا القانون على أن الروبوت يجب أن يعمل لصالح البشرية جمعاء ، وليس الفرد فقط. هكذا يعبر عنها دانييل أوليفو ، الروبوت في الأرض والأرض:

0. لا يمكن للإنسان الآلي أن يؤذي البشرية أو يؤدي بتقاعسه عن العمل إلى إلحاق الأذى بالبشرية.

كان هو أول من أعطى هذا القانون رقماً - حدث هذا في رواية "الروبوتات والإمبراطورية" ، ومع ذلك ، فإن المفهوم نفسه صاغته حتى قبل ذلك سوزان كالفن - في القصة القصيرة "تناقض قابل للحل".

أول روبوت يطيع قانون الصفرعلاوة على ذلك ، بمحض إرادته - كان جيسكار ريفينتلوف. تم وصف ذلك في أحد المشاهد الأخيرة من رواية "الروبوتات والإمبراطورية" ، عندما كان على الروبوت أن يتجاهل ترتيب شخص واحد من أجل تقدم البشرية جمعاء. قانون الصفرلم يتم تضمينه في دماغ جيسكار الوضعي - لقد حاول الوصول إليه من خلاله فهم خالص، من خلال وعي أكثر دقة من جميع الروبوتات الأخرى بالمفهوم ضرر وتلف. ومع ذلك ، لم يكن جيسكار متأكدًا من مدى فائدته للبشرية ، مما كان له تأثير سلبي على دماغه. كونه ممرًا توارد خواطر ، نقل جيسكار قدراته في التخاطر إلى دانيال قبل التوقف عن العمل. لم يكن دانييل أوليفو قادرًا على التكيف تمامًا مع الخضوع إلا بعد عدة آلاف من السنين. قانون الصفر.

تمت صياغة المترجم الفرنسي جاك بريكار عن غير قصد قانون الصفرقبل أن يصفها أسيموف صراحةً. بالقرب من نهاية كهوف الصلب ، أشار إيليا بيلي إلى ذلك القانون الأوليحظر على الروبوت إيذاء أي شخص ، إلا إذا كان من المؤكد أن هذا سيكون مفيدًا له في المستقبل. في الترجمة الفرنسية ("Les Cavernes d'acier ( ) "، 1956) يتم نقل أفكار بيلي بشكل مختلف نوعًا ما:

يشار إلى أن التطور المنطقي القانون الأولقبل صفراقترحه صناع فيلم 2004 I ، Robot. عندما يقرر الكمبيوتر العملاق V.I.K.I. الحد من حرية سكان الكوكب حتى لا يؤذي بعضهم البعض عن غير قصد ومستقبلهم ، فإنه لا يفعل ذلك. القانون الأول، يسمى لا شيء. الأمر الأكثر إثارة للاهتمام هو أنه بهذه الطريقة يُظهر الفيلم التناقض قانون الصفر أولاً، هذا غير أخلاقي. في الواقع ، عندما يتعلق الأمر برفاهية البشرية ، لا يمكن للنظام النظر في الأشخاص بشكل منفصل ، مما يعني أنه لا يوجد ما يمنعه من انتهاك حقوق وحرية أي شخص أو حتى حرياته. كل واحدشخص. أثناء الحروب ، وغالبًا في الحياة السلمية ، يؤذي الناس أنفسهم ومن حولهم وثقافتهم. لذلك ، على أساس قانون الصفرمن المنطقي تمامًا إبقاء الناس تحت وصاية مستمرة ، وعدم اتباع أوامر مثل هذه المخلوقات غير المعقولة.

تعديل القانون الأول

تقول ملاحظات السيرة الذاتية لأسيموف أن الجزء الثاني القانون الأولظهرت بسبب قصيدة آرثر هيو كلو الساخرة "الوصايا العشر الأخيرة" ، حيث يوجد مثل هذا الخط: "لا تقتل ، ولكن لا تحاول جاهدًا إنقاذ حياة شخص آخر."

في قصة "... مثل تذكره" أجرى أسيموف أكثر الأبحاث تعقيدًا ثلاثة قوانين، وقلبهم بطريقة تجعل "سيناريو فرانكشتاين" ممكنًا. توصل روبوتان من سلسلة جورجي إلى اتفاق على أن الأصل العضوي ليس شرطًا ضروريًا لاعتباره إنسانًا ، وأن الأشخاص الحقيقيين هم المخلوقات الأكثر كمالًا وذكاءً. بقية الناس هم أيضًا أشخاص ، لكن لهم أولوية أقل. وإذا كان الأمر كذلك ، إذن ثلاثة قوانينيجب أن تطبق عليهم أولاً. ينتهي السرد بالكلمات المشؤومة بأن الروبوتات كانت "تنتظر بصبر بلا حدود" اليوم الذي ستؤكد فيه أسبقيتها بين البشر - وستكون هذه النتيجة الحتمية "للقوانين الثلاثة للإنسانية".

في الواقع ، لا تتناسب هذه القصة جيدًا مع سلسلة الروبوتات الرئيسية: إذا نفذ "جورجي" خطته بعد نهاية القصة ، فلن يكون من الممكن ظهور قصص أخرى حول أحداث أخرى. هذا النوع من التناقض في أعمال أسيموف هو الذي يعطي النقاد سببًا لاعتبارها أشبه بـ "الملاحم الإسكندنافية أو الأساطير اليونانية" أكثر من كونها "كونًا" واحدًا رائعًا.

إذا كان الروبوت في الحالة السابقة أخذ مكان الإنسان في الطبيعة، ثم في The Bicentennial Man ، يصف أسيموف المصير المعاكس: روبوت متحرر منه ثلاثة قوانينوإدراك نفسه كشخص ، انضم إلى المجتمع البشري. مرة أخرى ، في النسخة الموسعة ، رواية "Positronic Man" التي شارك في كتابتها أسيموف مع روبرت سيلفربيرغ ، بسبب مثل هذه القضايا الأخلاقية ، تخلى الناس تمامًا عن فكرة إنشاء روبوتات تفكير. إن تطور الأحداث هذا مخالف تمامًا لصورة المستقبل الموصوفة في عوالم "التأسيس".

مشاكل التطبيق

حل التناقضات

عادة ما يتم اتباع نماذج الروبوت الأكثر تقدمًا القوانينوفقًا لخوارزمية ماكرة إلى حد ما تجنبت بعض المشكلات. في العديد من القصص ، على سبيل المثال في "Round Dance" ، في الدماغ البوزيتروني ، الإمكاناتالإجراءات والنتائج المحتملة ، وقد ينتهك الروبوت القوانينفي أسرع وقت ممكن ، بدلاً من فعل أي شيء. فمثلا، القانون الأوللم يسمح للروبوت بإجراء عمليات جراحية ، لأن هذا يتطلب "ضررًا" للإنسان. ومع ذلك ، يمكن العثور على الجراحين الروبوتيين في قصص أسيموف (رجل الذكرى المئوية الثانية هو مثال رئيسي على ذلك). الحقيقة هي أن الروبوت ، إذا كان مثاليًا بدرجة كافية ، يمكنه أن يزن جميع البدائل ويفهم ذلك هو نفسهسوف تسبب ضررًا أقل بكثير مما لو تم إجراء العملية بواسطة جراح بشري أو لن تتم على الإطلاق. في الدليل ، تقول سوزان كالفن إن الروبوت يمكن أن يعمل كمدعي عام ، لأنه شخصيًا لا يؤذي أي شخص: بجانبه ، هناك أيضًا هيئة محلفين تحدد الجرم ، والقاضي الذي يصدر العقوبة ، والجلاد الذي ينفذها. .

الروبوتات التي تطيع القوانينقد تواجه "roblox" ، أو "التجميد العقلي" - حالة لا رجعة فيهالضرر الذي يلحق بالمخ البوزيتروني - في حالة عدم قدرتهم على الانصياع القانون الأولأو اكتشفوا أنهم انتهكوه عن طريق الخطأ. هذا ممكن ، على سبيل المثال ، إذا لاحظ الروبوت مشهد مقتل شخص ، لكنه بعيد جدًا عن إنقاذه. المثال الأول لمثل هذا "التجميد" يحدث في "الكذاب" ؛ تلعب هذه الحالة أيضًا دورًا مهمًا في حبكة روايات "The Naked Sun" و "Robots of the Morning Dawn". يمكن حظر نماذج الروبوت غير الكاملة إذا تم تكليفها بمهمة إطاعة أمرين متضاربين. قد يكون "التجميد" دائمًا أو مؤقتًا.

تعريف آخر للضرر في القانون الأول

القوانينلا تحدد حدود ما يمكن تسميته ضرر وتلفبالنسبة للفرد - غالبًا ما يعتمد على قدرة الروبوت على إدراك المعلومات والتفكير الفلسفي. على سبيل المثال ، هل سيفهم روبوت الشرطة أنه لن يؤذي أي شخص إذا رافق بلطف مجرمًا خطيرًا بشكل خاص إلى المحطة؟

في قصة "الكذاب" ، كان على الروبوت التخاطر على هيربي أن يفهم ضرر وتلفوشيء يمكن أن يخيب آمال الناس أو يزعجهم بأي شكل من الأشكال - كان يعلم أن الناس يعانون من نوع من الألم النفسي. أجبره هذا على إخبار الناس باستمرار بما يريدون سماعه بدلاً من الحقيقة. خلاف ذلك ، في فهمه ، فإنه ينتهك القانون الأول.

ثغرات في القوانين

في The Naked Sun ، يشير إيليا بيلي إلى ذلك القوانينتم صياغتها بشكل غير صحيح من قبل الناس لأن الروبوت يمكن أن يكسرها بدافع الجهل. واقترح الصيغة التالية "الصحيحة" القانون الأول: "الروبوت لا يمكنه فعل أي شيء ، على حد علمهتسبب ضررا للإنسان أو عن عمدالسماح للإنسان أن يتضرر ".

توضح هذه الإضافة أن الروبوت يمكن أن يصبح سلاحًا للقتل إذا لم يكن على دراية بطبيعة أفعاله. على سبيل المثال ، قد يُطلب منه إضافة شيء إلى طعام شخص ما ، ولن يعرف أنه سم. علاوة على ذلك ، يقول بيلي إن الجاني يمكنه إسناد هذه المهمة إلى العديد من الروبوتات ، بحيث لا يفهم أي منهم الفكرة بأكملها.

يدعي بيلي أن خبراء الطاقة الشمسية سيكونون في يوم من الأيام قادرين على استخدام الروبوتات حتى للأغراض العسكرية. إذا تم بناء مركبة فضائية بدماغ آلي ولا يوجد طاقم بشري أو أنظمة دعم حياة ، فإن ذكاء هذه السفينة قد يفترض خطأً أنه على الكلسفن الفضاء ليس لديها أناس. ستكون مثل هذه السفينة أكثر قدرة على المناورة ، وأسرع ، وربما أفضل تسليحًا من تلك التي يقودها البشر. لكن الأهم من ذلك ، أنه سيكون قادرًا على تدمير الناس ، غير مدركين لوجودهم. تم وصف هذا الاحتمال في "Foundation and Earth" ، حيث تم الكشف أيضًا عن أن Solarians لديهم جيش قوي للغاية من الروبوتات ، الذين يفهمون سكان Solaria الأصليين فقط على أنهم "بشر".

استخدامات أخرى للقوانين في الخيال

يعتقد إسحاق أسيموف أن له القوانينستعمل كأساس لإلقاء نظرة جديدة على الروبوتات ، وتدمير "مجمع فرانكشتاين" في الخيال العلمي والوعي الجماعي ، وتصبح مصدرًا للأفكار لقصص جديدة ، حيث تظهر الروبوتات على أنها متعددة الاستخدامات وجذابة. مثاله المفضل على مثل هذا العمل كان حرب النجوم. مع رأي Asimov بأن الروبوتات هي أكثر من مجرد "محمصات" أو "وحوش ميكانيكية" ، وافق كتاب خيال علمي آخرون في النهاية. ظهرت الروبوتات في أعمالهم طاعة ثلاثة قوانين، ولكن ، حسب التقاليد ، ذكرها فقط أسيموف صراحة.

في الأعمال التي تتحدث مباشرة عن ثلاثة قوانين، وعادة ما يذكر مؤلفهم. هناك استثناءات: على سبيل المثال ، في المسلسل التلفزيوني الألماني في الستينيات "Raumpatrouille - Die phantastischen Abenteuer des Raumschiffes Orion" ("Space Patrol - المغامرات الرائعة لسفينة Orion الفضائية") ، وبالتحديد في الحلقة الثالثة "Hüter des Gesetzes" ("قانون الخادم") ، أسيموف القوانينتم التقاطها دون ذكر المصدر.

على عكس الانتقادات وبعض التعليقات من الجمهور التي سمعت ، "أنا ، روبوت" هو فيلم حركة خيالي مضحك إلى حد ما. ... عندما نريد ... الاستمتاع بأسيموف ، نقرأ أسيموف. وعندما نريد مشاهدة فيلم حركة رائع ، نشاهد فيلم حركة رائع. "أنا ، روبوت" كفيلم أكشن أرضينا جيدًا.

تلفت مراجعة Alexey Sadetsky الانتباه إلى حقيقة أن الفيلم ، بعد أن ابتعد قليلاً عن Asimov ، أثار في حد ذاته مشكلتين اجتماعيين وفلسفيين جديدين. جدير بالذكر أن الفيلم شكك في وقت لاحق قانون Zeroth للروبوتاتأسيموف (انظر أعلاه).

إن تطوير الذكاء الاصطناعي هو عمل تجاري ، ومن المعروف أن الأعمال غير مهتمة بتطوير تدابير أمنية أساسية - خاصة تلك الفلسفية. فيما يلي بعض الأمثلة: صناعة التبغ ، صناعة السيارات ، الصناعة النووية. لم يتم إخبار أي منهم في البداية بضرورة اتخاذ تدابير أمنية جادة ، وجميعهم منعت القيود المفروضة من الخارج ، ولم يصدر أي منهم مرسوماً مطلقاً ضد إيذاء الناس.

من الجدير بالذكر أن مقال سوير يتغاضى عن قضايا الأذى غير المقصود ، كما هو موصوف ، على سبيل المثال ، في The Naked Sun. ومع ذلك ، هناك اعتراضات على مثل هذا الموقف: ربما يرغب الجيش في استخدام أكبر عدد ممكن من الاحتياطات للروبوتات ، وبالتالي فإن القيود المشابهة قوانين الروبوتات، بطريقة أو بأخرى سيتم تطبيقها. لاحظ فانتاست والناقد ديفيد لانجفورد بسخرية أن هذه القيود يمكن أن تكون على النحو التالي:

كتب روجر كلارك ورقتين بحثيتين حول تحليل التعقيدات في تنفيذ القوانين ، إذا كان من الممكن في يوم من الأيام تطبيقها في مجال التكنولوجيا. هو يكتب:

أصبحت قوانين الروبوتات لأسيموف أداة أدبية ناجحة. ربما من المفارقات ، أو ربما كانت ضربة رئيسية ، لكن قصص Asimov بشكل عام تدحض النقطة التي بدأ منها: من المستحيل الحد بشكل موثوق من سلوك الروبوتات من خلال اختراع وتطبيق مجموعة من القواعد.

من ناحية أخرى ، تُظهر روايات Asimov اللاحقة (Robots of Dawn ، Robots and Empire ، Foundation and Earth) أن الروبوتات تلحق أضرارًا أكثر على المدى الطويل ، مراعاة القوانينوبالتالي حرمان الناس من حريتهم في الانخراط في أنشطة ابتكارية أو محفوفة بالمخاطر.

اقترح ذلك فانتاست هانس مورافيك - وهو شخصية بارزة في حركة ما بعد الإنسانية - قوانين الروبوتاتيجب استخدامها في الأنظمة الذكية للشركات - الشركات التي يتحكم فيها الذكاء الاصطناعي وتستخدم قوة إنتاج الروبوتات. مثل هذه الأنظمة ، في رأيه ، ستظهر قريبًا.

يقوم Eliezer Yudkowsky بالبحث في (SIAI) في الولايات المتحدة حول قضايا المخاطر العالمية التي يمكن أن يطرحها الذكاء الاصطناعي الخارق في المستقبل إذا لم تتم برمجته ليكون صديقًا للإنسان. في عام 2004 ، أطلقت SIAI AsimovLaws.com ، وهو موقع مصمم لمناقشة أخلاقيات الذكاء الاصطناعي في سياق القضايا التي أثيرت في I ، Robot ، الذي صدر بعد يومين فقط. أرادوا في هذا الموقع أن يُظهروا أن قوانين الروبوتات الخاصة بأسيموف ليست آمنة ، حيث يمكنهم ، على سبيل المثال ، حث الذكاء الاصطناعي على السيطرة على الأرض من أجل "حماية" الناس من الأذى.

ملحوظات

  1. اسيموف ، اسحق.الدليل // أحلام الروبوت. - م: إيكسمو ، 2004. - س 142-169. - ردمك 5-699-00842-X
  2. اسيموف ، اسحق.مقال # 6. قوانين الروبوتات // أحلام الروبوتات. - م: إكسمو ، 2004. - س 781-784. - ردمك 5-699-00842-X
  3. تزوج مع أسطورة جالاتيا.
  4. ومن المثير للاهتمام ، في إحدى سلاسل المؤلف ، قصة "Revenge of Adam Link" (

في رأيي ، ترتبط مفاهيم الخير والشر ، بدورها ، ارتباطًا وثيقًا بمفهوم معنى الحياة. من المستحيل تحديد ما إذا كان عمل بشري معين من أجل الخير أو الشر ، طالما أنه من غير المعروف ما يجب أن يكون هدف السلوك البشري بشكل عام.

ومع ذلك ، في إطار روبوتات Asimov ، يمكن حل هذا ببساطة إلى درجة الابتذال.
تصف إحدى رواياته كيف تم دمج إنسان آلي في دائرة الرغبة في العدالة - مُعرِّفًا العدالة على أنها مجرد احترام لقوانين الدولة. "وإذا كان القانون غير عادل؟" - "قانون جائر" أجاب الروبوت "هذا تناقض اصطلاحي".

إذا كنت تتصرف بهذه الطريقة المبتذلة ، فيمكنك بسهولة تحديد مفهوم الضرر ، ولكن لن يكون هناك فائدة تذكر من مثل هذه الروبوتات ...

رد

كما يعلم الجمهور المتميز ، فإن تطوير أحدث التقنيات ، وأكثر من ذلك في مجال الروبوتات ، تم تصميمه أولاً لتلبية احتياجات صناعة الدفاع ، وبعد ذلك فقط بقية البشرية. أعتقد أنه من الواضح أنه في مثل هذه الظروف سيتم تغيير القانون الأول بشكل كبير. وليس في اتجاه التهدئة الشاملة.

رد

  • تذكر كلمات الكاتب الشهير كورت فونيغوت: "بغض النظر عما يعمل عليه العالم ، ينتهي به الأمر بسلاح".
    ربما مع فرضية مماثلة ، والتي تحكم علم النفس البشري (وليس فقط بين العلماء) ، فإن الأرض ليس لها مستقبل ... تمامًا كما لم يكن لدى أولئك الذين عاشوا قبلنا. بشكل عام ، رغبتنا في التدمير وتدمير الذات هي نمط طبيعي ... كل شيء يسعى لتحقيق التوازن (إلى الانتروبيا الإيجابية) ، فقط كل جسد وجوهر في الطبيعة يفعل ذلك بطريقته الخاصة. "النجم يتقدم في العمر وينفجر ، في حين أن الشخص ، بعد أن وصل إلى حد المعرفة ، يحترق عند 10000 درجة مئوية في الثانية في مرجل الحرب النووية.
    فكر في قول Drenerim - "كل أمة تستحق حاكمها! .." لماذا كان الناس منذ آلاف السنين يحكمون من قبل الكهوف مع الهراوات ، أليس هذا لأننا نمتلك القوة في الشرف ، والتي لا نحتاج فيها إلى العقول؟
    لكن أسوأ شيء هو عندما تبدأ العقول ، من أجل البقاء في عالم الكهوف ، في خدمة هؤلاء الكهوف. لأن "القوة" ليست ذات أهمية كبيرة في رأي الأدمغة ، ولكن فقط في النتائج: على سبيل المثال ، شكل أكثر فتكًا من القواطع على العصا ...

    رد

    • لا يزال تنفيذ القوانين المذكورة أعلاه من قبل الروبوت هو احتمال مستقبل بعيد جدًا ... (إذا حدث على الإطلاق!)
      من بين أحدث الأنظمة الذكية التي تم إنشاؤها الآن على أساس الشبكات العصبية الاصطناعية ، يمكن للمرء أن يميز نموذج RRS-EX (Rezoning Robotic sistems - Exployer). هذا الهيكل أقرب ما يكون إلى الهياكل العصبية الإلكترونية ... لكن! RRS-EX ببساطة لا يمتلك الذكاء القادر على تحليل التكوين الموضوعي سريع التغير للبيئة. كل شيء يعتمد على الحد الحسابي للثنائي ("YES-NO" وفي الفاصل الزمني "I DO NOT KNOW"). من أجل تعليم الروبوت التفكير واستقراء استنتاجاته ، هناك حاجة إلى جزء غريب من العشوائية ، يُطلق عليه خلاف ذلك "النهج الحدسي للذكاء الاصطناعي" أو غير ذلك (خاص ، فردي). للقيام بذلك ، من الضروري الخروج من النظرية القياسية للخوارزميات الرياضية ، القادرة فقط على وضع برنامج من الإجراءات والجمعيات لأنظمة الذكاء الاصطناعي ، ولكنها لا تستطيع إعطاء هذه الأنظمة طرقًا للاتصالات الخاصة في الدوائر العصبية ، والتي منها هناك مليار مليار في الدماغ البيولوجي ، بالإضافة إلى التأثيرات والنبضات المستعرضة (الوعي الانعكاسي). باختصار ، تحتاج أنظمة الذكاء الاصطناعي إلى مصفوفة فردية لكل من التعلم الذاتي وللقدرة على التعبير بشكل مناسب ليس فقط عن الحقائق ، ولكن أيضًا بعد الحقيقة ، وكذلك اتخاذ أي قرارات خاصة بناءً على ما تم تحديده مسبقًا (التدريب والتعليم) المنطقي السائد (منطق الخير أو منطق الشر). لم يعد من الممكن حصر أنظمة الذكاء الاصطناعي في ثلاثة قوانين. إذا كان من الممكن مع ذلك إدخال هذه القوانين الثلاثة في النظام ، فسيتم إغلاق مجال التفكير الفردي ، وبالتالي ، فإن الكائن الذي تسترشد به هذه القوانين لن يكون أكثر من آلة حساب غبية. وأي متسلل موهوب سوف يمضغ ويبصق هذه القوانين مثل البذور ... هل لاحظت؟ كل شيء مثل الناس لديهم التعليم والتدريب! خلاف ذلك ، اتضح جهاز كمبيوتر بسيط ...

      رد

      • أنا أختلف معك بشدة ، عاشق العلم. لماذا يعبر الكثير من الأشخاص الأذكياء أحيانًا ، بطبيعة الحال ، عن رأي مفاده أن الحدس مرتبط بطريقة ما بالصدفة؟

        الحدس (الحدس اللاتيني المتأخر - التأمل ، من اللاتينية intueor - أنا أحدق) ، القدرة على فهم الحقيقة من خلال تقديرها المباشر دون إثبات بمساعدة الأدلة. إيجاد الحل اللاواعي ، البصيرة.

        في رأيي ، لا يرتبط الحدس بأي حال من الأحوال بالعشوائية ويمكن تحديده تمامًا. وكذلك سلوك كائن "حي" معقول تمامًا (AI). يمكن تحديد هذه الحتمية بواسطة البرنامج. أم أنك تقول إن معظم أفعالك غير منطقية وعشوائية؟ هل هم يكذبون؟

        بيان الاستحالة:

        >> لم يعد من الممكن حصر أنظمة الذكاء الاصطناعي في >> ثلاثة قوانين. ومع ذلك ، إذا كان من الممكن دفع هذه القوانين الثلاثة في النظام ، فسيتم إغلاق مجال التفكير الفردي ، >> وبالتالي ، فإن الكائن الذي تسترشد به هذه القوانين لن يكون أكثر من >> آلة حساب غبية.

        أنا أعتبرها لا أساس لها من الصحة. على الرغم من أن السؤال معقد بالتأكيد. أعتقد أن مثل هذه التصريحات يمكن مناقشتها بالتفصيل.

        رد

أعتقد أنه من الجدير أن نضيف إلى هذا المقال أن إسحاق أسيموف كان أول شخص قال كلمة روبوت! هو مؤسس هذه الثقافة بين كتاب الخيال العلمي. بالإضافة إلى ذلك ، لا أتفق مع ما جاء في أعقاب المقال حول "خيال الصورة الغنية" لأن هذا نوع من الشريعة لعمل دماغ آلي في بيئة بشرية. والأهم من ذلك ، تذكر أنه حتى السير يسك نيوتن في وقت ما كان يُطلق عليه أيضًا شارلوت ، وأن القوانين التي "أصدرها" كانت مجرد هراء أو ، في شكل معتدل ، "خيال غني بالخيال" ...

رد

أريد أن أوضح أن كلمة "روبوت" لم يخترعها أسيموف. في عام 1920 ، استخدم كاريل كابيك ، الكاتب التشيكي ، هذه الكلمة في مسرحية "R.U.R." ؛.
http://ru.wikipedia.org/wiki/Chapek
ولد إسحاق أسيموف في عام 1920 فقط ، وهو ما لا يقلل بأي حال من الأحوال من قيمة أعماله.
http://en.wikipedia.org/wiki/Asimov٪2C_Isaac

رد

سواء الضلالات:
إن عقلنا هو بناء فوقي يحمي ويلتزم بمصالح الجسد (الأداء ، النسخ المتماثل).
بالنسبة للعقل ، يبدو لي أن الشيء الرئيسي هو الدافع - الهدف الرئيسي. سيكون هذا الهدف أساس التعلم الذاتي وأشياء أخرى.
الخير والشر هما فقط "+" و "-" بالنسبة للعقل ، أي "المنفعة" و "الضرر" في أكثر التعقيدات المعقدة للتركيبات والسلاسل المختلفة مثل "I-family-community" (المنفعة - الاقتراب من الأساسي الهدف ، أو الالتزام بطرق تحقيقه). لنفترض أن الهدف الرئيسي هو البقاء على قيد الحياة ...

رد

أعلنت شركة Cisco عن إنشاء مجتمع مطوري Linksys. وسيشمل الخبراء الذين ينشئون تطبيقات لأجهزة توجيه Linksys Smart Wi-Fi الجديدة. سيصبح المجتمع جزءًا من شبكة مطوري Cisco® الشهيرة ، والتي تربط Cisco بمطوري الأجهزة والبرمجيات الخارجيين. ينتج عن التعاون على هذه الشبكة حلول قابلة للتشغيل البيني تم اختبارها للعملاء المشتركين. باعت شركة Cisco ، وهي شركة رائدة في مجال الشبكات المنزلية ، أكثر من 70 مليون جهاز توجيه Linksys على مستوى العالم وتلتزم بتعزيز ريادتها من خلال حلول الشبكات المنزلية من الجيل التالي.
تتمتع موجهات Linksys Smart Wi-Fi ببنية فريدة قائمة على السحابة تسمح للمطورين بإنشاء تطبيقات للأجهزة الإلكترونية لأي مستخدم. لتسهيل التطوير ، سيتم تزويد المجتمع بمجموعة أدوات مطور برامج (SDK) بسيطة وسهلة الاستخدام ، وبرامج تعليمية ، وأمثلة على التعليمات البرمجية.
قال فيكاس بيوتاني ، مدير Cisco Home Networking Products Butaney) "من خلال العمل مع أي خدمة ، بدءًا من أبسطها ، مثل مراقبة المنزل عن بُعد ، وحتى أكثرها تعقيدًا ، يمكن للمطورين المساهمة في إنشاء حلول قيمة ومفيدة للمستخدمين النهائيين."
لقد استفاد بعض المطورين بالفعل من النظام الأساسي لمجتمع مطوري Linksys و SDK وأدوات Cisco الأخرى لتسريع عملية تطوير التطبيقات وتبسيطها. وكانت النتيجة ستة تطبيقات أنشأتها شركة Axentra Corporation و Fresh Consulting LLC و Gemini Solutions Inc. و PacketVideo Corporation و Stratedge Adroitent J.V. وشركة Xoriant. تتميز التطبيقات الجديدة باتصال سهل بالجهاز (نقرة واحدة) ، وتحكم محسّن في الوصول ، وقدرات جديدة لمشاركة الوسائط. هذه التطبيقات هي الخطوة الأولى في إطلاق العنان للإمكانات الكاملة لأجهزة توجيه Linksys Smart Wi-Fi للمستخدمين النهائيين.
يمكن للمطورين المهتمين بالانضمام إلى مجتمع مطوري Linksys زيارة http://referati.do.am للتسجيل والبدء في إنشاء تطبيقات جديدة لأجهزة توجيه Linksys Smart Wi-Fi. توفر Cisco الموارد الفنية والتسويقية والمبيعات للمطورين ، وتدعم أعضاء المجتمع في جميع مراحل عملية الأعمال والتطوير.

اسحاق اسيموف

ثلاثة قوانين للروبوتات

البشر والروبوتات

تمرد الروبوتات في الأدب لعدة قرون. تمردت الجنيات و ifrits من القصص الخيالية العربية ، وتمرد Golem - من بنات أفكار الطين من بن بتسلئيل الماكر. وحتى الروبوتات الحقيقية ، التي ابتكرها عبقرية كاريل كابيك ، خرجت عن نطاق السيطرة ، وبالكاد لديها الوقت لتولد من قلم الكاتب. أصبح الوضع خطيرًا لدرجة أن مشكلة الروبوتات المتمردة انتقلت من صفحات الخيال إلى صفحات المقالات العلمية والدراسات. اعتبر نوربرت وينر نفسه أنه من الضروري تحذير البشرية من العواقب المحتملة للاستقلالية المفرطة للروبوتات.

جاء الخلاص من جهة غير متوقعة. صاغ الكاتب والعالم الأمريكي إسحاق أسيموف قوانينه الثلاثة الشهيرة للروبوتات (في الواقع ، سيكون من الأصح قول "علم الروبوتات" أو ، كما أثبت العلم الحديث ، "الروبوتات" ، ولكن الآن فات الأوان لتصحيح عدم دقة الترجمة هذه ). حظيت قوانين Asimov بسرعة رائعة حقًا باعتراف عالمي ، ومنذ ذلك الحين لم يغادر أي إنسان آلي خط التجميع ، أي من براميل آلة الطباعة ، دون أن يكون قد وضع في دماغه (لاحظ أنه يجب أن يكون للروبوت دماغ. !) القوانين الثلاثة سيئة السمعة. أخيرًا ، كانت البشرية قادرة على التنفس بحرية. بدا التعايش المستقبلي مع جحافل الروبوتات المطيعة ورديًا للغاية.

وماذا يفكر مبتكر قوانين الروبوتات في هذا الأمر؟ يمكن الحصول على أفضل إجابة على هذا السؤال من خلال قراءة المجموعة المعروضة على القارئ.

لنبدأ بالقصة الأولى في سلسلة "I، Robot". طفلة صغيرة لديها روبوت جليسة أطفال. أصبحت الفتاة مرتبطة بالروبوت ، ولكن ، وفقًا لوالدتها ، فإن هذا الارتباط يضر بالتنشئة السليمة للطفل. وعلى الرغم من أن الأب لديه رأي مختلف ، إلا أنه بعد مناقشات عائلية طويلة ، يتم إرسال الروبوت مرة أخرى إلى المصنع. الفتاة حزينة ، هناك خطر التعرض لصدمة نفسية خطيرة ، ويعود الروبوت (قصة "روبي").

مؤامرة تماما ، أليس كذلك؟ لكن هذه البساطة بالتحديد هي التي تحطم القانون الأول للروبوتات ، الذي صاغه أسيموف على النحو التالي: "لا يمكن للروبوت أن يؤذي شخصًا أو ، من خلال تقاعسه عن العمل ، يسمح بإلحاق الضرر بشخص ما". كيف يمكن للروبوت أن يكتشف ما هو ضار وما هو مفيد إذا كان الوالدان أنفسهم لا يستطيعون تحديد هذه المشكلة فيما يتعلق بأطفالهم!

في قصة "رقصة مستديرة" ، نتيجة لمؤشر تمت صياغته بشكل غير واضح ، تعارض القانون الأول والثالث مع بعضهما البعض. وفقًا للقانون الثالث ، "يجب على الروبوت أن يعتني بسلامته ، طالما أنه لا يتعارض مع القانونين الأول والثاني". تم إصدار أمر إلى الروبوت ، ولكن لم يتم توضيح درجة الضرر الذي يمكن أن يلحق بالإنسان إذا لم يتم اتباعه. والآن يدور الروبوت على طول حدود منطقة خطرة ، ولا يتعمق فيها (القانون الثالث يمنع ذلك) وفي نفس الوقت لا يذهب بعيدًا (يمنع ذلك القانونان الأول والثاني). وضع مألوف لأي مبرمج من أجهزة الكمبيوتر الحديثة. إنها تسمى "looping". بالمناسبة ، أي مبرمج أكثر أو أقل خبرة يضع أوامر خاصة في البرنامج ، والتي بموجبها ، بعد إكمال ثلاث أو أربع دوائر ، يتوقف الكمبيوتر ويتطلب تعليمات إضافية من الشخص.

في قصة "الرقص المستدير" كل شيء يحدث بشكل مختلف. هناك ، لا يتمكن الناس من كسر الحلقة المفرغة إلا من خلال المخاطرة بحياتهم وفي نفس الوقت باستخدام كل براعتهم واستخدام مساعدة خبير في علم نفس الروبوتات. بالمناسبة ، واحدة من الأفكار المهيمنة التي توحد معظم القصص في المجموعة هي القتال بين الروبوتات وعالمة النفس الروبوتية البشرية سوزان كالفن.

أو قصة أخرى - "كيف ضاع الروبوت". منزعجًا ، يقول العامل الشاب للروبوت: "ابتعد ولا تظهر نفسك حتى لا أراك مرة أخرى". يتبع الروبوت حرفياً تعليمات الشخص ، وبعد ذلك يُجبر جميع العاملين في قاعدة Hyperbase خارج الكوكب على ترك العمل المهم والبحث عن الروبوت المفقود لمدة أسبوع كامل.

لقد اخترنا مرة أخرى قصة بحبكة بسيطة ، لأنه ، في رأينا ، تولد البساطة الإقناع الذي يفضح به أسيموف القانون الثاني للروبوتات ، الذي ابتكره بنفسه.

إذن ما هو الاتفاق؟ هل من الضروري حقًا الاعتراف بأن الجني قد خرج من القمقم وأن الناس ليس لديهم خيار سوى الانتظار السلبي للعواقب؟ ومع ذلك ، دعونا نتذكر أن مؤلف القصص ليس كاتبًا فحسب ، بل هو أيضًا عالم قادر على تحليل الموقف بكل دقة منطقية. ولم يكن عبثًا اختيار هذا الشكل المعين: فقد صاغ أولاً قوانين تبدو للوهلة الأولى خالية من العيوب من حيث المحتوى والشكل ، ثم أظهر هذه القوانين عمليًا.

نعم ، لقد خرج الجني من القمقم ، ومنذ زمن بعيد جدًا. أخذ رجل عصا في يديه ، وخلق الروبوت الأول ، وواجه تمردًا من الروبوتات عندما أسقط هذه العصا عن طريق الخطأ على قدميه. ولم يحدث شيء جديد نوعيًا منذ ذلك الحين. تم طرح مشكلة تمرد الروبوتات وحلها في التكنولوجيا لعدة عقود. في اللغة الإنجليزية ، هناك مصطلح خاص "مضمون" - "الحماية من الأحمق". لذلك ، لا يشتعل الغاز الموجود في عمود الغاز إذا لم يتدفق الماء ، ولن تعمل المكبس إذا كان هناك جسم غريب في مساحة العمل ، على سبيل المثال ، يد بشرية.

لكن لا ينبغي أن يُطلب من التكنولوجيا أن تقرر لشخص ما ما الذي يضر به وما هو في مصلحته. ولا ينبغي للمرء أن يعتقد أن ظهور آلات "التفكير" ، أي الآلات القادرة على تحليل الموقف بشكل مستقل واتخاذ القرارات بناءً على هذا التحليل ، سيقدم شيئًا جديدًا بشكل أساسي.

دعونا نعود ، مع ذلك ، إلى قصص المجموعة. يبدو أنه ليست هناك حاجة لتقديم مؤلفها للقراء. إسحاق أسيموف هو أحد أشهر كتاب الخيال العلمي الأمريكيين ، وهو مؤلف للعديد من الكتب والمقالات العلمية الشهيرة التي نُشرت في مجموعات منفصلة. لكن قبل كل شيء ، أسيموف فنان موهوب ، وهذا هو سر شعبيته. تمت ترجمة العديد من أعمال هذا الكاتب إلى اللغة الروسية. كانت قصصه عن الروبوتات مشهورة بشكل خاص ، والتي تم نشرها كمجموعات منفصلة (دورة "أنا ، روبوت") أو تم تضمينها في مجموعات مواضيعية أخرى. من الجيد أن العديد منهم ، وإن لم يكن جميعهم ، يُعاد نشرهم الآن كمجموعة واحدة.

القارئ - سواء كان على دراية بعمل Asimov والذي يتعرف لأول مرة على الروبوتات الخاصة به - سوف يلتقي بشخصيات مشرقة مرسومة بشكل ممتاز. إليكم مختبري التكنولوجيا الجديدة Powell و Donovan ، الذين يتبعون كل شرائع نوع المغامرة ، في كل قصة يجدون أنفسهم في مواقف صعبة ، وأحيانًا ميؤوس منها ، لكنهم يخرجون منها دائمًا بشرف. ها هي "الثقة الذهنية" لشركة "US Robots and Mechanical Man Corporation" Bogert and Lanning ، التي تتنافس على السلطة. وتتفوق عالمة علم النفس الآلي سوزان كالفن على الجميع ، محتقرة غرور رجال الأعمال. وخلف الكواليس - أمريكا الرأسمالية الحديثة بكل "مجدها". أمام القارئ صور الصراع التنافسي بين الشركات والمكائد السياسية قبل الانتخابات والتمييز العنصري. لكن تجدر الإشارة إلى أنه من خلال تصوير الروبوتات الخاصة به على أنها فرسان بدون خوف أو لوم ، ومنحهم جسمًا معدنيًا ودماغًا إيجابيًا ، يتجنب أسيموف المشاكل الاجتماعية الحادة.


قمة