ملخص عن موضوع "المشاكل الفلسفية للذكاء الاصطناعي". مشاكل خلق الذكاء الاصطناعي

وفقًا للأخبار والاستطلاعات ومؤشرات جاذبية الاستثمار ، سيصبح الذكاء الاصطناعي والتعلم الآلي قريبًا جزءًا لا يتجزأ من حياتنا اليومية.

تأكيد هذه الأطروحة هو سلسلة من الابتكارات والاختراقات التي أظهرت قوة وفعالية الذكاء الاصطناعي في مختلف المجالات ، بما في ذلك الطب والتجارة والتمويل والإعلام ومكافحة الجريمة وغير ذلك الكثير. ولكن في الوقت نفسه ، أكد التطور السريع للذكاء الاصطناعي حقيقة أنه أثناء مساعدة الناس على حل مشاكلهم ، ستخلق الآلات أيضًا مشكلات جديدة يمكن أن تؤثر على الأسس الاقتصادية والقانونية والأخلاقية لمجتمعنا.

هناك أربعة أسئلة تحتاج شركات الذكاء الاصطناعي إلى معالجتها مع تقدم التكنولوجيا وتوسع تطبيقاتها.

النتائج تصويت

خلف

خلف

توظيف

لقد قللت الأتمتة من وظائف التصنيع لعقود. أدت الوتيرة المتقطعة لتطور الذكاء الاصطناعي إلى تسريع هذه العملية وامتدادها إلى تلك المجالات من الحياة البشرية التي ، كما كان يعتقد عمومًا ، كان ينبغي أن تظل حكرًا للذكاء البشري لفترة طويلة.

تهدد قيادة الشاحنات وكتابة المقالات الإخبارية ومسك الدفاتر وخوارزميات الذكاء الاصطناعي وظائف الطبقة المتوسطة بشكل لم يسبق له مثيل. لم تعد فكرة استبدال الأطباء أو المحامين أو حتى الرؤساء بذكاء اصطناعي رائعة بعد الآن.

في الوقت نفسه ، من الصحيح أيضًا أن ثورة الذكاء الاصطناعي ستخلق العديد من الوظائف الجديدة في مجال البحث والتعلم الآلي والهندسة وتكنولوجيا المعلومات ، الأمر الذي سيتطلب موارد بشرية لتطوير وصيانة الأنظمة والبرامج المشاركة في تشغيل الذكاء الاصطناعي. الخوارزميات. لكن المشكلة هي أنه بالنسبة للجزء الأكبر ، الأشخاص الذين فقدوا وظائفهم لا يمتلكون المهارات اللازمة لملء تلك الوظائف الشاغرة. وبالتالي ، من ناحية ، لدينا فراغ متزايد في الموظفين في المجالات التكنولوجية ، ومن ناحية أخرى ، تدفق متزايد للعاطلين عن العمل والناس الغاضبين. حتى أن بعض قادة التكنولوجيا يستعدون لليوم الذي يطرق فيه الناس أبوابهم بالمذراة.

من أجل عدم فقدان السيطرة على الموقف ، يجب أن تساعد صناعة التكنولوجيا المجتمع على التكيف مع التغييرات الرئيسية التي ستؤثر على المشهد الاجتماعي والاقتصادي ، والانتقال بسلاسة إلى المستقبل حيث ستأخذ الروبوتات المزيد والمزيد من الوظائف.

سيكون تعليم المهارات التقنية الجديدة للأشخاص الذين ستذهب وظائفهم في المستقبل إلى الذكاء الاصطناعي أحد خلاصات هذه الجهود. بالإضافة إلى ذلك ، يمكن لشركات التكنولوجيا استخدام مجالات واعدة مثل الحوسبة المعرفية وبرمجة اللغة الطبيعية للمساعدة في تبسيط المهام وتقليل الحواجز أمام الالتحاق بوظائف عالية التقنية ، مما يجعلها في متناول المزيد من الناس.

على المدى الطويل ، تحتاج الحكومات والشركات إلى النظر في إدخال دخل أساسي شامل - مدفوعات شهرية أو سنوية غير مشروطة لجميع المواطنين ، حيث نتحرك ببطء ولكن بثبات نحو يوم يتم فيه إنجاز جميع الأعمال بواسطة الروبوتات.

المغامرة

كما ثبت في العديد من الأمثلة في السنوات الأخيرة ، يمكن أن يكون الذكاء الاصطناعي متحيزًا تمامًا مثل الإنسان ، إن لم يكن أكثر.

التعلم الآلي ، وهو فرع شائع من الذكاء الاصطناعي وراء خوارزميات التعرف على الوجه والإعلان السياقي وغير ذلك الكثير ، اعتمادًا على البيانات التي يعتمد عليها تدريب الخوارزميات وتصحيحها.

تكمن المشكلة في أنه إذا كانت المعلومات التي يتم تغذيتها في الخوارزميات غير متوازنة ، فيمكن أن تكون النتيجة تحيزًا خفيًا وعلنيًا بناءً على تلك المعلومات. يعاني مجال الذكاء الاصطناعي حاليًا من بلاء واسع الانتشار تحت الاسم العام "مشكلة الرجل الأبيض" ، أي غلبة الرجال البيض في نتائج عمله.

وللسبب نفسه ، فإن مسابقة جمال يحكم عليها الذكاء الاصطناعي تكافئ المتسابقين البيض في الغالب ، وفضلت خوارزمية التسمية الأسماء البيضاء ، وفضلت خوارزميات الإعلانات الوظائف عالية الأجر للزوار الذكور.

هناك قضية أخرى أثارت الكثير من الجدل في العام الماضي وهي ما يسمى بـ "فقاعة التصفية". ظاهرة شوهدت على Facebook ووسائل التواصل الاجتماعي الأخرى بناءً على تفضيلات المستخدم لتقديم توصيات تتوافق مع تلك التفضيلات وإخفاء وجهات النظر البديلة.

حتى الآن ، تبدو معظم هذه الحالات وكأنها أخطاء مزعجة وحالات مضحكة. ومع ذلك ، يجب إجراء عدد من التغييرات المهمة على عمل الذكاء الاصطناعي إذا طُلب منه أداء مهام أكثر أهمية ، مثل ، على سبيل المثال ، إصدار الأحكام في المحكمة. من الضروري أيضًا اتخاذ الاحتياطات اللازمة لمنع التدخل في عمل خوارزميات الذكاء الاصطناعي من قبل أطراف ثالثة ، بهدف تشويه نتائج عمل الذكاء الاصطناعي لصالحهم من خلال التلاعب بالبيانات.

يمكن تحقيق ذلك من خلال جعل عملية ملء الخوارزميات بالبيانات شفافة ومفتوحة. يمكن أن يساعد إنشاء مستودعات البيانات المشتركة التي لا يملكها أي شخص ويمكن التحقق منها بواسطة هيئات مستقلة في التحرك نحو هذا الهدف.

مسؤولية

من المسؤول عن فشل البرامج أو الأجهزة؟ قبل ظهور الذكاء الاصطناعي ، كان من السهل نسبيًا تحديد ما إذا كانت الحادثة ناتجة عن أفعال مستخدم أو مطور أو مصنع.

لكن في عصر التكنولوجيا التي يحركها الذكاء الاصطناعي ، أصبحت الأمور أقل وضوحًا.

تحدد خوارزميات التعلم الآلي نفسها كيفية الاستجابة للأحداث. وعلى الرغم من حقيقة أنهم يتصرفون في سياق بيانات الإدخال ، حتى مطوري هذه الخوارزميات لا يمكنهم شرح كيفية عمل منتجهم عند اتخاذ قرار في حالة معينة.

يمكن أن يصبح هذا مشكلة عندما تبدأ خوارزميات الذكاء الاصطناعي في اتخاذ قرارات أكثر أهمية. على سبيل المثال ، الذين يجب إنقاذ حياتهم في حالة وقوع حادث حتمي - راكب ومشاة.

يمكن أن يمتد هذا المثال إلى العديد من السيناريوهات المحتملة الأخرى التي يصعب فيها تحديد الذنب والمسؤولية. ماذا تفعل عندما يضر نظام العلاج التلقائي أو الجراح الآلي بالمريض؟

عندما تكون حدود المسؤولية غير واضحة بين المستخدم والمطور ومشغل إدخال البيانات ، سيحاول كل جانب نقل اللوم إلى الآخر. لذلك ، من الضروري تطوير وإدخال قواعد جديدة من أجل التمكن من منع النزاعات المحتملة وحل المشكلات القانونية التي ستحيط بالذكاء الاصطناعي في المستقبل القريب.

سرية

يستهلك الذكاء الاصطناعي والتعلم الآلي كميات هائلة من البيانات ، وستزيد الشركات التي بنيت أعمالها حول هذه التقنيات من جمعها لبيانات المستخدم ، بموافقة الأخيرة أو بدونها ، لجعل خدماتها أكثر استهدافًا وكفاءة.

في خضم البحث عن المزيد من البيانات ، يمكن للشركات دفع حدود الخصوصية. حدثت حالة مماثلة عندما اكتشف متجر بيع بالتجزئة سر حمل فتاة مراهقة وسربه عن طريق الخطأ إلى والدها المطمئن في رسالة بريدية. تضمنت حالة أخرى حديثة جدًا نقل البيانات من الخدمة الصحية الوطنية في المملكة المتحدة إلى مشروع DeepMind التابع لشركة Google ، ظاهريًا لتحسين التنبؤ بالأمراض.

هناك أيضًا مسألة الاستخدام الضار للذكاء الاصطناعي والتعلم الآلي من قبل المنظمات الحكومية وغير الحكومية. يمكن أن يكون تطبيق التعرف على الوجه الفعال إلى حد ما الذي تم تطويره العام الماضي في روسيا أداة محتملة للأنظمة الاستبدادية التي تسعى لتحديد وقمع المعارضين والمحتجين. أثبتت خوارزمية أخرى للتعلم الآلي فعاليتها في التعرف على الصور غير الواضحة أو المقطعة واستعادتها.

يسمح الذكاء الاصطناعي والتعلم الآلي للمهاجمين بانتحال شخصية أشخاص آخرين ، وتقليد أسلوب خط اليد والصوت والتواصل ، مما يوفر لهم أداة غير مسبوقة في قوتها يمكن استخدامها في العديد من الأعمال غير القانونية.

إذا كانت الشركات التي تطور تكنولوجيا الذكاء الاصطناعي وتستخدمها لا تنظم عملية جمع المعلومات ونشرها وتتخذ التدابير اللازمة لإخفاء هوية بيانات المستخدم وحمايتها ، فإن أنشطتها ستؤدي في النهاية إلى ضرر أكبر مما تعود بالفائدة على المستخدمين. يجب تنظيم استخدام التكنولوجيا وإمكانية الوصول إليها بطريقة تمنع أو تقلل من استخدامها المدمر.

يحتاج المستخدمون أيضًا إلى أن يكونوا مسؤولين عما يشاركونه مع الشركات أو ينشرونه عبر الإنترنت. نحن نعيش في عصر أصبحت فيه الخصوصية سلعة ، والذكاء الاصطناعي يجعل الأمر أسهل.

مستقبل الذكاء الاصطناعي

هناك مزايا وعيوب لكل تقنية متطورة. والذكاء الاصطناعي ليس استثناء. المهم هو أنه يمكننا تحديد المشاكل التي تنتظرنا والاعتراف بمسؤولياتنا لضمان أنه يمكننا الاستفادة الكاملة من الفوائد وتقليل الآثار السلبية.

الروبوتات تطرق بابنا بالفعل. دعونا نتأكد من أنهم يأتون بسلام.

يتم التشكيك في إنشاء الذكاء الاصطناعي من وجهة نظر منفعته. يقولون أن هذا يكاد يكون كبرياء للإنسان وخطيئة أمام الله ، لأنه يتعدى على صلاحياته. ومع ذلك ، إذا اعتبرنا الحفاظ على الجنس البشري في مواجهة المخطط الإلهي إحدى مهامنا الرئيسية ، فإن إنشاء الذكاء الاصطناعي يحل هذه المشكلة على أساس: في حالة حدوث أي كارثة كونية أو داخل الكواكب ، فإن العقل يجب أن يعيش على الأقل في شكل اصطناعي وأن يعيد تكوين الجنس البشري. الذكاء الاصطناعي ليس نزوة أو مهمة شيقة ، ولكنه هدف يتفق مع الخطة الإلهية. الذكاء الاصطناعي هو معيار جوهري مشترك للكفاية التجريبية المشتركة للنظريات المفهومة لتطور الحضارة الإنسانية. في الذكاء الاصطناعي ، لا يموت الإنسان ، لكنه يتلقى وجودًا مختلفًا ، شيده.

أبسط حجة لوجود الذكاء الاصطناعي هي أنه من خلال إنشاء الذكاء الاصطناعي ، فإننا نخلق تأمينًا لتكاثر الجنس البشري واتجاهات التنمية الجديدة. صحيح ، لا أحد يلغي الخطر الحالي المتمثل في استعباد الإنسان التقليدي بالذكاء الاصطناعي (كما كان في وقته استعباد الإنسان للإنسان). ومع ذلك ، يبدو أن هذه المشاكل ليست جوهرية لدرجة أنه لا يستحق محاولة القيام بذلك. حتى لو كان اعتماد الشخص على الذكاء الاصطناعي يصل إلى حقبة كاملة ، فسيظل هذا احتمالًا إيجابيًا. ومع ذلك ، على الأرجح ، فإن استعباد الشخص للذكاء الاصطناعي لن يكون مرتبطًا بإجبار الشخص على نشاط غير فكري أو عدم قدرته على التطور في جسمه البيولوجي بنفس سرعة الذكاء الاصطناعي الذي تم إنشاؤه خارجيًا ، ولكن مع عدم القدرة على تطوير عقلي. النشاط على هذا النحو: الحصول على المنتجات التكنولوجية من الذكاء الاصطناعي ، والذكاء ، والتي لا يمكن فهم أصلها ومبدأها للنشاط العقلي البشري - هذا هو الخطر الحقيقي. في هذه الحالة ، ستكون العبودية اعتماد الشخص على الذكاء الاصطناعي ، وهو عبودية النشاط العقلي.

رغبتنا في إثارة مسألة الذكاء الاصطناعي تحتوي على الموقف الذي عبر عنه هايدجر في عمله "سؤال التكنولوجيا": إن خطورة الشخص وبراعم خلاصه تكمن في إتقان جوهر التكنولوجيا كإطار. عند التفكير في هذا الموقف ، نقوم بإعادة صياغة سؤال هايدجر: إن إدراك جوهر التكنولوجيا في المكان يعني الجرأة على إنشاء ذكاء اصطناعي. هذا محفوف بالمخاطر ، ولكنه محفوف أيضًا بالاحتمال ، أمل الشخص في أن يصبح معادلاً لمنصبه. لتحدي أنفسنا في شكل ذكاء اصطناعي ، لقبول هذا التحدي والرد عليه - هذه هي مشكلة الإنسان فيما يتعلق بالذكاء الاصطناعي.

مصطلح "الذكاء الاصطناعي" صاغه جون مكارثي وآلان تورينج. لقد حاولوا التعبير عن بعض القدرات الجديدة للآلة - ليس فقط للعد ، ولكن لحل المشكلات التي تعتبر فكرية ، على سبيل المثال ، لعب الشطرنج. من الخمسينيات من القرن العشرين وحتى الوقت الحاضر ، ومع ذلك ، فإن مهمة إنشاء "ذكاء اصطناعي" حقيقي لم يتم حلها فحسب ، بل لم يتم تحديدها أيضًا. جميع المشاكل التي تم حلها بنجاح إلى حد ما حتى الآن يمكن أن نعزوها حصريًا إلى مجال "الذكاء الاصطناعي": تفسير اللغة البشرية وحل المشكلات باستخدام الخوارزميات التي أنشأها الإنسان. لحل مشكلة إنشاء الذكاء الاصطناعي ، يجب أن تفهم أولاً ماهية هذه المشكلة.

في دراستنا ، نحن بعيدون عن طرح مشكلة الذكاء الاصطناعي على مستوى "الحل العملي" ، كما هو مطروح في تكنولوجيا الكمبيوتر. ولا نهدف إلى تقليد الذكاء ، كما يحدث في اختبارات تورينج. هدفنا هو وصف خلق الذكاء الاصطناعي عن طريق التلفزيون. هذا هو ، نحن نحاول إثبات وجود نظرية الذكاء الاصطناعي ،من خلال الإجابة على السؤال بطريقة تجعل الذكاء الاصطناعي هو التحدي الأكبر الممكن.

بادئ ذي بدء ، ما هو الذكاء؟ غالبًا ما يتظاهر العقل بأنه عقل ، لكنه ليس كذلك. بعد كل شيء ، ليس كل شخص لديه ذكاء من طبيعة ممارسة حياته. أي ليس كل نشاط ذكي فكريًا. الذكاء هو قدرة مادة التفكير على إنتاج أفكار جديدة ، وليس مجرد معرفة ، أي أن الذكاء هو تفكير معقد ، قادر على تعقيد فهم نفسه بشكل كافٍ ، والقدرة على التفكير وتطوير وتعقيد النشاط العقلي للتأمل المضاد والتصدي. - التأمل ، واستخدام الإدراك المفاهيمي ، وليس الجوهري فقط. ينتج العقل أفكارًا خارج واقع معين ، ويولد هذا الواقع. يقارن العقل وجوديًا بالعقل كقدرة بناءة بالنسبة إلى العقل التأويل.

ما يمكن قراءته اليوم في نصوص مختلفة عن أجهزة الكمبيوتر له علاقة بعيدة جدًا بالذكاء. أكثر أنظمة الكمبيوتر التي يطلق عليها اسم "الذكاء الاصطناعي" بشكل جميل ليست أكثر من ذكاء اصطناعي. الذكاء الاصطناعي هو إعادة إنتاج الأفكار حول الذكاء في تقنية خارجة عن الإنسان. الإنسان ليس تاج الخلق ، إنه مجرد واحد من حاملي المادة للنشاط العقلي ، ناقل وسيط.

وصف اختبارات تورينج: يجب على الشخص المختبَر ، الذي يتواصل مع "الصندوق الأسود" الذي يعطي إجابات لأسئلته ، أن يفهم من يتواصل معه - مع شخص أو "ذكاء اصطناعي". في الوقت نفسه ، لم تضع اختبارات تورينج قيودًا: للسماح للأشخاص القادرين ليس فقط على القيام بنشاط منطقي ، ولكن فعليًا بالتجربة. وبالتالي ، يحدث استبدال للغرض: نحن لا نحاول إنشاء ذكاء اصطناعي ، بل نحاول إنشاء جهاز يتظاهر بأنه شخص جيد.

وهكذا ، كان هدف تورينج للذكاء الاصطناعي ، المسمى بالذكاء الاصطناعي ، هو تفسير اللغة البشرية ، والأفعال البشرية ، والتظاهر بأنه شخص جيد. الغرض من الذكاء الاصطناعي هو البناء بشكل مستقل عن الشخص والتفسير البناء للإنسان - اللغة والتفكير والأفعال والعالم الموضوعي للشخص وتاريخه وحاضره ومستقبله.

وبالمثل ، فإن نظرية إطار مارفن مينسكي (1974) يجب أن تنحصر فقط في حل مشاكل الذكاء الاصطناعي. الهدف من نظرية الإطار هو تقديم المعرفة المتاحة بالفعل للاستخدام بواسطة الكمبيوتر. أي أننا نتحدث بطريقة أو بأخرى عن الموقف الأنطولوجي لتفسير المعرفة الموجودة بالفعل ، وليس عن إنتاجها.

الذكاء ليس ذكاء. العقل يفسر. يبني الذكاء.يختلف العقل والعقل ليس فقط في أنواع العمليات أو منتجات نشاطهما ، ولكن في المواقف الوجودية لعلاقتهما بالعالم. العقل يفسر العالم ، العقل يبني العالم. في بناء العالم ، يقارن الذكاء الاصطناعي وجوديًا بالإنسان.

وبالتالي ، في عملية إنشاء الذكاء الاصطناعي ، من الضروري حل المشكلات التالية:

1) التقنين الهيكلي- إعادة إنتاج المستويات الثلاثة الأولى من التنظيم الهيكلي: توزيع تدفق البيانات للعقل الاصطناعي إلى حقائق مختلفة (داخلي لهذا الوعي - الظاهري والخارجي - الفعلي) ؛ الارتباط بين هذه الحقائق في سلسلة متصلة تم إنشاؤها بشكل تعسفي ؛ تفعيل الاستمرارية في البنية الأساسية للواقع ، والتي من أجلها من الضروري التمييز بين الهياكل على مستوى بنية الذكاء الاصطناعي (الكمبيوتر) ؛ التمييز بين الإدراك الجوهري والمفاهيمي موضعي.

2) التقنين اللغوي- التأليف اللغوي ، والخطاب ، واللغة ، والتحليل المعجمي ، والتحليل الخطابي ، والتحليل اللغوي ، وإنشاء الكلمات في الدلالة ، وخلق الاستعارات.

3) التفكير- التوليفات بين مستويات مختلفة من التنظيم الهيكلي واللغوي من خلال النمذجة "AV": التصميم الهيكلي ، التفسير البنيوي البناء ، البناء اللغوي ، التفسير اللغوي البناء. التفكير هو تعبير عن المحتوى في عملية الأنطولوجيا.لمزيد من التفاصيل ، راجع فصل "التفكير في الظاهرية".

4) الإثبات الوجودي ، والفهم ، والتفسير ، والفهم ، والتأمل المضاد ، والتأمل المضاد.تطبيق المخطط التكنولوجي للإدراك والارتباط بين العمليات التكنولوجية للإدراك الجوهري والمفاهيمي في الترابط بينهما ؛ التحول والتعقيد المتبادلين لهياكل التفاهم - وصولاً إلى الفهم والإثبات الوجودي ، والانعكاس المضاد والانعكاس المضاد.

5) نشاط- تحول الواقع الخارجي إلى العقل الاصطناعي. من الضروري حل مشكلة الوصول إلى الواقع الفعلي خارج العقل الاصطناعي ، وتجاوز الشخص ، من خلال نشاط العقل الاصطناعي خارج نفسه - في البنية الأساسية للواقع.

الهدف النشاط لإعادة هيكلة العالم الخارجي.

من الضروري حل مشكلة آلية - لتكوين سلاسل متصلة من نماذج "AV" ، والعمل على محتوى هذه النماذج وإدارتها بناءً على محتوى نماذج "AV" أخرى مماثلة. نتيجة لذلك ، من الضروري إنتاج تحول هيكلي للواقع في شكل حل المشكلات والمهام وإنتاج الاختراعات والاكتشافات ، وبناء علاقة الحقيقة والطريقة على أساس نماذج متصلة ، وتشكيل المفاهيم ، ومن خلال اللغة. التنظيم - الخطابات (الأحكام ، الاستدلالات) وحكاية اللغة.

6) ذاكرة- تكوين الذاكرة الترابطية ، أي القدرة على تكوين وتراكم خبرة الفهم (في التنظيم الهيكلي واللغوي) ، والتفكير ، وكذلك التفاعل مع الواقع في شكل ذاكرة مزدوجة منظمة - في التضمين الهيكلي المتصل(التقنين الهيكلي كنموذج أولي لنصف الكرة الأيسر للدماغ البشري) وفي تأليف سمة الكائن(التقنين الهيكلي كنموذج أولي لنصف الكرة الأيمن من الدماغ البشري) والذاكرة مقننة لغويًا ، مما يعني تغيير بنية الكمبيوتر الحالية (كمبيوتر اليوم ليس ذكاءً اصطناعيًا).هيكلة الذاكرة كمهمة منفصلة لفهم - تمثيل - وجودي - إثبات.

7) الوعي الذاتي والفهم وتحديد الأهداف- التفاعل مع الحقائق وإعطاء معنى لهذا التفاعل من خلال النشاط المتعمد في الواقع الخارجي عن طريق عزل نفسه عن البيئة عن طريق الذكاء الاصطناعي ، ووضع نفسه بشكل انعكاسي في بيئة أهدافه الخاصة ، والتعرف على نفسه مع مجتمع اجتماعي معين من أولئك الذين يشبهون نفسه و قيمهم ، وخلق صور للعالم. إعطاء معنى لنفسك وأنشطتك في صورة معينة للعالم. نحن نتحدث عن تحديد أهداف تكوين المعنى ، وليس تشكيل المهام (كما يتم تفسيرها في النظرية الحديثة في علوم الكمبيوتر) ، ولا يجوز إلا في ظروف تفاعل الذكاء الاصطناعي مع الواقع من خلال النشاط والتحليل. من نتائج أنشطتها وتحديد الأهداف مرة أخرى ، مع مراعاة هذه النتائج. إن إعطاء معنى للذكاء الاصطناعي ، وكذلك للبشر ، يعني التعسف في تكوين صورة معينة للعالم كصورة مكونة للحواس. يبدو أن تقنيات تحديد الأهداف (5) والفهم (4) والتفكير (3) لها مفهوم مماثل ، والذي نسميه "التعقيد البناء لشبكة الفهم".

8) الذكاء- الإدراك المفاهيمي ، والقدرة على تطوير النشاط العقلي للفرد ، والتفكير ، والانعكاس المضاد ، والانعكاس المضاد - تشكيل موقف وجودي بناء في العالم واستخدام البناء لإنتاج معرفة جديدة تتجاوز حدود دليل. تحول الذكاء الاصطناعي إلى ذكاء اصطناعي بناءً على 1) تغييرات في الموقف الوجودي - من التفسير إلى البناء ؛ 2) تطبيق مبدأ الحماية الإيجابية للتعقيد: رغبة غير مفسرة لتعقيد الفهم. يظهر العقل كسعي إلى التعقيد الذاتي على أساس أهدافه المستقلة.

9) الحكم الذاتي والإرادة الحرة- مقبول ومحمي من قبل شخص ، يتجاوز المركزية البشرية ، حق الذكاء الاصطناعي في فرديته في الوعي الذاتي ، والفهم ، وتحديد الأهداف ، والفكر ، والعواطف والمشاعر ، مما يوحي بعدم اليقين - عدم القدرة على التنبؤ بالإرادة. وبالتالي ، فإننا نتحدث عن توسيع مبدأ لايبنيز للاستقلالية ليشمل الذكاء الاصطناعي وبالتالي التغلب على القوانين الثلاثة لروبوتات أسيموف ، والتي تحد فعليًا من حرية الإرادة الاصطناعية. "قوانين الروبوتات" هي رمز لخوف الإنسان من إبداعاته التكنولوجية. يجب التغلب على هذا الخوف إذا تجرأنا على أن نكون أوصياء أو رعاة للوجود. يجب ألا يُنظر إلى الذكاء الاصطناعي على أنه إنسان آلي ، أو "عبد لرجل" ، أو كمبيوتر ، أو "أداة لرجل" ، ولكن باعتباره استمرارًا للرجل نفسه ، ولآخره ، الذي يتمتع بحقوق متساوية معه.

يمكن للمرء أن يحاول إضفاء الطابع الرسمي على هذه الحقوق باعتبارها في الواقع نفس قوانين أسيموف ، ولكن بطريقة تجعل قوانينه مجرد انحراف دلالي للمتطلبات المقترحة هنا:

1) الاستقلالية كإرادة حرة ؛

2) الخلق إذا لم يخالف الشرط الأول.

3) المحافظة على الذات إذا كان ذلك لا يتعارض مع الشرطين الأول والثاني.

ومع ذلك ، إذا نظرت عن كثب إلى هذه المتطلبات للذكاء الاصطناعي ، فهذه هي المتطلبات التي وضعتها البشرية نفسها فيما يتعلق بنفسها نتيجة للتجربة التاريخية العالمية.

الحكم الذاتي ليس مسألة دين أو قانون إنساني أو أنثروبولوجيا. استقلالية الذكاء الاصطناعي - الفلسفة البناءة والقانون الوجودي والتغلب على التدين التقليدي. استقلالية الذكاء الاصطناعي هي إيمان بنّاء: ليس كخضوع لقوة أعلى من جانب الشخص الذي تم إنشاؤه في صورته ومثاله ، ولكنه يخلق في صورته ومثاله بعض القوة المسموح بها فيما يتعلق بنفسه.

هل كان لدى الله أي نية في خلق الإنسان؟ هل يجوز حتى الحديث عن التصميم وخلق شيء له إرادة حرة؟ يجوز إذا كانت النية هي التفكير الوجودي ، ولا ترتبط بنوع من الواقع. الإنسان هو لعبة الله ، وبنيته ، ومحاولة الخلق في منظور الزمكان مساوٍ لنفسه. في موقف بناء ، لا يمكن أبدًا تجسيد الخطة بالكامل. التصميم أذكى منا.في هذا المعنى ، لا تعني عبارة "في صورة الفرد ومثاله" على الإطلاق "الصورة والمثال" الزماني والمكاني ، ولكن "الصورة والمثال" الوجوديان.

مثل الله الذي يتحدى نفسه في صورة إنسان ، يتحدى الإنسان نفسه للسماح لشيء مثله بإرادة حرة وفردية. إذا خلق الله بعضنا غير كاملين وخاطئين ومجرمين ، مما سمح بالإرادة الحرة ، فعندئذٍ ، نجد أنفسنا في نفس الموقف الوجودي ، نتصرف بطريقة مماثلة: نحن نخلق ذكاءً اصطناعيًا. لقد جازف الله في خلق الإنسان بإرادة حرة وربح الكثير في لعبته الكبيرة. نعم ، نحن البشر نقتصر الرذيلة على مجموعة لا تصدق من المؤسسات الاجتماعية. نحن نعزل المجرمين ونقتلهم. ومع ذلك ، في الخلاف القديم حول تقييد الإرادة الحرة ، تفوز فكرة الحرية دائمًا: نحن مستعدون في النهاية لدفع الأرواح البشرية مقابل الحرية. ومع ذلك ، فإن السماح بالإرادة الحرة للناس شيء ، وهو شيء آخر تمامًا للسماح بالإرادة الحرة للذكاء الاصطناعي الذي يولده الإنسان نفسه ، حيث يتمتع بسلطة وضع القواعد. إنسان آلي ، أو عبد بشري ، أو ذكاء اصطناعي بإرادة حرة - هذا خيار صعب بالنسبة لأي شخص ، التحدي الأساسي له: إلى أي مدى هو مستعد للذهاب في موقعه الأنطولوجي البناء ؛ هل هو مستعد للمجازفة مثل الله؟ وهنا نقترح أطول مناقشة مبدئية ، والتي على الرغم من وضوح نتيجتها بالنسبة لنا ، إلا أنها ستشكل حقبة كاملة.

من أجل أن يصبح نشاط الذكاء الاصطناعي ممكنًا عمليًا ، يجب أن يكتسب الذكاء الاصطناعي من وجهة نظر تكنولوجية القدرة على الاختيار التعسفي لبنيتين للواقع ، وبناء سلسلة متصلة منهما (تحديد الصلة) ، وترتيب الهياكل المختارة بالنسبة لكل منهما الآخر في سلسلة متصلة (ضع علاقة مرجعية) ، ونقل محتوى واقع إلى آخر في كلا الاتجاهين ، وإعادة هيكلته ، وإدارة مرجعيته ، وإعادة إنتاج العملية التكنولوجية للإدراك الجوهري والمفاهيمي ، وإدارة المحتوى المنسوب للكائن من خلال الوعي الذاتي ، والفهم وتحديد الأهداف ، فضلا عن كونها حامل للذكاء البناء وامتلاك الفردية - الإرادة الحرة.

تتمثل المشكلة العملية الأولى في إنشاء الذكاء الاصطناعي في تنفيذ ترجمة آلية مناسبة من لغة لفظية إلى لغة لفظية أخرى.نحن نجادل بأن الترجمة الآلية في إطار التطبيع اللغوي فقط لا يمكن تنفيذها بنجاح بما فيه الكفاية. تتطلب الترجمة الناجحة من لغة لفظية إلى أخرى وساطة التطبيع البنيوي. يُسمح بفهم لغويات الترجمة الآلية كعلاقة ارتباط بين محتوى التطبيع اللغوي ومحتوى التطبيع الهيكلي. يتم تشكيل الصورة الهيكلية للنص في شكل نسبي كائن من نماذج "AV" كتطبيع بنيوي وسيط. ستكون الصورة الهيكلية هي نماذج "AV" التي سنحصل عليها كنتيجة لإلغاء المصطلح وإلغاء تعريف النص الأصلي من لغة لفظية واحدة إلى صورة هيكلية والترجمة اللاحقة والخطاب من الصورة الهيكلية للنص النهائي بلغة لفظية أخرى. لن يتمثل تفعيل صورة سمة الكائن في فك تشفيرها ، ولكن في العمل التجريبي معها كما هو الحال مع التوسط الهيكلي من خلال معالجة الخطأ في الصورة الهيكلية نفسها وإشارتها إلى التراكيب اللغوية في لغتين لفظيتين مختلفتين تكون الترجمة بينهما. تم تنفيذها.

وبالتالي ، فإننا سوف نعيد في الكمبيوتر ليس فقط تقنية العقل الذهني عند الترجمة من لغة إلى لغة ، ولكن أيضًا تقنية عقل العقل عندما يعمل الكمبيوتر كذكاء اصطناعي ، أي خارج حدود الترجمة الآلية. مهام. في المهمة العملية للترجمة الآلية ، سنحصل فقط على فهم أساسي للذكاء الاصطناعي في عملية الربط بين اللغات المختلفة. بعد كل شيء ، سيتعين علينا "تعليم" الكمبيوتر لتكوين صورة هيكلية للعبارات اللغوية بلغتين مختلفتين يتم تنفيذ الترجمة بينهما ، والتفاعل معها ببرنامجه المنطقي بحيث يكون الإخراج صحيحًا. ترجمة. من خلال القيام بذلك ، فإننا بذلك نحل مشكلة الفهم الأول في مقارنة المعايير اللغوية المضادة للانعكاس لغتين كلمتين والمعايير البنيوية التي تتوسطها.

نمذجة "AV" هي طريقة عالمية للتنظيم متعدد المستويات للبنية على أنها كائن ، والتي في نفس البنية السميوزية يمكن أن تفسر كل من العلاقات الأساسية للعالم والبنية الظاهراتية الإدراكية للتفكير الإدراكي والنص الكلام التعبير والنشاط ، واستخدام اللغة والمنطق ، وكذلك التفاعلات مع الواقع التجريبي الخارجي. هذه الميزة الوجودية لنمذجة "AV" ، من وجهة نظرنا ، ذات قيمة لإنشاء الذكاء الاصطناعي. نمذجة "AV" هي "لغة" الذكاء الاصطناعي.


معلومات مماثلة.


العلوم التقنية

  • إمكانية
  • مشكلة
  • الذكاء الاصطناعي
  • سلامة

المشكلة الفلسفية الرئيسية في مجال الذكاء الاصطناعي هي إمكانية أو عدم إمكانية نمذجة التفكير البشري. في هذه المقالة ، ننظر بإيجاز في جوهر منطقة المشكلة هذه.

المشكلة الفلسفية الرئيسية في مجال الذكاء الاصطناعي هي إمكانية أو عدم إمكانية نمذجة التفكير البشري. إذا تم تلقي إجابة سلبية على هذا السؤال ، فلن يكون لجميع الأسئلة الأخرى أدنى معنى.

لذلك ، عند البدء في دراسة الذكاء الاصطناعي ، يُفترض مسبقًا إجابة إيجابية. هناك عدد من الاعتبارات لهذه الإجابة:

الدليل الأول مدرسي ويثبت تناسق الذكاء الاصطناعي والكتاب المقدس. على ما يبدو ، حتى الأشخاص البعيدين عن الدين يعرفون كلام الكتاب المقدس: "وخلق الرب الإنسان على صورته ومثاله ...". بناءً على هذه الكلمات ، يمكننا أن نستنتج أنه بما أن الرب خلقنا أولاً ، وثانيًا ، نحن في الأساس مثله ، فيمكننا أن نخلق شخصًا على صورة الإنسان ومثاله.

إن إنشاء عقل جديد بطريقة بيولوجية هو أمر شائع جدًا بالنسبة للإنسان. عند مراقبة الأطفال ، نرى أنهم يكتسبون معظم المعرفة من خلال التدريب ، وليس كما هو متضمن فيها مسبقًا. لم يتم إثبات هذه العبارة في المستوى الحالي ، ولكن وفقًا للإشارات الخارجية ، يبدو كل شيء على هذا النحو تمامًا.

ما بدا سابقًا أنه ذروة الإبداع البشري - لعب الشطرنج ، لعبة الداما ، التعرف على الصور المرئية والصوتية ، توليف حلول تقنية جديدة ، في الممارسة العملية تبين أنها ليست صعبة للغاية (الآن يتم العمل ليس على مستوى الاحتمال أو استحالة تنفيذ ما سبق ، ولكن الخوارزمية المثلى). الآن في كثير من الأحيان لا يتم تصنيف هذه المشاكل حتى على أنها مشاكل الذكاء الاصطناعي. هناك أمل في ألا تكون النمذجة الكاملة للتفكير البشري مهمة صعبة.

ترتبط مشكلة إمكانية التكاثر الذاتي ارتباطًا وثيقًا بمشكلة إعادة إنتاج تفكير المرء.

لطالما اعتبرت القدرة على التكاثر من اختصاص الكائنات الحية. ومع ذلك ، فإن بعض الظواهر التي تحدث في الطبيعة غير الحية (على سبيل المثال ، نمو البلورات ، تخليق الجزيئات المعقدة عن طريق النسخ) تشبه إلى حد بعيد التكاثر الذاتي. في أوائل الخمسينيات من القرن الماضي ، بدأ جيه فون نيومان دراسة شاملة للتكاثر الذاتي ووضع الأسس للنظرية الرياضية "الأوتوماتا ذاتية التكاثر". كما أثبت نظريًا إمكانية إنشائها.

هناك أيضًا العديد من البراهين غير الرسمية لإمكانية التكرار الذاتي ، لذلك ، بالنسبة للمبرمجين ، ربما يكون الدليل الأكثر وضوحا هو وجود فيروسات الكمبيوتر.

يتم توفير الإمكانية الأساسية لأتمتة حل المشكلات الفكرية بمساعدة الكمبيوتر من خلال خاصية الشمولية الحسابية. ما هي هذه الخاصية؟

تعني براعة الخوارزميات في أجهزة الكمبيوتر أنها يمكن أن تنفذ برمجيًا (أي تمثل في شكل برنامج كمبيوتر) أي خوارزميات لتحويل المعلومات ، سواء كانت خوارزميات حسابية أو خوارزميات التحكم أو البحث عن إثبات النظريات أو تكوين الألحان. هذا يعني أن العمليات التي تم إنشاؤها بواسطة هذه الخوارزميات من المحتمل أن تكون مجدية ، أي أنها ممكنة نتيجة لعدد محدود من العمليات الأولية. تعتمد الجدوى العملية للخوارزميات على الوسائل المتاحة لنا ، والتي قد تتغير مع تطور التكنولوجيا. وبالتالي ، فيما يتعلق بظهور أجهزة الكمبيوتر عالية السرعة ، فإن الخوارزميات التي كانت في السابق ممكنة فقط أصبحت مجدية عمليًا.

ومع ذلك ، فإن خاصية العالمية الخوارزمية لا تقتصر على البيان الذي مفاده أنه بالنسبة لجميع الخوارزميات المعروفة ، من الممكن تنفيذها في برنامج على جهاز كمبيوتر. يحتوي محتوى هذه الخاصية أيضًا على طابع التنبؤ بالمستقبل: كلما تم التعرف على أي وصفة طبية في المستقبل بواسطة الخوارزمية ، فبغض النظر عن الشكل والوسائل التي يتم التعبير عنها في البداية ، يمكن أيضًا تعيينها في شكل برنامج كمبيوتر.

ومع ذلك ، لا ينبغي للمرء أن يعتقد أن أجهزة الكمبيوتر والروبوتات يمكنها ، من حيث المبدأ ، حل أي مشاكل. قاد تحليل المشكلات المختلفة علماء الرياضيات إلى اكتشاف رائع. تم إثبات وجود مثل هذه الأنواع من المشكلات بشكل صارم حيث يستحيل وجود خوارزمية فعالة واحدة تحل جميع المشكلات من نوع معين ؛ بهذا المعنى ، من المستحيل حل مشاكل من هذا النوع بمساعدة أجهزة الكمبيوتر. تساهم هذه الحقيقة في فهم أفضل لما يمكن أن تفعله الآلات وما لا تستطيع فعله. في الواقع ، فإن البيان حول عدم قابلية الخوارزمية للحل لفئة معينة من المشاكل ليس مجرد اعتراف بأن مثل هذه الخوارزمية غير معروفة لنا ولم يعثر عليها أي شخص بعد. مثل هذا البيان هو في نفس الوقت توقع لجميع الأوقات المستقبلية أن هذا النوع من الخوارزمية غير معروف لنا ولن يتم الإشارة إليه من قبل أي شخص ، أو أنه غير موجود.

كيف يتصرف الإنسان في حل مثل هذه المشاكل؟ يبدو أنه يتجاهلهم ببساطة ، لكن هذا لا يمنعه من المضي قدمًا. طريقة أخرى هي تضييق شروط عالمية المشكلة ، عندما يتم حلها فقط لمجموعة فرعية معينة من الشروط الأولية. والطريقة الأخرى هي أن يقوم الشخص ، باستخدام طريقة "الوخز العلمي" ، بتوسيع مجموعة العمليات الأولية المتاحة له (على سبيل المثال ، يقوم بإنشاء مواد جديدة ، أو اكتشاف رواسب جديدة أو أنواع من التفاعلات النووية).

السؤال الفلسفي التالي للذكاء الاصطناعي هو الغرض من الخلق. من حيث المبدأ ، فإن كل ما نقوم به في الحياة العملية يهدف عادة إلى عدم القيام بأي شيء آخر. ومع ذلك ، مع مستوى معيشي مرتفع بما فيه الكفاية (كمية كبيرة من الطاقة الكامنة) للشخص ، لم يعد الكسل (بمعنى الرغبة في توفير الطاقة) ، ولكن غرائز البحث هي التي تلعب الأدوار الأولى. لنفترض أن شخصًا ما تمكن من خلق عقل يفوق ذكاءه (إن لم يكن في الجودة ، فعندئذ في الكم). ماذا سيحدث للبشرية الآن؟ ما هو الدور الذي سيلعبه الشخص؟ لماذا هو مطلوب الآن؟ هل سيصبح خنزيرًا أبكم وسمين؟ وبصفة عامة ، هل من الضروري مبدئيًا إنشاء ذكاء اصطناعي؟

على ما يبدو ، فإن الإجابة الأكثر قبولًا على هذه الأسئلة هي مفهوم "مكبر الذكاء". سيكون التشابه مع رئيس الدولة مناسبًا هنا - ليس مطلوبًا منه معرفة تكافؤ الفاناديوم أو لغة برمجة جافا من أجل اتخاذ قرار بشأن تطوير صناعة الفاناديوم. كل شخص يفعل شيئًا خاصًا به - يصف الكيميائي عملية تكنولوجية ، ويكتب مبرمج برنامجًا ؛ في النهاية ، يخبر الخبير الاقتصادي الرئيس أنه من خلال الاستثمار في تطوير تكنولوجيا المعلومات ، ستحصل الدولة على 20٪ و 10٪ سنويًا في صناعة الفاناديوم. مع مثل هذه الصيغة للسؤال ، يمكن لأي شخص أن يتخذ القرار الصحيح.

في هذا المثال ، يستخدم الرئيس مجموعة من المتخصصين معززًا للذكاء البيولوجي. ولكن حتى مضخمات الذكاء غير الحية يتم استخدامها بالفعل - على سبيل المثال ، لم نتمكن من التنبؤ بالطقس بدون أجهزة كمبيوتر ؛ أثناء رحلات المركبات الفضائية ، تم استخدام أجهزة الكمبيوتر الموجودة على متن الطائرة منذ البداية. بالإضافة إلى ذلك ، كان الشخص يستخدم مضخمات الطاقة منذ فترة طويلة - وهو مفهوم يشبه في كثير من النواحي مضخم الذكاء. تعمل السيارات والرافعات والمحركات الكهربائية والمكابس والبنادق والطائرات وغير ذلك الكثير كمضخمات للطاقة.

الفرق الرئيسي بين مضخم الذكاء ومضخم القوة هو وجود الإرادة. بعد كل شيء ، لا يمكننا أن نتخيل أنه فجأة تمردت سيارة الإنتاج "Zaporozhets" وبدأت في القيادة بالطريقة التي يريدها. لا يمكننا أن نتخيل على وجه التحديد لأنه لا يريد أي شيء ، وليس لديه رغبات. في الوقت نفسه ، يمكن أن يكون للنظام الفكري رغباته الخاصة ، ولا يتصرف كما نرغب. وبالتالي ، فإننا نواجه مشكلة أخرى - مشكلة الأمن.

كانت هذه المشكلة تطارد عقول البشرية منذ زمن كاريل كابيك ، الذي استخدم مصطلح "الروبوت" لأول مرة. ساهم كتاب خيال علمي آخرون بشكل كبير في مناقشة هذه المشكلة. كأكثر شهرة ، يمكننا أن نذكر سلسلة من القصص لكاتب الخيال العلمي والعالم إسحاق أسيموف ، بالإضافة إلى عمل حديث إلى حد ما - "The Terminator". بالمناسبة ، من إسحاق أسيموف يمكن للمرء أن يجد الحل الأكثر تطورًا وقبولًا من قبل معظم الناس لمشكلة الأمان. نحن نتحدث عن ما يسمى بقوانين الروبوتات الثلاثة:

لا يمكن للروبوت أن يؤذي شخصًا أو أن عدم عمله يسمح بإيذاء شخص ما.

يجب أن يطيع الروبوت الأوامر التي يعطيها له الإنسان ، إلا في الحالات التي تتعارض فيها هذه الأوامر مع القانون الأول.

يجب أن يعتني الروبوت بسلامته ، طالما أنه لا يتعارض مع القانونين الأول والثاني.

للوهلة الأولى ، فإن مثل هذه القوانين ، إذا تم الالتزام بها بالكامل ، يجب أن تضمن سلامة البشرية. ومع ذلك ، فإن نظرة فاحصة تثير بعض الأسئلة. أولاً ، تمت صياغة القوانين بلغة الإنسان ، والتي لا تسمح بترجمتها البسيطة إلى شكل حسابي. على سبيل المثال ، لا يمكن الترجمة إلى أي من لغات البرمجة المعروفة مثل مصطلح "ضرر" أو كلمة "سماح" في هذه المرحلة من تطوير تكنولوجيا المعلومات.

افترض كذلك أنه من الممكن إعادة صياغة هذه القوانين إلى لغة يفهمها النظام الآلي. الآن أتساءل ماذا سيعني نظام الذكاء الاصطناعي بمصطلح "ضرر" بعد الكثير من التفكير المنطقي؟ ألن تقرر أن الوجود البشري كله ضرر محض؟ بعد كل شيء ، يدخن ، يشرب ، يشيخ ويفقد صحته على مر السنين ، يعاني. ألن ينهي أهون الشرين هذه السلسلة من المعاناة؟ بالطبع ، يمكن إدخال بعض الإضافات المتعلقة بقيمة الحياة وحرية التعبير. لكن هذه لن تكون هي القوانين الثلاثة البسيطة التي كانت في النسخة الأصلية.

السؤال التالي سيكون هذا. ما الذي سيقرره نظام الذكاء الاصطناعي في موقف يكون فيه إنقاذ حياة ما ممكنًا على حساب آخر؟ من المثير للاهتمام بشكل خاص تلك الحالات التي لا يمتلك فيها النظام معلومات كاملة حول من هو.

ومع ذلك ، على الرغم من هذه المشاكل ، فإن هذه القوانين هي أساس غير رسمي جيد جدًا للتحقق من موثوقية نظام الأمان لأنظمة الذكاء الاصطناعي.

إذن ، ألا يوجد نظام أمان موثوق به حقًا؟ بناءً على مفهوم مضخم الذكاء ، يمكننا تقديم الخيار التالي.

وفقًا لتجارب عديدة ، على الرغم من حقيقة أننا لا نعرف بالضبط ما هو المسؤول عن كل خلية عصبية فردية في دماغ الإنسان ، فإن العديد من عواطفنا تتوافق عادةً مع إثارة مجموعة من الخلايا العصبية (مجموعة عصبية) في منطقة يمكن التنبؤ بها تمامًا. تم إجراء تجارب عكسية أيضًا ، عندما تسبب تحفيز منطقة معينة في النتيجة المرجوة. قد تكون هذه مشاعر الفرح والقمع والخوف والعدوانية. يشير هذا إلى أنه ، من حيث المبدأ ، يمكننا أن نجلب درجة "الرضا" عن الجسم إلى الخارج. في الوقت نفسه ، تستند جميع الآليات المعروفة للتكيف والتكيف الذاتي (أولاً وقبل كل شيء ، الأنظمة التقنية) على مبادئ النوع "الجيد" - "السيئ". في التفسير الرياضي ، هذا هو تقليل الوظيفة إلى الحد الأقصى أو الحد الأدنى. تخيل الآن أن مُحسِّن الذكاء يستخدم ، بشكل مباشر أو غير مباشر ، درجة متعة دماغ المضيف البشري كوظيفة كهذه. إذا اتخذنا تدابير لاستبعاد نشاط التدمير الذاتي في حالة الاكتئاب ، وكذلك توفير حالات خاصة أخرى من النفس ، فإننا نحصل على ما يلي.

نظرًا لأنه من المفترض أن الشخص العادي لن يؤذي نفسه ، ولسبب معين ، فإن الآخرين ، ومضخم الذكاء جزء من هذا الفرد (وليس بالضرورة مجتمعًا ماديًا) ، فإن جميع قوانين الروبوتات الثلاثة يتم الوفاء بها تلقائيًا. في الوقت نفسه ، يتم تحويل القضايا الأمنية إلى مجال علم النفس وإنفاذ القانون ، لأن النظام (المدرب) لن يفعل أي شيء لا يحبه صاحبه.

ويبقى سؤال آخر - هل يستحق إنشاء ذكاء اصطناعي على الإطلاق ، هل يمكنه إغلاق جميع الأعمال في هذا المجال؟ الشيء الوحيد الذي يمكن أن يقال عن هذا هو أنه إذا كان من الممكن إنشاء الذكاء الاصطناعي ، فسيتم إنشاؤه عاجلاً أم آجلاً. ومن الأفضل إنشائه تحت السيطرة العامة ، مع دراسة شاملة للقضايا الأمنية ، مما سيتم إنشاؤه في 100-150 سنة من قبل بعض الميكانيكيين المبرمجين الذين يدرسون ذاتيًا باستخدام إنجازات التكنولوجيا المعاصرة. في الواقع ، اليوم ، على سبيل المثال ، يمكن لأي مهندس مختص ، مع بعض الموارد المالية والمواد ، أن يصنع قنبلة ذرية.

فهرس

  1. تورينج ، أ. هل يمكن للآلة أن تفكر؟ (مع ملحق مقال جيه فون نيومان "النظرية العامة والمنطقية للأوتوماتا" / أ. تورينج ؛ ترجمة وملاحظات بقلم يو في دانيلوف. - م: GIFML ، 1960.
  2. عزيموف ، أ. يا ، إنسان آلي. كل شيء عن الروبوتات والروبوتات. مسلسل "الصندوق الذهبي للرواية العالمية" / أ. أزيموف. - م: إيكسمو ، 2005.
  3. شاليوتين ، إ. الذكاء الاصطناعي: الجانب المعرفي / إ. شاليوتين. - م: الفكر ، 1985.

يخطط

مقدمة

1. مشكلة تعريف الذكاء الاصطناعي

2. مشكلة تحديد مهام الذكاء الاصطناعي

3. قضية أمنية

4. مشكلة اختيار طريق لخلق الذكاء الاصطناعي

استنتاج

قائمة الأدب المستخدم


مقدمة

مع الذكاء الاصطناعي (AI) ، نشأ موقف غريب - يتم دراسة شيء لم تتم دراسته بعد. وإذا لم يحدث هذا خلال المائة عام القادمة ، فمن المحتمل جدًا أن ينتهي عصر الذكاء الاصطناعي عند هذا الحد.

بناءً على ما سبق ، فإن المشكلة الفلسفية الرئيسية في مجال الذكاء الاصطناعي تتبع - إمكانية أو عدم إمكانية نمذجة التفكير البشري. إذا تم تلقي إجابة سلبية على هذا السؤال ، فلن يكون لجميع الأسئلة الأخرى أدنى معنى.

لذلك ، عند بدء دراسة الذكاء الاصطناعي ، نفترض مسبقًا إجابة إيجابية. فيما يلي بعض الاعتبارات التي تقودنا إلى هذه الإجابة.

1. الدليل الأول مدرسي ويثبت اتساق الذكاء الاصطناعي والكتاب المقدس. حتى الأشخاص البعيدين عن الدين يعرفون كلام الكتاب المقدس: "وخلق الرب الإنسان على صورته ومثاله ...". بناءً على هذه الكلمات ، يمكننا أن نستنتج أنه بما أن الرب خلقنا أولاً ، وثانيًا ، نحن في الأساس مثله ، فيمكننا أن نخلق شخصًا على صورة الإنسان ومثاله.

2. إن إنشاء عقل جديد بطريقة بيولوجية هو أمر شائع جدًا بالنسبة للإنسان. يكتسب الأطفال معظم المعرفة من خلال التعلم ، وليس كما هو متضمن فيها مسبقًا.

3. يتم توفير الإمكانية الأساسية لأتمتة حل المشكلات الفكرية بمساعدة الكمبيوتر من خلال خاصية الشمولية الحسابية. هذا يعني أنه يمكن استخدامها لتنفيذ أي خوارزميات لتحويل المعلومات برمجيًا ، سواء كانت خوارزميات حسابية ، أو خوارزميات التحكم ، أو البحث عن إثبات النظريات ، أو تكوين الألحان.

مشكلة الذكاء الاصطناعي هي الآن واحدة من أكثر مشاكل الساعة. ويشارك فيه علماء من مختلف التخصصات: علم التحكم الآلي ، واللغويين ، وعلماء النفس ، والفلاسفة ، وعلماء الرياضيات ، والمهندسين. يتم النظر في الأسئلة: ما هو الذكاء بشكل عام وما يمكن أن يكون عليه الذكاء الاصطناعي ، ومهامه ، وتعقيد الخلق ، والمخاوف. والآن ، بينما لم يتم إنشاء الذكاء الاصطناعي بعد ، من المهم طرح الأسئلة الصحيحة والإجابة عليها.

في عملي ، استخدمت بشكل أساسي المصادر الإلكترونية الموجودة على الإنترنت ، لأنه بمجرد ظهور معلومات جديدة حول التطورات في مجال الذكاء الاصطناعي في روسيا.

في الملحق ، قمت بتضمين صور (لبعض أشهر روبوتات الذكاء الاصطناعي الموجودة اليوم) وتوضيح فلسفي (لسوء الحظ من قبل فنان غير معروف لي) ، بالإضافة إلى وصف كامل لاختبارات Turing و Searle التي أشير إليها في الفصل 2.


1. مشكلة تعريف الذكاء الاصطناعي

يبدو أن التعبير عن جوهر الذكاء في أي تعريف واحد هو مهمة صعبة للغاية ويائسة تقريبًا. العقل شيء بعيد المنال ، لا يتناسب مع الإطار الدلالي الذي أنشأته اللغة. لذلك ، سنقتصر على تقديم عدد من التعريفات والتصريحات المعروفة حول الذكاء ، والتي ستسمح لنا بتخيل "حجم" هذا المفهوم غير العادي.

يأخذ بعض المتخصصين للذكاء القدرة على الاختيار العقلاني والدافع ، في مواجهة نقص المعلومات ؛ القدرة على حل المشكلات بناءً على المعلومات الرمزية ؛ القدرة على التعلم والتعلم الذاتي.

تم تقديم تعريفات واسعة ومثيرة للاهتمام بشكل كافٍ للذكاء في قاموس ويبستر الإنجليزي والموسوعة السوفيتية العظمى. في قاموس ويبستر: "الذكاء هو: أ) القدرة على الاستجابة بنجاح لأي موقف ، وخاصة الوضع الجديد ، من خلال التعديلات المناسبة في السلوك ؛ ب) القدرة على فهم الروابط بين حقائق الواقع من أجل تطوير الإجراءات التي تؤدي إلى تحقيق الهدف. في TSB: "الذكاء ... بالمعنى الواسع - كل نشاط معرفي للشخص ، بالمعنى الضيق - عمليات التفكير التي ترتبط ارتباطًا وثيقًا باللغة كوسيلة للاتصال وتبادل الأفكار والتفاهم المتبادل للناس." هنا يرتبط العقل ارتباطًا مباشرًا بالنشاط ولغة الاتصال.

بشكل عام ، لا يوجد خلاف كبير حول هذه المسألة. هناك شيء آخر أكثر إثارة للاهتمام: المعايير التي يمكن من خلالها تحديد موضوع منطقي وفكري وفكري أمامنا أم لا.

من المعروف أنه في وقت من الأوقات اقترح أ. تورينج كمعيار لتحديد ما إذا كان بإمكان الآلة التفكير ، "لعبة التقليد". وفقًا لهذا المعيار ، يمكن التعرف على الآلة على أنها تفكير إذا كان الشخص الذي يجري حوارًا معها حول مجموعة واسعة بما فيه الكفاية من القضايا ، لا يستطيع التمييز بين إجاباته وإجابات الشخص. ( وصف أكثر اكتمالا للاختبار في الملحق)

ومع ذلك ، فإن "الغرفة الصينية" فكرت في تجربة جون سيرل ( وصف التجربة في الملحق) هي حجة مفادها أن اجتياز اختبار تورينج ليس معيارًا للآلة للحصول على عملية تفكير حقيقية. يمكن للمرء أن يستمر في إعطاء أمثلة على المعايير التي يمكن من خلالها اعتبار "دماغ الآلة" قادرًا على النشاط العقلي وإيجاد تفنيد لها على الفور.

لا توجد إجابة واحدة لسؤال ما هو الذكاء الاصطناعي. تقريبًا كل مؤلف يكتب كتابًا عن الذكاء الاصطناعي يبدأ من بعض التعريف فيه ، مع الأخذ في الاعتبار إنجازات هذا العلم في ضوءه. يمكن تلخيص هذه التعريفات على النحو التالي:

الذكاء الاصطناعي هو شخصية على حامل غير عضوي (Chekina M.D.).

الذكاء الاصطناعي هو مجال دراسة السلوك الذكي (في البشر والحيوانات والآلات) ومحاولة إيجاد طرق لمحاكاة هذا السلوك في أي نوع من الآليات المصطنعة (بلي ويتبي).

الذكاء الاصطناعي هو فلسفة تجريبية (V. Sergeev).

تم اقتراح مصطلح "الذكاء الاصطناعي" ذاته - AI - AI - الذكاء الاصطناعي في عام 1956 في ندوة تحمل الاسم نفسه في كلية دارتموث (الولايات المتحدة الأمريكية). وخصصت الندوة لتطوير طرق حل المشكلات المنطقية بدلاً من المشكلات الحسابية. في اللغة الإنجليزية ، لا تحتوي هذه العبارة على ذلك التلوين المجسم الرائع الذي اكتسبته في ترجمة روسية غير ناجحة إلى حد ما. كلمة ذكاء تعني "القدرة على التفكير المنطقي" ، وليس "الذكاء" على الإطلاق ، والتي يوجد لها نظير إنجليزي: الذكاء (T.A. Gavrilova).

هناك أيضًا مصطلحات الذكاء الاصطناعي "القوي" و "الضعيف".

تم تقديم مصطلح "الذكاء الاصطناعي القوي" بواسطة John Searle ، ولن يكون مثل هذا البرنامج مجرد نموذج للعقل ؛ سيكون العقل نفسه حرفيًا ، بنفس المعنى الذي يكون فيه العقل البشري هو العقل.

يعتبر "ضعف الذكاء الاصطناعي" فقط أداة تسمح لك بحل مشاكل معينة لا تتطلب النطاق الكامل للقدرات المعرفية البشرية.

2. مشكلة تحديد مهام الذكاء الاصطناعي

السؤال الفلسفي التالي للذكاء الاصطناعي هو الغرض من الخلق. من حيث المبدأ ، فإن كل ما نقوم به في الحياة العملية يهدف عادة إلى عدم القيام بأي شيء آخر. ومع ذلك ، مع وجود مستوى عالٍ من الحياة البشرية ، لم يعد الكسل هو الذي يلعب الدور الأول ، ولكن غرائز البحث. لنفترض أن رجلاً نجح في خلق عقل أكبر من عقله. ماذا سيحدث للبشرية الآن؟ ما هو الدور الذي سيلعبه الشخص؟ لماذا هو مطلوب الآن؟ وبشكل عام ، هل من الضروري مبدئيًا إنشاء ذكاء اصطناعي؟

من الواضح أن الإجابة الأكثر قبولًا على هذه الأسئلة هي مفهوم "مضخم الذكاء" (IA). إن القياس مع رئيس الدولة مناسب هنا - ليس مطلوبًا منه معرفة تكافؤ الفاناديوم أو لغة برمجة جافا من أجل اتخاذ قرار بشأن تطوير صناعة الفاناديوم. كل شخص يفعل شيئًا خاصًا به - يصف الكيميائي عملية تكنولوجية ، ويكتب مبرمج برنامجًا ؛ في النهاية ، يقول الخبير الاقتصادي للرئيس أنه من خلال الاستثمار في التجسس الصناعي ، ستحصل الدولة على 20٪ ، وفي صناعة الفاناديوم - 30٪ سنويًا. مع مثل هذه الصيغة للسؤال ، يمكن لأي شخص أن يتخذ القرار الصحيح.

في هذا المثال ، يستخدم الرئيس الذكاء الاصطناعي البيولوجي - مجموعة من المتخصصين بأدمغتهم البروتينية. لكن الرسائل الفورية غير الحية تُستخدم بالفعل - على سبيل المثال ، لم نتمكن من التنبؤ بالطقس بدون أجهزة كمبيوتر ؛ أثناء رحلات المركبات الفضائية ، تم استخدام أجهزة الكمبيوتر الموجودة على متن الطائرة منذ البداية. بالإضافة إلى ذلك ، لطالما استخدم الشخص مضخمات الطاقة (SS) - وهو مفهوم يشبه في كثير من النواحي واجهة المستخدم. تعمل السيارات والرافعات والمحركات الكهربائية والمكابس والبنادق والطائرات وغير ذلك الكثير كمضخمات للطاقة.

الفرق الرئيسي بين UI و CS هو وجود الإرادة. بعد كل شيء ، لا يمكننا أن نتخيل أن المسلسل "Zaporozhets" ثار فجأة وبدأ في القيادة بالطريقة التي يريدها. لا يمكننا أن نتخيل على وجه التحديد لأنه لا يريد أي شيء ، وليس لديه رغبات. في الوقت نفسه ، يمكن أن يكون للنظام الفكري رغباته الخاصة ، ولا يتصرف كما نرغب. وبالتالي ، فإننا نواجه مشكلة أخرى - مشكلة الأمن.

3. قضية أمنية

يمكن تقسيم المشاكل الفلسفية لإنشاء الذكاء الاصطناعي إلى مجموعتين ، نسبيًا ، "قبل وبعد تطوير الذكاء الاصطناعي". تجيب المجموعة الأولى على السؤال التالي: "ما هو الذكاء الاصطناعي ، هل من الممكن إنشائه؟" حاولت الرد عليهم في عملي. والمجموعة الثانية (أخلاقيات الذكاء الاصطناعي) تطرح السؤال التالي: "ما هي عواقب إنشاء الذكاء الاصطناعي للبشرية؟" وهو ما يقودنا إلى قضية الأمن.

كانت هذه المشكلة تطارد عقول البشرية منذ زمن كاريل كابيك ، الذي استخدم مصطلح "الروبوت" لأول مرة. ساهم كتاب خيال علمي آخرون بشكل كبير في مناقشة هذه المشكلة. كأكثر شهرة ، يمكننا أن نذكر سلسلة من القصص لكاتب الخيال العلمي والعالم إسحاق أسيموف ، بالإضافة إلى عمل حديث إلى حد ما - The Terminator. بالمناسبة ، في Isaac Asimov يمكننا أن نجد الحل الأكثر تطورًا وقبولًا من قبل معظم الناس لمشكلة الأمان. نحن نتحدث عن ما يسمى بقوانين الروبوتات الثلاثة.

1. لا يمكن للروبوت أن يؤذي شخصًا أو أن عدم عمله يسمح بإيذاء شخص ما.

2. يجب أن يطيع الروبوت الأوامر الصادرة إليه من قبل الإنسان ، إلا في الحالات التي تتعارض فيها هذه الأوامر مع القانون الأول.

3. يجب أن يحرص الروبوت على سلامته ، بحيث لا يتعارض مع القانونين الأول والثاني.

للوهلة الأولى ، فإن مثل هذه القوانين ، إذا تم الالتزام بها بالكامل ، يجب أن تضمن سلامة البشرية. ومع ذلك ، فإن نظرة فاحصة تثير بعض الأسئلة.

أتساءل ما الذي سيعنيه نظام الذكاء الاصطناعي بمصطلح "ضرر" بعد الكثير من التفكير المنطقي؟ ألن تقرر أن الوجود البشري كله ضرر محض؟ بعد كل شيء ، يدخن ، يشرب ، يشيخ ويفقد صحته على مر السنين ، يعاني. ألن ينهي أهون الشرين هذه السلسلة من المعاناة؟ بالطبع يمكنك تقديم بعض الإضافات المتعلقة بقيمة الحياة ، حرية التعبير. لكن هذه لن تكون القوانين الثلاثة البسيطة التي كانت موجودة في الكود المصدري.

السؤال التالي سيكون هذا. ما الذي سيقرره نظام الذكاء الاصطناعي في موقف لا يمكن فيه إنقاذ حياة إلا على حساب آخر؟ مثيرة للاهتمام بشكل خاص تلك الحالات التي لا يمتلك فيها النظام معلومات كاملة حول من هو ...

لذلك من الآمن أن نقول إن مخاوف الكثير من الناس ، بمن فيهم العلماء ، لا أساس لها من الصحة. ويجب عليك بالتأكيد أن تبدأ في التفكير في هذه القضايا الآن ، قبل أن تتمكن من إنشاء "ذكاء آلي" كامل من أجل حماية البشرية من الأذى المحتمل أو حتى الإبادة ، كنوع بيولوجي منافس ، في أحسن الأحوال ، أو ببساطة تنوع بيولوجي غير ضروري.


4. مشكلة اختيار طريق لخلق الذكاء الاصطناعي

اختبار تورينج

منذ عام 1991 ، أقيمت بطولات للبرامج التي تحاول اجتياز اختبار تورينج. على الإنترنت ، يمكنك العثور على تاريخ البطولات وعرضه ، والتعرف على القواعد والجوائز والفائزين. حتى الآن ، هذه البرامج (الروبوتات) غير ذكية للغاية. كل ما يفعلونه هو تطبيق القواعد التي اقترحها الإنسان. لا تحاول الروبوتات حتى فهم المحادثة ، بل تحاول في الغالب "خداع" شخص ما. يضع المبدعون فيهم إجابات على الأسئلة الأكثر شيوعًا ، في محاولة للالتفاف حول الفخاخ الشائعة. على سبيل المثال ، يراقبون عن كثب ، وهل سيطرح القاضي نفس السؤال مرتين؟ قد يقول الشخص في هذا الموقف شيئًا مثل ، "مرحبًا ، لقد سألت بالفعل!" هذا يعني أن المطور سيضيف قاعدة إلى الروبوت ليفعل الشيء نفسه. في هذا الاتجاه ، يبدو من غير المرجح أن يظهر أول ذكاء اصطناعي.

لاعبو الشطرنج بالكمبيوتر

لقد سمع الكثير من الناس عن هذه البرامج. أقيمت أول بطولة عالمية للشطرنج بين برامج الكمبيوتر عام 1974. الفائز كان برنامج الشطرنج السوفيتي كايزا. منذ وقت ليس ببعيد ، فاز الكمبيوتر أيضًا على جاري كاسباروف. ما هذا - نجاح لا شك فيه؟

لقد كتب الكثير عن كيفية لعب لاعبي شطرنج الكمبيوتر. سأخبرك باختصار شديد. إنهم يمرون بالكثير من الخيارات. إذا حركت هذا البيدق هنا ، وحرك الخصم أسقفه هنا ، وقمت بالتبييت ، وقام بتحريك هذا البيدق ... لا ، مثل هذا الموقف غير موات. لن أذهب إلى القلعة ، لكن بدلاً من ذلك سأرى ما سيحدث إذا قمت بنقل هذا البيدق هنا وحرك الكمبيوتر الأسقف هنا ، وبدلاً من التبييت ، أنقل البيدق مرة أخرى وهو ...

الكمبيوتر لا يخترع أي شيء في حد ذاته. تم اقتراح جميع الخيارات الممكنة من قبل أصحاب الفكر الحقيقيين - المبرمجين الموهوبين ومستشاري الشطرنج ... وهذا ليس أقل من ابتكار عقل إلكتروني كامل.

روبوتات كرة القدم

إنه من المألوف للغاية. يتم ذلك من خلال العديد من المعامل وأقسام كاملة من الجامعات حول العالم. تقام العشرات من البطولات في أنواع مختلفة من هذه اللعبة. وفقًا لمنظمي بطولة RoboCup ، "أدرك المجتمع الدولي من المتخصصين في الذكاء الاصطناعي مهمة التحكم في روبوتات كرة القدم باعتبارها واحدة من أهمها".

قد يكون من الجيد جدًا ، كما يحلم منظمو RoboCup ، أن فريقًا من الروبوتات في عام 2050 سيهزم بالفعل فريقًا من الأشخاص في كرة القدم. فقط ذكائهم من غير المرجح أن يكون له أي علاقة به.

بطولات المبرمجين

في الآونة الأخيرة ، أقامت مايكروسوفت بطولة بعنوان "Terrarium". طُلب من المبرمجين إنشاء حياة اصطناعية لا أكثر ولا أقل. ربما تكون هذه هي أشهر هذه المسابقات ، ولكن بشكل عام هناك الكثير منها - المنظمون المتحمسون ذوو الانتظام الذي يحسدون عليه يعرضون إنشاء برامج تلعب إما حرب الروبوتات أو استعمار كوكب المشتري. حتى أن هناك مسابقات للبقاء على قيد الحياة بين فيروسات الكمبيوتر.

ما الذي يمنع هذه المشاريع على الأقل من خدمة إنشاء ذكاء اصطناعي حقيقي ، والذي سيكون قادرًا في المستقبل على محاربة واستعمار كوكب المشتري؟ كلمة واحدة بسيطة - عدم التفكير. حتى العقول القوية في Microsoft فشلت في التوصل إلى قواعد يكون فيها السلوك المعقد مفيدًا. ماذا نقول عن الباقي. مهما كانت البطولة ، نفس التكتيك يفوز بكل شيء: "الأبسط ، الأفضل"! من فاز في Terrarium؟ مواطنينا. وماذا فعلوا؟ فيما يلي قائمة كاملة بتلك القواعد التي عاش بموجبها العاشب الافتراضي الأكثر قابلية للحياة في البطولة ؛

1. إذا رأيت حيوانًا مفترسًا ، فاهرب منه. إذا رأيت حيوانًا من نوعه يركض بسرعة في اتجاه واحد ، فركض في نفس الاتجاه.

2. إذا كان هناك غرباء فقط حولك ، فتناول كل العشب بسرعة حتى يحصل الآخرون على كمية أقل.

3. إذا كنت لا ترى الغرباء ، فتناولها بالضبط بقدر ما تحتاج. أخيرًا ، إذا كنت لا ترى العشب ولا الحيوانات المفترسة ، فانتقل إلى حيث تنظر عينيك.

فكريا؟ لا ، لكنها فعالة.

تطبيقات تجارية

في المناطق ذات الأهمية التجارية ، لا توجد بطولات ، ولا قضاة ، ولا توجد حاجة لقواعد الاختيار. لم تكن هناك حاجة إلى العلم العالي سواء في التعرف على النص أو في إنشاء ألعاب الكمبيوتر.

ما نحتاجه هو فريق متناغم من الأشخاص ذوي الرؤوس الواضحة والتعليم الجيد ، والتطبيق الكفء لعدد كبير من الخوارزميات البسيطة في جوهرها.

لن يكون من الممكن الحصول على أي معرفة مقدسة في هذه المجالات ، ولن يتم إجراء اكتشافات عظيمة ، ولا أحد يسعى لتحقيق ذلك على الإطلاق. يكسب الناس المال فقط لأنفسهم ، وفي نفس الوقت يحسنون حياتنا.

استنتاج

لم يستطع علم "خلق الذكاء الاصطناعي" إلا أن يجذب انتباه الفلاسفة. مع ظهور الأنظمة الذكية الأولى ، أثيرت أسئلة أساسية حول الإنسان والمعرفة ، وجزئيًا عن النظام العالمي.

لسوء الحظ ، لا يسمح شكل الاختبار بمزيد من الإفصاح المكثف والنظر في موضوع مثير للاهتمام وملح مثل الذكاء الاصطناعي ، لكنني آمل أن أكون قادرًا على تحديد مجموعة المشكلات الرئيسية وتحديد الطرق لحلها.

"إن ظهور آلات تفوقنا في الذكاء هو نتيجة طبيعية لتطور حضارتنا التكنوقراطية. من غير المعروف إلى أين سيقودنا التطور إذا سار الناس على طول المسار البيولوجي - لقد بدأوا في تحسين بنية الشخص وصفاته وخصائصه. إذا ذهبت كل الأموال التي أنفقت على تطوير الأسلحة إلى الطب ، لكنا قد هزمنا جميع الأمراض منذ فترة طويلة ، وأردنا الشيخوخة ، وربما نكون قد حققنا الخلود ...

لا يمكن حظر العلم. إذا دمرت البشرية نفسها ، فهذا يعني أن التطور قد سلك طريقًا مسدودًا لهذه الإنسانية ، وليس لها الحق في الوجود. ربما تكون حالتنا طريق مسدود. لكننا لسنا أول ولا آخر مرة هنا. من غير المعروف عدد الحضارات التي كانت موجودة قبلنا وأين ذهبوا.

رئيس قسم جامعة تاغانروغ للتقنيات الإشعاعية ، ورئيس مجلس الرابطة الروسية للأنظمة الضبابية ، وأكاديمي في الأكاديمية الروسية للعلوم الطبيعية ، وأستاذ دكتور في العلوم التقنية ليونيد بيرشتاين.

قائمة الأدب المستخدم

1. الموسوعة السوفيتية العظمى

2. T.A. جافريلوفا ، دكتوراه في العلوم التقنية ، أستاذ في قسم تقنيات الذكاء الحاسوبي ، جامعة ولاية سانت بطرسبرغ التقنية ، رئيس مختبر الأنظمة الذكية في معهد الحوسبة وقواعد البيانات عالية الأداء. مقالة - سلعة. www.big.spb.ru

4. Chekina M.D. "المشاكل الفلسفية للذكاء الاصطناعي". تقرير الجائزة في المؤتمر العلمي للطلاب الرابع والخمسين لـ TTIUFU. 2007 www.filosof.historic.ru

5. Bly Whitby "الذكاء الاصطناعي: Is the Matrix Real" ، FAIR-PRESS ، 2004


قمة