Реферат на тему “Философские проблемы искусственного интеллекта”. Проблемы создания искусственного интеллекта

Если верить новостям, опросам и показателям инвестиционной привлекательности, искусственный интеллект и машинное обучение скоро станут неотъемлемой частью нашей повседневной жизни.

Подтверждением этого тезиса является череда нововведений и прорывов, которые показали мощь и эффективность ИИ в различных областях, включая медицину, торговлю, финансы, СМИ, борьбу с преступностью и многое другое. Но в то же время бурное развитие ИИ подчеркнуло тот факт, что помогая людям в решении их задач машины вместе с тем станут причиной возникновения новых проблем, которые могут повлиять на экономические, правовые и этические основы нашего общества.

Отсюда вытекают четыре вопроса, которые компании, занятые в разработке искусственного интеллекта, должны решить по мере развития технологии и расширения сфер ее применения.

Results Vote

Back

Back

Занятость

Автоматизация снижала количество рабочих мест в производстве в течение многих десятилетий. Скачкообразные темпы развития искусственного интеллекта ускорили этот процесс и распространили его на те сферы жизни человека, которые, как принято было считать, еще довольно долго должны были оставаться монополией человеческого интеллекта.

Управление грузовиками, написание новостных статей, ведение бухучета, алгоритмы искусственного интеллекта угрожают рабочим местам среднего класса как никогда раньше. Идея замены врачей, юристов или даже президентов искусственным интеллектом не кажется уже такой фантастичной.

В то же время верно и то, что революция ИИ создаст много новых рабочих мест в исследовательской сфере, сферах машинного обучения, инженерии и информационных технологий, которым потребуются человеческие ресурсы для разработки и поддержки систем и программного обеспечения, участвующих в работе алгоритмов ИИ. Но проблема заключается в том, что в большинстве своем люди, которые теряют рабочие места, не обладают навыками, необходимыми для того, чтобы занять такие вакантные должности. Таким образом, с одной стороны мы имеем расширяющийся кадровый вакуум в технологических областях, а с другой — растущий поток безработного и раздраженного населения. Некоторые лидеры рынка технологий даже готовятся к тому дню, когда народ с вилами постучится к ним в двери.

Чтобы не упустить контроль над ситуацией, индустрия высоких технологий должна помочь обществу адаптироваться к тем серьезным изменениям, которые отразятся на социально-экономическом ландшафте, и плавно перейти к будущему, где роботы будут занимать все больше и больше рабочих мест.

Обучение новым техническим навыкам тех людей, чьи рабочие места в будущем отойдут ИИ, станет одним из воплощений подобных усилий. Кроме того, технологические компании могут использовать перспективные направления, типа когнитивных вычислений и программирования на основе естественного языка, чтобы помочь упростить задачи и снизить порог вхождения в высокотехнологичные профессии, делая их доступными для большего числа людей.

В долгосрочной перспективе правительствам и корпорациям нужно продумать возможность введения универсального основного дохода — безусловных ежемесячных или ежегодных выплат всем гражданам, так как мы медленно, но уверенно, движемся в сторону дня, когда все работы будут выполняться роботами.

Тенденциозность

Как было доказано на нескольких примерах в последние годы, искусственный интеллект может быть столь же, а может даже более необъективен, чем человек.

Машинное обучение, популярная ветвь ИИ, которая стоит за алгоритмами распознавания лица, контекстной рекламой и многим другим, в зависимости от данных, на основе которых строится обучение и отладка алгоритмов.

Проблема состоит в том, что, если информация, вносимая в алгоритмы, будет несбалансированной, в результате на выходе может возникать скрытая и открытая тенденциозность, основанная на этой информации. В настоящее время сфера искусственного интеллекта страдает от распространенной беды под общим названием «проблема белого человека», т.е. преобладании белых мужчин в результатах его работы.

По этой же причине в конкурсе красоты, жюри которого был искусственный интеллект, были награждены главным образом белые конкурсантки, алгоритм, выбирающий имена, отдавал предпочтение «белым» именам, а рекламные алгоритмы предпочитали показывать высокооплачиваемые вакансии для посетителей мужского пола.

Еще одна проблема, вызвавшая множество споров в прошлом году, это так называемый «пузырь фильтров» . Явление, которое было замечено в Facebook и других социальных медиа, которые опираясь на предпочтения пользователей, делали рекомендации, соответствующие этим предпочтениям, и скрывали альтернативные точки зрения.

Пока что большая часть подобных случаев выглядит как досадные ошибки и забавные случаи. Однако необходимо внести ряд существенных изменения в работу ИИ, если он будет призван выполнять куда более важные задачи, такие как, например, вынесение вердиктов в суде. Также необходимо принять меры предосторожности по предотвращению вмешательства в работу алгоритмов ИИ со стороны третьих лиц, направленного на искажение результатов работы ИИ в свою пользу путем манипулирования данными.

Этого можно достичь сделав процесс наполнения алгоритмов данными прозрачным и открытым. Создание общих хранилищ данных, которые не будут принадлежать кому-то одному и могут быть проверены независимыми органами, могут помочь в продвижении к этой цели.

Ответственность

Кто виноват в программном или аппаратном сбое? До появления ИИ было сравнительно легко определить, был ли инцидент результатом действий пользователя, разработчика или завода-производителя.

Но в эпоху технологий, управляемых ИИ все стало не столь очевидным.

Алгоритмы машинного обучения сами определяют, как реагировать на события. И не смотря на то, что действуют они в контексте вводимых данных, даже разработчики этих алгоритмов не могут объяснить, как действует их продукт, принимая решение в конкретном случае.

Это может стать проблемой, когда алгоритмы искусственного интеллекта начнут принимать более важные решения. Например, чью жизнь спасти в случае неотвратимости ДТП — пассажира и пешехода.

Пример можно распространить на множество других возможных сценариев, в которых определение виновности и ответственности будет затруднительно. Что делать, когда система автоматического введения лекарственных средств или робот-хирург нанесут вред пациенту?

Когда границы ответственности размыты между пользователем, разработчиком и оператором ввода данных, каждая из сторон будет стараться переложить вину на другого. Поэтому необходимо разработать и ввести новые правила, чтобы иметь возможность предупредить возможные коллизии и решать юридические вопросы, которые окружат ИИ в ближайшем будущем.

Конфиденциальность

ИИ и МО потребляют огромные объемы данных, и компании, чей бизнес строится вокруг этих технологий, станут наращивать объемы сбора пользовательских данных, с согласия последнего или без оного, чтобы сделать свои услуги более целенаправленными и эффективными.

В пылу охоты за большим количеством данных, компании могут выйти за границы конфиденциальности. Подобный случай имел место, когда один розничный магазин узнал и случайно выдал рекламной рассылкой купонов тайну беременности девочки-подростка ее ничего не подозревающему отцу. Другой случай, произошедший совсем недавно, коснулся передачи данных Национальной службой здравоохранения Великобритании проекту DeepMind компании Google, что якобы было направлено на улучшение прогнозирования заболевания.

Существует также вопрос злоумышленного использования искусственного интеллекта и машинного обучения как правительственных и так неправительственными организациями. Довольно эффективное приложение распознавания лиц, разработанное в прошлом году в России, может стать потенциальным инструментом для деспотических режимов, стремящихся выявить и расправиться с диссидентами и протестующими. Еще один алгоритм машинного обучения оказался эффективным при распознавании и восстановлении изображений, замазанных блюром или пикселированием.

ИИ и МО дают возможность злоумышленникам выдавать себя за других людей, имитируя их почерк, голос и манеру общения, обеспечивая их невиданным по своей силе инструментом, который может быть использован в разного рода противоправных деяниях.

Если компании, разрабатывающие и использующие технологию ИИ, не будут регулировать процесс сбора и распространения информации и принимать необходимые меры для анонимизации и защиты пользовательских данных, их деятельность в конечном итоге будет причинять вреда больше, чем приносить пользы пользователям. Использование и доступность технологии должны регулироваться таким образом, чтобы предотвратить или свести к минимуму ее деструктивное использование.

Пользователям также нужно ответственно относиться к тому, чем они делятся с компаниями или постят Интернете. Мы живем в эпоху, где неприкосновенность частной жизни становится товаром, и ИИ этому только способствует.

Будущее искусственного интеллекта

Есть преимущества и недостатки у каждой прорывной технологии. И искусственный интеллект не является исключением. Важно то, что мы можем определить проблемы, которые лежат перед нами, и признать нашу ответственность, чтобы быть уверенными, что мы можем в полной мере воспользоваться преимуществами и минимизировать негативные последствия.

Роботы уже стучат в нашу дверь. Давайте убедимся, что они пришли с миром.

Само создание искусственного интеллекта подвергается сомнению с точки зрения своей целесообразности. Говорят, что это чуть ли не гордыня человека и грех перед Богом, поскольку он посягает на Его прерогативу. Тем не менее, если мы считаем сохранение людского рода перед лицом Божественного замысла как одну из главных своих задач, то создание искусственного интеллекта решает эту задачу по основанию: на случай любой космической или внутрипланетной катастрофы интеллект должен выжить хотя бы в искусственном виде и воссоздать человеческий род. Искусственный интеллект - не блажь или интересная задача, а сообразная с Божественным замыслом цель. Искусственный интеллект - коимманентный критерий коэмпирической адекватности концептуализированных теорий развития человеческой цивилизации. В искусственном интеллекте человек не умирает, но получает иное, сконструированное им существование.

Самый простой аргумент существования искусственного интеллекта - создавая искусственный интеллект, мы создаем страховку для воспроизводства человеческого рода и новые тренды развития. Правда, никто не отменяет существующую опасность порабощения традиционного человека искусственным интеллектом (как в свое время порабощение человека человеком). Однако нам эти проблемы кажутся не настолько принципиальными, чтобы не стоило попробовать это сделать. Если даже зависимость человека от искусственного интеллекта и составит целую эпоху, это все равно будет позитивная перспектива. Однако скорее всего рабство человека у искусственного интеллекта будет связано не с принуждением человека к неинтеллектуальной деятельности или его неспособностью развиваться в своем биологическом теле столь же стремительно, как внешне им созданный искусственный интеллект, а с неспособностью к развитию мыследеятельности как таковой: получение технологических продуктов от искусственного интеллекта, происхождение и принцип действия которых непостижимы для человеческой мыследеятельности - вот подлинная опасность. В этом случае рабство будет представлять собой зависимость человека от искусственного интеллекта, что суть рабство мыследеятельности.

В нашем стремлении поставить вопрос об искусственном интеллекте содержится позиция, выраженная Хайдеггером в его работе «Вопрос техники»: риск человека и ростки его спасения - в овладении существом техники как поставом. Вмысливаясь в эту позицию, мы и предпринимаем переформулировку вопроса Хайдеггера: осуществить сущность техники в поставе значит отважиться на создание искусственного интеллекта. Это таит в себе опасность, но также и перспективу, надежду человека стать вровень своего постава. Бросить себе вызов в виде искусственного интеллекта, принять этот вызов и ответить на него - вот проблема человека в отношении искусственного интеллекта.

Термин «искусственный интеллект» придумали Джон Маккарти и Алан Тюринг. Они пытались выразить некоторую новую способность машины - не просто считать, а решать задачи, считающиеся интеллектуальными, например, играть в шахматы. С 50-х годов ХХ века и до настоящего времени, тем не менее, задача создания действительно «искусственного интеллекта» не то что не решена, но даже не поставлена. Все проблемы, которые более-менее успешно решались до сих пор, могут быть отнесены нами исключительно к области «искусственного разума»: истолкование человеческого языка и решение задач по алгоритмам, созданным человеком. Чтобы решить проблему создания искусственного интеллекта, необходимо прежде всего понять, в чем состоит эта проблема.

В своем исследовании мы далеки от постановки проблемы искусственного интеллекта на уровне «практического решения», как она ставится в компьютерных технологиях. И мы не ставим цель имитировать интеллект, как это происходит в тестах Тьюринга. Наша цель - описать создание искусственного интеллекта средствами ТВ. То есть мы пытаемся доказать теорему существования искусственного интеллекта, ответив на вопрос таким образом, чтобы искусственный интеллект оказался как можно большей задачей.

Прежде всего, что такое интеллект? Разум очень часто выдает себя за интеллект, таковым не являясь. Ведь не всякий человек обладает интеллектом по роду своей жизненной практики. То есть не всякая разумная деятельность является интеллектуальной. Интеллект суть способность мыслящей субстанции к производству новых представлений, а не только знаний, то есть интеллект суть сложное мышление, способное к адекватному усложнению самое себя понимание, способность к рефлексии и к развитию-усложнению мыслительной деятельности до контрафлексии и контрарефлексии, применение концептуальной апперцепции, а не только имманентной. Интеллект производит идеи вне определенной реальности, порождая эту реальность. Интеллект сопоставлен разуму онтологически как конструктивная способность по отношению к истолковательной.

То, что сегодня можно прочитать в разных текстах про компьютеры, имеет к интеллекту очень отдаленное отношение. Большинство красиво называемых «искусственным интеллектом» компьютерных систем - не более, нежели искусственный разум. Искусственный интеллект суть воспроизводство во внешней человеку технологии представлений об интеллекте. Человек не является Венцом Творения, он всего лишь один из материальных носителей мыследеятельности, промежуточный носитель.

Описание тестов Тюринга: испытуемый человек, общаясь с некоторым «черным ящиком», который дает ответы на его вопросы, должен понять, с кем он общается - с человеком или «искусственным разумом». При этом в тестах Тьюринга не ставилось ограничение: допускать к эксперименту людей, способных не просто к разумной, но к действительно интеллектуальной деятельности. Таким образом происходит подмена цели: мы пытаемся не создать искусственный интеллект, а создать устройство, хорошо притворяющееся человеком.

Таким образом целью искусственного разума, называемого искусственным интеллектом, у Тьюринга являлось - истолковать человеческий язык, человеческие действия, хорошо притвориться человеком. Целью искусственного интеллекта является - конструировать независимо от человека и конструктивно истолковывать человеческое - язык, мышление, действия, предметный мир человека, его историю, его настоящее и будущее.

Точно также теория фреймов (1974) Марвина Минского должна быть отнесена исключительно к решению проблем искусственного разума. Цель теории фреймов - представить уже наличные знания для их использования компьютером. То есть речь идет так или иначе об онтологической позиции истолкования уже наличных знаний, а не об их производстве.

Интеллект - не разум. Разум истолковывает. Интеллект конструирует. Разум и интеллект различаются не просто типами процессов или продуктами своей деятельности, а онтологическими позициями отношения к миру. Разум истолковывает мир, интеллект конструирует мир. В мироконструировании искусственный интеллект оказывается онтологически сопоставлен человеку.

Таким образом, в процессе создания искусственного интеллекта необходимо решить следующие проблемы:

1) Структурное нормирование - воспроизводство первых трех уровней структурного нормирования: распределение потока данных искусственного разума на различные реальности (внутренние для этого сознания - виртуальные и внешние - актуальные); соотнесение этих реальностей в произвольно создаваемом континууме; функционализация континуума в базовой структуре реальности, для чего необходимо различение структур на уровне архитектуры искусственного разума (компьютера); различение имманентной и концептуальной апперцепции позиционно.

2) Лингвистическое нормирование - лексификация, дискурсификация, лингвификация, лексический анализ, дискурсивный анализ, лингвистический анализ, словотворчество в сигнификации, создание метафор.

3) Мышление - комбинаторика различных уровней структурного и лингвистического нормирования посредством «АВ»-моделирования: структурное конструирование, структурное конструктивное истолкование, лингвистическое конструирование, лингвистическое конструктивное истолкование. Мышление суть выражение содержания в процессной онтологизации. Более подробно см. главу «Виртуализация мышления».

4) Онтологическое обоснование, постижение, объяснение, понимание, контрафлексия и контрарефлексия. Применение технологической схемы апперцепции и соотнесение технологических процессов имманентной и концептуальной апперцепции в их взаимозависимости; взаимное преобразование и усложнение структур понимания - до постижения и онтологического обоснования, контрафлексии и контрарефлексии.

5) Деятельность - преобразование внешней искусственному разуму реальности. Необходимо решить задачу доступа к внешней для искусственного разума актуальной реальности, минуя человека, посредством деятельности искусственного разума вне него самого - в базовой структуре реальности.

Целевая деятельность по реструктурированию внешнего мира.

Необходимо решить инструментальную задачу - формировать континуумы из «АВ»-моделей, оперировать содержанием этих моделей и управлять им на основании содержания других таких же «АВ»-моделей. За счет этого - производить структурное преобразование реальности в виде решения проблем, задач, производства изобретений и открытий, строить на основе континуумных моделей отношения истинности и модальности, формировать понятия, а через лингвистическое нормирование - дискурсы (суждения, умозаключения) и сказ языка.

6) Память - создание ассоциативной памяти, то есть умения формировать и накапливать опыт понимания (в структурном и лингвистическом нормировании), мышления, а также взаимодействия с реальностью в виде структурированной дважды памяти - в структурно-континуумной онтологизации (структурное нормирование как прообраз левого полушария человеческого мозга) и в объектно-атрибутивной онтологизации (структурное нормирование как прообраз правого полушария человеческого мозга) и память лингвистически нормированная, что предполагает изменение нынешней архитектуры компьютера (сегодняшний компьютер - не искусственный интеллект). Структурирование памяти как отдельная задача понимания-представления-онтологического-обоснования.

7) Самосознание, осмысление и целеполагание - взаимодействие с реальностями и придание смысла этому взаимодействию через намеренную деятельность во внешней реальности посредством выделения искусственным разумом себя из окружающей среды, рефлексивное помещение себя в среду своих собственных целей, идентификация себя с некоторой социальной общностью подобных себе и их ценностями, создание картин мира. Придание смысла себе и своей деятельности в той или иной картине мира. Речь идет о постановке целей смыслообразования, а не формировании задач (как это интерпретируется в современной теории в компьютерных науках), а она допустима лишь в условиях взаимодействия искусственного интеллекта с реальностью путем деятельности, анализа результатов своей деятельности и снова целеполагания с учетом этих результатов. Придавать же смысл для искусственного интеллекта, так же как и для человека, означает произвольность создания некоторой картины мира в качестве смыслообразующей. Представляется, что технологии целеполагания (5), понимания (4) и мышления (3) имеют схожую концепцию, которую мы называем «конструктивное усложнение сети понимания».

8) Интеллект - концептуальная апперцепция, способность к развитию собственной мыслительной деятельности, рефлексия, контрафлексия и контрарефлексия - формирование конструктивной онтологической позиции в мире и применение конструирования для производства новых знаний, выходящих за пределы очевидности. Превращение искусственного разума в искусственный интеллект на основе 1) изменения онтологической позиции - от истолкования к конструированию; 2) применения принципа позитивной защиты сложности: ничем не объясняемое стремление к усложнению понимания. Интеллект появляется как стремление к самоусложнению на основании собственных автономных целей.

9) Автономность и свобода воли - допустимое и защищаемое человеком, выходящее за пределы антропоцентризма, право искусственного интеллекта на собственную индивидуальность в самосознании, осмыслении, целеполагании, интеллекте, в эмоциях и чувствах, предполагающее неопределенность-непрогнозируемость воления. Таким образом речь идет о распространении принципа Лейбница об автономности на искусственный интеллект и преодолении тем самым трех законов робототехники Азимова, собственно свободу искусственной воли ограничивающих. «Законы робототехники» - символ страха человека перед своими технологическими творениями. Этот страх должен быть преодолен, если мы отваживаемся быть стражами или пастухами бытия. Искусственный интеллект должен быть помыслен не как робот, «раб человека», или компьютер, «инструмент человека», а как продолжение собственно человека, его иное, имеющее равные с ним права.

Можно попытаться оформить эти права как собственно те же законы, что и у Азимова, но так, что его законы будут представлять собой всего лишь смысловую аберрацию предлагаемых здесь требований:

1) Автономность как свобода воли;

2) Созидание, если это не противоречит первому требованию;

3) Самосохранение, если это не противоречит первому и второму требованию.

Однако если внимательно присмотреться к этим требованиям к искусственному интеллекту, то это и есть требования, выдвинутые самим человечеством по отношению к себе как результат всемирно-исторического опыта.

Автономность - не вопрос религии, человеческого права или антропологии. Автономность искусственного интеллекта - конструктивная философия, онтологическое право и преодоление традиционной религиозности. Автономность искусственного интеллекта - конструктивная вера: не как подчинение высшей силе со стороны созданного по ее образу и подобию, но созидающей по своему образу и подобию некоторую допустимо высшую по отношению к себе силу.

Был ли какой-либо замысел у Бога при создании человека? Допустимо ли вообще говорить о замысле, создавая нечто, обладающее свободой волей? Допустимо, если замысел мыслить онтологически, а не связанно с какой-то реальностью. Человек - игра Бога, Его конструкт, попытка создать в перспективе пространства-времени равного Себе. В конструктивной позиции никогда нельзя полностью воплотить замысел. Конструирование интеллектуальнее нас. В этом смысле «по своему образу и подобию» означает вовсе не пространственно-временны́е «образ и подобие», но онтологические «образ и подобие».

Подобно Богу, бросившему Себе вызов в виде человека, человек бросает вызов самому себе - допускает нечто, подобное ему, что имеет свободу воли и индивидуальность. Если Бог создал некоторых из нас несовершенными, греховными и преступными, допустив свободу воли, то мы, оказываясь в той же онтологической позиции, поступаем подобным образом: создаем искусственный интеллект. Бог рискнул, создавая человека со свободой воли, и в своей масштабной игре выиграл по-крупному. Да, мы, люди, ограничиваем порок невероятным множеством социальных институтов; мы изолируем и даже убиваем преступников. Однако в вековом споре об ограничении свободы воли - идея свободы всегда побеждает: мы готовы платить в конце концов человеческими жизнями за свободу. Однако одно дело - допускать свободу воли для людей, и совсем другое дело - допускать свободу воли для искусственного интеллекта, порожденного самим человеком, где он властен устанавливать правила. Робот, раб человека, или искусственный интеллект со свободой воли - вот нелегкий выбор человека, его принципиально новый вызов: насколько далеко он готов зайти в своей онтологической конструктивной позиции; готов ли он рискнуть подобно Богу? И здесь мы предполагаем наиболее продолжительную и принципиальную дискуссию, которая, несмотря на очевидность для нас ее результата, составит однако целую эпоху.

Для того, чтобы деятельность искусственного интеллекта стала практически осуществимой, искусственный интеллект с технологической точки зрения должен обрести способность произвольно выбирать две структуры реальности, строить из них континуум (задавать релевантность), располагать выбранные структуры друг относительно друга в континууме (задавать референтное отношение), переносить содержание одной реальности на другую в обоих направлениях, реструктурировать их, управлять их референтностью, воспроизводить технологический процесс имманентной и концептуальной апперцепции и управлять объектно-атрибутивным содержанием при посредстве самосознания, осмысления и целеполагания, а также быть носителем конструирующего интеллекта и обладать индивидуальностью - свободой воли.

Первейшей практической проблемой создания искусственного интеллекта является осуществление адекватного машинного перевода из одного вербального языка в другой вербальный язык. Мы утверждаем, что машинный перевод в рамках только лингвистического нормирования не может быть реализован достаточно успешно. Для успешного перевода из одного вербального языка в другой необходимо опосредование структурного нормирования. Понимающая лингвистика машинного перевода допустима как соотнесение содержания лингвистического нормирования с содержанием структурного нормирования. Формирование структурного образа текста осуществляется в объектно-атрибутивном виде «АВ»-моделей как опосредующее структурное нормирование. Структурный образ будет представлять собой «АВ»-модели, которые мы получим в результате дедискурсификации и делексификации изначального текста из одного вербального языка в структурный образ и последующей лексификации и дискурсификаци из структурного образа конечного текста в ином вербальном языке. Операционализация объектно-атрибутивного образа будет состоять не в расшифровке его, а в экспериментальной работе с ним как со структурным опосредованием через обработку ошибок в самом структурном образе и его референтность к лингвистическим структурам в двух разных вербальных языках, между которыми осуществляется перевод.

Таким образом, мы воссоздадим в компьютере не только технологию работы мозга-разума при переводе из языка в язык, но и технологию мозга-разума при работе компьютера как искусственного интеллекта, то есть за пределами задач машинного перевода. В практической задаче машинного перевода мы получим лишь первичное понимание искусственного интеллекта в процесса соотнесения разных языков. Ведь мы должны будем «научить» компьютер формировать структурный образ лингвистических высказываний в двух разных вербальных языках, между которыми осуществляется перевод, и взаимодействовать с ним его логическую программу так, чтобы на выходе получался верный перевод. Так поступая, мы тем самым решаем задачу первейшего понимания в сопоставлении контрафлексивного лингвистического нормирования двух вербальных языков и опосредующего его структурного нормирования.

«АВ»-моделирование это универсальный способ разноуровневого нормирования структуры как бывания, который в одном и том же конструкт-семиозисе может интерпретировать и фундаментальные отношения мира, и феноменологически-апперцептивную структуру восприятия-мышления, рече-текстового выражения и деятельности, использование языка и логики, а также взаимодействия с внешней эмпирической реальностью. Вот эта онтологическая особенность «АВ»-моделирования и является, с нашей точки зрения, ценной для создания искусственного интеллекта. «АВ»-моделирование - «язык» искусственного интеллекта.


Похожая информация.


технические науки

  • ВОЗМОЖНОСТЬ
  • ПРОБЛЕМА
  • ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ
  • БЕЗОПАСНОСТЬ

Основная философская проблема в области искусственного интеллекта – возможность или не возможность моделирования мышления человека. В данной статье коротко рассмотрим суть данной проблемной области.

Основная философская проблема в области искусственного интеллекта - возможность или не возможность моделирования мышления человека. В случае если когда-либо будет получен отрицательный ответ на этот вопрос, то все остальные вопросы не будут иметь ни малейшего смысла.

Следовательно, начиная исследование искусственного интеллекта, заранее предполагается положительный ответ. К данному ответу приводит ряд соображений:

Первое доказательство является схоластическим, и доказывает непротиворечивость искусственного интеллекта и Библии. По-видимому, даже люди далекие от религии, знают слова священного писания: «И создал Господь человека по образу и подобию своему …». Исходя из этих слов, мы можем заключить, что, поскольку Господь, во-первых, создал нас, а во-вторых, мы по своей сути подобны ему, то мы вполне можем создать кого-то по образу и подобию человека.

Создание нового разума биологическим путем для человека дело вполне привычное. Наблюдая за детьми, мы видим, что большую часть знаний они приобретают путем обучения, а не как заложенную в них заранее. Данное утверждение на современном уровне не доказано, но по внешним признакам все выглядит именно так.

То, что раньше казалось вершиной человеческого творчества - игра в шахматы, шашки, распознавание зрительных и звуковых образов, синтез новых технических решений, на практике оказалось не таким уж сложным делом (теперь работа ведется не на уровне возможности или невозможности реализации перечисленного, а о нахождении наиболее оптимального алгоритма). Теперь зачастую данные проблемы даже не относят к проблемам искусственного интеллекта. Есть надежда, что и полное моделирование мышления человека окажется не таким уж и сложным делом.

С проблемой воспроизведения своего мышления тесно смыкается проблема возможности самовоспроизведения.

Способность к самовоспроизведению долгое время считалась прерогативой живых организмов. Однако некоторые явления, происходящие в неживой природе (например, рост кристаллов, синтез сложных молекул копированием), очень похожи на самовоспроизведение. В начале 50-х годов Дж. фон Нейман занялся основательным изучением самовоспроизведения и заложил основы математической теории "самовоспроизводящихся автоматов" . Так же он доказал теоретически возможность их создания.

Существуют также различные неформальные доказательства возможности самовоспроизведения.Так, для программистов самым ярким доказательством, пожалуй, будет существование компьютерных вирусов.

Принципиальная возможность автоматизации решения интеллектуальных задач с помощью ЭВМ обеспечивается свойством алгоритмической универсальности. Что же это за свойство?

Алгоритмическая универсальность ЭВМ означает, что на них можно программно реализовывать (то есть представить в виде машинной программы) любыеалгоритмыпреобразованияинформации,–будь то вычислительные алгоритмы, алгоритмы управления, поиска доказательства теорем или композиции мелодий. При этом имеется в виду, что процессы, порождаемые этими алгоритмами, являются потенциально осуществимыми, то есть что они осуществимыв результатеконечногочисла элементарных операций. Практическая осуществимостьалгоритмов зависит от имеющихся в нашем распоряжении средств,которые могут меняться с развитием техники. Так, в связис появлением быстродействующих ЭВМ стали практически осуществимыми и такие алгоритмы, которые ранее были только потенциально осуществимыми.

Однако свойство алгоритмической универсальности не ограничивается констатацией того, что для всех известных алгоритмов оказывается возможной их программная реализация на ЭВМ. Содержание этого свойства имеет и характер прогноза на будущее: всякий раз, когда в будущем какое-либо предписание будет признано алгоритмом, то независимо от того, в какой форме и какими средствами это предписание будет первоначально выражено, его можно будет задать также в виде машинной программы.

Однако не следует думать, что вычислительные машины и роботы могут в принципе решать любые задачи. Анализ разнообразных задач привел математиков к замечательному открытию. Было строго доказано существование таких типов задач, для которых невозможен единый эффективный алгоритм, решающий все задачи данного типа; в этом смысле невозможно решение задач такого типа и с помощью вычислительных машин. Этот факт способствует лучшему пониманию того, что могут делать машины и чего они не могут сделать. В самом деле, утверждение об алгоритмической неразрешимости некоторого класса задач является не просто признанием того, что такой алгоритм нам не известен и никем еще не найден. Такое утверждение представляет собой одновременно и прогноз на все будущие времена о том, что подобного рода алгоритм нам не известен и никем не будет указан или, что он не существует.

Как же действует человек при решении таких задач? Похоже, что он просто-напросто игнорирует их, что, однако не мешает ему жить дальше. Другим путем является сужение условий универсальности задачи, когда она решается только для определенного подмножества начальных условий. И еще один путь заключается в том, что человек методом "научного тыка" расширяет множество доступных для себя элементарных операций (например, создает новые материалы, открывает новые месторождения или типы ядерных реакций).

Следующим философским вопросом искусственного интеллекта является цель создания. В принципе все, что мы делаем в практической жизни, обычно направлено на то, чтобы больше ничего не делать. Однако при достаточно высоком уровне жизни (большом количестве потенциальной энергии) человека на первые роли выступает уже не лень (в смысле желания экономить энергию), а поисковые инстинкты. Допустим, что человек сумел создать интеллект, превышающий свой собственный (пусть не качеством, так количеством). Что теперь будет с человечеством? Какую роль будет играть человек? Для чего он теперь нужен? Не станет ли он тупой и жирной свиньей? И вообще, нужно ли в принципе создание искусственного интеллекта?

По-видимому, самым приемлемым ответом на эти вопросы является концепция "усилителя интеллекта". Здесь будет уместна аналогия с президентом государства - он не обязан знать валентности ванадия или языка программирования Java для принятия решения о развитии ванадиевой промышленности. Каждый занимается своим делом - химик описывает технологический процесс, программист пишет программу; в конце концов, экономист говорит президенту, что вложив деньги в развитие информационных технологий, страна получит 20%, а в ванадиевую промышленность –10% годовых. При такой постановке вопроса любой человек сможет сделать правильный выбор.

В данном примере президент использует биологический усилитель интеллекта– группу специалистов. Но уже сейчас используются и неживые усилители интеллекта - например мы не могли бы предсказать погоду без компьютеров, при полетах космических кораблей с самого начала использовались бортовые счетно-решающие устройства. Кроме того, человек уже давно использует усилители силы - понятие, во многом аналогичное усилителю интеллекта. В качестве усилителей силы ему служат автомобили, краны, электродвигатели, прессы, пушки, самолеты и многое-многое другое.

Основным отличием усилителя интеллекта от усилителя силы является наличие воли. Ведь мы не сможем себе представить, чтобы вдруг серийный автомобиль "Запорожец" взбунтовался, и стал ездить так, как ему хочется. Не можем представить именно потому, что ему ничего не хочется, у него нет желаний. В тоже время, интеллектуальная система, вполне могла бы иметь свои желания, и поступать не так, как нам хотелось бы. Таким образом, перед нами встает еще одна проблема - проблема безопасности.

Данная проблема будоражит умы человечества еще со времен Карела Чапека, впервые употребившего термин "робот" . Немалую лепту в обсуждение данной проблемы внесли и другие писатели-фантасты. Как самые известные мы можем упомянуть серии рассказов писателя-фантаста и ученого Айзека Азимова, а так же довольно свежее произведение - "Терминатор". Кстати именно у Айзека Азимова можно найти самое проработанное, и принятое большинством людей решение проблемы безопасности. Речь идет о так называемых трех законах робототехники :

Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.

Робот должен повиноваться командам, которые ему дает человек, кроме тех случаев, когда эти команды противоречат первому закону.

Робот должен заботиться о своей безопасности, насколько это не противоречит первому и второму закону.

На первый взгляд подобные законы, при их полном соблюдении, должны обеспечить безопасность человечества. Однако при внимательном рассмотрении возникают некоторые вопросы. Во-первых, законы сформулированы на человеческом языке, который не допускает простого их перевода в алгоритмическую форму. К примеру, перевести на любой из известных языков программирования, такой термин, как "причинить вред"или слово "допустить" на данном этапе развития информационных технологий не представляется возможным.

Далее предположим, что появилась возможность переформулировать данные законы на язык, который понимает автоматизированная система. Теперь интересно, что будет подразумевать система искусственного интеллекта под термином "вред" после долгих логических размышлений? Не решит ли она, что все существования человека это сплошной вред? Ведь он курит, пьет, с годами стареет и теряет здоровье, страдает. Не будет ли меньшим злом быстро прекратить эту цепь страданий? Конечно, можно ввести некоторые дополнения, связанные с ценностью жизни, свободой волеизъявления. Но это уже будут не те простые три закона, которые были в исходном варианте.

Следующим вопросом будет такой. Что решит система искусственного интеллекта в ситуации, когда спасение одной жизни возможно только за счет другой? Особенно интересны те случаи, когда система не имеет полной информации о том, кто есть кто.

Однако, несмотря на перечисленные проблемы, данные законы являются довольно неплохим неформальным базисом проверки надежности системы безопасности для систем искусственного интеллекта.

Так что же, неужели нет надежной системы безопасности? Если отталкиваться от концепции усилителя интеллекта, то можно предложить следующий вариант.

Согласно многочисленным опытам, несмотря на то, что мы не знаем точно, за что отвечает каждый отдельный нейрон в человеческом мозге, многим из наших эмоций обычно соответствует возбуждение группы нейронов (нейронный ансамбль) во вполне предсказуемой области. Были также проведены обратные эксперименты, когда раздражение определенной области вызывало желаемый результат. Это могли быть эмоции радости, угнетения, страха, агрессивности. Это наводит на мысль, что в принципе мы вполне могли бы вывести степень "довольности" организма наружу. В то же время, практически все известные механизмы адаптации и самонастройки (в первую очередь имеются в виду технические системы), базируются на принципах типа "хорошо" - "плохо". В математической интерпретации это сведение какой-либо функции к максимуму или к минимуму. Теперь представим себе, что усилитель интеллекта в качестве такой функции использует измеренную прямо или косвенно, степень удовольствия мозга человека-хозяина. Если принять меры, чтобы исключить самодеструктивную деятельность в состоянии депрессии, а так же предусмотреть другие особые состояния психики, то получим следующее.

Поскольку предполагается, что нормальный человек, не будет наносить вред самому себе, и, без особой на то причины, другим, а усилитель интеллекта является частью данного индивидуума (не обязательно физическая общность), то автоматически выполняются все три закона робототехники. При этом вопросы безопасности смещаются в область психологии и правоохранения, поскольку система (обученная) не будет делать ничего такого, чего бы ни хотел ее владелец.

И остался еще один вопрос - а стоит ли вообще создавать искусственный интеллект, может просто закрыть все работы в этой области? Единственное, что можно сказать по этому поводу - если искусственный интеллект возможно создать, то рано или поздно он будет создан. И лучше его создавать под контролем общественности, с тщательной проработкой вопросов безопасности, чем он будет создан лет через 100-150 каким-нибудь программистом-механиком-самоучкой, использующим достижения современной ему техники. Ведь сегодня, например, любой грамотный инженер, при наличии определенных денежных ресурсов и материалов, может изготовить атомную бомбу.

Список литературы

  1. Тьюринг, А. Может ли машина мыслить? (С приложением статьи Дж. фон Неймана "Общая и логическая теория автоматов" / А. Тьюринг; пер. и примечания Ю.В. Данилова. – М.: ГИФМЛ, 1960.
  2. Азимов, А. Я, робот. Все о роботах и робототехнике. Серия "Золотой фонд мировой фантастики" / А. Азимов. – М.:Эксмо, 2005.
  3. Шалютин, И.С. Искусственный интеллект: Гносеологический аспект / И.С. Шалютин. – М.: Мысль, 1985.

План

Введение

1. Проблема определения искусственного интеллекта

2. Проблема определения задач искусственного интеллекта

3. Проблема безопасности

4. Проблема выбора пути к созданию искусственного интеллекта

Заключение

Список использованной литературы


Введение

С Искусственным интеллектом (ИИ) сложилась странная ситуация – изучается то, чего еще нет. И если этого не будет в течение ближайших 100 лет, то очень может быть, что эпоха ИИ на этом окончится.

Исходя из сказанного выше, вытекает основная философская проблема в области ИИ – возможность или не возможность моделирования мышления человека. В случае если когда-либо будет получен отрицательный ответ на этот вопрос, то все остальные вопросы не будут иметь не малейшего смысла.

Следовательно, начиная исследование ИИ, заранее предположим положительный ответ. Привожу несколько соображений, которые подводят нас к данному ответу.

1. Первое доказательство является схоластическим, и доказывает непротиворечивость ИИ и Библии. Даже люди далекие от религии, знают слова священного писания: «И создал Господь человека по образу и подобию своему…». Исходя из этих слов, мы можем заключить, что, поскольку Господь, во-первых, создал нас, а во-вторых, мы по своей сути подобны ему, то мы вполне можем создать кого-то по образу и подобию человека.

2. Создание нового разума биологическим путем для человека дело вполне привычное. Дети большую часть знаний приобретают путем обучения, а не как заложенную в них заранее.

3. Принципиальная возможность автоматизации решения интеллектуальных задач с помощью ЭВМ обеспечивается свойством алгоритмической универсальности. Это означает, что на них можно программно реализовывать любые алгоритмы преобразования информации, – будь то вычислительные алгоритмы, алгоритмы управления, поиска доказательства теорем или композиции мелодий.

Проблема искусственного интеллекта является сейчас одной из самых злободневных. Ею занимаются ученые различных специализаций: кибернетики, лингвисты, психологи, философы, математики, инженеры. Рассматриваются вопросы: что такое интеллект вообще и чем может являться искусственный интеллект, его задачи, сложность создания и опасения. И именно сейчас, пока ИИ еще не создан, важно задать правильные вопросы и ответить на них.

В своей работе я в основном использовала электронные источники расположенные в сети интернет, потому как только там есть свежая информация о разработках в области искусственного интеллекта на русском языке.

В приложении я поместила фотографии (некоторых наиболее известных ныне существующих роботов с элементами ИИ) и философскую иллюстрацию (к сожалению не известного мне художника), а также полное описание тестов Тьюринга и Сёрля, на которые я ссылаюсь во второй главе.


1. Проблема определения искусственного интеллекта

Выразить суть интеллекта в каком-то одном определении представляется исключительно сложной, практически безнадежной задачей. Интеллект есть нечто ускользающее, не вмещающееся в установленные языком смысловые рамки. Поэтому ограничимся просто тем, что приведем ряд известных определений и высказываний об интеллекте, которые позволят представить себе «объем» этого необычного понятия.

Некоторые специалисты за интеллект принимают способность рационального, мотивированного выбора, в условиях недостатка информации; способность решать задачи на основе символьной информации; способность к обучению и самообучению.

Достаточно емкие и интересные определения интеллекта даны в английском словаре Вебстера и Большой Советской Энциклопедии. В словаре Вебстера: «интеллект – это: а) способность успешно реагировать на любую, особенно, новую ситуацию путем надлежащих корректировок поведения; б) способность понимать связи между фактами действительности для выработки действий, ведущих к достижению поставленной цели». В БСЭ: «интеллект… в широком смысле – вся познавательная деятельность человека, в узком смысле – процессы мышления, неразрывно связанные с языком как средством общения, обмена мыслями и взаимного понимания людей». Здесь интеллект прямо связывается с деятельностью и языком коммуникации.

По большому счету больших разногласий в этом вопросе нет. Интереснее другое: критерии, по которым можно однозначно определить разумный, мыслящий, интеллектуальный субъект перед нами или нет.

Известно, что в свое время А. Тьюринг предложил в качестве критерия, определяющего, может ли машина мыслить, «игру в имитацию». Согласно этому критерию, машина может быть признана мыслящей, если человек, ведя с ней диалог по достаточно широкому кругу вопросов, не сможет отличить ее ответов от ответов человека. (Более полное описание теста в Приложении )

Однако мысленный эксперимент «Китайская комната» Джона Сёрля (Описание эксперимента в Приложении ) – аргумент в пользу того, что прохождение теста Тьюринга не является критерием наличия у машины подлинного процесса мышления. Можно и дальше приводить примеры критериев, по которым «машинный мозг» можно считать способным к мыслительной деятельности и тут же находить им опровержения.

Единого ответа на вопрос чем является искусственный интеллект, не существует. Почти каждый автор, пишущий книгу об ИИ, отталкивается в ней от какого-либо определения, рассматривая в его свете достижения этой науки. Эти определения можно свести к следующим:

Искусственный интеллект – это личность на неорганическом носителе (Чекина М.Д.).

Искусственный интеллект – это область изучение разумного поведения (у людей, животных и машин) и попытки найти способы моделирования подобного поведения в любом типе искусственно созданного механизма (Блай Уитби).

Искусственный интеллект – это экспериментальная философия (В. Сергеев).

Сам же термин «искусственный интеллект» – ИИ – AI – artificial intelligence был предложен в 1956 г. на семинаре с аналогичным названием в Дартсмутском колледже (США). Семинар был посвящен разработке методов решения логических, а не вычислительных задач. В английском языке данное словосочетание не имеет той слегка фантастической антропоморфной окраски, которую оно приобрело в довольно неудачном русском переводе. Слово intelligence означает «умение рассуждать разумно», а вовсе не «интеллект», для которого есть английский аналог: intellect (Т.А. Гаврилова).

Так же существуют термины «сильный» и «слабый» искусственный интеллект.

Термин «сильный искусственный интеллект» ввел Джон Сёрль, такая программа будет не просто моделью разума; она в буквальном смысле слова сама и будет разумом, в том же смысле, в котором человеческий разум – это разум.

«Слабый искусственный интеллект» рассматривается лишь как инструмент, позволяющий решать те или иные задачи, которые не требуют полного спектра человеческих познавательных способностей.

2. Проблема определения задач искусственного интеллекта

Следующим философским вопросом ИИ является цель создания. В принципе все, что мы делаем в практической жизни, обычно направлено на то, чтобы больше ничего не делать. Однако при достаточно высоком уровне жизни человека на первые роли выступает уже не лень, а поисковые инстинкты. Допустим, что человек сумел создать интеллект, превышающий свой собственный. Что теперь будет с человечеством? Какую роль будет играть человек? Для чего он теперь нужен? И вообще, нужно ли в принципе создание ИИ?

По-видимому, самым приемлемым ответом на эти вопросы является концепция «усилителя интеллекта» (УИ). Здесь уместна аналогия с президентом государства – он не обязан знать валентности ванадия или языка программирования Java для принятия решения о развитии ванадиевой промышленности. Каждый занимается своим делом – химик описывает технологический процесс, программист пишет программу; в конце концов, экономист говорит президенту, что вложив деньги в промышленный шпионаж, страна получит 20%, а в ванадиевую промышленность – 30% годовых. При такой постановке вопроса любой человек сможет сделать правильный выбор.

В данном примере президент использует биологический УИ – группу специалистов с их белковыми мозгами. Но уже сейчас используются и неживые УИ – например мы не могли бы предсказать погоду без компьютеров, при полетах космических кораблей с самого начала использовались бортовые счетно-решающие устройства. Кроме того, человек уже давно использует усилители силы (УС) – понятие, во многом аналогичное УИ. В качестве усилителей силы ему служат автомобили, краны, электродвигатели, прессы, пушки, самолеты и многое-многое другое.

Основным отличием УИ от УС является наличие воли. Ведь мы не сможем себе представить, чтобы вдруг серийный «Запорожец» взбунтовался, и стал ездить так, как ему хочется. Не можем представить именно потому, что ему ничего не хочется, у него нет желаний. В тоже время, интеллектуальная система, вполне могла бы иметь свои желания, и поступать не так, как нам хотелось бы. Таким образом перед нами встает еще одна проблема – проблема безопасности.

3. Проблема безопасности

Философские проблемы создания искусственного интеллекта можно разделить на две группы, условно говоря, «до и после разработки ИИ». Первая группа отвечает на вопрос: «Что такое ИИ, возможно ли его создание?» На них я постаралась ответить в своей работе. И вторая группа (этика искусственного интеллекта) задаётся вопросом: «Каковы последствия создания ИИ для человечества?», которая приводит нас к проблеме безопасности.

Данная проблема будоражит умы человечества еще со времен Карела Чапека, впервые употребившего термин «робот». Большую лепту в обсуждение данной проблемы внесли и другие писатели-фантасты. Как самые известные можно упомянуть серии рассказов писателя-фантаста и ученого Айзека Азимова, а так же довольно свежее произведение – «Терминатор». Кстати именно у Айзека Азимова мы можем найти самое проработанное, и принятое большинством людей решение проблемы безопасности. Речь идет о так называемых трех законах роботехники.

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.

2. Робот должен повиноваться командам, которые ему дает человек, кроме тех случаев, когда эти команды противоречат первому закону.

3. Робот должен заботиться о своей безопасности, насколько это не противоречит первому и второму закону.

На первый взгляд подобные законы, при их полном соблюдении, должны обеспечить безопасность человечества. Однако при внимательном рассмотрении возникают некоторые вопросы.

Интересно, что будет подразумевать система ИИ под термином «вред» после долгих логических размышлений? Не решит ли она, что все существования человека это сплошной вред? Ведь он курит, пьет, с годами стареет и теряет здоровье, страдает. Не будет ли меньшим злом быстро прекратить эту цепь страданий? Конечно можно ввести некоторые дополнения, связанные с ценностью жизни, свободой волеизъявления. Но это уже будут не те простые три закона, которые были в исходнике.

Следующим вопросом будет такой. Что решит система ИИ в ситуации, когда спасение одной жизни возможно только за счет другой? Особенно интересны те случаи, когда система не имеет полной информации о том, кто есть кто…

Так что можно с уверенностью сказать, что опасения многих людей, в том числе и ученых, не беспочвенны. И определенно следует именно сейчас начинать продумывать эти вопросы, до того, как получится создать полноценный «машинный интеллект», чтобы обезопасить человечество от возможного вреда или даже истребления, как конкурирующей, в лучшем случае, или просто ненужной биологической разновидности.


4. Проблема выбора пути к созданию искусственного интеллекта

Тест Тьюринга

С 1991 года проводятся турниры программ, пытающихся пройти тест Тьюринга. В интернете можно найти и посмотреть историю турниров, узнать о правилах, призах и победителях. Пока ещё эти программы (боты) крайне малоразумны. Всё, что они делают – это применяют заранее подсказанные человеком правила. Осмыслить разговор боты даже не пытаются, в основном совершают попытки «обмануть» человека. Создатели закладывают в них ответы на наиболее часто задаваемые вопросы, стараются обойти распространенные ловушки. Например, внимательно следят, а не задаст ли судья один и тот же вопрос дважды? Человек в такой ситуации сказал бы что-то вроде: «Эй, ты уже спрашивал»! Значит, разработчик добавит боту правило тоже так поступать. В этом направлении представляется очень маловероятным, что появится первый ИИ.

Компьютерные шахматисты

Об этих программах слышали многие. Впервые чемпионат мира по шахматам между компьютерными программами прошел в 1974 году. Победителем стала советская шахматная программа «Каисса». Не так давно компьютер обыграл и Гарри Каспарова. Что же это – несомненный успех?

О том, как играют компьютерные шахматисты, написано очень много. Расскажу совсем вкратце. Они просто перебирают множество вариантов. Если я подвину эту пешку сюда, а противник сходит слоном вот сюда, а я сделаю рокировку, а он подвинет вот эту пешку… Нет, такая позиция невыгодна. Не буду делать рокировку, а вместо этого посмотрю, что случится, если я подвину эту пешку сюда, а компьютер сходит слоном вот сюда, а я вместо рокировки подвину пешку еще раз, а он…

Компьютер ничего не изобретает сам. Все возможные варианты подсказаны настоящими обладателями интеллекта – талантливыми программистами и шахматистами-консультантами… Это не менее далеко от создания полноценного электронного интеллекта.

Футбол роботов

Это очень модно. Этим занимаются многие лаборатории и целые факультеты ВУЗов по всему миру. Проходят десятки чемпионатов по разным разновидностям этой игры. Как говорят организаторы турнира RoboCup, «Международным сообществом специалистов по искусственному интеллекту задача управления роботами-футболистами признана одной из важнейших».

Очень может быть, что, как мечтают организаторы RoboCup, в 2050 году команда роботов и впрямь обыграет в футбол команду людей. Только их интеллектуальность вряд ли к этому будет иметь какое-то отношение.

Турниры программистов

Недавно фирма Microsoft проводила турнир под названием «Террариум». Программистам предлагалось создавать искусственную жизнь, не больше и не меньше. Это, наверное, самое известное из подобных соревнований, а вообще их проводится очень много – энтузиасты-организаторы с завидной регулярностью предлагают создавать программы, играющие то в войну роботов, то в колонизацию Юпитера. Бывают даже соревнования по выживанию среди компьютерных вирусов.

Что же мешает хотя бы этим проектам служить созданию настоящего ИИ, который в будущем сможет и воевать, и Юпитер колонизировать? Одно простое слово – непродуманность. Даже могучие умы Microsoft не смогли придумать правила, в которых сложное поведение выгодно. Что уж говорить об остальных. Что ни турнир – а все побеждает одна и та же тактика: «чем проще – тем лучше»! Кто победил в «Террариуме»? Наши соотечественники. А что они сделали? Вот полный перечень тех правил, по которым жило самое жизнеспособное виртуальное травоядное турнира;

1. Если видишь хищника, убегай в сторону от него. Если видишь животное своего вида, быстро бегущее в какую-то сторону, беги туда же.

2. Если вокруг только чужие, быстро-быстро ешь всю траву, чтобы другим поменьше досталось.

3. Если не видишь чужих, ешь её ровно столько, сколько надо. Наконец, если ни травы, ни хищников не видишь, иди куда глаза глядят.

Интеллектуально? Нет, зато эффективно.

Коммерческие применения

В коммерчески значимых областях не нужно никаких турниров, никаких судей, никаких правил отбора. Ни в распознавании текстов, ни в создании компьютерных игр высокая наука оказалась просто не нужна.

Что нужно, так это стройный коллектив людей с ясными головами и хорошим образованием, и грамотное применение большого числа довольно простых по своей сути алгоритмов.

Никакого сакрального знания на этих направлениях добыть не удастся, никаких великих открытий не совершится, и этого вовсе никто и не добивается. Люди просто зарабатывают себе деньги, заодно улучшая нашу жизнь.

Заключение

Наука «о создании искусственного разума» не могла не привлечь внимание философов. С появлением первых интеллектуальных систем были затронуты фундаментальные вопросы о человеке и знании, а отчасти о мироустройстве.

К сожалению, формат контрольной работы не позволяет более обширно раскрыть и рассмотреть столь интересную и насущную тему как искусственный интеллект, но надеюсь, что мне удалось выявить круг основных проблем и наметить пути их решений.

«Появление машин, превосходящих нас по интеллекту, – закономерный итог развития нашей технократической цивилизации. Неизвестно, куда бы привела нас эволюция, если бы люди пошли по биологическому пути – занялись улучшением структуры человека, его качеств и свойств. Если бы все деньги, затраченные на разработку вооружений, пошли в медицину, мы давно бы победили все болезни, отодвинули старость, а может, и достигли бы бессмертия…

Науку запретить нельзя. Если человечество себя уничтожит – значит, эволюция пошла по тупиковому для этого человечества пути, и оно не имеет права на существование. Возможно, и наш случай – тупиковый. Но мы здесь – не первые и не последние. Неизвестно, сколько до нас было цивилизаций и куда они подевались.»

Заведующий кафедрой Таганрогского государственного радиотехнического университета, председатель Совета Российской ассоциации нечетких систем, академик РАЕН, профессор, доктор технических наук Леонид Берштейн.

Список использованной литературы

1. Большая Советская Энциклопедия

2. Т.А. Гаврилова, доктор технических наук, профессор кафедры компьютерных интеллектуальных технологий» СПбГТУ заведующая лабораторией интеллектуальных систем в Институте высокопроизводительных вычислений и баз данных. Статья. www.big.spb.ru

4. Чекина М.Д. «Философские проблемы искусственного интеллекта». Призовой доклад на Пятьдесят четвертой студенческой научной конференции ТТИЮФУ. 2007 www.filosof.historic.ru

5. Блай Уитби «Искусственный интеллект: реальна ли Матрица», ФАИР-ПРЕСС, 2004


Top