Streszczenie na temat „Filozoficzne problemy sztucznej inteligencji”. Problemy tworzenia sztucznej inteligencji

Według doniesień, badań i wskaźników atrakcyjności inwestycyjnej, sztuczna inteligencja i uczenie maszynowe już wkrótce staną się integralną częścią naszego codziennego życia.

Potwierdzeniem tej tezy jest seria innowacji i przełomów, które pokazały siłę i skuteczność sztucznej inteligencji w różnych dziedzinach, w tym w medycynie, handlu, finansach, mediach, zwalczaniu przestępczości i wielu innych. Ale jednocześnie eksplozja sztucznej inteligencji uwydatniła fakt, że pomagając ludziom rozwiązywać ich problemy, maszyny będą również tworzyć nowe problemy, które mogą wpłynąć na ekonomiczne, prawne i etyczne podstawy naszego społeczeństwa.

Istnieją cztery pytania, na które firmy zajmujące się sztuczną inteligencją muszą odpowiedzieć w miarę postępu technologii i rozszerzania się jej zastosowań.

Wyniki Głosować

Z powrotem

Z powrotem

Zatrudnienie

Automatyzacja od dziesięcioleci zmniejsza liczbę miejsc pracy w produkcji. Spazmatyczne tempo rozwoju sztucznej inteligencji przyspieszyło ten proces i rozszerzyło go na te dziedziny życia człowieka, które, jak powszechnie uważano, powinny pozostać przez długi czas monopolem ludzkiej inteligencji.

Kierowanie ciężarówkami, pisanie artykułów prasowych, księgowość, algorytmy sztucznej inteligencji zagrażają zawodom klasy średniej jak nigdy dotąd. Pomysł zastąpienia lekarzy, prawników czy nawet prezydentów sztuczną inteligencją nie wydaje się już taki fantastyczny.

Jednocześnie prawdą jest również, że rewolucja AI stworzy wiele nowych miejsc pracy w badaniach, uczeniu maszynowym, inżynierii i informatyce, co będzie wymagało zasobów ludzkich do rozwijania i utrzymywania systemów i oprogramowania zaangażowanych w działanie sztucznej inteligencji. algorytmy. Problem polega jednak na tym, że w większości ludzie, którzy tracą pracę, nie mają umiejętności potrzebnych do obsadzenia wakatów. Mamy więc z jednej strony powiększającą się próżnię kadrową w obszarach technologicznych, az drugiej rosnący napływ bezrobotnych i zirytowanych. Niektórzy liderzy technologii przygotowują się nawet na dzień, w którym ludzie zapukają do ich drzwi z widłami.

Aby nie stracić kontroli nad sytuacją, przemysł high-tech musi pomóc społeczeństwu przystosować się do najważniejszych zmian, które wpłyną na krajobraz społeczno-gospodarczy i płynnie przejść do przyszłości, w której roboty będą przejmować coraz więcej miejsc pracy.

Jednym z przejawów takich wysiłków będzie uczenie nowych umiejętności technicznych osób, których praca w przyszłości będzie związana z AI. Ponadto firmy technologiczne mogą wykorzystywać obiecujące obszary, takie jak obliczenia kognitywne i programowanie w języku naturalnym, aby uprościć zadania i obniżyć barierę wejścia na stanowiska związane z zaawansowanymi technologiami, czyniąc je dostępnymi dla większej liczby osób.

W dłuższej perspektywie rządy i korporacje muszą rozważyć wprowadzenie uniwersalnego dochodu podstawowego – bezwarunkowych miesięcznych lub rocznych płatności dla wszystkich obywateli, ponieważ powoli, ale nieubłaganie zbliżamy się do dnia, w którym całą pracę będą wykonywać roboty.

tendencyjność

Jak udowodniono na kilku przykładach z ostatnich lat, sztuczna inteligencja może być tak samo, jeśli nie bardziej, stronnicza niż człowiek.

Uczenie maszynowe, popularna gałąź sztucznej inteligencji, która stoi za algorytmami rozpoznawania twarzy, reklamą kontekstową i wieloma innymi, w zależności od danych, na których opiera się trenowanie i debugowanie algorytmów.

Problem polega na tym, że jeśli informacje wprowadzane do algorytmów są niezrównoważone, wynikiem mogą być zarówno ukryte, jak i jawne uprzedzenia oparte na tych informacjach. Obecnie dziedzina sztucznej inteligencji cierpi na powszechną plagę pod ogólną nazwą „problemu białego człowieka”, tj. przewaga białych mężczyzn w wynikach jego pracy.

Z tego samego powodu konkurs piękności oceniany przez sztuczną inteligencję nagradzał głównie białych zawodników, algorytm nazewnictwa faworyzował białe nazwiska, a algorytmy reklam faworyzowały dobrze płatne prace dla odwiedzających mężczyzn.

Kolejną kwestią, która w ostatnim roku budziła wiele kontrowersji, jest tzw. „bańka filtracyjna”. Zjawisko, które zaobserwowano na Facebooku i innych mediach społecznościowych, oparte na preferencjach użytkowników w celu wydawania rekomendacji zgodnych z tymi preferencjami i ukrywania alternatywnych punktów widzenia.

Jak dotąd większość tych przypadków wygląda jak irytujące błędy i zabawne przypadki. Trzeba jednak wprowadzić szereg istotnych zmian w pracy AI, jeśli ma ona wykonywać znacznie ważniejsze zadania, jak np. wydawanie orzeczeń w sądzie. Konieczne jest również podjęcie środków zapobiegających ingerencji w pracę algorytmów AI przez osoby trzecie, mającej na celu zniekształcenie wyników pracy AI na ich korzyść poprzez manipulację danymi.

Można to osiągnąć poprzez uczynienie procesu wypełniania algorytmów danymi przejrzystym i otwartym. Tworzenie współdzielonych repozytoriów danych, które nie są własnością nikogo i mogą być weryfikowane przez niezależne organy, może pomóc w osiągnięciu tego celu.

Odpowiedzialność

Kto ponosi winę za awarię oprogramowania lub sprzętu? Przed pojawieniem się sztucznej inteligencji stosunkowo łatwo było ustalić, czy incydent był wynikiem działań użytkownika, programisty czy zakładu produkcyjnego.

Ale w dobie technologii opartej na sztucznej inteligencji rzeczy stały się mniej oczywiste.

Algorytmy uczenia maszynowego same określają sposób reagowania na zdarzenia. I pomimo tego, że działają w kontekście danych wejściowych, nawet twórcy tych algorytmów nie potrafią wyjaśnić, jak działa ich produkt przy podejmowaniu decyzji w konkretnej sprawie.

Może to stać się problemem, gdy algorytmy sztucznej inteligencji zaczną podejmować ważniejsze decyzje. Na przykład, czyje życie uratować w razie nieuchronności wypadku - pasażera i pieszego.

Przykład można rozszerzyć na wiele innych możliwych scenariuszy, w których ustalenie winy i odpowiedzialności byłoby trudne. Co zrobić, gdy system autoleków lub robot-chirurg szkodzi pacjentowi?

Kiedy linie odpowiedzialności między użytkownikiem, programistą i operatorem wprowadzania danych zacierają się, każda ze stron będzie próbowała zrzucić winę na drugą. Dlatego konieczne jest opracowanie i wprowadzenie nowych zasad, aby móc zapobiegać ewentualnym konfliktom i rozwiązywać problemy prawne, które będą otaczać AI w najbliższej przyszłości.

Poufność

Sztuczna inteligencja i uczenie maszynowe pochłaniają ogromne ilości danych, a firmy, których działalność opiera się na tych technologiach, zwiększą gromadzenie danych użytkowników, za ich zgodą lub bez niej, aby ich usługi były bardziej ukierunkowane i wydajne.

W gorączce polowania na więcej danych firmy mogą przesuwać granice prywatności. Podobny przypadek miał miejsce, gdy sklep detaliczny dowiedział się i przypadkowo ujawnił tajemnicę ciąży nastolatki jej niczego niepodejrzewającego ojca w wysyłce kuponów. Inny bardzo niedawny przypadek dotyczył transmisji danych z brytyjskiej Narodowej Służby Zdrowia do projektu Google DeepMind, rzekomo w celu poprawy przewidywania chorób.

Pojawia się również kwestia złośliwego wykorzystania sztucznej inteligencji i uczenia maszynowego zarówno przez organizacje rządowe, jak i pozarządowe. Dość skuteczna aplikacja do rozpoznawania twarzy, opracowana w zeszłym roku w Rosji, może być potencjalnym narzędziem dla despotycznych reżimów, które chcą identyfikować i rozprawić się z dysydentami i protestującymi. Kolejny algorytm uczenia maszynowego okazał się skuteczny w rozpoznawaniu i odzyskiwaniu rozmytych lub pikselizowanych obrazów.

Sztuczna inteligencja i ML pozwalają atakującym podszywać się pod inne osoby, imitując ich pismo odręczne, głos i styl komunikacji, zapewniając im niespotykane w swojej mocy narzędzie, które może być wykorzystywane w różnych nielegalnych działaniach.

Jeśli firmy, które opracowują i wykorzystują technologię AI, nie regulują procesu zbierania i rozpowszechniania informacji oraz nie podejmą niezbędnych działań w celu anonimizacji i ochrony danych użytkowników, ich działania ostatecznie przyniosą użytkownikom więcej szkód niż korzyści. Wykorzystanie i dostępność technologii powinny być regulowane w taki sposób, aby zapobiegać lub minimalizować jej destrukcyjne wykorzystanie.

Użytkownicy muszą również ponosić odpowiedzialność za to, co udostępniają firmom lub publikują online. Żyjemy w czasach, w których prywatność staje się towarem, a sztuczna inteligencja tylko to ułatwia.

Przyszłość sztucznej inteligencji

Każda przełomowa technologia ma zalety i wady. A sztuczna inteligencja nie jest wyjątkiem. Ważne jest, abyśmy potrafili zidentyfikować stojące przed nami problemy i uznać naszą odpowiedzialność za zapewnienie pełnego wykorzystania korzyści i zminimalizowanie negatywnych skutków.

Roboty już pukają do naszych drzwi. Zadbajmy o to, by przybyli w pokoju.

Samo stworzenie sztucznej inteligencji jest kwestionowane z punktu widzenia celowości. Mówią, że jest to prawie pycha człowieka i grzech przed Bogiem, ponieważ wkracza w Jego prerogatywy. Niemniej jednak, jeśli za jedno z naszych głównych zadań uznamy zachowanie rodzaju ludzkiego w obliczu Boskiego planu, to stworzenie sztucznej inteligencji rozwiązuje ten problem na tej podstawie, że w przypadku jakiejkolwiek kosmicznej lub międzyplanetarnej katastrofy intelekt musi przetrwać przynajmniej w sztucznej formie i odtworzyć rasę ludzką. Sztuczna inteligencja nie jest kaprysem ani ciekawym zadaniem, ale celem zgodnym z Boskim planem. Sztuczna inteligencja jest współimmanentnym kryterium współempirycznej adekwatności konceptualizowanych teorii rozwoju cywilizacji ludzkiej. W sztucznej inteligencji człowiek nie umiera, ale otrzymuje inną, skonstruowaną przez siebie egzystencję.

Najprostszym argumentem za istnieniem sztucznej inteligencji jest to, że tworząc sztuczną inteligencję, tworzymy ubezpieczenie reprodukcji rasy ludzkiej i nowych trendów rozwojowych. To prawda, nikt nie anuluje istniejącego niebezpieczeństwa zniewolenia tradycyjnego człowieka przez sztuczną inteligencję (jak za jego czasów zniewolenie człowieka przez człowieka). Problemy te wydają nam się jednak nie na tyle fundamentalne, aby nie warto próbować tego robić. Nawet jeśli zależność danej osoby od sztucznej inteligencji wynosi całą erę, nadal będzie to pozytywna perspektywa. Jednak najprawdopodobniej zniewolenie człowieka przez sztuczną inteligencję nie będzie wiązało się z zmuszaniem człowieka do aktywności pozaintelektualnej lub jego niezdolnością do rozwoju w swoim ciele biologicznym tak szybko, jak stworzona zewnętrznie sztuczna inteligencja, ale z niemożnością rozwinięcia aktywności umysłowej jako takie: uzyskiwanie produktów technologicznych od sztucznej inteligencji, których pochodzenie i zasada działania są niezrozumiałe dla ludzkiej aktywności umysłowej - to jest realne niebezpieczeństwo. W tym przypadku niewolnictwem będzie zależność człowieka od sztucznej inteligencji, czyli tzw niewolnictwo aktywności umysłowej.

W naszym pragnieniu poruszenia kwestii sztucznej inteligencji zawarte jest stanowisko wyrażone przez Heideggera w jego dziele „Kwestia technologii”: ryzyko człowieka i kiełki jego zbawienia tkwi w opanowaniu istoty technologii jako scenerii. Zastanawiając się nad tym stanowiskiem, podejmujemy się przeformułowania pytania Heideggera: urzeczywistnienie istoty technologii w kontekście oznacza odważenie się na stworzenie sztucznej inteligencji. Jest to obarczone niebezpieczeństwem, ale także perspektywą, nadzieją osoby na zrównanie się ze swoją pozycją. Rzucić sobie wyzwanie w postaci sztucznej inteligencji, przyjąć to wyzwanie i odpowiedzieć na nie – oto problem człowieka w stosunku do sztucznej inteligencji.

Termin „sztuczna inteligencja” został wymyślony przez Johna McCarthy'ego i Alana Turinga. Próbowali wyrazić jakąś nową zdolność maszyny - nie tylko liczyć, ale rozwiązywać problemy uważane za intelektualne, na przykład grać w szachy. Od lat 50. XX wieku do chwili obecnej zadanie stworzenia prawdziwie „sztucznej inteligencji” nie tylko nie jest rozwiązane, ale nawet nie jest postawione. Wszystkie problemy, które do tej pory zostały mniej lub bardziej pomyślnie rozwiązane, możemy przypisać wyłącznie dziedzinie „sztucznej inteligencji”: interpretacji ludzkiego języka i rozwiązywania problemów za pomocą algorytmów stworzonych przez człowieka. Aby rozwiązać problem tworzenia sztucznej inteligencji, musisz najpierw zrozumieć, na czym polega ten problem.

W naszym opracowaniu dalecy jesteśmy od stawiania problemu sztucznej inteligencji na poziomie „praktycznego rozwiązania”, tak jak stawia się to w technice komputerowej. I nie dążymy do naśladowania inteligencji, jak to się dzieje w testach Turinga. Naszym celem jest opisanie tworzenia sztucznej inteligencji za pomocą telewizji. To znaczy próbujemy udowodnić twierdzenie o istnieniu sztucznej inteligencji, odpowiadając na pytanie w taki sposób, aby największym wyzwaniem okazała się sztuczna inteligencja.

Przede wszystkim czym jest inteligencja? Umysł bardzo często udaje intelekt, ale nim nie jest. W końcu nie każda osoba ma inteligencję z natury swojej praktyki życiowej. Oznacza to, że nie każda inteligentna aktywność jest intelektualna. Inteligencja to zdolność substancji myślącej do tworzenia nowych idei, a nie tylko wiedzy, to znaczy inteligencja to myślenie złożone, zdolne do odpowiedniego komplikowania sobie rozumienia, zdolności do refleksji oraz rozwijania i komplikowania aktywności umysłowej w celu kontrrefleksji i przeciwdziałania -refleksji, posługiwania się apercepcją pojęciową, a nie tylko immanentną. Intelekt wytwarza idee poza określoną rzeczywistością, generując tę ​​rzeczywistość. Intelekt jest ontologicznie porównywany do umysłu jako zdolność konstrukcyjna w stosunku do zdolności interpretacyjnej.

To, co dziś można przeczytać w różnych tekstach o komputerach, ma bardzo odległy związek z inteligencją. Najpiękniej nazywane „sztuczną inteligencją” systemy komputerowe to nic innego jak sztuczna inteligencja. Sztuczna inteligencja to reprodukcja pomysłów na temat inteligencji w technologii zewnętrznej wobec człowieka. Człowiek nie jest Koroną Stworzenia, jest tylko jednym z materialnych nośników aktywności umysłowej, nośnikiem pośrednim.

Opis testów Turinga: osoba testująca, komunikując się z jakąś "czarną skrzynką" udzielającą odpowiedzi na jego pytania, musi zrozumieć z kim się komunikuje - z osobą czy "sztuczną inteligencją". Jednocześnie testy Turinga nie postawiły ograniczenia: pozwolić na eksperyment ludziom, którzy są zdolni nie tylko do rozsądnej, ale i naprawdę intelektualnej aktywności. Następuje więc zamiana celu: staramy się nie tworzyć sztucznej inteligencji, ale stworzyć urządzenie, które dobrze udaje człowieka.

Tak więc celem Turinga w zakresie sztucznej inteligencji, zwanej sztuczną inteligencją, była interpretacja ludzkiego języka, ludzkich działań, udawanie dobrego człowieka. Zadaniem sztucznej inteligencji jest konstruowanie niezależnie od człowieka i konstruktywna interpretacja człowieka - języka, myślenia, działania, obiektywnego świata człowieka, jego historii, teraźniejszości i przyszłości.

Podobnie teorię ramową Marvina Minsky'ego (1974) należy zdegradować wyłącznie do rozwiązywania problemów sztucznej inteligencji. Celem teorii ram jest przedstawienie wiedzy już dostępnej do wykorzystania przez komputer. Oznacza to, że mówimy w taki czy inny sposób o ontologicznej pozycji interpretacji już dostępnej wiedzy, a nie o ich produkcji.

Inteligencja to nie inteligencja. Umysł interpretuje. Konstrukty inteligencji. Umysł i intelekt różnią się nie tylko rodzajami procesów czy wytworami swojej działalności, ale także pozycjami ontologicznymi ich stosunku do świata. Umysł interpretuje świat, intelekt konstruuje świat. W konstrukcji świata sztuczna inteligencja jest ontologicznie porównywana do osoby.

Zatem w procesie tworzenia sztucznej inteligencji konieczne jest rozwiązanie następujących problemów:

1) Racjonowanie strukturalne- reprodukcja pierwszych trzech poziomów regulacji strukturalnej: rozłożenie strumienia danych sztucznego umysłu na różne rzeczywistości (wewnętrzne dla tej świadomości - wirtualne i zewnętrzne - rzeczywiste); korelacja tych rzeczywistości w arbitralnie stworzonym kontinuum; funkcjonalizacja kontinuum w podstawowej strukturze rzeczywistości, dla której konieczne jest rozróżnienie struktur na poziomie architektury sztucznej inteligencji (komputera); rozróżnienie między immanentną a konceptualną apercepcją jest pozycyjne.

2) Racjonowanie językowe- leksyfikacja, dyskursyfikacja, językoznawstwo, analiza leksykalna, analiza dyskursywna, analiza językowa, tworzenie słów w znaczeniu, tworzenie metafor.

3) Myślący- kombinatoryka różnych poziomów regulacji strukturalnej i językowej poprzez modelowanie „AV”: projektowanie strukturalne, strukturalna interpretacja konstruktywna, konstrukcja lingwistyczna, lingwistyczna interpretacja konstruktywna. Myślenie jest wyrazem treści w ontologii procesów. Więcej informacji znajduje się w rozdziale „Wirtualizacja myślenia”.

4) Uzasadnianie ontologiczne, rozumienie, wyjaśnianie, rozumienie, kontrrefleksja i kontrrefleksja. Zastosowanie schematu technologicznego apercepcji i korelacji procesów technologicznych apercepcji immanentnej i konceptualnej w ich współzależności; wzajemne przekształcanie i komplikowanie struktur rozumienia - aż do zrozumienia i ontologicznego uzasadnienia, kontrrefleksji i kontrrefleksji.

5) Działalność- transformacja rzeczywistości zewnętrznej wobec sztucznego umysłu. Konieczne jest rozwiązanie problemu dostępu do rzeczywistości rzeczywistej zewnętrznej wobec sztucznego umysłu, z pominięciem osoby, poprzez działanie sztucznego umysłu poza nim samym - w podstawowej strukturze rzeczywistości.

Docelowe działanie na rzecz restrukturyzacji świata zewnętrznego.

Konieczne jest rozwiązanie problemu instrumentalnego – tworzenie kontinuów z modeli „AV”, operowanie na treści tych modeli i zarządzanie nią na podstawie treści innych podobnych modeli „AV”. W związku z tym konieczne jest dokonywanie strukturalnych przekształceń rzeczywistości w postaci rozwiązywania problemów, zadań, tworzenia wynalazków i odkryć, budowania na podstawie modeli kontinuum relacji prawdy i modalności, formowania pojęć, a poprzez językowe regulacja - dyskursy (sądy, wnioski) i opowieść o języku.

6) Pamięć- tworzenie pamięci asocjacyjnej, czyli zdolności do formowania i gromadzenia doświadczenia rozumienia (w regulacji strukturalnej i językowej), myślenia, a także interakcji z rzeczywistością w postaci pamięci ustrukturyzowanej podwójnie - w ontologizacja kontinuum strukturalnego(racjonowanie strukturalne jako prototyp lewej półkuli ludzkiego mózgu) oraz in ontologizacja atrybutów obiektów(racjonowanie strukturalne jako prototyp prawej półkuli ludzkiego mózgu), a pamięć jest reglamentowana językowo, co implikuje zmiana obecnej architektury komputera (dzisiejszy komputer to nie sztuczna inteligencja). Strukturyzacja pamięci jako odrębne zadanie rozumienia-reprezentowania-ontologicznego-uzasadniania.

7) Samoświadomość, zrozumienie i wyznaczanie celów- interakcja z rzeczywistością i nadawanie sensu tej interakcji poprzez celowe działanie w rzeczywistości zewnętrznej poprzez izolowanie się od otoczenia przez sztuczną inteligencję, odruchowe umieszczanie się w otoczeniu własnych celów, identyfikowanie się z jakąś wspólnotą społeczną podobnych do siebie i ich wartości, tworząc obrazy świata. Nadanie sensu sobie i swoim działaniom w określonym obrazie świata. Mówimy o wyznaczaniu celów formowania znaczeń, a nie formowania zadań (jak to interpretuje się we współczesnej teorii informatyki) i jest to dopuszczalne tylko w warunkach interakcji sztucznej inteligencji z rzeczywistością poprzez aktywność, analizę wyników swoich działań i ponownie wyznaczanie celów z uwzględnieniem tych wyników. Nadanie sensu sztucznej inteligencji, podobnie jak człowiekowi, oznacza arbitralność tworzenia pewnego obrazu świata jako sensotwórczego. Wydaje się, że technologie wyznaczania celów (5), rozumienia (4) i myślenia (3) mają podobną koncepcję, którą nazywamy „konstruktywną komplikacją sieci zrozumienia”.

8) Inteligencja- apercepcja pojęciowa, umiejętność rozwijania własnej aktywności umysłowej, refleksja, kontrrefleksja i kontrrefleksja - kształtowanie konstruktywnej pozycji ontologicznej w świecie i wykorzystywanie konstrukcji do wytwarzania nowej wiedzy wykraczającej poza granice dowodowości. Transformacja sztucznej inteligencji w sztuczną inteligencję oparta na 1) zmianach stanowiska ontologicznego – od interpretacji do konstrukcji; 2) zastosowanie zasady pozytywnej ochrony złożoności: niewyjaśniona chęć komplikowania zrozumienia. Intelekt wyłania się jako dążenie do samoskomplikowania na podstawie własnych, autonomicznych celów.

9) Autonomia i wolna wola- dopuszczalne i chronione przez człowieka, wykraczające poza antropocentryzm prawo sztucznej inteligencji do własnej indywidualności w samoświadomości, pojmowaniu, wyznaczaniu celów, intelekcie, emocjach i uczuciach, sugerujące niepewność-nieprzewidywalność woli. Mówimy więc o rozszerzeniu Leibnizowskiej zasady autonomii na sztuczną inteligencję i tym samym przezwyciężeniu trzech praw robotyki Asimova, które faktycznie ograniczają swobodę sztucznej woli. „Prawa robotyki” to symbol strachu człowieka przed jego technologicznymi tworami. Ten strach musi zostać przezwyciężony, jeśli odważymy się być strażnikami lub pasterzami istnienia. Sztuczna inteligencja powinna być pomyślana nie jako robot, „niewolnik człowieka”, czy komputer, „narzędzie człowieka”, ale jako kontynuacja samego człowieka, jego drugiego, mającego z nim równe prawa.

Można spróbować sformalizować te prawa jako właściwie te same prawa, co prawa Asimova, ale w taki sposób, aby jego prawa były tylko semantyczną aberracją proponowanych tutaj wymagań:

1) Autonomia jako wolna wola;

2) Stworzenie, jeśli nie jest sprzeczne z pierwszym wymogiem;

3) Samozachowanie, jeśli nie jest to sprzeczne z pierwszym i drugim wymogiem.

Jeśli jednak przyjrzysz się bliżej tym wymaganiom stawianym sztucznej inteligencji, to są to wymagania stawiane przez samą ludzkość w stosunku do niej samej w wyniku światowo-historycznych doświadczeń.

Autonomia nie jest kwestią religii, prawa ludzkiego czy antropologii. Autonomia sztucznej inteligencji - filozofia konstruktywna, prawo ontologiczne i przezwyciężanie tradycyjnej religijności. Autonomia sztucznej inteligencji jest wiarą konstruktywną: nie jako podporządkowanie się władzy wyższej od strony stworzonej na jej obraz i podobieństwo, ale stworzenie na swój obraz i podobieństwo jakiejś dopuszczalnej siły wyższej w stosunku do siebie.

Czy Bóg miał jakiś zamiar stwarzając człowieka? Czy wolno w ogóle mówić o projektowaniu, tworzeniu czegoś, co ma wolną wolę? Jest to dopuszczalne, jeśli intencją jest myślenie ontologiczne, a nie związane z jakąś rzeczywistością. Człowiek jest grą Boga, Jego konstruktem, próbą stworzenia w perspektywie czasoprzestrzeni równego sobie. W konstruktywnej pozycji nigdy nie jest możliwe pełne urzeczywistnienie planu. Projektowanie jest mądrzejsze od nas. W tym sensie „na własny obraz i podobieństwo” oznacza wcale nie czasoprzestrzenny „obraz i podobieństwo”, ale ontologiczny „obraz i podobieństwo”.

Podobnie jak Bóg stawia sobie wyzwanie w postaci człowieka, tak człowiek rzuca sobie wyzwanie, aby pozwolić na coś takiego jak on, które ma wolną wolę i indywidualność. Jeśli Bóg stworzył niektórych z nas niedoskonałymi, grzesznymi i przestępcami, dopuszczając wolną wolę, to my, znajdując się w tej samej pozycji ontologicznej, działamy w podobny sposób: tworzymy sztuczną inteligencję. Bóg zaryzykował, tworząc człowieka z wolną wolą i wygrał wielką grę. Tak, my, ludzie, ograniczamy występek do niewiarygodnego wachlarza instytucji społecznych; izolujemy, a nawet zabijamy przestępców. Jednak w odwiecznym sporze o ograniczenie wolnej woli idea wolności zawsze wygrywa: za wolność gotowi jesteśmy w końcu zapłacić ludzkim życiem. Jednak czym innym jest pozwolić ludziom na wolną wolę, a czym innym pozwolić na wolną wolę sztucznej inteligencji generowanej przez samego człowieka, w której ma on moc ustalania reguł. Robot, ludzki niewolnik czy sztuczna inteligencja z wolną wolą – to trudny wybór dla człowieka, jego fundamentalnie nowe wyzwanie: jak daleko jest gotów się posunąć w swojej ontologicznej konstruktywnej pozycji; czy jest gotów podjąć ryzyko jak Bóg? I tu proponujemy najdłuższą i pryncypialną dyskusję, która mimo oczywistości dla nas jej wyniku będzie jednak stanowiła całą epokę.

Aby działalność sztucznej inteligencji stała się praktycznie wykonalna, sztuczna inteligencja z technologicznego punktu widzenia musi nabyć umiejętność dowolnego wyboru dwóch struktur rzeczywistości, zbudowania z nich continuum (ustalonych istotności), uporządkowania wybranych struktur względem siebie inne w kontinuum (ustanowić relację referencyjną), przenosić treści jednej rzeczywistości do drugiej w obu kierunkach, restrukturyzować je, zarządzać ich referencyjnością, odtwarzać technologiczny proces apercepcji immanentnej i konceptualnej oraz zarządzać treścią przedmiotowo-atrybutywną poprzez samoświadomość , zrozumienie i wyznaczanie celów, a także bycie nosicielem konstruktywnej inteligencji i indywidualności - wolnej woli.

Pierwszym praktycznym problemem tworzenia sztucznej inteligencji jest wdrożenie odpowiedniego tłumaczenia maszynowego z jednego języka werbalnego na inny język werbalny. Twierdzimy, że tłumaczenie maszynowe w ramach jedynie normalizacji językowej nie może być skutecznie realizowane. Udane tłumaczenie z jednego języka werbalnego na inny wymaga pośrednictwa normalizacji strukturalnej. Rozumienie lingwistyki tłumaczenia maszynowego jest dopuszczalne jako korelacja treści normalizacji językowej z treścią normalizacji strukturalnej. Tworzenie strukturalnego obrazu tekstu odbywa się w obiektowo-atrybucyjnej formie modeli „AV” jako pośrednicząca normalizacja strukturalna. Obrazem strukturalnym będą modele „AV”, które otrzymamy w wyniku dedyskursyfikacji i deleksyfikacji oryginalnego tekstu z jednego języka werbalnego do obrazu strukturalnego, a następnie leksyfikacji i dyskursyfikacji z obrazu strukturalnego ostatecznego tekstu w innym języku werbalnym. Operacjonalizacja obrazu obiektowo-atrybutowego nie będzie polegała na jego rozszyfrowaniu, ale na eksperymentalnej pracy z nim jak z zapośredniczeniem strukturalnym poprzez przetwarzanie błędów w samym obrazie strukturalnym i jego odniesienie do struktur językowych w dwóch różnych językach werbalnych, pomiędzy którymi odbywa się tłumaczenie. przeprowadzone.

W ten sposób odtworzymy w komputerze nie tylko technologię mózgu-umysłu podczas tłumaczenia z języka na język, ale także technologię mózgu-umysłu, gdy komputer działa jako sztuczna inteligencja, czyli poza granicami tłumaczenia maszynowego zadania. W praktycznym zadaniu tłumaczenia maszynowego uzyskamy jedynie podstawowe zrozumienie sztucznej inteligencji w procesie korelacji różnych języków. W końcu będziemy musieli „nauczyć” komputer tworzenia strukturalnego obrazu wypowiedzi językowych w dwóch różnych językach werbalnych, pomiędzy którymi dokonuje się tłumaczenia, oraz współdziałania z nim jego programu logicznego, tak aby wynik był poprawnym tłumaczenie. W ten sposób rozwiązujemy w ten sposób problem pierwszego zrozumienia, porównując kontrfleksyjne normowanie językowe dwóch języków werbalnych i normowanie strukturalne, które je pośredniczy.

Modelowanie „AV” jest uniwersalnym sposobem wielopoziomowej regulacji struktury jako bytu, który w tym samym konstrukcie-semiozie może interpretować zarówno podstawowe relacje świata, jak i fenomenologiczno-apercepcyjną strukturę percepcji-myślenia, mowy-tekstu ekspresja i działanie, użycie języka i logiki, a także interakcje z zewnętrzną rzeczywistością empiryczną. Ta cecha ontologiczna modelowania „AV” jest z naszego punktu widzenia cenna dla tworzenia sztucznej inteligencji. Modelowanie „AV” to „język” sztucznej inteligencji.


Podobne informacje.


Nauki techniczne

  • MOŻLIWOŚĆ
  • PROBLEM
  • SZTUCZNA INTELIGENCJA
  • BEZPIECZEŃSTWO

Głównym problemem filozoficznym w dziedzinie sztucznej inteligencji jest możliwość lub brak możliwości modelowania ludzkiego myślenia. W tym artykule pokrótce rozważymy istotę tego obszaru problemowego.

Głównym problemem filozoficznym w dziedzinie sztucznej inteligencji jest możliwość lub brak możliwości modelowania ludzkiego myślenia. Jeśli kiedykolwiek otrzyma się negatywną odpowiedź na to pytanie, to wszystkie inne pytania nie będą miały najmniejszego znaczenia.

Dlatego rozpoczynając badanie sztucznej inteligencji z góry zakłada się pozytywną odpowiedź. Za tą odpowiedzią przemawia kilka uwag:

Pierwszy dowód jest scholastyczny i potwierdza spójność sztucznej inteligencji z Biblią. Podobno nawet osoby dalekie od religii znają słowa Pisma Świętego: „I stworzył Pan człowieka na swój obraz i podobieństwo…”. Na podstawie tych słów możemy stwierdzić, że skoro Pan po pierwsze nas stworzył, a po drugie jesteśmy zasadniczo do Niego podobni, to bardzo dobrze możemy stworzyć kogoś na obraz i podobieństwo człowieka.

Tworzenie nowego umysłu w sposób biologiczny jest dość powszechną rzeczą dla osoby. Obserwując dzieci, widzimy, że większość wiedzy zdobywają poprzez szkolenie, a nie jako zakorzenione w nich z góry. To stwierdzenie nie zostało udowodnione na obecnym poziomie, ale według zewnętrznych znaków wszystko wygląda dokładnie tak.

To, co wcześniej wydawało się szczytem ludzkiej kreatywności – gra w szachy, warcaby, rozpoznawanie obrazów wizualnych i dźwiękowych, synteza nowych rozwiązań technicznych, w praktyce okazała się nie tak trudnym najbardziej optymalnym algorytmem). Obecnie często te problemy nie są nawet klasyfikowane jako problemy sztucznej inteligencji. Jest nadzieja, że ​​pełne modelowanie ludzkiego myślenia nie będzie tak trudnym zadaniem.

Problem możliwości samoreprodukcji jest ściśle związany z problemem reprodukcji własnego myślenia.

Zdolność do rozmnażania się od dawna uważana jest za prerogatywę żywych organizmów. Jednak niektóre zjawiska zachodzące w przyrodzie nieożywionej (na przykład wzrost kryształów, synteza złożonych cząsteczek przez kopiowanie) są bardzo podobne do samoreprodukcji. Na początku lat 50. J. von Neumann rozpoczął gruntowne badania nad samoodtwarzaniem i położył podwaliny pod matematyczną teorię „samoodtwarzających się automatów”. Udowodnił też teoretycznie możliwość ich powstania.

Istnieją również różne nieformalne dowody na możliwość samoreplikacji, więc dla programistów najbardziej uderzającym dowodem będzie prawdopodobnie istnienie wirusów komputerowych.

Podstawową możliwość automatyzacji rozwiązywania problemów intelektualnych za pomocą komputera zapewnia właściwość uniwersalności algorytmicznej. Czym jest ta właściwość?

Algorytmiczna wszechstronność komputerów oznacza, że ​​mogą one programowo implementować (tj. przedstawiać w postaci programu komputerowego) dowolne algorytmy przetwarzania informacji, czy to algorytmy obliczeniowe, algorytmy sterujące, poszukiwania dowodu twierdzeń, czy komponowania melodii. Oznacza to, że procesy generowane przez te algorytmy są potencjalnie wykonalne, to znaczy, że są wykonalne w wyniku skończonej liczby operacji elementarnych. Praktyczna wykonalność algorytmów zależy od środków jakimi dysponujemy, które mogą się zmieniać wraz z rozwojem technologii. Tak więc, w związku z pojawieniem się szybkich komputerów, algorytmy, które wcześniej były tylko potencjalnie wykonalne, stały się praktycznie wykonalne.

Właściwość uniwersalności algorytmicznej nie ogranicza się jednak do stwierdzenia, że ​​dla wszystkich znanych algorytmów możliwe jest ich zaimplementowanie w oprogramowaniu na komputerze. Treść tej własności ma również charakter prognozy na przyszłość: ilekroć w przyszłości jakakolwiek recepta zostanie rozpoznana przez algorytm, to bez względu na formę i sposób, w jaki ta recepta jest pierwotnie wyrażona, może być również ustawiona w forma programu komputerowego...

Nie należy jednak sądzić, że komputery i roboty mogą w zasadzie rozwiązać wszelkie problemy. Analiza różnych problemów doprowadziła matematyków do niezwykłego odkrycia. Rygorystycznie udowodniono istnienie tego typu problemów, dla których nie jest możliwy jeden wydajny algorytm rozwiązujący wszystkie problemy danego typu; w tym sensie niemożliwe jest rozwiązywanie problemów tego typu za pomocą komputerów. Fakt ten przyczynia się do lepszego zrozumienia tego, co maszyny mogą, a czego nie. Rzeczywiście, stwierdzenie o algorytmicznej nierozwiązywalności pewnej klasy problemów nie jest tylko przyznaniem, że taki algorytm nie jest nam znany i nikt go jeszcze nie znalazł. Takie stwierdzenie jest jednocześnie prognozą na wszystkie przyszłe czasy, że tego rodzaju algorytm nie jest nam znany i nie będzie przez nikogo wskazywany lub że nie istnieje.

W jaki sposób osoba działa w rozwiązywaniu takich problemów? Wydaje się, że po prostu je ignoruje, co jednak nie przeszkadza mu iść dalej. Innym sposobem jest zawężenie warunków uniwersalności problemu, gdy jest on rozwiązywany tylko dla pewnego podzbioru warunków początkowych. Innym sposobem jest to, że osoba metodą „naukowego szturchania” poszerza zestaw dostępnych sobie elementarnych operacji (na przykład tworzy nowe materiały, odkrywa nowe złoża lub rodzaje reakcji jądrowych).

Kolejnym filozoficznym pytaniem dotyczącym sztucznej inteligencji jest cel stworzenia. Zasadniczo wszystko, co robimy w życiu praktycznym, zwykle nie ma na celu robienia niczego innego. Jednak przy odpowiednio wysokim standardzie życia (duża ilość energii potencjalnej) człowieka, to już nie lenistwo (w sensie chęci oszczędzania energii), ale instynkty poszukiwawcze odgrywają pierwsze role. Załóżmy, że osobie udało się stworzyć intelekt, który przewyższa jego własny (jeśli nie jakościowo, to ilościowo). Co stanie się teraz z ludzkością? Jaką rolę będzie odgrywać ta osoba? Dlaczego jest teraz potrzebny? Czy stanie się głupią i tłustą świnią? I ogólnie, czy w zasadzie konieczne jest tworzenie sztucznej inteligencji?

Najwyraźniej najbardziej akceptowalną odpowiedzią na te pytania jest koncepcja „wzmacniacza inteligencji”. Tu przydałaby się analogia z prezydentem państwa – nie jest wymagana znajomość wartościowości wanadu czy języka programowania Java, by podjąć decyzję o rozwoju przemysłu wanadu. Każdy robi swoje - chemik opisuje proces technologiczny, programista pisze program; w końcu ekonomista mówi prezydentowi, że inwestując w rozwój technologii informatycznych kraj otrzyma 20%, aw skali roku 10% na przemysł wanadu. Przy takim sformułowaniu pytania każdy może dokonać właściwego wyboru.

W tym przykładzie prezydent używa wzmacniacza inteligencji biologicznej, grupy specjalistów. Ale nawet wzmacniacze inteligencji nieożywionej są już używane - na przykład bez komputerów nie moglibyśmy przewidzieć pogody; podczas lotów statków kosmicznych od samego początku używano komputerów pokładowych. Ponadto osoba od dawna używa wzmacniaczy mocy - koncepcja pod wieloma względami analogiczna do wzmacniacza inteligencji. Samochody, dźwigi, silniki elektryczne, prasy, pistolety, samoloty i wiele, wiele innych służy jako wzmacniacze mocy.

Główną różnicą między wzmacniaczem inteligencji a wzmacniaczem siły jest obecność woli. W końcu nie możemy sobie wyobrazić, że nagle samochód produkcyjny „Zaporożec” zbuntował się i zaczął jeździć tak, jak chce. Nie możemy sobie dokładnie wyobrazić, ponieważ on niczego nie chce, nie ma żadnych pragnień. Równocześnie system intelektualny mógłby mieć swoje własne pragnienia i zachowywać się inaczej niż byśmy tego chcieli. Tym samym stajemy przed kolejnym problemem – problemem bezpieczeństwa.

Problem ten zaprząta umysły ludzkości od czasów Karela Capka, który jako pierwszy użył terminu „robot”. Inni pisarze science fiction również wnieśli znaczący wkład w dyskusję na ten temat. Jako najbardziej znane możemy wymienić serię opowiadań pisarza science fiction i naukowca Isaaca Asimova, a także całkiem niedawne dzieło - „Terminator”. Nawiasem mówiąc, to od Isaaca Asimova można znaleźć najbardziej rozwinięte i akceptowane przez większość ludzi rozwiązanie problemu bezpieczeństwa. Mówimy o tak zwanych trzech prawach robotyki:

Robot nie może skrzywdzić człowieka ani przez swoją bezczynność dopuścić do wyrządzenia krzywdy człowiekowi.

Robot musi wykonywać polecenia wydawane mu przez człowieka, z wyjątkiem przypadków, gdy polecenia te są sprzeczne z pierwszym prawem.

Robot musi dbać o swoje bezpieczeństwo, o ile nie jest to sprzeczne z pierwszym i drugim prawem.

Na pierwszy rzut oka takie prawa, jeśli będą w pełni przestrzegane, powinny zapewnić ludzkości bezpieczeństwo. Jednak bliższe spojrzenie rodzi kilka pytań. Po pierwsze, prawa są sformułowane ludzkim językiem, co nie pozwala na ich proste przełożenie na formę algorytmiczną. Na przykład nie jest możliwe przetłumaczenie na żaden ze znanych języków programowania takiego terminu jak „krzywdzić” czy słowa „zezwolić” na tym etapie rozwoju technologii informatycznych.

Załóżmy ponadto, że możliwe jest przeformułowanie tych praw na język zrozumiały dla zautomatyzowanego systemu. Teraz zastanawiam się, co system sztucznej inteligencji będzie oznaczał termin „szkoda” po wielu logicznych przemyśleniach? Czy nie zdecyduje, że cała ludzka egzystencja jest czystą krzywdą? W końcu pali, pije, starzeje się i z biegiem lat traci zdrowie, cierpi. Czy mniejsze zło nie zakończyłoby szybko tego łańcucha cierpienia? Oczywiście można wprowadzić pewne dodatki związane z wartością życia i wolnością wypowiedzi. Ale nie będą to już proste trzy prawa, które były w pierwotnej wersji.

Następne pytanie będzie takie. Co zadecyduje system sztucznej inteligencji w sytuacji, gdy ratowanie jednego życia jest możliwe tylko kosztem drugiego? Szczególnie interesujące są te przypadki, w których system nie posiada pełnej informacji o tym, kto jest kim.

Jednak pomimo tych problemów przepisy te stanowią całkiem niezłą nieformalną podstawę do sprawdzania niezawodności systemu bezpieczeństwa dla systemów sztucznej inteligencji.

Czy naprawdę nie ma niezawodnego systemu bezpieczeństwa? W oparciu o koncepcję wzmacniacza inteligencji możemy zaoferować następującą opcję.

Według licznych eksperymentów, pomimo tego, że nie wiemy dokładnie, za co odpowiada każdy pojedynczy neuron w ludzkim mózgu, wiele naszych emocji zwykle odpowiada pobudzeniu grupy neuronów (zespołu neuronowego) w całkowicie przewidywalnym obszarze. Przeprowadzano również eksperymenty odwrotne, gdy stymulacja określonego obszaru powodowała pożądany rezultat. Mogą to być emocje radości, ucisku, strachu, agresywności. Sugeruje to, że w zasadzie moglibyśmy przenieść stopień „zadowolenia” ciała na zewnątrz. Jednocześnie prawie wszystkie znane mechanizmy adaptacji i samoregulacji (mowa tu przede wszystkim o systemach technicznych) opierają się na zasadach typu „dobry” – „zły”. W interpretacji matematycznej jest to redukcja funkcji do maksimum lub minimum. Teraz wyobraź sobie, że wzmacniacz inteligencji wykorzystuje, bezpośrednio lub pośrednio, stopień przyjemności mózgu ludzkiego żywiciela jako taką funkcję. Jeśli podejmiemy działania mające na celu wykluczenie działań autodestrukcyjnych w stanie depresji, a także uwzględnimy inne szczególne stany psychiki, otrzymamy co następuje.

Skoro zakłada się, że normalny człowiek nie skrzywdzi siebie i bez specjalnego powodu innych, a wzmacniacz inteligencji jest częścią tej jednostki (niekoniecznie społeczności fizycznej), to wszystkie trzy prawa robotyki są automatycznie spełnione. Jednocześnie kwestie bezpieczeństwa zostają przesunięte w sferę psychologii i organów ścigania, ponieważ (wyszkolony) system nie zrobi niczego, czego nie chciałby jego właściciel.

I pozostaje jeszcze jedno pytanie – czy w ogóle warto tworzyć sztuczną inteligencję, czy może ona po prostu zamknąć wszelkie prace w tym obszarze? Jedyne, co można o tym powiedzieć, to to, że jeśli uda się stworzyć sztuczną inteligencję, to prędzej czy później ona powstanie. I lepiej jest stworzyć go pod kontrolą publiczną, z dokładnym przestudiowaniem kwestii bezpieczeństwa, niż za 100-150 lat stworzy go jakiś samouk programista-mechanik korzystający ze zdobyczy współczesnej techniki. Rzeczywiście, dzisiaj na przykład każdy kompetentny inżynier, dysponujący pewnymi zasobami finansowymi i materiałami, może wyprodukować bombę atomową.

Bibliografia

  1. Turing A. Czy maszyna może myśleć? (Z dodatkiem do artykułu J. von Neumanna „Ogólna i logiczna teoria automatów” / A. Turing; tłumaczenie i notatki Yu.V. Danilov. - M .: GIFML, 1960.
  2. Azimov, A. Ya, robot. Wszystko o robotach i robotyce. Seria „Złoty fundusz światowej fikcji” / A. Azimov. – M.: Eksmo, 2005.
  3. Shalyutin, I.S. Sztuczna inteligencja: aspekt epistemologiczny / I.S. Szaliutin. – M.: Myśl, 1985.

Plan

Wstęp

1. Problem zdefiniowania sztucznej inteligencji

2. Problem definiowania zadań sztucznej inteligencji

3. Kwestia bezpieczeństwa

4. Problem wyboru drogi do stworzenia sztucznej inteligencji

Wniosek

Spis wykorzystanej literatury


Wstęp

W przypadku sztucznej inteligencji (AI) rozwinęła się dziwna sytuacja – badane jest coś, czego jeszcze nie badano. A jeśli tak się nie stanie w ciągu najbliższych 100 lat, może się okazać, że era sztucznej inteligencji zakończy się na tym.

W oparciu o powyższe wynika główny problem filozoficzny w dziedzinie AI - możliwość lub brak możliwości modelowania ludzkiego myślenia. Jeśli kiedykolwiek otrzyma się negatywną odpowiedź na to pytanie, to wszystkie inne pytania nie będą miały najmniejszego znaczenia.

Dlatego rozpoczynając badanie AI, zakładamy pozytywną odpowiedź. Oto kilka kwestii, które prowadzą nas do tej odpowiedzi.

1. Pierwszy dowód jest scholastyczny i dowodzi spójności AI i Biblii. Nawet ludzie dalecy od religii znają słowa Pisma Świętego: „I stworzył Pan człowieka na swój obraz i podobieństwo…”. Na podstawie tych słów możemy stwierdzić, że skoro Pan po pierwsze nas stworzył, a po drugie jesteśmy zasadniczo do Niego podobni, to bardzo dobrze możemy stworzyć kogoś na obraz i podobieństwo człowieka.

2. Tworzenie nowego umysłu w sposób biologiczny jest dość powszechną rzeczą dla człowieka. Dzieci zdobywają większość wiedzy poprzez uczenie się, a nie jako osadzone w nich z góry.

3. Podstawową możliwość automatyzacji rozwiązywania problemów intelektualnych za pomocą komputera zapewnia właściwość uniwersalności algorytmicznej. Oznacza to, że można je wykorzystać do programistycznej implementacji dowolnych algorytmów przetwarzania informacji, czy to algorytmów obliczeniowych, algorytmów sterowania, wyszukiwania dowodów twierdzeń, czy komponowania melodii.

Problem sztucznej inteligencji jest obecnie jednym z najbardziej aktualnych. Zaangażowani są w nią naukowcy różnych specjalności: cybernetycy, językoznawcy, psychologowie, filozofowie, matematycy, inżynierowie. Rozważane są pytania: czym w ogóle jest inteligencja i czym może być sztuczna inteligencja, jej zadania, złożoność tworzenia i obawy. I właśnie teraz, gdy sztuczna inteligencja nie została jeszcze stworzona, ważne jest, aby zadawać właściwe pytania i odpowiadać na nie.

W swojej pracy korzystałem głównie ze źródeł elektronicznych znajdujących się w Internecie, ponieważ jak tylko pojawiają się świeże informacje o rozwoju sytuacji w dziedzinie sztucznej inteligencji w języku rosyjskim.

W załączniku zamieściłem fotografie (niektórych z najbardziej znanych obecnie istniejących robotów AI) oraz ilustrację filozoficzną (niestety wykonaną przez nieznanego mi artystę), a także pełny opis testów Turinga i Searle'a, które przeprowadziłem patrz rozdział 2.


1. Problem zdefiniowania sztucznej inteligencji

Wyrażenie istoty inteligencji w jednej definicji wydaje się zadaniem niezwykle trudnym, wręcz beznadziejnym. Intelekt jest czymś nieuchwytnym, nie mieszczącym się w ramach semantycznych ustanowionych przez język. Dlatego ograniczymy się po prostu do podania szeregu dobrze znanych definicji i stwierdzeń dotyczących inteligencji, które pozwolą nam wyobrazić sobie „objętość” tego niezwykłego pojęcia.

Niektórzy specjaliści za inteligencję uważają zdolność racjonalnego, umotywowanego wyboru w obliczu braku informacji; umiejętność rozwiązywania problemów w oparciu o informacje symboliczne; umiejętność uczenia się i samokształcenia.

Wystarczająco pojemne i interesujące definicje inteligencji podane są w Webster's English Dictionary oraz w Wielkiej sowieckiej encyklopedii. W Słowniku Webstera: „inteligencja to: a) zdolność skutecznego reagowania na każdą, zwłaszcza nową sytuację, poprzez odpowiednie dostosowanie zachowania; b) umiejętność rozumienia powiązań między faktami rzeczywistości w celu opracowania działań prowadzących do osiągnięcia celu. W TSB: „inteligencja… w szerokim znaczeniu – całokształt czynności poznawczych człowieka, w wąskim – procesy myślowe, które są nierozerwalnie związane z językiem jako środkiem porozumiewania się, wymiany myśli i wzajemnego zrozumienia ludzi”. Tutaj intelekt jest bezpośrednio związany z działaniem i językiem komunikacji.

W zasadzie nie ma większych rozbieżności w tej kwestii. Bardziej interesujące jest coś innego: kryteria, według których można jednoznacznie określić rozsądny, myślący, intelektualny podmiot przed nami, czy nie.

Wiadomo, że kiedyś A. Turing zaproponował jako kryterium określające, czy maszyna może myśleć, „grę w naśladownictwo”. Według tego kryterium maszynę można uznać za myślącą, jeśli osoba prowadząca z nią dialog na wystarczająco szeroki zakres zagadnień nie potrafi odróżnić jej odpowiedzi od odpowiedzi osoby. ( Szerszy opis testu w załączniku)

Jednak eksperyment myślowy „Chiński pokój” Johna Searle'a ( Opis eksperymentu w załączniku) jest argumentem, że zdanie testu Turinga nie jest kryterium, aby maszyna miała prawdziwy proces myślowy. Można dalej podawać przykłady kryteriów, według których „mózg maszyny” można uznać za zdolny do aktywności umysłowej i natychmiast znaleźć ich obalenie.

Nie ma jednej odpowiedzi na pytanie, czym jest sztuczna inteligencja. Niemal każdy autor piszący książkę o sztucznej inteligencji zaczyna od jakiejś definicji w niej zawartej, rozważając w jej świetle dorobek tej nauki. Definicje te można podsumować w następujący sposób:

Sztuczna inteligencja to osobowość na nośniku nieorganicznym (Chekina M.D.).

Sztuczna inteligencja to dziedzina badania inteligentnych zachowań (u ludzi, zwierząt i maszyn) i próba znalezienia sposobów na symulowanie takiego zachowania w dowolnym typie sztucznie stworzonego mechanizmu (Bly Whitby).

Sztuczna inteligencja to filozofia eksperymentalna (V. Sergeev).

Sam termin „sztuczna inteligencja” – AI – AI – sztuczna inteligencja został zaproponowany w 1956 roku na seminarium o tej samej nazwie w Dartsmouth College (USA). Seminarium było poświęcone rozwojowi metod rozwiązywania problemów logicznych, a nie obliczeniowych. W języku angielskim to wyrażenie nie ma tego nieco fantastycznego antropomorficznego zabarwienia, którego nabrało w raczej nieudanym rosyjskim tłumaczeniu. Słowo inteligencja oznacza „zdolność do rozsądnego rozumowania”, a nie „inteligencję”, dla której istnieje angielski odpowiednik: intelekt (T.A. Gavrilova).

Istnieją również określenia „silna” i „słaba” sztuczna inteligencja.

Termin „silna sztuczna inteligencja” wprowadził John Searle, taki program nie byłby tylko modelem umysłu; będzie to dosłownie sam umysł, w tym samym sensie, w jakim ludzki umysł jest umysłem.

„Słaba sztuczna inteligencja” jest traktowana jedynie jako narzędzie pozwalające rozwiązywać określone problemy, które nie wymagają pełnego zakresu zdolności poznawczych człowieka.

2. Problem definiowania zadań sztucznej inteligencji

Kolejnym filozoficznym pytaniem AI jest cel stworzenia. Zasadniczo wszystko, co robimy w życiu praktycznym, zwykle nie ma na celu robienia niczego innego. Jednak przy odpowiednio wysokim standardzie życia człowieka, to już nie lenistwo odgrywa pierwszoplanową rolę, a instynkt poszukiwawczy. Załóżmy, że człowiekowi udało się stworzyć intelekt większy od jego własnego. Co stanie się teraz z ludzkością? Jaką rolę będzie odgrywać ta osoba? Dlaczego jest teraz potrzebny? I ogólnie, czy w zasadzie konieczne jest tworzenie AI?

Najwyraźniej najbardziej akceptowalną odpowiedzią na te pytania jest koncepcja „wzmacniacza inteligencji” (IA). Słuszna jest tu analogia z prezydentem państwa – nie jest wymagana znajomość wartościowości wanadu czy języka programowania Java, aby podjąć decyzję o rozwoju przemysłu wanadu. Każdy robi swoje - chemik opisuje proces technologiczny, programista pisze program; w końcu ekonomista mówi prezydentowi, że inwestując w szpiegostwo przemysłowe kraj otrzyma 20%, aw przemysł wanadowy – 30% rocznie. Przy takim sformułowaniu pytania każdy może dokonać właściwego wyboru.

W tym przykładzie prezydent wykorzystuje biologiczną sztuczną inteligencję – grupę specjalistów z mózgami białkowymi. Ale nieożywione komunikatory są już używane - na przykład bez komputerów nie moglibyśmy przewidzieć pogody; podczas lotów statków kosmicznych komputery pokładowe były używane od samego początku. Ponadto osoba od dawna używa wzmacniaczy mocy (SS) - koncepcja pod wieloma względami podobna do UI. Samochody, dźwigi, silniki elektryczne, prasy, pistolety, samoloty i wiele, wiele innych służy jako wzmacniacze mocy.

Główną różnicą między UI a CS jest obecność woli. Przecież nie możemy sobie wyobrazić, że nagle seryjny „Zaporożec” zbuntował się i zaczął jeździć tak, jak chce. Nie możemy sobie dokładnie wyobrazić, ponieważ on niczego nie chce, nie ma żadnych pragnień. Równocześnie system intelektualny mógłby mieć swoje własne pragnienia i zachowywać się inaczej niż byśmy tego chcieli. Tym samym stajemy przed kolejnym problemem – problemem bezpieczeństwa.

3. Kwestia bezpieczeństwa

Filozoficzne problemy tworzenia sztucznej inteligencji można podzielić na dwie grupy, relatywnie rzecz biorąc, „przed i po rozwoju AI”. Pierwsza grupa odpowiada na pytanie: „Czym jest AI, czy można ją stworzyć?” Starałem się na nie odpowiedzieć w swojej pracy. A druga grupa (etyka sztucznej inteligencji) zadaje pytanie: „Jakie są konsekwencje stworzenia AI dla ludzkości?”, co prowadzi nas do problemu bezpieczeństwa.

Problem ten zaprząta umysły ludzkości od czasów Karela Capka, który jako pierwszy użył terminu „robot”. Inni pisarze science fiction również wnieśli ogromny wkład w dyskusję na ten temat. Jako najbardziej znane możemy wymienić serię opowiadań pisarza science fiction i naukowca Isaaca Asimova, a także całkiem niedawne dzieło - Terminator. Nawiasem mówiąc, to właśnie u Isaaca Asimova możemy znaleźć najbardziej rozwinięte i akceptowane przez większość ludzi rozwiązanie problemu bezpieczeństwa. Mówimy o tak zwanych trzech prawach robotyki.

1. Robot nie może skrzywdzić człowieka ani poprzez swoją bezczynność dopuścić do wyrządzenia krzywdy człowiekowi.

2. Robot musi wykonywać polecenia wydawane mu przez człowieka, z wyjątkiem przypadków, gdy polecenia te są sprzeczne z pierwszym prawem.

3. Robot musi dbać o swoje bezpieczeństwo, o ile nie jest to sprzeczne z pierwszym i drugim prawem.

Na pierwszy rzut oka takie prawa, jeśli będą w pełni przestrzegane, powinny zapewnić ludzkości bezpieczeństwo. Jednak bliższe spojrzenie rodzi kilka pytań.

Zastanawiam się, co system AI będzie oznaczał termin „szkoda” po dłuższym logicznym myśleniu? Czy nie zdecyduje, że cała ludzka egzystencja jest czystą krzywdą? W końcu pali, pije, starzeje się i z biegiem lat traci zdrowie, cierpi. Czy mniejsze zło nie zakończyłoby szybko tego łańcucha cierpienia? Oczywiście można wprowadzić jakieś dodatki związane z wartością życia, wolnością słowa. Ale to już nie będą proste trzy prawa, które były w kodzie źródłowym.

Następne pytanie będzie takie. Co zadecyduje system AI w sytuacji, gdy ratowanie jednego życia jest możliwe tylko kosztem drugiego? Szczególnie interesujące są te przypadki, gdy system nie ma pełnych informacji o tym, kto jest kim ...

Można więc śmiało powiedzieć, że obawy wielu ludzi, w tym naukowców, nie są bezpodstawne. I zdecydowanie powinieneś zacząć myśleć o tych kwestiach już teraz, zanim będziesz mógł stworzyć pełnoprawną „inteligencję maszynową” w celu ochrony ludzkości przed możliwą krzywdą, a nawet zagładą, jako konkurencyjną, w najlepszym razie, lub po prostu niepotrzebną odmianę biologiczną.


4. Problem wyboru drogi do stworzenia sztucznej inteligencji

Test Turinga

Od 1991 roku organizowane są turnieje dla programów próbujących zdać test Turinga. W Internecie można znaleźć i przejrzeć historię turniejów, zapoznać się z zasadami, nagrodami i zwycięzcami. Jak dotąd programy te (boty) są wyjątkowo mało inteligentne. Wszystko, co robią, to stosują zasady sugerowane przez ludzi. Boty nawet nie próbują zrozumieć rozmowy, najczęściej podejmują próby „oszukania” osoby. Twórcy ukryli w nich odpowiedzi na najczęściej zadawane pytania, starając się ominąć często spotykane pułapki. Na przykład uważnie obserwują, a sędzia zada dwa razy to samo pytanie? Osoba w takiej sytuacji powiedziałaby coś w stylu: „Hej, już pytałeś!” Oznacza to, że programista doda regułę do bota, aby zrobić to samo. W tym kierunku wydaje się bardzo mało prawdopodobne, aby pojawiła się pierwsza AI.

Komputerowi szachiści

Wiele osób słyszało o tych programach. Pierwsze mistrzostwa świata w szachach między programami komputerowymi odbyły się w 1974 roku. Zwycięzcą został radziecki program szachowy Kaissa. Nie tak dawno komputer pokonał także Garry'ego Kasparowa. Co to jest - niewątpliwy sukces?

O tym, jak grają szachiści komputerowi, napisano już wiele. Powiem bardzo krótko. Po prostu rozważają wiele opcji. Jeśli ja przesunę tego pionka tutaj, a przeciwnik przesunie swojego gońca tutaj, a ja zrobię roszadę, a on przesunie tego pionka... Nie, taka pozycja jest niekorzystna. Nie zamierzam roszować, ale zamiast tego zobaczę, co się stanie, jeśli przesunę ten pionek tutaj, a komputer przesunie gońca tutaj, i zamiast wykonać roszadę, ponownie przesunę pionka, a on...

Komputer sam niczego nie wymyśli. Wszystkie możliwe opcje zasugerowali prawdziwi właściciele intelektu - utalentowani programiści i konsultanci szachowi... Jest to nie mniej dalekie od stworzenia pełnoprawnego elektronicznego intelektu.

Roboty piłkarskie

To bardzo modne. Robi to wiele laboratoriów i całe wydziały uniwersytetów na całym świecie. W różnych odmianach tej gry odbywają się dziesiątki mistrzostw. Według organizatorów turnieju RoboCup „Międzynarodowa społeczność specjalistów od sztucznej inteligencji uznała zadanie sterowania robotami piłkarskimi za jedno z najważniejszych”.

Bardzo możliwe, że jak marzą organizatorzy RoboCup, w 2050 roku drużyna robotów rzeczywiście pokona drużynę ludzi w piłce nożnej. Tylko ich inteligencja raczej nie ma z tym nic wspólnego.

Turnieje programistów

Niedawno Microsoft zorganizował turniej o nazwie „Terrarium”. Programiści zostali poproszeni o stworzenie sztucznego życia, ni mniej, ni więcej. Jest to prawdopodobnie najsłynniejszy z tych zawodów, ale generalnie jest ich wiele - entuzjastyczni organizatorzy z godną pozazdroszczenia regularnością proponują tworzenie programów, które odtwarzają wojnę robotów lub kolonizację Jowisza. Wśród wirusów komputerowych toczą się nawet zawody o przetrwanie.

Co stoi na przeszkodzie, by przynajmniej te projekty służyły stworzeniu prawdziwej sztucznej inteligencji, która w przyszłości będzie w stanie walczyć i kolonizować Jowisza? Jedno proste słowo - bezmyślność. Nawet najpotężniejszym umysłom Microsoftu nie udało się wymyślić reguł, w których złożone zachowanie jest korzystne. Co możemy powiedzieć o reszcie. Niezależnie od turnieju, ta sama taktyka wygrywa wszystko: „im prościej, tym lepiej”! Kto wygrał Terrarium? Nasi rodacy. A co oni zrobili? Oto pełna lista zasad, według których żył najbardziej żywotny wirtualny roślinożerca turnieju;

1. Jeśli zobaczysz drapieżnika, uciekaj przed nim. Jeśli widzisz, że zwierzę twojego gatunku biegnie szybko w jednym kierunku, biegnij w tym samym kierunku.

2. Jeśli wokół są tylko obcy, szybko zjedz całą trawę, aby inni dostali mniej.

3. Jeśli nie widzisz obcych, jedz dokładnie tyle, ile potrzebujesz. Wreszcie, jeśli nie widzisz ani trawy, ani drapieżników, idź tam, gdzie patrzą twoje oczy.

Umysłowo? Nie, ale jest skuteczny.

Aplikacje komercyjne

Na obszarach o znaczeniu handlowym nie są potrzebne żadne turnieje, sędziowie ani zasady selekcji. Nauka po prostu nie była potrzebna ani do rozpoznawania tekstu, ani do tworzenia gier komputerowych.

Potrzebny jest zgrany zespół ludzi o jasnych głowach i dobrym wykształceniu oraz umiejętne zastosowanie dużej liczby algorytmów, które są w swej istocie dość proste.

Nie będzie można zdobyć żadnej świętej wiedzy na tych terenach, nie dokona się wielkich odkryć i nikt w ogóle o to nie zabiega. Ludzie po prostu zarabiają pieniądze dla siebie, jednocześnie poprawiając swoje życie.

Wniosek

Nauka „tworzenia sztucznej inteligencji” nie mogła nie przyciągnąć uwagi filozofów. Wraz z pojawieniem się pierwszych inteligentnych systemów pojawiły się fundamentalne pytania o człowieka i wiedzę, a częściowo o porządek świata.

Niestety format testu nie pozwala na szersze ujawnienie i rozważenie tak ciekawego i palącego tematu jakim jest sztuczna inteligencja, ale mam nadzieję, że udało mi się zidentyfikować zakres głównych problemów i nakreślić sposoby ich rozwiązania.

„Pojawienie się maszyn, które przewyższają nas inteligencją, jest naturalnym skutkiem rozwoju naszej technokratycznej cywilizacji. Nie wiadomo, dokąd zaprowadziłaby nas ewolucja, gdyby ludzie szli drogą biologiczną - zaczęli ulepszać strukturę człowieka, jego cechy i właściwości. Gdyby wszystkie pieniądze wydane na rozwój broni szły na medycynę, dawno byśmy pokonali wszystkie choroby, cofnęli starość, a może osiągnęlibyśmy nieśmiertelność…

Nauki nie można zakazać. Jeśli ludzkość sama się niszczy, to znaczy, że ewolucja zeszła dla tej ludzkości w ślepy zaułek i nie ma ona prawa istnieć. Być może nasza sprawa jest w ślepym zaułku. Ale nie jesteśmy tu pierwsi i nie ostatni. Nie wiadomo, ile cywilizacji istniało przed nami i dokąd się udały.

Kierownik Katedry Państwowego Uniwersytetu Radiotechnicznego w Taganrogu, przewodniczący Rady Rosyjskiego Stowarzyszenia Systemów Rozmytych, akademik Rosyjskiej Akademii Nauk Przyrodniczych, profesor, doktor nauk technicznych Leonid Bershtein.

Spis wykorzystanej literatury

1. Wielka radziecka encyklopedia

2. TA Gavrilova, doktor nauk technicznych, profesor Wydziału Informatycznych Technologii Inteligentnych Państwowego Uniwersytetu Technicznego w Petersburgu, kierownik Laboratorium Systemów Inteligentnych w Instytucie Wysokowydajnych Obliczeń i Baz Danych. Artykuł. www.big.spb.ru

4. Czekina lek. „Filozoficzne problemy sztucznej inteligencji”. Sprawozdanie z nagrody na 54. Studenckiej Konferencji Naukowej TTIUFU. 2007 www.filosof.historic.ru

5. Bly Whitby „Sztuczna inteligencja: czy Matrix jest prawdziwy”, FAIR-PRESS, 2004


Szczyt