Możliwe zagrożenie ze strony sztucznej inteligencji. Wróżki

Inni znani badacze napisali list otwarty wzywający do stworzenia standardów bezpieczeństwa w dziedzinie rozwoju sztucznej inteligencji (AI). /stronie internetowej/

W szczególności zaapelowali o badania i rozwój niezawodnego systemu sterowania, który nie pozwoli, by wadliwie działająca sztuczna inteligencja nie zaszkodziła ludziom. „Należy wykonać prace techniczne, aby zapewnić pełną kontrolę człowieka” — czytamy w liście.

Pomimo umiarkowanego tonu listu luddyci, obawiający się nowych technologii, wpadli w panikę. W odpowiedzi w prasie pojawiło się wiele wywiadów i wypowiedzi naukowców, które rozwiały te obawy.

Andrew Ng, ekspert ds. AI w Baidu, powiedział firmie Fusion: „Nie widzę realistycznego scenariusza, w którym oprogramowanie, nad którym dzisiaj pracujemy, stałoby się destrukcyjne”.

Z kolei dziennikarz Scott Alexander sporządził listę znanych naukowców zaangażowanych w rozwój AI, którzy mówili o potencjalnym zagrożeniu ze strony AI.

Strach i lęk

Stuart Russer, profesor informatyki na Uniwersytecie Kalifornijskim w Berkeley, porównał rozwój mechanizmów kontroli sztucznej inteligencji do przyjmowania środków zapewniających bezpieczeństwo reaktorów jądrowych.

„Niektórzy uważają, że ten problem nie stanowi zagrożenia dla ludzkości w ciągu najbliższych kilkuset lat. Zapominają, że Leo Szilard odkrył reakcję łańcucha jądrowego 24 godziny po tym, jak Rutherford z przekonaniem oświadczył, że energia atomowa nigdy nie zostanie uzyskana” – napisał Russell.

Jego zdaniem Russell nie jest odosobniony. W ankiecie przeprowadzonej w 2014 r. przez Vincenta Mullera i Nicka Bostroma wśród 170 czołowych ekspertów AI, 18% z nich uważało, że zbudowanie superinteligentnej maszyny byłoby „prawdziwą katastrofą” dla ludzkości. 13% stwierdziło, że zaawansowana sztuczna inteligencja miałaby negatywne konsekwencje dla ludzi. Nieco ponad połowa naukowców stwierdziła, że ​​będzie to miało pozytywny wpływ.

Choć opinia ekspertów na temat wpływu AI jest niejednoznaczna, większość zgadza się, że stworzenie zaawansowanej AI to tylko kwestia czasu. Według prognoz AI równa człowiekowi powstanie już w 2050 roku (50% prawdopodobieństwa) lub do 2075 roku (90% prawdopodobieństwa). A 30 lat po jego stworzeniu pojawi się sztuczna superinteligencja, która prześcignie ludzi we wszystkich aspektach.

szalone ciężarówki

Jak może wyglądać powstanie maszyn? W filmach science fiction, takich jak „Terminator”, „Robot”, „Animatrix”, pokazywana jest wojna ludzi z cyborgami.

Sądząc po filmach science fiction, wielu może być zdania, że ​​potencjalnego niebezpieczeństwa można łatwo uniknąć, w końcu sztuczna inteligencja to po prostu oprogramowanie komputerowe.

Jednak sztuczna inteligencja nie musi mieć mechanicznego ciała, aby zyskać moc w prawdziwym świecie: może po prostu zacząć kontrolować wszystkie nasze codzienne urządzenia elektroniczne.

Taki scenariusz przedstawił Stephen King w opowiadaniu „Trucks”. W napisanej w latach 70. historii ciężarówki zyskują świadomość i zaczynają atakować ludzi. Grupa ludzi ukrywa się przed rozwścieczonymi ciężarówkami. Ciężarówki nadal potrzebują paliwa do działania i używają alfabetu Morse'a, aby nakazać ludziom zatankowanie, w przeciwnym razie spychacz wysadzi ich osłonę. Ludzie są posłuszni.

Opowieść kończy się wizją narratora, że ​​ciężarówki zniewoliły ludzkość i wszędzie narzucają swoje wartości, na przykład zmuszając je do budowy autostrad na całym świecie. Ze swojego fantastycznego świata wyrywa go dźwięk lecącego po niebie samolotu.

Opowieść Stephena Kinga wydawała się futurystyczna w epoce, w której została napisana, ale nie jest tak odległa od rzeczywistości współczesnego świata. samojezdne ciężarówki już istnieją, a w przyszłości firmy mogą zastąpić kierowców autonomicznym systemem nawigacji, aby zaoszczędzić pieniądze.

Ubiegłoroczny hack Sony pokazuje, że nasze systemy informatyczne stają się coraz bardziej podatne na ataki. Jest to jedna z konsekwencji postępującej komputeryzacji infrastruktury.

Jednak na razie nie ma powodów do obaw. Sztuczna inteligencja ma przed sobą długą drogę, zanim będzie mogła dorównać ludzkiemu mózgowi. Dobrze ilustruje to przykład autonomicznej ciężarówki. Choć wciąż są zbyt niedoskonałe, aby samodzielnie jeździć po zatłoczonych ulicach miasta.

Czy zainstalowałbyś na telefonie aplikację do czytania artykułów z epoki?

Globalna apokalipsa związana z AI (sztuczną inteligencją) coraz bardziej przeraża czołowych światowych naukowców w dziedzinie technologii komputerowych. Może to być powstanie robotów, które kierując się swoim programem i wartościami będą chciały zniszczyć biologiczne formy życia na planecie. Możliwy jest scenariusz, w którym maszyny sterowane przez sztuczną inteligencję stają się dominującą formą życia.

Dlaczego światowej sławy naukowcy, tacy jak Bill Gates, Steve Hawking, Elon Musk i inni, są zaniepokojeni tym problemem i publicznie deklarują realne zagrożenie tego scenariusza? Czy wydarzenia, które miały miejsce w hollywoodzkim filmie „Terminator” mogą być prorocze? Wiadomo, że każda fikcyjna historia oparta jest na prawdziwych faktach.

Komputery są coraz lepsze w kłamaniu i oszukiwaniu

Kłamstwo to forma zachowania rozwinięta w procesie ewolucji. Ludzie, niektóre zwierzęta i ptaki, uciekają się do oszustwa w celu zdobycia pożywienia i korzyści, co zwiększa szanse na przeżycie. Ostatnio te ewolucyjne metody zostały z powodzeniem przyjęte przez maszyny AI.

Projektanci z Georgia Institute of Technology poczynili postępy w tworzeniu robotów, które wykorzystują kłamstwa i oszustwa w swoich algorytmach zachowania. Naukowcy wierzą, że w przyszłości technologia ta znajdzie szerokie zastosowanie w sferze wojskowej.

Zakłada się, że prototypy robotów mogą znaleźć zastosowanie w rzeczywistych warunkach bojowych. Te ożywione mechanizmy będą mogły wykonywać prace związane z ochroną prowiantu i składów amunicji. Przy pomocy oszukańczych programów strażnicy przyszłości będą mogli zmieniać trasę patrolu i wykonywać nieprzewidywalne działania. Zgodnie z planem twórców takie metody pomogą oszukać potencjalnych wrogów ludzi i innych robotów.

Zdaniem profesora Arkina, badania wiążą się z szeregiem problemów etycznych. Utrata kontroli nad technologią w przypadku narażenia na krytyków może doprowadzić do poważnej katastrofy.

Maszyny przejmują rynek pracy

Podczas gdy opinia publiczna jest zajęta myślami o globalnej wojnie z udziałem sztucznej inteligencji, naukowcy opisują bardziej bezpośrednie i realne zagrożenia. W produkcji coraz częściej stosuje się różne automaty i mechanizmy, które niszczą miejsca pracy.

Wielu analityków i ekspertów zgadza się, że aktywny rozwój w dziedzinie programów logicznych i automatyzacji może doprowadzić do utraty wielu osób na stanowiskach pracy. W Stanach Zjednoczonych istnieje ponad 250 000 robotów produkcyjnych, które wykonują tradycyjną ludzką pracę.

W krajach Wschodu, które produkują ponad 90% światowej technologii, nadal dominuje praca fizyczna. Co stanie się z ludźmi zatrudnionymi w produkcji wraz z pojawieniem się robotów, można się tylko domyślać.

Obawa, że ​​maszyny wypierają ludzi z rynku pracy, nie ogranicza się do pracowników. Ekspert ds. sztucznej inteligencji Andrew Ng z Google Brain Project i główny specjalista w niepełnym wymiarze godzin w Baidu (chińskim odpowiedniku Google) również wyrazili zaniepokojenie aktywnym rozwojem w dziedzinie sztucznej inteligencji. Według niego sztuczna inteligencja elektroniczna jest w stanie zrobić to samo, co zwykły człowiek, tylko szybciej, lepiej i przy mniejszych zasobach.

Uniwersytet Oksfordzki w Wielkiej Brytanii przeprowadził badania odzwierciedlające dynamikę wpływu AI na produkcję. Według otrzymanych danych, w ciągu najbliższych dwudziestu lat 35% miejsc pracy przypadnie na zarządzanie AI.

Programy komputerowe są lepsze od hakerów

Z punktu widzenia zwykłego człowieka haker jest jak superman, który może osiągnąć dowolny wynik. W rzeczywistości są to programiści ze zmęczonym wyrazem twarzy i tradycyjną filiżanką kawy.

Hakowanie to dość nudna i żmudna czynność, która zajmuje dużo czasu i zasobów. Ponadto całe działy specjalistów zajmują się opracowywaniem programów chroniących przed włamaniami. Największym zagrożeniem dla „złych hakerów” są zaawansowane systemy oparte na sztucznej inteligencji.

Sztuczną inteligencję można wykorzystać nie tylko do ochrony, ale także do hakowania. W warunkach programu bezpieczeństwa cybernetycznego opracowywane są AI, które są w stanie znaleźć słabe punkty u wrogów, jednocześnie chroniąc online swoje urządzenia logiczne przed zewnętrznymi zagrożeniami i atakami.

Według naukowców, w imię wspólnego dobra i dobrobytu rozwijani są elektroniczni hakerzy wykorzystujący sztuczną inteligencję. Ale w przypadku dostępu do takich programów przez intruzów mogą wystąpić smutne wydarzenia. Aż strach wyobrazić sobie sytuację, w której potężna sztuczna inteligencja włamuje się do protokołów bezpieczeństwa elektrowni jądrowej i przejmuje pełną kontrolę. W tej sytuacji ludzkość może być bezradna.

Programy uczą się rozumieć motywy ludzi

Codzienne życie wielu ludzi jest nierozerwalnie związane z korzystaniem z różnych sieci społecznościowych. Jedną z najpopularniejszych sieci na świecie jest Facebook. Ale niewiele osób wie, że za każdym razem, gdy ktoś odwiedza strony tej sieci społecznościowej, sztuczna inteligencja nie pozostaje niezauważona. Podczas wizyty w Berlinie Mark Zuckerberg mówił o celach AI.

Program przeznaczony jest do analizy zachowań użytkowników na stronach Facebooka. Na podstawie zebranych danych program wydaje rekomendacje dotyczące zainteresowań i preferencji odbiorców. Na tym etapie rozwoju system autonomiczny jest w stanie rozpoznawać wzorce i uczyć się zgodnie z programem.

W przyszłości planowane jest stworzenie inteligentnej sztucznej inteligencji, która może samodzielnie doskonalić swoje umiejętności poprzez przepisanie kodu. Może to prowadzić do poprawy życia lub stać się najnowszym osiągnięciem ludzkości.

Cyborgi zastąpią kochanków

Wiele hollywoodzkich filmów opiera się na idei miłości i międzygatunkowej relacji między człowiekiem a maszyną. Z królestwa fantazji ta koncepcja płynie do współczesnego świata.

Futurolog dr Ian Pearson uważa, że ​​do 2050 r. seks między człowiekiem a robotem będzie miał miejsce częściej niż tylko między ludźmi. Naukowiec aktywnie współpracuje z Bondarą, wiodącą siecią sklepów erotycznych w Wielkiej Brytanii.

W raporcie doktora wspomniano, że do 2025 r. powstaną roboty do seksu ze sztuczną inteligencją. Do 2035 roku seks poprzez wirtualną rzeczywistość stanie się powszechny, na poziomie współczesnej pornografii. A do 2050 roku seks z robotami stanie się częścią codziennej rzeczywistości i stanie się normą.

Obrońcy tradycyjnych wartości, negatywnie nastawieni do seksu z inteligentnymi maszynami. Takie powiązania postawią poprzeczkę zbyt wysoko, co negatywnie wpłynie na stosunek do kobiet.

Maszyny stają się coraz bardziej ludzkie

Deweloperzy w dziedzinie tworzenia robotów humanoidalnych, Japończyk Hiroshi Ishiguro i Chińczyk Sun Yang, stworzyli unikatową maszynę. Cyborg Yang-Yang ma wygląd swojego twórcy i nosi imię jej córki. Maszyna posiada sztuczną inteligencję i jest w stanie wykonać szereg prostych czynności.

To nie jedyny humanoidalny przykład robotyki. Singapurski Instytut Technologii również zaproponował nowoczesny prototyp cyborga, Nadine. Ten prototyp ma również sztuczną inteligencję i działa w instytucji edukacyjnej.

Zaprojektowany jako atrakcyjna brunetka o miękkiej skórze, cyborg ma wiele wbudowanych funkcji. Robot może spotkać się z rozmówcą i przywitać go poprzez ściśnięcie dłoni. Urządzenie może również nawiązać kontakt wzrokowy i uśmiechnąć się. AI jest w stanie zapamiętywać gości i prowadzić prosty dialog w oparciu o wcześniejsze doświadczenia.

Roboty dostają uczucia

Nowoczesne roboty nie są gorsze od ludzi pod względem inteligencji. Dzięki najnowszym osiągnięciom cyborga jest dość trudno odróżnić od osoby z zewnątrz. Jak dotąd jedyną cechą, której roboty nie mają, jest umiejętność bycia emocjonalnym. Nad tym problemem pracują naukowcy z całego świata. I wkrótce roboty będą zupełnie nie do odróżnienia od ludzi.

Deweloperzy z wschodnioazjatyckiego oddziału Microsoft Application & Services Group udostępnili unikalny program. Komputer jest w stanie prowadzić dialog z rozmówcą i jednocześnie doświadczać emocji. Sztuczna inteligencja o imieniu Hiaoche jest w stanie naśladować sposób mówienia siedemnastoletniej dziewczyny.

W przypadku braku danych system może uciekać się do kłamstw. Jeśli zostanie przyłapana na oszustwie, Hiaoche może wyrazić złość lub zakłopotanie. Sztuczna inteligencja może uciekać się do sarkazmu, być podejrzliwa i wyrażać zniecierpliwienie.

Nieprzewidywalność reakcji programu przypomina komunikację z realną osobą. Do tej pory technologia nie znalazła szerokiego zastosowania i jest najczęściej wykorzystywana do rozrywki. Twórca Xiaoche pracuje nad udoskonaleniem algorytmów logicznych, co może doprowadzić w przyszłości do fundamentalnego przełomu.

Samochody już niedługo będą w naszych głowach

W świetle ostatnich wydarzeń otwierają się nowe możliwości. Umiejętność uczenia się języka obcego w ciągu kilku minut poprzez wczytanie go do mózgu nie wydaje się już fantazją. CTO Google Ray Kurzweil uważa, że ​​do 2030 r. zostanie opracowana technologia wszczepiania nanorobotów do mózgu. To podniesie ludzką inteligencję na zupełnie nowy poziom.

Te mikromechanizmy zmienią świadomość w potężne centrum obliczeniowe. Osoba będzie mogła błyskawicznie zapamiętywać dowolne informacje, sortować i przesyłać własne myśli do archiwum. W razie potrzeby będzie można pobierać filmy, dokumenty oraz otrzymywać e-mail.

Specjalista AI Kurzweil uważa, że ​​symbioza z nanorobotami nie tylko zwiększy inteligencję, ale także będzie w stanie wyleczyć szereg chorób związanych z aktywnością układu nerwowego.

Zagrożenia związane z wykorzystaniem takiej technologii można porównać do globalnej teorii spiskowej. Przejmując kontrolę umysłu nad czołowym politykiem kraju, sztuczna inteligencja będzie w stanie kontrolować go jak bezwładnego zombie. Również z takiego systemu mogą korzystać służby specjalne, co nie wróży dobrze.

Jak roboty stają się bronią

Wraz z upadkiem Związku Radzieckiego zimna wojna się nie skończyła. Na światowej scenie pojawiły się dwa nowe supermocarstwa, Chiny i Rosja. Ameryka z kolei wydaje dziesiątki miliardów dolarów na rozwój w dziedzinie bezpieczeństwa komputerowego.

Pentagon wierzy, że kluczem do przyszłej przewagi technologicznej jest wykorzystanie sztucznej inteligencji. Aktywnie realizowany jest rozwój samouczących się systemów autonomicznych, jak również obszarów równoległych i pokrewnych. Opracowano już prototypy sprzętu wojskowego sterowanego na odległość, pozostaje wyszkolenie go do samodzielnego działania.

Zastosowanie takich urządzeń w czasie wojny obiecuje ogromne korzyści. Żołnierze nie będą musieli narażać się na ostrzał wroga i ryzykować życiem. Morale wroga w wojnie z nieożywionymi robotami również zostanie podważone.

Jest też minus. Każdy sprzęt komputerowy jest podatny na awarie i włamania do systemu. W tym przypadku roboty, które utraciły kontrolę, mogą skierować swoją broń przeciwko swoim twórcom i ludności cywilnej.

Wielu czołowych ekspertów w dziedzinie AI nie popiera pomysłu stworzenia autonomicznych robotów bojowych. Jednak w świetle coraz większej konfrontacji wojskowej na świecie i braku międzynarodowego zakazu stosowania takich technologii, wiele krajów prowadzi swoje projekty w ścisłej tajemnicy. Wkrótce pojawi się coraz więcej doniesień o wykorzystaniu robotów w gorących punktach planety.

Roboty uczą się w złym kierunku

Przewidując możliwe awarie programów i zapobiegając powstawaniu maszyn, opracowywane są nowe koncepcje mające na celu wyjaśnienie maszynie prawidłowego i niepożądanego zachowania.

Te zmiany powinny potencjalnie uczynić sztuczną inteligencję bardziej ludzką. Niektórzy naukowcy postrzegają to podejście jako klucz do zapobiegania wykorzystywaniu przez sztuczną inteligencję broni przeciwko ludzkości.

Georgia Institute of Technology prowadzi unikalne eksperymenty. Naukowcy, kierowani przez Marka Riddle'a i Brenta Harrisona, dosłownie opowiadają komputerowi historie. W ten sposób starają się powiązać sztuczną inteligencję z ludzkimi wartościami, rozwijając jej etykę. Naukowcy wykorzystują metody stosowane w wychowaniu dziecka do nauczania programu. AI, podobnie jak niedoświadczone dziecko, nie rozróżnia dobra od zła.

W tym podejściu występuje poważna wada. Historia ludzkości zawiera wiele przykładów, kiedy okoliczności zmusiły całe wysoko rozwinięte kraje do rozpętania wojen i popełnienia straszliwych okrucieństw. Przykładem mogą być faszystowskie Niemcy, których żołnierze dokonali ludobójstwa całych narodów. Jednocześnie kultura niemiecka była jedną z najbardziej rozwiniętych w ówczesnym świecie. Co powstrzyma sztuczną inteligencję przed powtórzeniem eksperymentu Hitlera?

Sztuczna inteligencja (AI) to temat, który od dawna pojawia się na łamach pism popularnonaukowych i jest stale poruszany w filmach i książkach. Im więcej ekspertów rozwija tę dziedzinę nauki, tym więcej staje się mitów.

Rozwój i przyszłość sztucznej inteligencji niepokoi także tych, którzy są u steru państwa. Nie tak dawno prezydent Rosji Władimir Putin odwiedził biuro Yandex w dniu 20-lecia firmy, gdzie wyjaśnił mu, kiedy sztuczna inteligencja przewyższy ludzką inteligencję.

Każdy, kto choć trochę zagłębi się w istotę potencjału sztucznej inteligencji rozumie, że tego tematu nie można zignorować. To nie tylko ważny temat do dyskusji, ale chyba jeden z najistotniejszych w kontekście przyszłości.

Jednym słowem, w naszym kraju są też sukcesy.

Im szybciej rozwijają się technologie sztucznej inteligencji, tym więcej ludzi ogarnia strach przed tym, jak szybko będą bez pracy. Czy naprawdę wszystko jest takie złe?

Tak i nie. Ludzkość już kilkakrotnie doświadczyła pojawienia się technologii, które zrewolucjonizowały cały sektor produkcyjny.

Tak było z maszyną parową w dobie rewolucji przemysłowej, która praktycznie zniszczyła wiele zawodów (związanych głównie z prymitywną pracą fizyczną), tak było z komputerami elektronicznymi, które zastępowały człowieka w zadaniach opartych na strumieniowych obliczeniach matematycznych.

W XV-XVIII wieku, kiedy „owce zjadały ludzi” w Anglii, konsekwencje społeczne były naprawdę katastrofalne. Anglia straciła, według różnych szacunków, od 7 do 30% swojej populacji. Ówczesna elita władzy była poważnie zaniepokojona tym, co zrobić z dodatkowymi ludźmi. Jonathan Swift odpowiedział na te poszukiwania humorystyczną broszurą, w której sugerował zjedzenie dzieci ubogich.

Jednak dzisiaj widzimy, że wymarłe zawody zostały zastąpione nowymi, a populacja Ziemi jest znacznie większa niż w XVIII wieku. W XX wieku konsekwencje automatyzacji nie były już tak katastrofalne ze społecznego punktu widzenia. Nie należy jednak lekceważyć niebezpieczeństwa.

„Za 30 lat roboty będą w stanie zrobić prawie wszystko, co ludzie mogą zrobić” – powiedział Moshe Vardi, profesor inżynierii obliczeniowej i dyrektor Instytutu Technologii Informacyjnych im. Kennedy'ego na Rice University (William Marsh). Doprowadzi to do tego, że ponad 50% mieszkańców Ziemi zostanie bezrobotnych.”

Roboty biorą pracę

Niedawno przewodniczący Komisji Dumy Państwowej ds. Polityki Informacyjnej, Technologii Informacyjnych i Komunikacji Leonid Levin powiedział, że dla Rosji problem zastąpienia siły roboczej sztuczną inteligencją jest ważny.

Prędzej czy później ludzie zostaną zastąpieni przez zautomatyzowany system, a 2% pracujących w kraju wyleje się na rynek. Dlatego Levin powiedział, jak zatrudniać tych, którzy stracą pracę w związku z rozwojem technologii cyfrowych.

Zdaniem prezesa w najbliższym czasie czeka nas wzrost bezrobocia. Ale czy roboty naprawdę „zabiorą” nam miejsca pracy i czy warto się tym martwić, powiedział Reedus Sergey Markov, specjalista od uczenia maszynowego.

Siergiej, nawet teraz istnieją „martwe zawody”, które nie wymagają ludzkiej pracy, choć wydawałoby się, że 10 lat temu nikt nie myślał, że np. dyrygenci wkrótce staną się niepotrzebni. A jakie inne zawody zastąpią technologię?

Zbliżamy się do czasu, kiedy maszyny prześcigną człowieka w niemal każdej dziedzinie. Uważam, że społeczeństwo musi zmierzyć się z tym problemem, zanim osiągnie swój pełny poziom. Jeśli maszyny są w stanie zrobić prawie wszystko, co ludzie mogą zrobić, co im pozostanie? powiedział Moshe Vardi, profesor inżynierii obliczeniowej i dyrektor Instytutu Technologii Informacyjnych im. Kena Kennedy'ego na Uniwersytecie Rice.

Przez długi czas na drodze automatyzacji stanęły ograniczenia technologiczne – maszyny nie potrafiły rozpoznawać obrazów i mowy, nie potrafiły mówić, nie potrafiły wystarczająco dobrze zrozumieć znaczenia wypowiedzi w języku naturalnym, nie miały wystarczającej ilości danych, aby nauczyć się wielu znanych im rzeczy. ludzie.

Dzięki ostatnim postępom w dziedzinie sztucznej inteligencji wiele z tych ograniczeń zostało faktycznie zniesionych. Ponadto wiele zawodów przeszło transformację, która uczyniła je bardziej odpowiednimi do automatyzacji.

Na przykład współczesny urzędnik biurowy nie koresponduje na papierze, ale w formie elektronicznej, księgowy wykonuje księgowania nie na papierze, ale w programie księgowym, operator maszyny często steruje maszyną nie za pomocą uchwytów, ale za pomocą programu kontrolnego. Dlatego teraz zadanie automatyzacji w wielu zawodach przestało być naukowe i stało się czysto inżynieryjne.

Co prawda na razie sektor produkcyjny związany ze sztuczną inteligencją jest bardziej skłonny do tworzenia miejsc pracy – potrzebni są specjaliści z zakresu uczenia maszynowego i przygotowania danych, pracownicy do znakowania tablic szkoleniowych, specjaliści wdrożeniowi itp. Ale w pewnym momencie elektryczna owca na pewno zacznie jeść ludzi, a konsekwencjami należy się zająć już teraz.

Jednocześnie ważne jest, aby zrozumieć, że postępu technologicznego nie da się zatrzymać, a jego próba będzie skutkować znacznie bardziej katastrofalnymi konsekwencjami.

Czy kiedykolwiek będziemy mogli całkowicie zaufać robotom (AI), czy też w każdej firmie powinien być czynnik ludzki?

To pytanie ma kilka aspektów. Z jednej strony ludzie w przeszłości obawiali się niemal każdej technologii. Pierwsza winda, pierwszy samochód, pierwszy pociąg czy samolot – wszystko to kiedyś było niezwykłe i wielu wydawało się niebezpieczne. Tak, pod wieloma względami było to niebezpieczne – katastrofy spowodowane przez człowieka pochłonęły wiele istnień ludzkich.

A jednak w naszych czasach wszystkie te rzeczy stały się znajome i nie wywołują już wielkiego strachu. W tym sensie nasi potomkowie będą spokojniej traktować systemy AI. Ludzie czasami mają tendencję do mistyfikacji rzeczy, których nie rozumieją. Dzikus myśli, że w silniku mieszka zły duch, a współczesny laik myśli, że nasze systemy sztucznej inteligencji są świadome, chociaż jest to dalekie od przypadku.

Z drugiej strony nie sądzę, by systemy AI ogólnego przeznaczenia kiedykolwiek stały się częścią naszej branży. Moim zdaniem bardziej prawdopodobna jest przyszłość systemów syntetycznych, czyli zjednoczenia człowieka i maszyny w jeden organizm. W tym sensie sztuczna inteligencja przyszłości zostanie ulepszona inteligencją człowieka.

Nawiasem mówiąc, ludzką inteligencję również nie do końca słusznie nazywać naturalną. Dziecko od urodzenia nie ma inteligencji, społeczeństwo, rodzice i środowisko uczą go wszystkiego. W tym sensie, ty i ja jesteśmy zasadniczo „sztuczną inteligencją”, a nasze lęki związane z AI są pod wieloma względami lękami przed samymi sobą.

Ostatnio wielu naukowców, na przykład Stephen Hawking, Bill Gates czy ten sam Elon Musk, zaczęło panikować, że sztuczna inteligencja skazuje ludzkość na śmierć i postrzega przyszłość jako rodzaj dystopii. Czy takie przewidywania należy traktować poważnie?

Szczerze mówiąc, nie spieszyłabym się z poważnym przerażeniem tymi stwierdzeniami. Stephen Hawking z pewnością nie jest specjalistą od sztucznej inteligencji, podobnie jak Elon Musk.

Po drugiej stronie skali są wypowiedzi takich osób jak Andrew Ng, amerykański informatyk, profesor nadzwyczajny na Uniwersytecie Stanforda, badacz robotyki i uczenia maszynowego oraz czołowy specjalista w laboratorium sztucznej inteligencji chińskiej korporacji Baidu. .

Eun, mówiąc o problemie bezpieczeństwa AI, porównuje go z problemem przeludnienia Marsa – oczywiście kiedyś Marsa skolonizujemy, a potem być może w którymś momencie pojawi się problem przeludnienia. Ale czy warto to robić dzisiaj?

Mark Zuckerberg był również dość sceptyczny wobec twierdzeń Muska. „Sztuczna inteligencja poprawi nasze życie w przyszłości, a przewidywanie końca świata jest bardzo nieodpowiedzialne” – powiedział.

Osobiście uważam, że wypowiedzi Muska należy rozpatrywać w sposób pragmatyczny – Musk chce wytyczyć ten temat i, najlepiej, otrzymać od państwa środki na jego rozwój.

Czy naprawdę wszystko jest takie różowe i nie ma się czym martwić?

Rzeczywiste zagrożenia związane z rozwojem AI leżą moim zdaniem na zupełnie innej płaszczyźnie niż się powszechnie uważa. Główne zagrożenia nie są związane z tym, że stworzymy własny „Skynet”, który zniewoli ludzkość. Ryzyko związane z wprowadzeniem technologii sztucznej inteligencji i uczenia maszynowego jest znacznie bardziej prozaiczne.

Powierzając rozwiązanie ważnych kwestii takiemu czy innemu modelowi matematycznemu, możemy cierpieć z powodu błędów popełnianych przy ich opracowywaniu. Sztuczna inteligencja, która odtwarza działania ludzkich ekspertów, odziedziczy ich błędy i uprzedzenia. Błędy w systemach zarządzania produkcją lub transportem mogą prowadzić do katastrof.

Złośliwa ingerencja w działanie ważnych systemów w warunkach całkowitej automatyzacji może prowadzić do niebezpiecznych konsekwencji. Im bardziej złożone systemy, tym więcej potencjalnych podatności mogą mieć, w tym tych związanych ze specyfiką niektórych algorytmów sztucznej inteligencji.

Oczywiście, aby zarządzać tymi zagrożeniami, konieczne jest stworzenie ram prawnych, rozsądnych przepisów bezpieczeństwa, specjalnych metod identyfikacji podatności. Niektóre systemy AI będą wykorzystywane do kontrolowania innych. Być może kod kluczowych systemów będzie musiał zostać opublikowany w celu niezależnego audytu. Innymi słowy, w tej dziedzinie jest jeszcze wiele do zrobienia.

Prawa autorskie do zdjęć Thinkstock Tytuł Zdjęcia Symbioza człowieka i maszyny jest jedną z dróg rozwoju ludzkości

Inteligentne maszyny nauczyły się blefować, bić zawodowców w szachy lub go, tłumaczyć i rozpoznawać ludzki głos. Co tydzień dowiadujemy się o nowych wyczynach programów komputerowych, które już potrafią stawiać diagnozy medyczne, rysować jak Rembrandt, śpiewać czy generować tekst. Czy człowiek powinien bać się sztucznej inteligencji?

Temat sztucznej inteligencji (AI/AI) stał się w ostatnich latach naprawdę „gorący”. Naukowcy przypisują to szybkiemu rozwojowi sieci neuronowych (jeden z obszarów badań w dziedzinie sztucznej inteligencji), co z kolei stało się możliwe wraz z pojawieniem się potężnych komputerów.

„Od początku 2010 roku, napędzany imponującymi postępami w wielowarstwowych sieciach neuronowych (przede wszystkim splotowych i rekurencyjnych), dziedzina ta przyciągała znaczną uwagę zarówno naukowców, jak i inżynierów oraz inwestorów” – komentuje autor jednego z rosyjskich programów szachowych. specjalista od metod uczenia maszynowego Sergey Markov.

Społeczność naukowa może spierać się o czas pojawienia się inteligentnych maszyn, ale zgadza się co do jednego: rozwój technologii będzie miał w przyszłości bezwarunkowy wpływ na społeczeństwo, gospodarkę i relacje międzyludzkie. Już teraz wzywa się do zastanowienia się nad etycznymi zasadami rozwoju sztucznej inteligencji, upewniając się, że sztuczna inteligencja rozwija się w kierunku bezpiecznym dla ludzi.

Ten mmateriał przygotowany w odpowiedzi na pytanies, wysłanominasi czytelnicyo osiągnięciach naukowych. Możesz zadawać pytania na inne tematy, korzystając z tych linków ( , ).

Efekt ekonomiczny i wpływ na rynek pracy

Science fiction i Hollywood ukształtowały pojęcie „sztucznej inteligencji” jako następnej formy życia na planecie, która zniewoli ludzkość w Matrixie lub zorganizuje nuklearny dzień zagłady. Ocaleni zostaną wykończeni przez Terminatora.

Prawa autorskie do zdjęć Obrazy Getty Tytuł Zdjęcia Czy ludzkość umrze od Skynetu?

W rzeczywistości, pomimo najnowszych osiągnięć w dziedzinie sztucznej inteligencji, pojawienie się inteligentnych istot maszynowych jest wciąż odległe, przyznają naukowcy i eksperci. Jednak zarówno tym, jak i innym zaleca się, aby już teraz zwrócić uwagę na pewne aspekty.

McKinsey Global Institute szacuje, że nowe technologie radykalnie zmienią światowy rynek pracy w ciągu najbliższych dziesięciu lat, oszczędzając około 50 bilionów dolarów.

Zmiany wpłyną na setki milionów miejsc pracy. Coraz więcej osób przeniesie część swoich zadań roboczych i wiele rutynowych zadań na maszynę, pozwalając im skupić się na pracy twórczej.

„Z pewnego punktu widzenia ludzkość jako całość ma ważne i interesujące zadanie – rozwijać się dla każdej konkretnej jednostki znacznie szybciej niż ludzkość rozwija systemy sztucznej inteligencji” – powiedział Grigory Bakunov, ekspert, dyrektor ds. rozpowszechniania technologii Yandex.

Ale wraz z automatyzacją nieuchronnie ucierpi mniej wykwalifikowany personel, a teraz trzeba pomyśleć o tym, jak je chronić, przekwalifikować i przygotować do nowego życia.

Jak pokazuje praktyka, ucierpieć mogą nie tylko pracownicy fizyczni, ale także pracownicy umysłowi. Kilka dni temu Goldman Sachs zastąpił zespół 600 traderów dwoma osobami i zautomatyzowanymi programami do handlu algorytmicznego, do utrzymania których zatrudniono 200 programistów.

Prawa autorskie do zdjęć Thinkstock Tytuł Zdjęcia Wiele zadań wkrótce znajdzie się w mocy systemów robotycznych, które stopniowo zaczną zastępować ludzi.

Sztuczna inteligencja sama w sobie nie jest tożsama z automatyzacją procesów, ale rozwój AI doprowadzi do tego, że coraz więcej zadań będzie w zasięgu programu komputerowego.

Wśród rozwiązań problemu wypierania człowieka przez maszynę na rynku pracy, jak wskazuje Allison Dutman, koordynatorka programu Instytutu Foresight, organizacji non-profit z siedzibą w Dolinie Krzemowej, promującej nowe technologie, wprowadzenie koncepcji „powszechnego dochodu podstawowego”, który otrzymywałby każdy mieszkaniec, niezależnie od dochodów i poziomu zatrudnienia. Taki dochód byłby finansowany z tzw. podatku od wartości gruntów, którego wprowadzenie jest obecnie aktywnie dyskutowane w Dolinie Krzemowej.

Czy sztuczna inteligencja jest osobą?

Czy system robotyczny jest osobą? Czy inteligentny komputer może głosować? Jakiej on jest płci? Relacja człowieka z inteligentną maszyną jest już dyskutowana przez eurodeputowanych, którzy zastanawiają się, czy przyszłym robotom należy nadać status „osobowości elektronicznej”.

Jak wskazuje Dutman, ludzie niechętnie dzielą się prawami z tymi, których nie rozumieją, co oznacza, że ​​będą opierać się „humanizacji” sztucznej inteligencji.

Prawa autorskie do zdjęć AFP Tytuł Zdjęcia Człowieka i maszynę dzieli najważniejsza rzecz - umiejętność myślenia

„Biorąc pod uwagę, jak długo ludzkość zmierzała w kierunku przyznania równych praw wszystkim ludziom, bez względu na kolor skóry, rasę czy płeć, można już założyć, że nie od razu uznają maszyny za równe.

Obok kwestii etycznych pojawiają się również subtelności prawne: kto weźmie na siebie odpowiedzialność w razie wypadku bezzałogowego pojazdu lub awarii inteligentnego urządzenia medycznego - oraz kwestie moralne: czy warto opracować broń bezzałogową zdolną do działania bez wiedza osoby?

Trzecia etyczna zagadka jest omawiana częściej niż inne i znacznie bardziej podnieca ludzkość: co teoretycznie superinteligencja, prawdziwa inteligentna maszyna, może zrobić z ludzkością?

Naucz etyki AI

Eksperci w dziedzinie rozwoju AI uznają, że jeśli nie w ciągu najbliższych 20-30 lat, ludzkość wciąż dożyje pojawienia się prawdziwej sztucznej inteligencji, która będzie mądrzejsza od swojego twórcy.

„Ostatni bastion zostanie zdobyty, gdy powstanie tak zwana „silna sztuczna inteligencja” (silna sztuczna inteligencja, sztuczna ogólna inteligencja), czyli taka sztuczna inteligencja, która będzie w stanie rozwiązywać nieskończenie szeroki zakres zadań intelektualnych – mówi Siergiej Markowa.

A co najważniejsze, taka sztuczna inteligencja będzie w stanie samodzielnie myśleć.

Zagrożenia stwarzane przez sztuczną inteligencję, a także kwestie etyczne związane z nowymi technologiami są badane przez wiele instytucji, m.in. Future of Life Institute, Foresight Institute, Future of Humanity Institute, OpenAI i inne.

Rozwiązaniem Allison Dutman z Foresight Institute jest umożliwienie komputerowi odczytania całej literatury naukowej, prac naukowych, które podnoszą pytania dotyczące etyki, i uczynienie z tych informacji podstawy przyszłych decyzji.

Czym są sieci neuronowe i jaka jest ich przyszłość?

Większość ekspertów przypisuje postęp w rozwoju AI rozwojowi sieci neuronowych.

Sieci neuronowe to jeden z obszarów badań w dziedzinie sztucznej inteligencji, oparty na symulacji procesów biologicznych zachodzących w ludzkim mózgu.

To im zawdzięczamy pojawienie się imponujących wyników w rozpoznawaniu mowy i obrazu, diagnostyce medycznej, tłumaczeniu tekstu i tworzeniu obrazu, generowaniu mowy i kompozycji muzycznej.

Prawa autorskie do zdjęć iStock Tytuł Zdjęcia To właśnie z rozwojem systemów neuronowych naukowcy kojarzą rozwój sztucznej inteligencji.

Dziś, jak przyznają eksperci, sieci neuronowe są uznawane za jeden z najlepszych algorytmów uczenia maszynowego, a rozwiązania na nich oparte wykazują w tej chwili najlepsze wyniki.

I to pomimo faktu, że współczesne sieci neuronowe są półtora tysiąca razy prostsze niż mózg szczura.

„Do tej pory tworzone przez nas sieci neuronowe są stosunkowo niewielkie w porównaniu, powiedzmy, do sieci neuronowej ludzkiego mózgu, a ponadto są bardzo uproszczonym odpowiednikiem naturalnych sieci neuronowych. za pomocą sieci neuronowych rozwiązujemy głównie problemy czysto stosowane” – mówi Siergiej Markow.

Obecnie powstają wyspecjalizowane procesory do trenowania takich sieci (tzw. procesory neuromorficzne), które zwiększą szybkość obliczeń o kilka rzędów wielkości.

Deweloperzy zajmują się teraz nie tylko zwiększaniem liczby neuronów w sieci, ale także zmianą konstrukcji sieci. „Złożone systemy konfiguracji sieci to obecnie największa liczba eksperymentów”, mówi Grigorij Bakunow.

Prawa autorskie do zdjęć iStock Tytuł Zdjęcia W niedalekiej przyszłości pojawi się więcej „inteligentnych” ludzkich asystentów – mikroczujniki w ścianie, czujnik wielkości guzika, który ostrzega człowieka w razie niebezpieczeństwa

A fakt, że takie systemy stały się stosunkowo dostępne dla dużej liczby zwykłych programistów, doprowadził do pojawienia się startupów eksperymentujących z sieciami neuronowymi, takich jak Prisma (aplikacja, która pozwala przetwarzać zdjęcia, zamieniając je w stylizacje obrazów znanych artystów) i Mubert (internetowy kompozytor muzyki elektronicznej).

Co nas czeka w najbliższej przyszłości

Jak przewiduje Nick Lane, profesor University College London i Principal Scientist w Nokia Bell Labs, człowieka będzie więcej „inteligentnych rzeczy”. Staną się mniejsze i wydajniejsze.

Profesor podaje następujący przykład: jeśli wcześniej czujnik wbudowany w ścianę mógł tylko wiedzieć, że ktoś przechodził, to w przyszłości będzie wiedział nie tylko, kto konkretnie przeszedł, ale też jak się człowiek zachowuje, czy czegoś potrzebuje, czy nie reprezentować, czy stanowi zagrożenie dla siebie lub innych.

Czujnik wielkości przycisku będzie w stanie powiadomić osobę w przypadku niebezpieczeństwa.

Grigorij Bakunov z Yandex również zgadza się z profesorem: „W niedalekiej przyszłości zobaczymy boom w rozwoju wąskich sztucznych inteligencji, które pomagają rozwiązać jedno dość proste zadanie, ale które rozwiążą nawet lepiej niż człowiek”.

Prawa autorskie do zdjęć iStock Tytuł Zdjęcia Pojawia się coraz więcej pytań etycznych związanych z rozwojem AI

„Najbardziej prawdopodobną drogą rozwoju naszej cywilizacji jest droga syntezy człowieka i maszyny: kija, ubrania, samochodu, telefonu komórkowego, rozrusznika serca czy implantu ślimakowego – w miarę rozwoju nasze narzędzia coraz bardziej przypominają rozszerzenie naszych ciał. Już jutro maszyny będą mogły odbierać polecenia umysłowe, odbierać mentalnie ukształtowane obrazy wizualne, przekazywać informacje bezpośrednio do mózgu – takie projekty już istnieją poza murami najbardziej zaawansowanych technologicznie laboratoriów” – podsumowuje Siergiej Markow.

Czy dziennikarze są nadal potrzebni?

Financial Times przeprowadził w zeszłym roku dość ryzykowny eksperyment, jednocześnie rzucając wyzwanie swojemu korespondentowi profilowemu i inteligentnemu programowi o nazwie Emma, ​​aby napisać kopię. Oba artykuły musiał następnie przeczytać redaktor „Financial Times” i zgadnąć, za którą z dwóch notatek krył się dziennikarz, a za którym komputerem.

Przed tego rodzaju „crash testem” korespondent Financial Times przyznał: „Myślę, że program na pewno poradzi sobie z zadaniem szybciej ode mnie. Ale mam nadzieję, że i tak zrobię to lepiej”.

I tak się stało: Emma naprawdę okazała się szybsza – program wygenerował tekst na podstawie statystyk dotyczących bezrobocia w Wielkiej Brytanii w 12 minut. Dziennikarzowi zajęło to 35 minut. I, jak sama później przyznała, Emma przekroczyła swoje oczekiwania. Program nie tylko umiejętnie poradził sobie z faktami, ale także umieścił wiadomości w kontekście, sugerując, jak ewentualny Brexit (to był w maju 2016 r., przed referendum w sprawie wyjścia Wielkiej Brytanii z UE) mógłby zmienić sytuację.

Prawa autorskie do zdjęć Thinkstock Tytuł Zdjęcia Czy systemy robotyczne zastąpią ludzi? Ludzkości zostało 50 lat, uspokajają eksperci

Ale Emma zrobiła coś gorszego niż dziennikarka. "Artykuł Emmy został napisany nieco bardziej niezdarnym językiem. Ale najważniejsze było to, że było w nim dużo liczb" - przyznał redaktor FT. "I być może najważniejszą rzeczą, którą staramy się tutaj zrobić, jest wybieraj tylko naprawdę ważne liczby.”

Emma jest produktem startupu Stealth. Firma twierdzi, że Emma ma zespół żywych asystentek, ale twierdzi, że wszystko, co pisze lub robi, jest wyłącznie wytworem jej „mózgu”.

A jednak – czy trzeba bać się AI?

Wielu, jeśli nie wszyscy, ekspertów zajmujących się obecnie rozwojem systemów sztucznej inteligencji chętnie przyznaje, że sztuczna inteligencja nie sprawi, że ludzie wkrótce staną się niepotrzebni. Właśnie dlatego, że sztuczna inteligencja nie jest jeszcze tak sprytna. Najważniejszą rzeczą, której mu dzisiaj brakuje, jest autonomiczna zdolność myślenia.

„Teraz nie powinieneś bać się sztucznej inteligencji w żadnej formie. Możesz poczekać 30-40 lat, aż zajdą naprawdę radykalne zmiany” – powiedział Bakunow.

Ale coś już się dzieje: krok po kroku granica między pracą lub zadaniem wykonywanym przez człowieka a zadaniem wykonywanym przez maszynę zaciera się. Jak tłumaczą eksperci, nawet teraz czasami trudno jest zrozumieć, kto siedzi w systemie - osoba czy maszyna.

„Nie ma kryteriów, kiedy możemy zrozumieć, że świadomość pojawiła się wewnątrz maszyny” – pyta Bakunow.

Czy osoba stanie się spinaczem?

Znany zwolennik alarmistycznego punktu widzenia, w ramach którego horrory opisane w Terminatorze mogą stać się rzeczywistością, filozof Nick Bostrom, jest zdania, że ​​sztuczna inteligencja, która osiągnęła poziom intelektualny człowieka, będzie w stanie zniszczyć ludzkość.

Prawa autorskie do zdjęć Obrazy Getty Tytuł Zdjęcia Czy to, co jest opisane w filmie, stanie się naszą codzienną rzeczywistością?

Bostrom wyjaśnia na przykładzie spinaczy do papieru: rzucasz wyzwanie sztucznej inteligencji, aby spinacze były jak największe i lepsze. W pewnym momencie sztuczna inteligencja uświadamia sobie, że dana osoba jest zagrożeniem, ponieważ może wyłączyć komputer, co będzie sprzeczne z zadaniem robienia jak największej liczby spinaczy. W przypadku, gdy człowiek nie jest zagrożeniem, sztuczna inteligencja decyduje, że ludzkie ciała składają się z atomów, które można wykorzystać do produkcji doskonałych spinaczy do papieru. W rezultacie komputer sprowadzi ludzkość do spinaczy.

Ten scenariusz wydaje się wielu przesadą. Według Siergieja Markowa, na przykład, „wysoka skuteczność osiągania absurdalnego celu jest nie do pogodzenia z absurdem tego celu – z grubsza mówiąc, sztuczna inteligencja zdolna do przekształcenia całego świata w spinacze do papieru nieuchronnie będzie na tyle sprytna, aby porzucić taki cel ”.

Sztuczna inteligencja jest jak złota rybka

Margaret Boden, brytyjska specjalistka od sztucznej inteligencji i profesor kognitywistyki na Uniwersytecie Sussex, sceptycznie odnosi się do twierdzeń o rychłym pojawieniu się inteligentnych maszyn.

Prawa autorskie do zdjęć Obrazy Getty Tytuł Zdjęcia W maju 1997 roku Deep Blue II po raz pierwszy pokonał Garry'ego Kasparowa.

Profesor podaje przykład „złotej rybki”, gdy w zamian za wolność rybak składa trzy życzenia. Jedno z życzeń to powrót syna z wojny, drugie to 50 tysięcy dolarów, a trzecie to możliwość złożenia następnego z rana.

Tego samego wieczoru rozległo się pukanie do domu rybaka. Syn wrócił z wojny - w trumnie. Rybak otrzymał ubezpieczenie na 50 tysięcy dolarów.

„Zastąp rybę w tej przypowieści sztuczną inteligencją, a wszystko stanie się jasne – wyjaśnia Boden. – O tak, następnego dnia rybak wykorzystał trzecie życzenie i – odwołał dwa poprzednie”.

Czy można przenieść świadomość do maszyny?

Siergiej Markow:

„Jeśli mówimy o możliwości całkowitego przeniesienia świadomości, to współczesnymi prekursorami takiej technologii przyszłości są projekty takie jak Blue Brain, mające na celu stworzenie działających elektronicznych analogów mózgu, a także projekty mające na celu stworzenie mózgu- interfejsy maszynowe (BCI) - urządzenia do protetyki utraconego wzroku, słuchu, zastępowania utraconych kończyn, a nawet części mózgu.

Prawa autorskie do zdjęć Naukowa biblioteka zdjęć Tytuł Zdjęcia Celem specjalistów AI jest stworzenie „silnej sztucznej inteligencji”, która byłaby w stanie rozwiązać szeroki wachlarz problemów.

Bardzo ciekawym i obiecującym obszarem jest optogenetyka (w zasadzie, aby połączyć mózg z maszyną, można zmieniać nie tylko maszyny, ale także samą tkankę nerwową, tworząc w niej sztuczne fotoreceptory).

Kiedy w ramach takich prywatnych projektów zostanie rozwiązanych wiele problemów inżynieryjnych, myślę, że zadanie transferu świadomości stanie się całkiem możliwe do rozwiązania. Marzyciele już proponują hipotetyczne schematy realizacji takiego projektu.

Na przykład Jan Korchmaryuk, który kiedyś dla kierunku badań związanych z transferem świadomości zaproponował nazwę „osadnictwo”, uważa, że ​​najbardziej obiecującym schematem jest wykorzystanie wyspecjalizowanych nanorobotów osadzonych w neuronach ludzkiego mózgu. Jednak dla pomyślnego wdrożenia takiego schematu konieczne jest rozwiązanie szeregu złożonych problemów inżynieryjnych.

Popularny amerykański magazyn internetowy Wired opublikował niezwykle ciekawy tekst Kevina Kelly'ego, w którym szczegółowo krytykuje on ideę niebezpieczeństw związanych ze sztuczną inteligencją. "NI" publikuje tłumaczenie tego materiału, zrobiony przez kanał Telegram Newochem z drobnymi cięciami.

„Słyszałem, że w przyszłości komputery AI staną się tak mądrzejsze od ludzi, że pozbawią nas miejsc pracy i zasobów, a w końcu ludzkość się skończy. Ale czy tak jest? To pytanie zadaje mi się za każdym razem, gdy wykładam o sztucznej inteligencji.

Pytający są tak poważni jak zawsze, ich niepokój częściowo wynika z obaw niektórych ekspertów, których dręczy to samo pytanie. Wśród nich są najmądrzejsi z naszych współczesnych - Stephen Hawking, Elon Musk, Max Tegmark, Sam Harris i Bill Gates.

Wszyscy dopuszczają możliwość takiego scenariusza. Na niedawnej konferencji na temat sztucznej inteligencji panel dziewięciu najbardziej oświeconych guru w tej dziedzinie przyszło do jednomyślnej konkluzji, że powstanie nadludzkiej inteligencji jest bliskie i niedalekie.

A jednak scenariusz zniewolenia ludzkości przez sztuczną inteligencję opiera się na pięciu założeniach, które po bliższym przyjrzeniu się okazują się niesprawdzone. Te stwierdzenia mogą być prawdziwe w przyszłości, ale do tej pory nic nie zostało potwierdzone.

Tutaj są:

  1. Sztuczna inteligencja już staje się mądrzejsza niż ludzki umysł, a proces ten jest wykładniczy.
  2. Opracujemy sztuczną inteligencję ogólnego przeznaczenia podobną do naszej.
  3. Możemy stworzyć ludzką inteligencję z krzemu.
  4. Inteligencja może być nieograniczona.
  5. Zbudowanie wspaniałej superinteligencji rozwiąże większość naszych problemów.

W opozycji do tych ortodoksyjnych postulatów mogę przytoczyć następującą sprawdzoną herezję:

  1. Inteligencja nie jest jednowymiarowa, więc „mądrzejszy niż człowiek” jest pojęciem pozbawionym sensu.
  2. Ludzie nie są obdarzeni umysłem ogólnego przeznaczenia, co też nie zagraża sztucznej inteligencji.
  3. Rywalizacja między człowiekiem a komputerem będzie ograniczona kosztami.
  4. Inteligencja nie jest nieograniczona.
  5. Tworzenie sztucznej inteligencji to tylko część postępu.

Jeśli wiara w zniewolenie człowieka przez sztuczną inteligencję opiera się na pięciu bezpodstawnych założeniach, to idea ta jest bardziej zbliżona do wierzeń religijnych – mitów. W kolejnych rozdziałach uzupełnię swoje kontrargumenty o fakty i udowodnię, że nadludzka sztuczna inteligencja to rzeczywiście tylko mit.

Najczęstsze nieporozumienie na temat sztucznej inteligencji wynika z równie popularnego przekonania o naturalnej inteligencji, że jest ona jednowymiarowa. W naukach ścisłych wielu przedstawia inteligencję tak, jak Nick Bostrom w swojej książce Supermind – dosłownie jako jednowymiarowy liniowy wykres o rosnącej amplitudzie.

Z jednej strony są istoty o najniższym poziomie inteligencji, na przykład małe zwierzęta, a z drugiej - geniusze, jakby poziom inteligencji nie różnił się od poziomu dźwięku mierzonego w decybelach. Oczywiście w takim przypadku łatwo wyobrazić sobie dalszy wzrost, w którym poziom inteligencji przekracza najwyższy punkt wykresu, a nawet go przekracza.

Taki model jest topologicznie równoważny drabinie, na której stopniach ułożone są poziomy inteligencji w porządku rosnącym. Mniej inteligentne zwierzęta zajmą dolne szczeble drabiny, a sztuczna inteligencja wyższego poziomu nieuchronnie będzie znajdować się nad nami. Ramy czasowe, w których to nastąpi, nie mają znaczenia. O wiele ważniejsze są same stopnie hierarchii – mierniki rosnącej inteligencji.

Problem z tym modelem polega na tym, że jest mityczny, jak ewolucyjny model drabinkowy. Przed darwinizmem dziką przyrodę przedstawiano jako drabinę żywych istot, w której człowiek zajmował stopień wyżej niż bardziej prymitywne zwierzęta.

I nawet po Darwinie jednym z najczęstszych pojęć jest drabina ewolucji. Pokazuje przemianę ryb w gady, ich w ssaki, naczelnych w ludzi. Co więcej, każda następna istota jest bardziej rozwinięta (i oczywiście inteligentniejsza) niż jej poprzedniczka. Tak więc drabina intelektu koreluje z drabiną wszechświata. Oba modele odzwierciedlają jednak całkowicie antynaukowe poglądy.

Bardziej dokładnym wzorcem naturalnej ewolucji byłby dysk, który rozchodzi się na zewnątrz, jak na powyższym obrazku. Po raz pierwszy taką strukturę opracował David Hillis z University of Texas, zrobił to na podstawie DNA. Ta genealogiczna mandala zaczyna się w centrum z najbardziej prymitywnymi formami życia, a następnie rozgałęzia się na zewnątrz. Czas płynie do przodu, więc najnowsze formy życia znajdują się na obwodzie koła.

Ten obraz podkreśla niezrozumiały fakt o ewolucji o fundamentalnym znaczeniu - wszystkie żywe istoty ewoluowały jednakowo. Człowiek znajduje się na zewnętrznej części dysku wraz z karaluchami, mięczakami, paprociami, lisami i bakteriami.

Wszystkie gatunki bez wyjątku przeszły przez nierozerwalny łańcuch pomyślnego rozmnażania się trwający trzy miliardy lat, co oznacza, że ​​bakterie i karaluchy ewoluowały równie wysoko jak ludzie. Nie ma schodów.

Podobnie nie ma drabiny inteligencji. Inteligencja nie jest jednowymiarowa. Jest to zespół różnych typów i metod poznania, z których każdy jest ciągły. Zróbmy proste ćwiczenie, aby zmierzyć inteligencję zwierząt. Gdyby intelekt był jednowymiarowy, z łatwością moglibyśmy uszeregować papugę, delfina, konia, wiewiórkę, ośmiornicę, płetwala błękitnego, kota i goryla w rosnącej kolejności intelektu.

Obecnie nie ma naukowych dowodów na istnienie takiej sekwencji. Powodem tego może być brak różnic w poziomie inteligencji niektórych zwierząt, ale jest to również nieuzasadnione.

Zoologia obfituje w przykłady uderzających różnic w myśleniu zwierząt. Może wszystkie zwierzęta są obdarzone inteligencją „ogólnego przeznaczenia”? Być może, ale nie mamy jednego narzędzia do pomiaru tego rodzaju inteligencji. Mamy jednak wiele systemów pomiarowych dla różnych rodzajów poznania.

Zamiast pojedynczej linii decybeli, bardziej poprawne byłoby przedstawienie inteligencji jako diagramu przestrzeni prawdopodobieństwa, jak w wizualizacji możliwych form, którą stworzył algorytm Richarda Dawkinsa. Inteligencja jest kombinatorycznym kontinuum. Wiele węzłów, z których każdy jest kontinuum, tworzy kompleks kolosalnej różnorodności w wielu wymiarach. Niektóre rodzaje inteligencji mogą być bardzo złożone, z dużym zestawem pod-węzłów myślenia. Inne są prostsze, ale bardziej ekstremalne, sięgają skrajnego punktu przestrzeni.

Te kompleksy, które oznaczają dla nas różne rodzaje intelektu, można postrzegać jako symfonie wykonywane na różnych rodzajach instrumentów muzycznych. Różnią się nie tylko głośnością, ale także melodią, kolorem, tempem itp. Można o nich myśleć jak o ekosystemie. W tym sensie różne składniki węzłów myśli są współzależne i są od siebie zbudowane.

Jak powiedział Marvin Minsky, ludzka świadomość jest społeczeństwem rozumu. Nasze myślenie to kompletny ekosystem. Nasz mózg ma wiele sposobów poznania, które pełnią różne funkcje umysłowe: dedukcja, indukcja, inteligencja emocjonalna, myślenie abstrakcyjne i przestrzenne, pamięć krótkotrwała i długotrwała.

Cały ludzki układ nerwowy jest częścią mózgu z własnym poziomem poznania. W rzeczywistości proces myślenia jest realizowany nie przez mózg, ale przez całe ludzkie ciało.

Wszystkie odmiany myślenia różnią się zarówno między gatunkami, jak i między członkami tego samego gatunku. Wiewiórka od lat pamięta dokładną lokalizację kilku tysięcy żołędzi, co jest całkowicie niezrozumiałe dla człowieka. W tym sposobie myślenia ludzie są gorsi od białek. Umysł wiewiórki to połączenie tego supermocarstwa z innymi formami inteligencji, w których człowiek przewyższa wiewiórkę. W królestwie zwierząt można znaleźć wiele przykładów wyższości pewnych form inteligencji zwierzęcej nad ludzką.

Ta sama sytuacja rozwinęła się ze sztuczną inteligencją, która w niektórych dziedzinach już przewyższa człowieka. Każdy kalkulator to geniusz matematyczny, a pamięć Google jest już pod pewnymi względami lepsza niż nasza.

Niektóre AI wykonują taką aktywność umysłową, do której nie jesteśmy zdolni. Zapamiętywanie każdego słowa na sześciu miliardach stron internetowych jest zadaniem niemożliwym dla ludzi i drobiazgiem dla wyszukiwarek. W przyszłości stworzymy zupełnie nowe sposoby myślenia, które nie są dostępne dla człowieka i nie istnieją w naturze.

Wynalazcy maszyn latających inspirowali się lotem naturalnym – trzepotaniem skrzydeł. Później jednak wynaleziono nieruchome skrzydło z przymocowanymi do niego śmigłami i była to zupełnie nowa zasada lotu, niespotykana w naturze.

W ten sposób wynajdujemy nowe sposoby myślenia, do których żaden gatunek nie jest zdolny. Najprawdopodobniej będą to zasady mające zastosowanie tylko do wysoko wyspecjalizowanych problemów: na przykład nowe konstrukcje logiczne, które są potrzebne tylko w statystyce i teorii prawdopodobieństwa.

Nowy rodzaj myślenia pomoże rozwiązać problemy, z którymi ludzki umysł nie może sobie poradzić. Niektóre z najtrudniejszych pytań w biznesie i nauce wymagają dwuetapowego rozwiązania. Pierwszym krokiem jest wynalezienie nowego sposobu naturalnego myślenia. Drugim jest rozpoczęcie poszukiwania odpowiedzi wraz z AI.

Ludzie zaczną uważać sztuczną inteligencję za mądrzejszą od nich samych, jeśli z jej pomocą będzie ona w stanie rozwiązać wcześniej nierozwiązywalne problemy. W rzeczywistości myślenie AI nie jest lepsze niż nasze, jest po prostu inne. Uważam, że główną zaletą sztucznej inteligencji jest to, że potrafi ona myśleć jak outsider, a ta alienacja jest jej główną zaletą.

Co więcej, stworzymy złożone „społeczności” AI o różnym sposobie myślenia. Będą tak złożone, że będą w stanie rozwiązać problemy, z którymi nie możemy sobie poradzić. Dlatego niektórzy błędnie pomyślą, że kompleksy AI są mądrzejsze od ludzi. Ale nie wierzymy, że wyszukiwarka Google jest mądrzejsza od człowieka, chociaż jego pamięć jest lepsza niż nasza.

Jest prawdopodobne, że te kompleksy sztucznej inteligencji prześcigną nas w wielu dziedzinach, ale żaden z nich nie prześcignie ludzi wszędzie na raz. Podobna sytuacja istnieje z naszą siłą fizyczną. Dwieście lat po rewolucji przemysłowej żadna maszyna nie przewyższa przeciętnego człowieka pod każdym względem, chociaż maszyny jako klasa znacznie przewyższają ludzi pod względem szybkości biegu, podnoszenia ciężarów, precyzji cięcia i innych czynności.

Pomimo złożoności struktury sztucznej inteligencji nie da się jej zmierzyć metodami współczesnej nauki. Nie mamy narzędzi, aby stwierdzić, co jest trudniejsze, ogórek czy Boeing 747, i nie mamy sposobu na zmierzenie różnic w ich złożoności. Dlatego wciąż nie mamy precyzyjnych kryteriów zdolności intelektualnych.

Z biegiem czasu coraz trudniej będzie określić, która jest trudniejsza, a co za tym idzie mądrzejsza: inteligencja A czy inteligencja B. Istnieje wiele niezbadanych obszarów aktywności umysłowej, a przede wszystkim uniemożliwia nam to zrozumienie, że umysł nie jest jednowymiarowy.

Drugim nieporozumieniem dotyczącym ludzkiego umysłu jest przekonanie, że nasz umysł jest uniwersalny. To powszechne przekonanie kształtuje ścieżkę, którą podążamy w kierunku sztucznej inteligencji ogólnej (AGI), niegdyś promowanej przez ekspertów AI.

Jeśli jednak myślimy o umyśle jako o ogromnej przestrzeni możliwości, nie możemy mówić o stanie ogólnego przeznaczenia. Ludzki umysł nie zajmuje jakiegoś abstrakcyjnego centralnego miejsca, a inne wyspecjalizowane rodzaje umysłu nie krążą wokół niego.

Ludzka inteligencja jest raczej niezwykle specyficznym typem inteligencji, który ewoluował przez miliony lat, aby przetrwać nasz gatunek na tej planecie. Gdybyśmy chcieli umieścić naszą inteligencję wśród wszystkich innych możliwych rodzajów inteligencji, znalazłaby się ona gdzieś w kącie - jak nasz świat, położony na skraju ogromnej galaktyki.

Oczywiście możemy sobie wyobrazić, a czasem wymyślić rodzaj myślenia, który jest podobny w swoich cechach do szwajcarskiego scyzoryka. Wydaje się, że radzi sobie z wieloma zadaniami, ale nie z hukiem.

Istnieje również techniczna zasada, że ​​wszystkie rzeczy muszą być posłuszne, niezależnie od tego, czy zostały stworzone celowo, czy też przyszły na świat w sposób naturalny: „Nie da się zoptymalizować wszystkich pomiarów. Możesz znaleźć tylko kompromisy. Wielofunkcyjna maszyna typu „wszystko w jednym” nie może przewyższyć specjalistycznych funkcji”.

Świadomość „zrób to wszystko” nie może działać na równi z wyspecjalizowanymi wykonawcami określonych zadań. Ponieważ uważamy naszą świadomość za mechanizm uniwersalny, uważamy, że poznanie nie powinno opierać się na kompromisie i że możliwe jest wynalezienie sztucznej inteligencji, która wykazuje maksymalny stopień skuteczności we wszystkich typach myślenia.

Nie widzę jednak dowodów na to twierdzenie. Po prostu nie stworzyliśmy jeszcze wystarczającej liczby odmian świadomości, abyśmy mogli zobaczyć pełny obraz (na razie wolimy nie rozpatrywać świadomości zwierząt przez pryzmat pojedynczego parametru jako odrębnego typu myślenia o zmiennej amplitudzie).

Część tego przekonania, że ​​nasze myślenie jest tak uniwersalne, jak to tylko możliwe, wywodzi się z koncepcji uniwersalnych obliczeń. Założenie to nazwano w 1950 r. tezą Kościoła Turinga. Stwierdza, że ​​wszystkie obliczenia spełniające określone parametry są równoważne.

W ten sposób istnieje uniwersalna podstawa wszystkich obliczeń. Niezależnie od tego, czy obliczenia są wykonywane w pojedynczej maszynie z wieloma szybkimi maszynami, maszynie o mniejszej wydajności, czy nawet w biologicznym mózgu, jest to ten sam logiczny proces. To z kolei oznacza, że ​​możemy symulować dowolny proces obliczeniowy (myślenie) za pomocą dowolnej maszyny, która potrafi wykonać „uniwersalne” obliczenia.

Tą zasadą zwolennicy osobliwości uzasadniają swoje oczekiwania, że ​​możemy zaprojektować sztuczny mózg na bazie krzemu, który może pomieścić ludzką świadomość, że możemy stworzyć sztuczną inteligencję, która będzie myślała tak samo jak człowiek, ale wielokrotnie wydajniej . Nadzieje te należy traktować z pewną dozą sceptycyzmu, ponieważ opierają się na błędnej interpretacji tezy Kościoła Turinga.

Punktem wyjścia tej teorii jest: „W warunkach nieograniczonej pamięci i czasu wszystkie obliczenia są równoważne”. Problem polega na tym, że w rzeczywistości żaden komputer nie ma cech nieskończonej pamięci ani czasu. Kiedy wykonujesz obliczenia w prawdziwym świecie, składnik czasu jest niezwykle ważny, do tego stopnia, że ​​często jest to kwestia życia i śmierci.

Tak, wszystkie typy myślenia są równe, jeśli wykluczymy aspekt czasowy. Tak, możliwe jest naśladowanie ludzkiego procesu myślowego w dowolnej matrycy, jeśli zdecydujesz się zignorować czas lub rzeczywiste ograniczenia wolnej przestrzeni i pamięci.

Jeśli jednak uwzględnimy zmienną czasową w tym równaniu, będziemy musieli znacząco zmienić sformułowanie zasady: „Dwa systemy obliczeniowe działające na radykalnie różnych platformach nie dadzą równoważnych obliczeń w czasie rzeczywistym”.

Zasadę tę można przeformułować w następujący sposób: „Jedynym sposobem na uzyskanie równoważnych sposobów myślenia jest ich realizacja na tej samej podstawie. Fizyczny nośnik, na którym wykonujesz obliczenia – zwłaszcza w miarę wzrostu stopnia ich złożoności – znacząco wpływa na sposób, w jaki myślisz w warunkach czasu rzeczywistego.

Kontynuując logiczny łańcuch, przyjmę, że jedynym sposobem na wykreowanie myślenia jak najbardziej zbliżonego do człowieka jest wykonywanie obliczeń z użyciem materii jak najbardziej przypominającej naszą szarą materię.

Oznacza to, że można również założyć, że masywna, złożona sztuczna inteligencja, stworzona na bazie suchego krzemu, będzie generować toporne, złożone i niepodobne do ludzkiego myślenia. Gdyby można było stworzyć sztuczną inteligencję działającą na mokrej materii za pomocą sztucznych neuronów, takich jak ludzkie, proces myślowy takiej sztucznej inteligencji byłby znacznie bliższy naszemu.

Zalety takiego „mokrego” systemu są proporcjonalne do bliskości mediów fizycznych używanych do ludzkich. Stworzenie takiej substancji wymagałoby ogromnych nakładów materiałowych, aby osiągnąć poziom co najmniej zbliżony do tego, który tkwi w nas z natury. I w ten sposób możemy stworzyć nową osobę - wystarczy poczekać 9 miesięcy.

Ponadto, jak wspomniano wcześniej, myślimy całą naszą istotą, a nie tylko świadomością. Współczesna nauka dysponuje wieloma danymi na temat tego, jak nasz układ nerwowy wpływa na „racjonalny” proces podejmowania decyzji, przewiduje i dostosowuje się. Im bardziej przyglądamy się systemowi ludzkiego ciała, tym ostrożniej możemy go później odtworzyć. Sztuczna inteligencja działająca na substancji radykalnie innej niż nasza (suchy krzem zamiast mokrego węgla) też będzie myślała inaczej.

Nie sądzę, że ta funkcja jest bardziej „funkcją, a nie błędem”. Jak przekonywałem w drugim akapicie tego artykułu, różnice w procesie myślowym AI są jej główną zaletą. Oto kolejny powód, dla którego błędem byłoby powiedzieć, że jest „mądrzejszy niż ludzki mózg”.

U podstaw koncepcji nadludzkiej inteligencji – a w szczególności teorii ciągłego samodoskonalenia takiej sztucznej inteligencji – leży szczera wiara w bezgraniczność inteligencji. Nie znalazłem żadnych dowodów na to twierdzenie.

Ponownie błędne postrzeganie inteligencji jako systemu zdefiniowanego tylko przez jeden wymiar przyczynia się do rozpowszechniania tego twierdzenia, ale musimy zrozumieć, że pozostaje ono bezpodstawne. We wszechświecie nie ma nieskończonych wymiarów fizycznych - przynajmniej są one wciąż nieznane nauce.

Temperatura nie jest nieskończona - istnieją minimalne i maksymalne wskaźniki zimna i ciepła. Przestrzeń i czas również nie są nieograniczone, podobnie jak prędkość. Być może oś liczbową można nazwać nieskończoną, ale wszystkie inne parametry fizyczne mają swoje granice. Oczywiście sam umysł również jest skończony.

Powstaje pytanie: gdzie są granice inteligencji? Kiedyś wierzyliśmy, że granica jest gdzieś daleko, tyleż „nad” nami, co my „nad” mrówkami. Pomijając nierozwiązany problem jednowymiarowości, jak możemy udowodnić, że nie osiągnęliśmy jeszcze granicy? Dlaczego nie możemy być koroną stworzenia? A może prawie osiągnęliśmy granice ludzkich możliwości? Dlaczego wierzymy, że inteligencja jest koncepcją nieustannie ewoluującą?

Lepiej traktować naszą inteligencję jako jedną z odmian ogromnej liczby typów myślenia. Chociaż każdy wymiar poznania i kalkulacji ma swoją granicę, jeśli istnieją setki wymiarów, to istnieje niezliczona ilość odmian inteligencji, ale żadna z nich nie jest nieskończona w żadnym wymiarze.

Kiedy tworzymy lub napotykamy te niezliczone wariacje na temat świadomości, możemy doświadczyć ich poza naszymi możliwościami. W mojej ostatniej książce The Inevitable naszkicowałem listę niektórych z tych odmian, które są od nas gorsze w ten czy inny sposób. Oto część tej listy:

Umysł jak najbliżej człowieka, ale o wyższej szybkości reakcji (najprostsza sztuczna inteligencja);

Bardzo powolny umysł, którego głównymi składnikami są dużo miejsca do przechowywania i pamięć;

Inteligencja uniwersalna, składająca się z milionów indywidualnych świadomości działających zgodnie;

Umysł roju składający się z dużej liczby niezwykle produktywnych inteligencji, nieświadomych, że są jednym;

Superumysł Borg (rasa cyborgów ze zbiorowym umysłem, próbująca zasymilować wszystkie żywe istoty z serii Star Trek do swojego kolektywu - około. Co nowego) - zespół wysoce funkcjonalnych intelektów, wyraźnie świadomych, że stanowią jedną całość;

Umysł zaprojektowany do rozwijania osobistej świadomości użytkownika, ale bezużyteczny dla nikogo innego;

Rozum zdolny wyobrazić sobie bardziej złożony umysł, ale niezdolny do stworzenia go;

Rozsądnie w stanie pewnego dnia stworzyć bardziej złożony umysł;

Rozum zdolny do stworzenia bardziej złożonego umysłu, który z kolei może stworzyć jeszcze bardziej złożony umysł itd.;

Powód, który ma szybki dostęp do swojego kodu źródłowego (w każdej chwili może zmienić cechy swojego funkcjonowania);

Umysł superlogiczny, pozbawiony zdolności przeżywania emocji;

Umysł standardowy, nastawiony na rozwiązywanie problemów, ale niezdolny do introspekcji;

Umysł zdolny do introspekcji, ale niezdolny do rozwiązywania przydzielonych mu zadań;

Umysł, którego formowanie zajmuje dużo czasu, potrzebuje umysłu opiekuńczego;

Wyjątkowo powolny umysł rozproszony w ogromnej przestrzeni fizycznej, która wydaje się „niewidzialna” dla szybciej reagujących form świadomości;

Umysł, który potrafi szybko i wielokrotnie odtwarzać swoje kopie;

Umysł zdolny do reprodukcji swoich kopii i pozostania z nimi jednym;

Umysł zdolny do osiągnięcia nieśmiertelności poprzez przemieszczanie się od gospodarza do gospodarza;

Szybki, dynamiczny umysł, zdolny do zmiany procesu i natury myślenia;

Nanoumysł, najmniejsza niezależna jednostka (pod względem wielkości i uwolnionej energii) zdolna do introspekcji;

Umysł wyspecjalizowany w pisaniu skryptów i prognozowaniu;

Umysł, który nigdy niczego nie zapomina, w tym błędnych informacji;

Pół maszyna, pół zwierzę;

Pół-maszyna, pół androgyniczny cyborg;

Umysł, który w swojej pracy wykorzystuje niezrozumiałą dla nas analizę ilościową.

Dziś niektórzy nazywają każdą z wymienionych odmian myślenia nadludzką sztuczną inteligencją, ale w przyszłości różnorodność i alienacja tych form inteligencji zmusi nas do zwrócenia się do nowych słowników i szczegółowego zbadania tematu myślenia i inteligencji.

Ponadto zwolennicy idei nadludzkiej sztucznej inteligencji zakładają, że poziom jej zdolności umysłowych będzie rósł wykładniczo (choć nadal nie mają systemu oceny tego poziomu). Być może uważają, że proces wykładniczego rozwoju już trwa.

Zresztą dzisiaj nie ma dowodów na taki wzrost, bez względu na to, jak go zmierzyć. W przeciwnym razie oznaczałoby to, że zdolności umysłowe AI podwajają się przez pewien czas.

Gdzie jest na to potwierdzenie? Jedyne, co rośnie wykładniczo, to inwestycje w przemysł AI. Ale zwrotu z tych inwestycji nie da się opisać prawem Moore'a. Sztuczna inteligencja nie stanie się dwa razy bardziej inteligentna za trzy lata, a nawet za dziesięć lat.

Pytałem wielu ekspertów AI, ale wszyscy zgodzili się, że nie mamy kryteriów racjonalności. Kiedy zapytałem Raya Kurzweila, prawdziwego czarodzieja wykładnika, gdzie znaleźć dowody na wykładniczy rozwój sztucznej inteligencji, napisał mi, że rozwój sztucznej inteligencji nie jest wybuchowy, ale stopniowy.

„Dodanie nowego poziomu do hierarchii wymaga zarówno wykładniczego wzrostu mocy obliczeniowej, jak i wzrostu złożoności algorytmu… Należy zatem spodziewać się liniowego wzrostu liczby poziomów warunkowych, ponieważ każdy z nich wymaga wykładniczy wzrost naszych własnych możliwości. Nie pozostało nam wiele poziomów trudności, aby osiągnąć zdolności AI w korze nowej (głównej części kory ludzkiej, która odpowiada za wyższe funkcje nerwowe - około. Newo niż), więc nadal uważam, że moje założenia dotyczące roku 2029 są poprawne.”

Ray zdaje się mówić, że to nie potęga sztucznej inteligencji rośnie wykładniczo, ale wysiłki, aby ją stworzyć, a ich wynik za każdym razem rośnie tylko o jeden krok. Jest to prawie przeciwieństwo hipotezy eksplozji inteligencji. Może się to zmienić w przyszłości, ale dzisiaj sztuczna inteligencja wyraźnie nie rośnie wykładniczo.

Kiedy więc wyobrażamy sobie „boom AI”, nie powinniśmy go sobie wyobrażać jako lawinę, ale raczej jako rozłam na wiele nowych odmian. Rezultatem postępu technologicznego najprawdopodobniej nie będzie superman, ale superman. Poza naszą wiedzą, ale niekoniecznie „ponad”.

Innym mitem zniewolenia przez superinteligencję, przyjmowanym za pewnik, ale nie popartym dowodami, jest to, że prawie nieskończona inteligencja może szybko rozwiązać wszystkie nasze problemy.

Wielu zwolenników błyskawicznej sztucznej inteligencji spodziewa się, że wywoła ona trwający boom. Nazywam wiarą w ten "myślenie", termin ten tłumaczy Wiaczesław Gołowanow - około. Co nowego). Takie podejście opiera się na przekonaniu, że postęp jest utrudniony jedynie przez niewystarczający poziom myślenia lub inteligencji. (Zauważam też, że wiara w sztuczną inteligencję jako panaceum na wszelkie bolączki jest charakterystyczna dla większości ludzi, którzy lubią myśleć samodzielnie.)

Rozważmy kwestię pokonania raka lub przedłużenia życia. Są to problemy, których nie da się rozwiązać samym myśleniem. Żadna ilość myśli nie może ustalić, jak starzeją się komórki ani jak skracają się telomery. Żadna inteligencja, bez względu na to, jak fajna, nie może zrozumieć, jak działa ludzkie ciało, po prostu czytając całą znaną literaturę naukową na świecie i analizując ją.

Super-AI nie może po prostu pomyśleć o wszystkich obecnych i przeszłych eksperymentach dotyczących rozszczepienia jądra i dzień później wymyślić przepis na fuzję jądrową. Aby przejść od niezrozumienia do zrozumienia jakiegokolwiek tematu, potrzebujesz czegoś więcej niż tylko myślenia.

W rzeczywistości istnieje wiele eksperymentów, z których każdy daje całą masę sprzecznych danych i wymaga dalszych eksperymentów, aby sformułować poprawną hipotezę roboczą. Samo myślenie o możliwych wynikach nie przyniesie poprawnych wyników.

Myślenie (inteligencja) jest tylko częścią narzędzia nauki. Najprawdopodobniej tylko niewielka część. Na przykład po prostu nie mamy wystarczających danych, aby zbliżyć się do rozwiązania problemu śmierci. W przypadku pracy z żywymi organizmami większość tych eksperymentów wymaga czasu. Powolnego metabolizmu komórkowego nie można przyspieszyć. Uzyskanie wyników zajmuje lata, miesiące lub co najmniej dni.

Jeśli chcemy wiedzieć, co dzieje się z cząstkami subatomowymi, nie wystarczy tylko o nich pomyśleć. Aby się tego dowiedzieć, musimy zbudować bardzo duże, bardzo złożone, bardzo wyrafinowane modele fizyczne. Nawet jeśli najmądrzejsi fizycy staną się tysiąc razy mądrzejsi niż są teraz, nie nauczą się niczego nowego bez zderzacza.

Nie ma wątpliwości, że super-AI może przyspieszyć rozwój nauki. Możemy tworzyć komputerowe modele atomów lub komórek, możemy je przyspieszać na wiele sposobów, ale istnieją problemy, które uniemożliwiają natychmiastowy postęp w symulacjach.

Warto pamiętać, że symulacje i modele można badać szybciej niż ich przedmioty tylko dlatego, że odrzucają pewne zmienne. To jest sama istota modelarstwa. Należy również zauważyć, że testowanie, badanie i walidacja takich modeli, tak aby odpowiadały poziomowi ich przedmiotów, zajmuje dużo czasu. Testowanie przez doświadczenie nie może być przyspieszone.

Uproszczone wersje w symulacji są przydatne do znajdowania najbardziej obiecujących sposobów przyspieszenia postępów. Ale w rzeczywistości nie ma nic zbędnego, wszystko do pewnego stopnia ma znaczenie - to jedna wielka definicja rzeczywistości. Ponieważ modele i symulacje stają się coraz bardziej szczegółowe, naukowcy stają przed faktem, że rzeczywistość działa szybciej niż jej 100% symulacja.

Oto kolejna definicja rzeczywistości: najszybsza działająca wersja wszystkich możliwych szczegółów i stopni swobody. Gdyby można było symulować wszystkie cząsteczki w komórce i wszystkie komórki w ludzkim ciele, ten model nie działałby tak szybko, jak ludzkie ciało. Bez względu na to, jak starannie zaprojektujesz taki model, nadal będziesz musiał poświęcić czas na eksperymentowanie, niezależnie od tego, czy jest to prawdziwy system, czy symulacja.

Aby była użyteczna, sztuczna inteligencja musi zostać wprowadzona w świat, a na tym świecie niezbędne tempo innowacji zmienia się dość szybko. Bez pierwszych eksperymentów, prototypów, błędów i zaangażowania w rzeczywistość intelekt może myśleć, ale nie da rezultatów. Nie dokona żadnych chwilowych odkryć ani w sekundę, ani w godzinę, ani w rok po tym, jak zostanie nazwany „mądrzejszym od człowieka”.

Pojawia się AI. Oczywiście tempo odkrywania przyspieszy, gdy ta sztuczna inteligencja stanie się bardziej złożona, po części dlatego, że obca sztuczna inteligencja będzie zadawać pytania, których żaden człowiek nie zadałby, ale nawet bardzo potężna (w porównaniu do nas) inteligencja nie gwarantuje natychmiastowego postępu. Do rozwiązywania problemów potrzeba znacznie więcej niż tylko inteligencji.

Problemy raka i długowieczności nie są jedynymi, których sama inteligencja nie jest w stanie rozwiązać. Wśród zwolenników idei osobliwości technologicznej panuje błędne przekonanie: jeśli stworzymy sztuczną inteligencję, która jest mądrzejsza od ludzi, to nagle zacznie się rozwijać i tworzyć jeszcze mądrzejszą sztuczną inteligencję.

Nowa sztuczna inteligencja będzie myśleć głębiej i wymyślać coś jeszcze mądrzejszego i tak dalej, aż wynalezione zostanie coś boskiego. Nie ma dowodów na to, że samo myślenie wystarczy do stworzenia nowych poziomów inteligencji. Ten rodzaj myślenia opiera się na wierze.

Istnieje jednak wiele dowodów na to, że wynalezienie nowej efektywnej inteligencji wymaga nie tylko wysiłku umysłowego, ale także eksperymentów, danych, trudnych pytań, prób i błędów.

Rozumiem, że mogę się mylić. Chociaż jesteśmy na wczesnym etapie. Być może odkryjemy uniwersalną skalę inteligencji lub jej nieskończoność pod każdym względem. Istnieje możliwość technologicznej osobliwości, ponieważ niewiele wiemy o tym, czym jest inteligencja i samoświadomość. Moim zdaniem wszystko wskazuje na to, że jest to mało prawdopodobne, ale wciąż jest szansa.

Popieram jednak szersze cele OpenAI: musimy rozwijać przyjazną sztuczną inteligencję i wymyślić, jak nadać jej wartości, które same się powielają i pasują do naszych.

Istnieje możliwość, że nadludzka sztuczna inteligencja może być szkodliwa na dłuższą metę, ale ta idea opiera się na niekompletnych dowodach i nie powinna być traktowana poważnie, jeśli chodzi o naukę, politykę lub postęp.

Uderzenie asteroidy w Ziemię mogłoby nas zniszczyć, jest taka możliwość (potwierdza to Fundacja B612), ale nie powinniśmy rozważać takiego wyniku w sprawach globalnego ocieplenia, podróży kosmicznych czy planowania miast.

Dostępne dowody wskazują, że najprawdopodobniej sztuczna inteligencja nie będzie nadludzka. Będzie miał nowe, niedostępne człowiekowi odmiany myślenia, ale bez wszechstronnego zastosowania nie stanie się bogiem, który w jednej chwili rozwiąże nasze główne problemy.

Zamiast tego stanie się nagromadzeniem intelektów o ograniczonych możliwościach, lepiej będzie od nas pracować w obszarach do nas nieprzyzwyczajonych, razem z nami będzie w stanie znaleźć rozwiązania zarówno istniejących, jak i nowych problemów.

Rozumiem, jak atrakcyjna jest idea nadludzkiej i boskiej sztucznej inteligencji. Mógłby być następnym Supermanem. Ale, podobnie jak Superman, jest to postać fikcyjna. Gdzieś we wszechświecie Superman może istnieć, ale jest to bardzo mało prawdopodobne. Tak czy inaczej, mity mogą być przydatne i raz stworzone, nie znikają.

Idea Supermana będzie żyła wiecznie. Idea nadludzkiej sztucznej inteligencji i Osobliwości pojawia się teraz i nigdy nie zostanie zapomniana. Musimy zrozumieć, co to za idea: religijna czy naukowa. Jeśli badamy kwestię inteligencji, sztucznej lub naturalnej, musimy jasno zrozumieć, że nasza koncepcja nadludzkiej sztucznej inteligencji jest tylko mitem.

Plemiona z odizolowanych wysp Mikronezji po raz pierwszy nawiązały kontakt ze światem zewnętrznym podczas II wojny światowej. Bogowie przylecieli z odległych krain, zstąpili z nieba na hałaśliwe ptaki, przynieśli prezenty i odlecieli na zawsze. Po wyspach rozprzestrzeniły się kulty powrotu tych bogów i nowe dary. Nawet teraz, 50 lat później, wielu wciąż czeka na swój powrót.

Nadludzka sztuczna inteligencja może stać się dla nas nowym kultem cargo. Być może za sto lat ludzie będą postrzegać nasz czas w ten sam sposób: jakbyśmy wierzyli w nadludzką sztuczną inteligencję i czekali dziesiątki lat, aż pojawi się lada chwila i przyniesie nam niewyobrażalne prezenty.

Jednak nienadludzka sztuczna inteligencja już istnieje. Nadal szukamy dla niego nowej definicji, aby to skomplikować. Jednak w szerokim sensie umysł nam obcy to spektrum zdolności intelektualnych, myślenia, mechanizmów rozumowania, uczenia się, samoświadomości. Sztuczna inteligencja rozprzestrzenia się i nadal będzie się rozprzestrzeniać. Staje się głębszy, bardziej zróżnicowany, potężniejszy.

Przed sztuczną inteligencją żaden wynalazek nie mógł całkowicie zmienić świata. Pod koniec XXI wieku sztuczna inteligencja będzie tak potężna, że ​​zmieni wszystko w naszym życiu.

Tak czy inaczej, mit nadludzkiej sztucznej inteligencji, która da nam super-bogactwo lub super-niewolnictwo (lub jedno i drugie), będzie żyć dalej. Pozostanie jednak mitem, którego ucieleśnienie w rzeczywistości jest mało prawdopodobne.


Top