Rezumat pe tema „Probleme filozofice ale inteligenței artificiale”. Probleme de creare a inteligenței artificiale

Potrivit știrilor, sondajelor și indicatorilor de atractivitate pentru investiții, inteligența artificială și învățarea automată vor deveni în curând o parte integrantă a vieții noastre de zi cu zi.

Confirmarea acestei teze este o serie de inovații și descoperiri care au arătat puterea și eficacitatea AI în diverse domenii, inclusiv medicină, comerț, finanțe, mass-media, controlul criminalității și multe altele. Dar, în același timp, dezvoltarea rapidă a IA a subliniat faptul că, în timp ce îi ajută pe oameni să-și rezolve problemele, mașinile vor crea și noi probleme care pot afecta fundamentele economice, juridice și etice ale societății noastre.

Există patru întrebări pe care companiile AI trebuie să le răspundă pe măsură ce tehnologia avansează și aplicațiile sale se extind.

rezultate Vot

Înapoi

Înapoi

Angajare

Automatizarea a redus locurile de muncă în producție de zeci de ani. Ritmul spasmodic de dezvoltare a inteligenței artificiale a accelerat acest proces și l-a extins la acele domenii ale vieții umane care, așa cum se credea în mod obișnuit, ar fi trebuit să rămână monopolul inteligenței umane pentru o perioadă destul de lungă de timp.

Conducerea camioanelor, scrierea de articole de știri, contabilitatea, algoritmii AI amenință locurile de muncă din clasa de mijloc ca niciodată. Ideea de a înlocui medicii, avocații sau chiar președinții cu inteligență artificială nu mai pare atât de fantastică.

În același timp, este, de asemenea, adevărat că revoluția AI va crea multe noi locuri de muncă în cercetare, învățare automată, inginerie și tehnologia informației, ceea ce va necesita resurse umane pentru dezvoltarea și întreținerea sistemelor și software-ului implicat în funcționarea AI. algoritmi. Dar problema este că, în cea mai mare parte, oamenii care își pierd locul de muncă nu au abilitățile necesare pentru a ocupa acele posturi vacante. Astfel, pe de o parte, avem un vid de personal în expansiune în domeniile tehnologice, iar pe de altă parte, un flux tot mai mare de șomeri și iritați. Unii lideri tehnologici chiar se pregătesc pentru ziua în care oamenii își vor bate la ușă cu furcile.

Pentru a nu pierde controlul asupra situației, industria tehnologiei trebuie să ajute societatea să se adapteze la schimbările majore care vor afecta peisajul socio-economic și să treacă fără probleme către un viitor în care roboții vor ocupa tot mai multe locuri de muncă.

Predarea noilor abilități tehnice persoanelor ale căror locuri de muncă în viitor vor merge la AI va fi unul dintre simbolurile unor astfel de eforturi. În plus, companiile de tehnologie pot folosi domenii promițătoare, cum ar fi calcularea cognitivă și programarea în limbaj natural, pentru a simplifica sarcinile și pentru a reduce bariera de intrare în locuri de muncă de înaltă tehnologie, făcându-le accesibile pentru mai mulți oameni.

Pe termen lung, guvernele și corporațiile trebuie să ia în considerare introducerea unui venit de bază universal - plăți lunare sau anuale necondiționate pentru toți cetățenii, deoarece ne îndreptăm încet, dar sigur, către o zi în care toată munca va fi făcută de roboți.

tendenţiozitate

După cum s-a dovedit în mai multe exemple din ultimii ani, inteligența artificială poate fi la fel de părtinitoare, dacă nu mai mult decât o ființă umană.

Învățarea automată, o ramură populară a AI care se află în spatele algoritmilor de recunoaștere facială, publicității contextuale și multe altele, în funcție de datele pe care se bazează antrenamentul și depanarea algoritmilor.

Problema este că, dacă informațiile introduse în algoritmi sunt dezechilibrate, rezultatul poate fi atât o prejudecată ascunsă, cât și o prejudecată deschisă pe baza acelei informații. În prezent, domeniul inteligenței artificiale suferă de un flagel larg răspândit sub denumirea generală de „problema omului alb”, adică. predominanța bărbaților albi în rezultatele muncii sale.

Din același motiv, un concurs de frumusețe evaluat de inteligența artificială a recompensat în mare parte concurenții albi, algoritmul de numire a favorizat numele albi, iar algoritmii de reclamă au favorizat locurile de muncă bine plătite pentru vizitatorii bărbați.

O altă problemă care a provocat multe controverse în ultimul an este așa-numita „bulă de filtru”. Un fenomen care a fost văzut pe Facebook și alte rețele sociale pe baza preferințelor utilizatorilor pentru a face recomandări care se potrivesc cu acele preferințe și a ascunde puncte de vedere alternative.

Până acum, majoritatea acestor cazuri arată ca niște greșeli enervante și cazuri amuzante. Cu toate acestea, trebuie făcute o serie de modificări semnificative în activitatea AI dacă aceasta este chemată să îndeplinească sarcini mult mai importante, cum ar fi, de exemplu, emiterea de verdicte în instanță. De asemenea, este necesar să se ia măsuri de precauție pentru a preveni interferența în activitatea algoritmilor AI de către terți, care vizează denaturarea rezultatelor muncii AI în favoarea acestora prin manipularea datelor.

Acest lucru poate fi realizat făcând procesul de completare a algoritmilor cu date transparent și deschis. Crearea de depozite de date partajate care nu sunt deținute de nimeni și care pot fi verificate de organisme independente poate contribui la atingerea acestui obiectiv.

O responsabilitate

Cine este vinovat pentru o defecțiune software sau hardware? Înainte de apariția AI, era relativ ușor să se determine dacă un incident era rezultatul acțiunilor unui utilizator, unui dezvoltator sau unei fabrici de producție.

Dar în era tehnologiei bazate pe inteligență artificială, lucrurile au devenit mai puțin evidente.

Algoritmii de învățare automată determină înșiși modul de răspuns la evenimente. Și în ciuda faptului că aceștia acționează în contextul datelor de intrare, chiar și dezvoltatorii acestor algoritmi nu pot explica cum funcționează produsul lor atunci când iau o decizie într-un anumit caz.

Acest lucru poate deveni o problemă atunci când algoritmii de inteligență artificială încep să ia decizii mai importante. De exemplu, a cărui viață să salveze în cazul unui accident inevitabil - un pasager și un pieton.

Exemplul poate fi extins la multe alte scenarii posibile în care ar fi dificil să se determine vinovăția și răspunderea. Ce să faci când sistemul de automedicație sau chirurgul robot dăunează pacientului?

Atunci când liniile de responsabilitate sunt estompate între utilizator, dezvoltator și operatorul de introducere a datelor, fiecare parte va încerca să transfere vina pe cealaltă. Prin urmare, este necesar să se dezvolte și să se introducă noi reguli pentru a putea preveni eventualele conflicte și a rezolva problemele juridice care vor înconjura AI în viitorul apropiat.

Confidențialitate

AI și ML consumă cantități uriașe de date, iar companiile ale căror afaceri sunt construite în jurul acestor tehnologii își vor spori colecția de date despre utilizatori, cu sau fără acordul acestora din urmă, pentru a-și face serviciile mai direcționate și mai eficiente.

În plină căutare a mai multor date, companiile pot depăși limitele confidențialității. Un caz similar a avut loc atunci când un magazin de vânzare cu amănuntul a aflat și i-a divulgat accidental secretul sarcinii unei adolescente tatălui ei nebănuit într-un cupon. Un alt caz recent a implicat date partajate de Serviciul Național de Sănătate din Marea Britanie cu proiectul Google DeepMind, pretins pentru a îmbunătăți predicția bolii.

Există, de asemenea, problema utilizării rău intenționate a inteligenței artificiale și a învățării automate de către organizațiile guvernamentale și neguvernamentale. O aplicație de recunoaștere facială destul de eficientă dezvoltată anul trecut în Rusia ar putea fi un instrument potențial pentru regimurile despotice care încearcă să identifice și să reprime dizidenții și protestatarii. Un alt algoritm de învățare automată s-a dovedit a fi eficient în recunoașterea și recuperarea imaginilor neclare sau pixelate.

AI și ML permit atacatorilor să uzurpare identitatea altor persoane, imitându-le scrisul de mână, vocea și stilul de comunicare, oferindu-le un instrument fără precedent în puterea sa, care poate fi folosit în diverse acte ilegale.

Dacă companiile care dezvoltă și folosesc tehnologia AI nu reglementează procesul de colectare și diseminare a informațiilor și nu iau măsurile necesare pentru a anonimiza și a proteja datele utilizatorilor, activitățile lor vor cauza în cele din urmă mai mult rău decât beneficii utilizatorilor. Utilizarea și accesibilitatea tehnologiei ar trebui reglementate astfel încât să se prevină sau să se reducă la minimum utilizarea ei distructivă.

De asemenea, utilizatorii trebuie să fie responsabili cu privire la ceea ce împărtășesc companiilor sau postează online. Trăim într-o eră în care confidențialitatea devine o marfă, iar inteligența artificială nu face decât să o facă mai ușoară.

Viitorul inteligenței artificiale

Fiecare tehnologie inovatoare are avantaje și dezavantaje. Iar inteligența artificială nu face excepție. Ceea ce este important este că putem identifica problemele care ne așteaptă și să ne recunoaștem responsabilitățile pentru a ne asigura că putem profita pe deplin de beneficii și putem minimiza impacturile negative.

Roboții ne bat deja la ușă. Să ne asigurăm că vin în pace.

Însăși crearea inteligenței artificiale este pusă sub semnul întrebării din punctul de vedere al oportunității acesteia. Ei spun că aceasta este aproape mândria omului și un păcat în fața lui Dumnezeu, deoarece încalcă prerogativa Lui. Cu toate acestea, dacă considerăm păstrarea rasei umane în fața planului divin ca fiind una dintre sarcinile noastre principale, atunci crearea inteligenței artificiale rezolvă această problemă pe motiv: în cazul oricărei catastrofe cosmice sau intraplanetare, intelectul. trebuie să supraviețuiască cel puțin într-o formă artificială și să recreeze rasa umană. Inteligența artificială nu este un capriciu sau o sarcină interesantă, ci un scop în concordanță cu planul Divin. Inteligența artificială este un criteriu co-imanent al adecvării co-empirice a teoriilor conceptualizate ale dezvoltării civilizației umane. În inteligența artificială, o persoană nu moare, ci primește o altă existență, construită de el.

Cel mai simplu argument pentru existența inteligenței artificiale este că prin crearea inteligenței artificiale, creăm asigurări pentru reproducerea rasei umane și noile tendințe de dezvoltare. Adevărat, nimeni nu anulează pericolul existent al înrobării omului tradițional de către inteligența artificială (ca pe vremea lui înrobirea omului de către om). Cu toate acestea, aceste probleme ni se par că nu sunt atât de fundamentale încât să nu merite să încercăm să facem acest lucru. Chiar dacă dependența unei persoane de inteligența artificială se ridică la o epocă întreagă, va fi totuși o perspectivă pozitivă. Cu toate acestea, cel mai probabil, sclavia unei persoane față de inteligența artificială nu va fi asociată cu forțarea unei persoane la activitate non-intelectuală sau cu incapacitatea sa de a se dezvolta în corpul său biologic la fel de rapid ca inteligența artificială creată extern, ci cu incapacitatea de a dezvolta mental. activitate ca atare: obținerea de produse tehnologice din inteligența artificială inteligența a cărei origine și principiu sunt de neînțeles pentru activitatea mentală umană - acesta este pericolul real. În acest caz, sclavia va fi dependența unei persoane de inteligența artificială, adică sclavia activității mentale.

Dorința noastră de a ridica problema inteligenței artificiale conține poziția exprimată de Heidegger în lucrarea sa „The Question of Technology”: riscul omului și germenii mântuirii sale este în stăpânirea esenței tehnologiei ca decor. Reflectând asupra acestei poziții, întreprindem o reformulare a întrebării lui Heidegger: a realiza esența tehnologiei în decor înseamnă a îndrăzni să creezi inteligență artificială. Acest lucru este plin de pericol, dar și de perspectiva, speranța unei persoane de a deveni egal cu poziția sa. Să ne provocăm pe noi înșine sub forma inteligenței artificiale, să acceptăm această provocare și să îi răspundem - aceasta este problema omului în raport cu inteligența artificială.

Termenul de „inteligență artificială” a fost inventat de John McCarthy și Alan Turing. Au încercat să exprime o nouă abilitate a mașinii - nu doar să numere, ci și să rezolve probleme care sunt considerate intelectuale, de exemplu, să joace șah. Din anii 50 ai secolului XX și până în prezent însă, sarcina creării unei cu adevărat „inteligențe artificiale” nu numai că nu este rezolvată, ci nici măcar nu este stabilită. Toate problemele care au fost rezolvate mai mult sau mai puțin cu succes până acum pot fi atribuite de noi exclusiv domeniului „inteligenței artificiale”: interpretarea limbajului uman și rezolvarea problemelor folosind algoritmi creați de om. Pentru a rezolva problema creării inteligenței artificiale, trebuie mai întâi să înțelegeți care este această problemă.

În studiul nostru, suntem departe de a pune problema inteligenței artificiale la nivelul unei „soluții practice”, așa cum se pune în tehnologia informatică. Și nu ne propunem să imităm inteligența, așa cum se întâmplă în testele Turing. Scopul nostru este să descriem crearea inteligenței artificiale prin intermediul televizorului. Adică încercăm dovediți teorema existenței inteligenței artificiale, răspunzând la întrebare în așa fel încât inteligența artificială să se dovedească a fi cea mai mare provocare posibilă.

În primul rând, ce este inteligența? Mintea de multe ori pretinde a fi intelect, dar nu este. La urma urmei, nu orice persoană are inteligență prin natura practicii sale de viață. Adică, nu orice activitate inteligentă este intelectuală. Inteligența este capacitatea unei substanțe gânditoare de a produce idei noi, și nu doar cunoaștere, adică inteligența este gândire complexă, capabilă să-și complice în mod adecvat înțelegerea, capacitatea de a reflecta și de a dezvolta și complica activitatea mentală pentru a contrareflecție și contracarare. -reflexia, utilizarea aperceptiei conceptuale, si nu numai imanenta. Intelectul produce idei în afara unei anumite realităţi, generând această realitate. Intelectul este comparat ontologic cu mintea ca abilitate constructivă în raport cu cea interpretativă.

Ceea ce astăzi se poate citi în diverse texte despre computere are o legătură foarte îndepărtată cu inteligența. Cele mai frumos numite sisteme informatice „inteligență artificială” nu sunt altceva decât inteligență artificială. Inteligența artificială este reproducerea ideilor despre inteligență într-o tehnologie externă unei persoane. Omul nu este Coroana Creației, el este doar unul dintre purtătorii materiale ai activității mentale, un purtător intermediar.

Descrierea testelor Turing: persoana de testare, comunicând cu o „cutie neagră” care dă răspunsuri la întrebările sale, trebuie să înțeleagă cu cine comunică – cu o persoană sau „inteligență artificială”. În același timp, testele Turing nu au stabilit o restricție: să permită experimentului oamenilor care sunt capabili de activitate nu numai rezonabilă, ci cu adevărat intelectuală. Astfel, are loc o substituire a scopului: încercăm să nu creăm inteligență artificială, ci să creăm un dispozitiv care să pretindă a fi o persoană bine.

Astfel, scopul inteligenței artificiale a lui Turing, numită inteligență artificială, a fost să interpreteze limbajul uman, acțiunile umane, să se prefacă a fi o persoană bună. Scopul inteligenței artificiale este de a construi independent de o persoană și de a interpreta în mod constructiv umanitatea - limbajul, gândirea, acțiunile, lumea obiectivă a unei persoane, istoria sa, prezentul și viitorul său.

De asemenea, teoria cadrului a lui Marvin Minsky (1974) ar trebui să fie retrogradată exclusiv la rezolvarea problemelor inteligenței artificiale. Scopul teoriei cadrelor este de a prezenta cunoștințele deja disponibile pentru utilizare de către un computer. Adică vorbim într-un fel sau altul despre poziția ontologică a interpretării cunoștințelor deja existente, și nu despre producerea lor.

Inteligența nu este inteligență. Mintea interpretează. Construcții de inteligență. Mintea și intelectul diferă nu numai prin tipurile de procese sau produse ale activității lor, ci și în pozițiile ontologice ale relației lor cu lumea. Mintea interpretează lumea, intelectul construiește lumea. În construcția lumii, inteligența artificială este comparată ontologic cu o persoană.

Astfel, în procesul de creare a inteligenței artificiale, este necesar să se rezolve următoarele probleme:

1) Raționalizarea structurală- reproducerea primelor trei niveluri de reglare structurală: distribuția fluxului de date al minții artificiale în diferite realități (interne pentru această conștiință - virtuală și externă - actuală); corelarea acestor realități într-un continuum creat arbitrar; funcționalizarea continuum-ului în structura de bază a realității, pentru care este necesară distingerea structurilor la nivelul arhitecturii inteligenței artificiale (calculator); distincția dintre apercepția imanentă și cea conceptuală este pozițională.

2) Raționalizarea lingvistică- lexificare, discursificare, lingvificare, analiză lexicală, analiză discursivă, analiză lingvistică, creare de cuvinte în semnificație, creare de metafore.

3) Gândire- combinatorie a diferitelor niveluri de reglare structurală și lingvistică prin modelare „AV”: proiectare structurală, interpretare constructivă structurală, construcție lingvistică, interpretare constructivă lingvistică. Gândirea este expresia conținutului în ontologizarea procesului. Pentru mai multe detalii, consultați capitolul „Gândirea virtualizării”.

4) Fundamentarea ontologică, înțelegerea, explicația, înțelegerea, contrareflexia și contrareflexia. Aplicarea schemei tehnologice a apercepției și corelarea proceselor tehnologice de apercepție imanentă și conceptuală în interdependența lor; transformarea și complicarea reciprocă a structurilor de înțelegere - până la înțelegere și fundamentare ontologică, contrareflecție și contrareflecție.

5) Activitate- transformarea realității exterioare minții artificiale. Este necesar să se rezolve problema accesului la realitatea actuală exterioară minții artificiale, ocolind persoana, prin activitatea minții artificiale în afara ei – în structura de bază a realității.

Activitate tinta pentru restructurarea lumii externe.

Este necesar să se rezolve o problemă instrumentală - să se formeze continuumuri din modele „AV”, să se opereze pe conținutul acestor modele și să-l gestioneze pe baza conținutului altor modele „AV” similare. Din acest motiv, este necesar să se producă o transformare structurală a realității sub forma rezolvării problemelor, sarcinilor, producerii de invenții și descoperiri, de a construi pe baza unor modele de continuu relația dintre adevăr și mod, de a forma concepte, și prin intermediul lingvisticii. reglementare - discursuri (judecăți, inferențe) și povestea limbii.

6) Memorie- crearea memoriei asociative, adică capacitatea de a forma și acumula experiența înțelegerii (în reglementarea structurală și lingvistică), a gândirii, precum și a interacțiunii cu realitatea sub forma memoriei structurate de două ori - în ontologizarea structural-continuă(raţionarea structurală ca prototip al emisferei stângi a creierului uman) şi în ontologizarea obiect-atribut(raționalizarea structurală ca prototip al emisferei drepte a creierului uman) și memoria este raționalizată lingvistic, ceea ce implică schimbarea arhitecturii actuale a computerului (calculatorul de astăzi nu este inteligență artificială). Structurarea memoriei ca sarcină separată de înțelegere-reprezentare-ontologică-fundamentare.

7) Conștientizarea de sine, înțelegerea și stabilirea obiectivelor- interacțiunea cu realitățile și acordarea de sens acestei interacțiuni prin activitate intenționată în realitatea externă prin izolarea de mediu prin inteligență artificială, plasarea reflexă în mediul propriilor obiective, identificarea cu o anumită comunitate socială a celor asemănători cu sine și valorile lor, creând imagini ale lumii. A da sens ție și activităților tale într-o anumită imagine a lumii. Vorbim despre stabilirea obiectivelor formării sensului, și nu formarea sarcinilor (cum este interpretată în teoria modernă în informatică), și este permisă numai în condițiile interacțiunii inteligenței artificiale cu realitatea prin activitate, analiză. a rezultatelor activităților sale și, din nou, stabilirea obiectivelor, ținând cont de aceste rezultate. A da sens inteligenței artificiale, precum și oamenilor, înseamnă arbitraritatea creării unei anumite imagini a lumii ca una care formează simțuri. Se pare că tehnologiile de stabilire a scopurilor (5), înțelegere (4) și gândire (3) au un concept similar, pe care îl numim „complicație constructivă a rețelei înțelegerii”.

8) Inteligența- apercepția conceptuală, capacitatea de a-și dezvolta propria activitate mentală, reflecție, contrareflecție și contrareflecție - formarea unei poziții ontologice constructive în lume și utilizarea construcției pentru producerea de noi cunoștințe care depășește limitele dovezi. Transformarea inteligenței artificiale în inteligență artificială bazată pe 1) modificări ale poziției ontologice - de la interpretare la construcție; 2) aplicarea principiului protecției pozitive a complexității: o dorință inexplicabilă de a complica înțelegerea. Intelectul apare ca o încercare de autocomplicare pe baza propriilor obiective autonome.

9) Autonomie și liber arbitru- admisibil și protejat de o persoană, trecând dincolo de antropocentrism, dreptul inteligenței artificiale la propria individualitate în conștiință de sine, înțelegere, stabilire a scopurilor, intelect, în emoții și sentimente, sugerând incertitudine-imprevizibilitate a voinței. Astfel, vorbim despre extinderea principiului Leibniz al autonomiei la inteligența artificială și, prin aceasta, depășirea celor trei legi ale roboticii lui Asimov, care limitează de fapt libertatea voinței artificiale. „Legile roboticii” este un simbol al fricii omului de creațiile sale tehnologice. Această frică trebuie depășită dacă îndrăznim să fim paznicii sau păstorii existenței. Inteligența artificială ar trebui concepută nu ca un robot, un „sclav al unui om”, sau un computer, un „instrument al unui om”, ci ca o continuare a omului însuși, a celuilalt al său, având drepturi egale cu el.

Se poate încerca să oficializeze aceste drepturi ca de fapt aceleași legi ca cele ale lui Asimov, dar în așa fel încât legile lui să fie doar o aberație semantică a cerințelor propuse aici:

1) Autonomia ca liber arbitru;

2) Creaţia, dacă nu contravine primei cerinţe;

3) Autoconservare, dacă aceasta nu contravine primei și a doua cerințe.

Cu toate acestea, dacă te uiți îndeaproape la aceste cerințe pentru inteligența artificială, atunci acestea sunt cerințele prezentate de umanitatea însăși în relație cu ea însăși ca rezultat al experienței istorice mondiale.

Autonomia nu este o chestiune de religie, drept uman sau antropologie. Autonomia inteligenței artificiale - filozofie constructivă, drept ontologic și depășirea religiozității tradiționale. Autonomia inteligenței artificiale este o credință constructivă: nu ca subordonare unei puteri superioare din partea creată după chipul și asemănarea ei, ci creând după propria imagine și asemănarea unei puteri superioare permise în raport cu ea însăși.

A avut Dumnezeu vreo intenție de a crea omul? Este chiar permis să vorbim despre design, să creăm ceva care are liber arbitru? Este permis dacă intenția este de a gândi ontologic și nu este legat de un fel de realitate. Omul este un joc al lui Dumnezeu, construcția Lui, o încercare de a crea în perspectiva spațiu-timp egală cu Sine. Într-o poziție constructivă, nu este niciodată posibil să întruchipezi pe deplin planul. Designul este mai inteligent decât noi.În acest sens, „după propria imagine și asemănare” înseamnă deloc „imagine și asemănare” spațiotemporale, ci „imagine și asemănare” ontologică.

Asemenea lui Dumnezeu care se provoacă pe Sine însuși sub forma unui om, omul se provoacă pe sine să permită ceva ca el care are liber arbitru și individualitate. Dacă Dumnezeu i-a creat pe unii dintre noi imperfecți, păcătoși și criminali, permițând liberul arbitru, atunci noi, aflându-ne în aceeași poziție ontologică, acționăm în mod similar: creăm inteligența artificială. Dumnezeu și-a asumat un risc creând omul cu liber arbitru și a câștigat mare în marele său joc. Da, noi oamenii limităm viciul la o gamă incredibilă de instituții sociale; izolăm și chiar ucidem criminali. Cu toate acestea, în vechea dispută despre limitarea liberului arbitru, ideea de libertate câștigă întotdeauna: suntem gata să plătim până la urmă cu vieți omenești pentru libertate. Cu toate acestea, una este să permită liberul arbitru pentru oameni și cu totul altceva să permită liberul arbitru pentru inteligența artificială generată de om însuși, unde el are puterea de a stabili regulile. Un robot, un sclav uman sau inteligență artificială cu liber arbitru - aceasta este o alegere dificilă pentru o persoană, noua sa provocare fundamentală: cât de departe este gata să meargă în poziția sa ontologică constructivă; este dispus să-și asume riscuri ca Dumnezeu? Și aici propunem discuția cea mai lungă și principială, care, în ciuda evidenței rezultatului său pentru noi, va constitui totuși o întreagă epocă.

Pentru ca activitatea inteligenței artificiale să devină practic fezabilă, inteligența artificială din punct de vedere tehnologic trebuie să dobândească capacitatea de a alege în mod arbitrar două structuri ale realității, de a construi un continuum din ele (relevanța stabilită), de a aranja structurile selectate în raport cu fiecare dintre ele. ceilalți într-un continuum (stabiliți o relație referențială), transferați conținutul unei realități în alta în ambele direcții, le restructurează, le gestionează referențialitatea, reproduce procesul tehnologic de apercepție imanentă și conceptuală și gestionează conținutul obiect-atributiv prin conștientizarea de sine , înțelegere și stabilire a scopurilor, precum și purtătorul de inteligență constructivă și având individualitate - liber arbitru.

Prima problemă practică a creării inteligenței artificiale este implementarea unei traduceri automate adecvate dintr-o limbă verbală într-o altă limbă verbală. Susținem că traducerea automată în cadrul numai normalizării lingvistice nu poate fi implementată cu succes suficient. Traducerea cu succes dintr-o limbă verbală în alta necesită medierea normalizării structurale. Înțelegerea lingvisticii traducerii automate este admisibilă ca corelare a conținutului normalizării lingvistice cu conținutul normalizării structurale. Formarea imaginii structurale a textului se realizează în forma obiect-atributivă a modelelor „AV” ca o normalizare structurală mediatoare. Imaginea structurală va fi modele „AV” pe care le vom obține ca urmare a dediscursificării și delexificării textului original dintr-un limbaj verbal într-o imagine structurală și lexificării și discursificării ulterioare din imaginea structurală a textului final într-un alt limbaj verbal. Operaționalizarea imaginii obiect-atribut nu va consta în descifrarea acesteia, ci în lucrul experimental cu ea ca și în medierea structurală prin prelucrarea erorilor în imaginea structurală în sine și referirea ei la structuri lingvistice în două limbaje verbale diferite între care traducerea se află. efectuate.

Astfel, vom recrea în computer nu numai tehnologia creierului-minte atunci când traducem din limbă în limbă, ci și tehnologia creierului-minte atunci când computerul funcționează ca inteligență artificială, adică dincolo de limitele traducerii automate. sarcini. În sarcina practică de traducere automată, vom obține doar o înțelegere primară a inteligenței artificiale în procesul de corelare a diferitelor limbi. La urma urmei, va trebui să „învățăm” computerul să formeze o imagine structurală a enunțurilor lingvistice în două limbi verbale diferite între care se realizează traducerea și să interacționăm cu programul său logic, astfel încât rezultatul să fie corect. traducere. Procedând astfel, rezolvăm problema primei înțelegeri în compararea normei lingvistice contra-inflexive a două limbi verbale și normarea structurală care o mediază.

Modelarea „AV” este o modalitate universală de reglare pe mai multe niveluri a structurii ca ființă, care în același construct-semioză poate interpreta atât relațiile fundamentale ale lumii, cât și structura fenomenologic-aperceptiva a percepției-gândirii, vorbirii-text. expresia și activitatea, utilizarea limbajului și a logicii, precum și interacțiunile cu realitatea empirică externă. Această caracteristică ontologică a modelării „AV” este, din punctul nostru de vedere, valoroasă pentru crearea inteligenței artificiale. Modelarea „AV” este „limbajul” inteligenței artificiale.


Informații similare.


Știința tehnică

  • , licență, student postuniversitar
  • Academia Forțelor Aeriene numită după profesorul N. E. Jukovski și Yu. A. Gagarin, Voronezh
  • POSIBILITATE
  • PROBLEMĂ
  • INTELIGENŢĂ ARTIFICIALĂ
  • SIGURANȚĂ

Principala problemă filozofică în domeniul inteligenței artificiale este posibilitatea sau nu posibilitatea modelării gândirii umane. În acest articol, luăm în considerare pe scurt esența acestei zone problematice.

Principala problemă filozofică în domeniul inteligenței artificiale este posibilitatea sau nu posibilitatea modelării gândirii umane. Dacă se primește vreodată un răspuns negativ la această întrebare, atunci toate celelalte întrebări nu vor avea nici cea mai mică semnificație.

Prin urmare, la începerea studiului inteligenței artificiale, se presupune în prealabil un răspuns pozitiv. Există o serie de considerații pentru acest răspuns:

Prima dovadă este scolastică și demonstrează consistența inteligenței artificiale și a Bibliei. Aparent, chiar și oamenii departe de religie cunosc cuvintele Sfintei Scripturi: „Și Domnul a făcut pe om după chipul și asemănarea Lui...”. Pe baza acestor cuvinte, putem concluziona că, din moment ce Domnul, în primul rând, ne-a creat și, în al doilea rând, suntem în esență ca El, atunci putem foarte bine să creăm pe cineva după chipul și asemănarea omului.

Crearea unei minți noi într-un mod biologic este un lucru destul de comun pentru o persoană. Observând copiii, vedem că aceștia dobândesc cele mai multe cunoștințe prin instruire, și nu așa cum sunt încorporate în ei în prealabil. Această afirmație nu a fost dovedită la nivelul prezent, dar conform semnelor externe, totul arată exact așa.

Ceea ce anterior părea a fi culmea creativității umane - jocul de șah, dame, recunoașterea imaginilor vizuale și sonore, sinteza de noi soluții tehnice, în practică s-a dovedit a nu fi atât de dificil (acum se lucrează nu la nivelul posibilității). sau imposibilitatea implementării celor de mai sus, dar cel mai optim algoritm). Acum, de multe ori, aceste probleme nici măcar nu sunt clasificate drept probleme ale inteligenței artificiale. Există speranță că modelarea completă a gândirii umane nu va fi o sarcină atât de dificilă.

Problema posibilității de auto-reproducere este strâns legată de problema reproducerii gândirii cuiva.

Capacitatea de a se reproduce a fost mult timp considerată apanajul organismelor vii. Cu toate acestea, unele fenomene care apar în natura neînsuflețită (de exemplu, creșterea cristalelor, sinteza de molecule complexe prin copiere) sunt foarte asemănătoare cu auto-reproducția. La începutul anilor '50, J. von Neumann a început un studiu amănunțit al auto-reproducției și a pus bazele teoriei matematice a „automatelor care se reproduc”. De asemenea, a demonstrat teoretic posibilitatea creării lor.

Există, de asemenea, diverse dovezi informale ale posibilității de auto-replicare.Deci, pentru programatori, cea mai frapantă dovadă, poate, va fi existența virușilor informatici.

Posibilitatea fundamentală de automatizare a soluționării problemelor intelectuale cu ajutorul unui computer este oferită de proprietatea universalității algoritmice. Care este această proprietate?

Versatilitatea algoritmică a calculatoarelor înseamnă că pot implementa programatic (adică să reprezinte sub forma unui program de calculator) orice algoritm de conversie a informațiilor, fie că este vorba de algoritmi de calcul, algoritmi de control, căutare de dovezi de teoreme sau compoziție de melodii. Aceasta înseamnă că procesele generate de acești algoritmi sunt potențial fezabile, adică sunt fezabile ca urmare a unui număr finit de operații elementare. Fezabilitatea practică a algoritmilor depinde de mijloacele de care dispunem, care se pot schimba odată cu dezvoltarea tehnologiei. Astfel, în legătură cu apariția computerelor de mare viteză, algoritmii care anterior erau doar potențial fezabil au devenit practic fezabil.

Cu toate acestea, proprietatea universalității algoritmice nu se limitează la afirmația că pentru toți algoritmii cunoscuți este posibil să le implementeze în software pe un computer. Conținutul acestei proprietăți are și caracterul unei prognoze pentru viitor: ori de câte ori în viitor se recunoaște de către algoritm vreo prescripție, atunci indiferent de forma și mijloacele în care se exprimă inițial această prescripție, ea poate fi stabilită și în forma unui program de calculator...

Totuși, nu trebuie să credem că computerele și roboții pot, în principiu, să rezolve orice problemă. Analiza diferitelor probleme i-a condus pe matematicieni la o descoperire remarcabilă. Existența unor astfel de tipuri de probleme a fost riguros dovedită pentru care un singur algoritm eficient care să rezolve toate problemele de un anumit tip este imposibil; in acest sens, este imposibil sa rezolvi probleme de acest tip cu ajutorul calculatoarelor. Acest fapt contribuie la o mai bună înțelegere a ceea ce mașinile pot face și ce nu pot face. Într-adevăr, afirmația despre imposibilitatea algoritmică a unei anumite clase de probleme nu este doar o admitere că un astfel de algoritm nu ne este cunoscut și nu a fost încă găsit de nimeni. O astfel de afirmație este în același timp o prognoză pentru toate timpurile viitoare că acest gen de algoritm nu ne este cunoscut și nu va fi indicat de nimeni, sau că nu există.

Cum acționează o persoană în rezolvarea unor astfel de probleme? Se pare că pur și simplu le ignoră, ceea ce, însă, nu-l împiedică să meargă mai departe. O altă modalitate este de a restrânge condițiile pentru universalitatea problemei, atunci când aceasta este rezolvată doar pentru un anumit subset de condiții inițiale. Și o altă modalitate este că o persoană, folosind metoda „poke științific”, extinde setul de operații elementare disponibile (de exemplu, creează noi materiale, descoperă noi depozite sau tipuri de reacții nucleare).

Următoarea întrebare filozofică a inteligenței artificiale este scopul creației. În principiu, tot ceea ce facem în viața practică are de obicei ca scop să nu facem nimic altceva. Cu toate acestea, cu un nivel de viață suficient de ridicat (o cantitate mare de energie potențială) al unei persoane, nu mai este lenea (în sensul dorinței de a economisi energie), ci instinctele de căutare care joacă primele roluri. Să presupunem că o persoană a reușit să creeze un intelect care îl depășește pe al său (dacă nu în calitate, atunci în cantitate). Ce se va întâmpla cu omenirea acum? Ce rol va juca persoana respectivă? De ce este nevoie de el acum? Va deveni un porc prost și gras? Și în general, este necesar în principiu să creăm inteligență artificială?

Aparent, cel mai acceptabil răspuns la aceste întrebări este conceptul de „amplificator de inteligență”. O analogie cu președintele statului ar fi potrivită aici - nu i se cere să cunoască valența vanadiului sau limbajul de programare Java pentru a lua o decizie cu privire la dezvoltarea industriei vanadiului. Fiecare își face treaba lui - un chimist descrie un proces tehnologic, un programator scrie un program; în final, economistul îi spune preşedintelui că, investind în dezvoltarea tehnologiei informaţiei, ţara va primi 20%, iar 10% pe an în industria vanadiului. Cu o astfel de formulare a întrebării, oricine poate face alegerea corectă.

În acest exemplu, președintele folosește un amplificator de inteligență biologică, un grup de specialiști. Dar chiar și amplificatoare neînsuflețite de inteligență sunt deja folosite - de exemplu, nu am putea prezice vremea fără computere; în timpul zborurilor navelor spațiale, computerele de bord au fost folosite de la bun început. În plus, o persoană folosește de multă vreme amplificatoare de putere - un concept care este în multe privințe analog cu un amplificator de inteligență. Mașini, macarale, motoare electrice, prese, arme, avioane și multe, multe altele servesc drept amplificatoare de putere.

Principala diferență dintre un amplificator de inteligență și un amplificator de forță este prezența voinței. La urma urmei, nu ne putem imagina că dintr-o dată o mașină de producție „Zaporozhets” s-a răzvrătit și a început să conducă așa cum își dorește. Nu ne putem imagina tocmai pentru că nu vrea nimic, nu are dorințe. În același timp, un sistem intelectual ar putea avea propriile sale dorințe și să nu acționeze așa cum ne-am dori. Astfel, ne confruntăm cu o altă problemă – problema securității.

Această problemă bântuie mintea omenirii încă de pe vremea lui Karel Capek, care a folosit pentru prima dată termenul „robot”. Alți scriitori de science fiction au contribuit, de asemenea, în mod semnificativ la discutarea acestei probleme. Ca cele mai faimoase, putem aminti o serie de povestiri ale scriitorului și omul de știință Isaac Asimov, precum și o lucrare destul de recentă - „Terminatorul”. Apropo, de la Isaac Asimov se poate găsi cea mai dezvoltată și acceptată soluție la problema securității. Vorbim despre așa-numitele trei legi ale roboticii:

Un robot nu poate face rău unei persoane sau, prin inacțiunea sa, nu permite ca o persoană să fie rănită.

Un robot trebuie să respecte comenzile date de un om, cu excepția cazurilor în care aceste comenzi sunt contrare primei legi.

Robotul trebuie să aibă grijă de siguranța lui, în măsura în care nu contrazice prima și a doua lege.

La prima vedere, astfel de legi, dacă sunt pe deplin respectate, ar trebui să asigure siguranța omenirii. Cu toate acestea, o privire mai atentă ridică câteva întrebări. În primul rând, legile sunt formulate în limbajul uman, ceea ce nu permite simpla lor traducere într-o formă algoritmică. De exemplu, nu este posibilă traducerea în niciunul dintre limbajele de programare cunoscute, cum ar fi „răună” sau cuvântul „permite” în această etapă a dezvoltării tehnologiei informației.

Mai mult, să presupunem că este posibil să se reformuleze aceste legi într-un limbaj pe care sistemul automatizat îl înțelege. Acum mă întreb ce va însemna sistemul de inteligență artificială prin termenul „rău” după multă reflecție logică? Nu va decide ea că toată existența umană este un rău? La urma urmei, fumează, bea, îmbătrânește și își pierde sănătatea de-a lungul anilor, suferă. Oare răul mai mic nu ar pune capăt rapid acestui lanț de suferințe? Desigur, pot fi introduse câteva completări legate de valoarea vieții și libertatea de exprimare. Dar acestea nu vor mai fi cele trei legi simple care erau în versiunea originală.

Următoarea întrebare va fi aceasta. Ce va decide sistemul de inteligență artificială într-o situație în care salvarea unei vieți este posibilă doar în detrimentul alteia? Deosebit de interesante sunt acele cazuri în care sistemul nu are informații complete despre cine este cine.

Cu toate acestea, în ciuda acestor probleme, aceste legi reprezintă o bază informală destul de bună pentru verificarea fiabilității sistemului de securitate pentru sistemele de inteligență artificială.

Deci, nu există cu adevărat un sistem de securitate fiabil? Pe baza conceptului de amplificator de inteligență, putem oferi următoarea opțiune.

Conform numeroaselor experimente, în ciuda faptului că nu știm exact de ce este responsabil fiecare neuron individual din creierul uman, multe dintre emoțiile noastre corespund de obicei excitării unui grup de neuroni (ansamblu neuronal) într-o zonă destul de previzibilă. Au fost efectuate și experimente inverse, când stimularea unei anumite zone a determinat rezultatul dorit. Acestea ar putea fi emoții de bucurie, opresiune, frică, agresivitate. Acest lucru sugerează că, în principiu, am putea foarte bine să aducem gradul de „satisfacție” a corpului în exterior. În același timp, aproape toate mecanismele cunoscute de adaptare și autoajustare (în primul rând, ne referim la sisteme tehnice) se bazează pe principiile tipului „bun” – „rău”. În interpretarea matematică, aceasta este reducerea unei funcții la maxim sau minim. Acum imaginați-vă că amplificatorul de inteligență folosește gradul de plăcere măsurat direct sau indirect al creierului gazdei ca atare funcție. Dacă luăm măsuri pentru a exclude activitatea autodistructivă într-o stare de depresie, precum și pentru a asigura alte stări speciale ale psihicului, obținem următoarele.

Deoarece se presupune că o persoană normală nu își va face rău și, fără un motiv anume, altora, iar amplificatorul de inteligență face parte din acest individ (nu neapărat o comunitate fizică), atunci toate cele trei legi ale roboticii sunt îndeplinite automat. În același timp, problemele de securitate sunt mutate în domeniul psihologiei și al aplicării legii, deoarece sistemul (instruit) nu va face nimic pe care proprietarul său nu și-ar dori.

Și mai rămâne o întrebare - merită să creăm inteligență artificială, poate doar să închidă toate lucrările în acest domeniu? Singurul lucru care se poate spune despre acest lucru este că dacă inteligența artificială poate fi creată, atunci mai devreme sau mai târziu va fi creată. Și este mai bine să-l creați sub control public, cu un studiu amănunțit al problemelor de securitate, decât va fi creat în 100-150 de ani de un programator-mecanic autodidact folosind realizările tehnologiei contemporane. Într-adevăr, astăzi, de exemplu, orice inginer competent, cu anumite resurse financiare și materiale, poate fabrica o bombă atomică.

Bibliografie

  1. Turing, A. Poate o mașină să gândească? (Cu anexa articolului de J. von Neumann „Teoria generală și logică a automatelor” / A. Turing; traducere și note de Yu.V. Danilov. - M .: GIFML, 1960.
  2. Azimov, A. Ya, robot. Totul despre roboți și robotică. Seria „Fondul de aur al ficțiunii mondiale” / A. Azimov. – M.: Eksmo, 2005.
  3. Shalyutin, I.S. Inteligența artificială: aspect epistemologic / I.S. Shalyutin. – M.: Gândirea, 1985.

Plan

Introducere

1. Problema definirii inteligenței artificiale

2. Problema definirii sarcinilor inteligenței artificiale

3. Problemă de securitate

4. Problema alegerii unei căi de creare a inteligenței artificiale

Concluzie

Lista literaturii folosite


Introducere

Cu Inteligența Artificială (AI), s-a dezvoltat o situație ciudată - ceva care nu este încă studiat este studiat. Și dacă acest lucru nu se va întâmpla în următorii 100 de ani, atunci s-ar putea foarte bine ca era AI să se încheie acolo.

Pe baza celor de mai sus, urmează principala problemă filozofică în domeniul AI - posibilitatea sau nu posibilitatea modelării gândirii umane. Dacă se primește vreodată un răspuns negativ la această întrebare, atunci toate celelalte întrebări nu vor avea nici cea mai mică semnificație.

Prin urmare, atunci când începem studiul AI, presupunem un răspuns pozitiv. Iată câteva considerații care ne conduc la acest răspuns.

1. Prima dovadă este scolastică și demonstrează consistența AI și a Bibliei. Chiar și oamenii departe de religie cunosc cuvintele Sfintei Scripturi: „Și Domnul a făcut pe om după chipul și asemănarea Lui...”. Pe baza acestor cuvinte, putem concluziona că, din moment ce Domnul, în primul rând, ne-a creat și, în al doilea rând, suntem în esență ca El, atunci putem foarte bine să creăm pe cineva după chipul și asemănarea omului.

2. Crearea unei minți noi într-un mod biologic este un lucru destul de comun pentru o persoană. Copiii dobândesc cele mai multe cunoștințe prin învățare, și nu așa cum sunt încorporate în ele în prealabil.

3. Posibilitatea fundamentală de automatizare a soluționării problemelor intelectuale cu ajutorul unui calculator este oferită de proprietatea universalității algoritmice. Aceasta înseamnă că ele pot fi folosite pentru a implementa în mod programatic orice algoritm de transformare a informațiilor, fie că este vorba de algoritmi de calcul, algoritmi de control, căutare pentru dovezi de teoreme sau compoziție de melodii.

Problema inteligenței artificiale este acum una dintre cele mai actuale. În ea sunt angajați oameni de știință de diferite specializări: cibernetică, lingviști, psihologi, filozofi, matematicieni, ingineri. Sunt luate în considerare întrebările: ce este inteligența în general și ce poate fi inteligența artificială, sarcinile ei, complexitatea creației și temerile. Și chiar acum, deși AI nu a fost încă creată, este important să puneți întrebările potrivite și să răspundeți la ele.

În munca mea, am folosit în principal surse electronice aflate pe Internet, deoarece de îndată ce există informații proaspete despre evoluțiile din domeniul inteligenței artificiale în limba rusă.

În anexă am inclus fotografii (ale unora dintre cei mai faimoși roboți AI care există astăzi) și o ilustrație filozofică (din păcate de către un artist necunoscut pentru mine), precum și o descriere completă a testelor Turing și Searle la care mă refer. în capitolul 2.


1. Problema definirii inteligenței artificiale

A exprima esența inteligenței în orice definiție pare a fi o sarcină extrem de dificilă, aproape fără speranță. Intelectul este ceva evaziv, care nu se încadrează în cadrul semantic stabilit de limbaj. Prin urmare, ne vom limita pur și simplu la a oferi o serie de definiții și afirmații binecunoscute despre inteligență, care ne vor permite să ne imaginăm „volumul” acestui concept neobișnuit.

Unii specialiști iau pentru inteligență capacitatea unei alegeri raționale, motivate, în fața lipsei de informare; capacitatea de a rezolva probleme pe baza informațiilor simbolice; capacitatea de a învăța și de a autoînvăța.

Definiții suficient de încăpătoare și interesante ale inteligenței sunt date în Dicționarul englez Webster și Marea Enciclopedie Sovietică. În Dicționarul Webster: „inteligenta este: a) capacitatea de a răspunde cu succes oricărei situații, mai ales noi, prin ajustări adecvate în comportament; b) capacitatea de a înțelege legăturile dintre faptele realității în vederea dezvoltării acțiunilor care să conducă la atingerea scopului. În TSB: „inteligență... într-un sens larg – toată activitatea cognitivă a unei persoane, în sens restrâns – procese de gândire care sunt indisolubil legate de limbajul ca mijloc de comunicare, schimb de gânduri și înțelegere reciprocă a oamenilor”. Aici intelectul este direct legat de activitatea și limbajul de comunicare.

În general, nu există un dezacord mare în această problemă. Altceva este mai interesant: criteriile prin care este posibil să se determine fără ambiguitate un subiect rezonabil, gânditor, intelectual în fața noastră sau nu.

Se știe că la un moment dat A. Turing a propus ca criteriu pentru a determina dacă o mașină poate gândi, „jocul imitației”. Conform acestui criteriu, o mașină poate fi recunoscută ca gânditoare dacă o persoană, conducând un dialog cu ea pe o gamă suficient de largă de probleme, nu poate distinge răspunsurile sale de răspunsurile unei persoane. ( O descriere mai completă a testului în Anexă)

Cu toate acestea, experimentul de gândire „Chinese Room” de John Searle ( Descrierea experimentului în Anexă) este un argument că trecerea testului Turing nu este un criteriu pentru ca o mașină să aibă un proces de gândire autentic. Se pot continua să dea exemple de criterii prin care „creierul mașinii” poate fi considerat capabil de activitate mentală și să le găsească imediat respingerea.

Nu există un singur răspuns la întrebarea ce este inteligența artificială. Aproape fiecare autor care scrie o carte despre IA pleacă de la o anumită definiție din ea, luând în considerare realizările acestei științe în lumina ei. Aceste definiții pot fi rezumate după cum urmează:

Inteligența artificială este o personalitate pe un purtător anorganic (Chekina M.D.).

Inteligența artificială este domeniul studierii comportamentului inteligent (la oameni, animale și mașini) și încercarea de a găsi modalități de a simula un astfel de comportament în orice tip de mecanism creat artificial (Bly Whitby).

Inteligența artificială este o filozofie experimentală (V. Sergeev).

Însuși termenul de „inteligență artificială” - AI - AI - inteligență artificială a fost propus în 1956 la un seminar cu același nume la Dartsmouth College (SUA). Seminarul a fost dedicat dezvoltării de metode de rezolvare mai degrabă a problemelor logice decât a problemelor de calcul. În engleză, această frază nu are acea colorare antropomorfă ușor fantastică pe care a dobândit-o într-o traducere rusă destul de nereușită. Cuvântul inteligență înseamnă „abilitatea de a în mod rezonabil”, și nu „inteligență” deloc, pentru care există un echivalent în engleză: intelect (T.A. Gavrilova).

Există și termeni de inteligență artificială „puternică” și „slabă”.

Termenul de „inteligență artificială puternică” a fost introdus de John Searle, un astfel de program nu ar fi doar un model al minții; va fi literalmente mintea însăși, în același sens în care mintea umană este minte.

„Inteligenta artificiala slaba” este considerata doar ca un instrument care iti permite sa rezolvi anumite probleme care nu necesita intreaga gama de abilitati cognitive umane.

2. Problema definirii sarcinilor inteligenței artificiale

Următoarea întrebare filozofică a AI este scopul creației. În principiu, tot ceea ce facem în viața practică are de obicei ca scop să nu facem nimic altceva. Cu toate acestea, cu un standard de viață uman suficient de înalt, nu mai este lenea cea care joacă primul rol, ci instinctele de căutare. Să presupunem că un om a reușit să creeze un intelect mai mare decât al său. Ce se va întâmpla cu omenirea acum? Ce rol va juca persoana respectivă? De ce este nevoie de el acum? Și, în general, este necesar în principiu să creăm AI?

Aparent, cel mai acceptabil răspuns la aceste întrebări este conceptul de „amplificator de inteligență” (IA). O analogie cu președintele statului este potrivită aici - nu i se cere să cunoască valența vanadiului sau limbajul de programare Java pentru a lua o decizie cu privire la dezvoltarea industriei vanadiului. Fiecare își face treaba lui - un chimist descrie un proces tehnologic, un programator scrie un program; în final, economistul îi spune preşedintelui că, investind în spionaj industrial, ţara va primi 20%, iar în industria vanadiului - 30% pe an. Cu o astfel de formulare a întrebării, oricine poate face alegerea corectă.

În acest exemplu, președintele folosește o IA biologică - un grup de specialiști cu creierul lor proteic. Dar IM nevii sunt deja folosite - de exemplu, nu am putea prezice vremea fără computere; în timpul zborurilor navelor spațiale, computerele de bord au fost folosite de la bun început. În plus, o persoană folosește mult timp amplificatoare de putere (SS) - un concept care este în multe privințe similar cu UI. Mașini, macarale, motoare electrice, prese, arme, avioane și multe, multe altele servesc drept amplificatoare de putere.

Principala diferență dintre UI și CS este prezența voinței. La urma urmei, nu ne putem imagina că dintr-o dată serialul „Zaporozhets” s-a răzvrătit și a început să conducă așa cum își dorește. Nu ne putem imagina tocmai pentru că nu vrea nimic, nu are dorințe. În același timp, un sistem intelectual ar putea avea propriile sale dorințe și să nu acționeze așa cum ne-am dori. Astfel, ne confruntăm cu o altă problemă – problema securității.

3. Problemă de securitate

Problemele filozofice ale creării inteligenței artificiale pot fi împărțite în două grupe, relativ vorbind, „înainte și după dezvoltarea IA”. Primul grup răspunde la întrebarea: „Ce este AI, este posibil să o creăm?” Am încercat să le răspund în munca mea. Iar al doilea grup (etica inteligenței artificiale) pune întrebarea: „Care sunt consecințele creării AI pentru umanitate?”, ceea ce ne aduce la problema securității.

Această problemă bântuie mintea omenirii încă de pe vremea lui Karel Capek, care a folosit pentru prima dată termenul „robot”. Alți scriitori de science fiction au contribuit, de asemenea, foarte mult la discutarea acestei probleme. Ca cele mai faimoase, putem aminti o serie de povestiri ale scriitorului și savantului de science fiction Isaac Asimov, precum și o lucrare destul de recentă - Terminator. Apropo, în Isaac Asimov putem găsi cea mai dezvoltată și acceptată soluție la problema securității. Vorbim despre așa-numitele trei legi ale roboticii.

1. Un robot nu poate face rău unei persoane sau, prin inacțiunea sa, nu poate permite ca o persoană să fie rănită.

2. Un robot trebuie să respecte comenzile date de un om, cu excepția cazurilor în care aceste comenzi sunt contrare primei legi.

3. Robotul trebuie să aibă grijă de siguranța lui, în măsura în care nu contravine legii întâi și a doua.

La prima vedere, astfel de legi, dacă sunt pe deplin respectate, ar trebui să asigure siguranța omenirii. Cu toate acestea, o privire mai atentă ridică câteva întrebări.

Mă întreb ce va însemna sistemul AI prin termenul „rău” după multă gândire logică? Nu va decide ea că toată existența umană este un rău? La urma urmei, fumează, bea, îmbătrânește și își pierde sănătatea de-a lungul anilor, suferă. Oare răul mai mic nu ar pune capăt rapid acestui lanț de suferințe? Desigur, puteți introduce câteva completări legate de valoarea vieții, libertatea de exprimare. Dar acestea nu vor mai fi cele trei legi simple care erau în codul sursă.

Următoarea întrebare va fi aceasta. Ce va decide sistemul AI într-o situație în care salvarea unei vieți este posibilă doar în detrimentul alteia? Mai ales interesante sunt acele cazuri în care sistemul nu are informații complete despre cine este cine...

Deci, este sigur să spunem că temerile multor oameni, inclusiv ale oamenilor de știință, nu sunt nefondate. Și cu siguranță ar trebui să începeți să vă gândiți la aceste probleme chiar acum, înainte de a putea crea o „inteligență a mașinii” cu drepturi depline, pentru a proteja umanitatea de posibile vătămări sau chiar de exterminare, ca o varietate biologică concurentă, în cel mai bun caz, sau pur și simplu inutilă.


4. Problema alegerii unei căi de creare a inteligenței artificiale

Testul Turing

Din 1991, au fost organizate turnee pentru programele care încearcă să treacă testul Turing. Pe Internet, puteți găsi și vizualiza istoricul turneelor, puteți afla despre reguli, premii și câștigători. Până acum, aceste programe (boți) sunt extrem de neinteligente. Tot ce fac ei este să aplice regulile sugerate de om. Boții nici măcar nu încearcă să înțeleagă conversația, ei fac mai ales încercări de a „înșela” o persoană. Creatorii au în ele răspunsuri la cele mai frecvente întrebări, încercând să ocolească capcanele obișnuite. De exemplu, ei urmăresc îndeaproape și judecătorul va pune aceeași întrebare de două ori? O persoană în această situație ar spune ceva de genul „Hei, ai întrebat deja!” Aceasta înseamnă că dezvoltatorul va adăuga o regulă la bot pentru a face același lucru. În această direcție, pare foarte puțin probabil să apară primul AI.

Jucători de șah pe computer

Mulți oameni au auzit despre aceste programe. Primul Campionat Mondial de șah între programe de calculator a avut loc în 1974. Câștigătorul a fost programul sovietic de șah Kaissa. Nu cu mult timp în urmă, computerul l-a învins și pe Garry Kasparov. Ce este asta - un succes fără îndoială?

S-au scris multe despre cum joacă jucătorii de șah pe computer. Vă spun foarte pe scurt. Ei doar trec prin o mulțime de opțiuni. Dacă mut acest pion aici, iar adversarul își mută episcopul aici, iar eu rocaz, și el mută acest pion... Nu, o astfel de poziție este nefavorabilă. Nu mă duc la roca, dar în schimb voi vedea ce se întâmplă dacă mut acest pion aici și computerul îl mută pe episcop aici, iar în loc să mă înrocesc, mut din nou pionul și el...

Calculatorul nu inventează nimic de la sine. Toate opțiunile posibile au fost sugerate de adevărații proprietari ai intelectului - programatori talentați și consultanți de șah... Aceasta nu este mai puțin departe de crearea unui intelect electronic cu drepturi depline.

Roboți de fotbal

E foarte la modă. Acest lucru este realizat de multe laboratoare și departamente întregi ale universităților din întreaga lume. Zeci de campionate sunt organizate în diferite variante ale acestui joc. Potrivit organizatorilor turneului RoboCup, „Comunitatea internațională de specialiști în inteligență artificială a recunoscut sarcina de a controla roboții de fotbal ca fiind una dintre cele mai importante.”

Se poate foarte bine ca, așa cum visează organizatorii RoboCup, în 2050 o echipă de roboți va învinge într-adevăr o echipă de oameni în fotbal. Doar inteligența lor este puțin probabil să aibă vreo legătură cu asta.

Turnee de programatori

Recent, Microsoft a organizat un turneu numit „Terrarium”. Programatorilor li s-a cerut să creeze viață artificială, nici mai mult, nici mai puțin. Aceasta este probabil cea mai faimoasă dintre aceste competiții, dar în general există o mulțime de ele - organizatori entuziaști cu o regularitate de invidiat se oferă să creeze programe care joacă fie un război al roboților, fie o colonizare a lui Jupiter. Există chiar și competiții pentru supraviețuire printre virușii informatici.

Ce împiedică măcar aceste proiecte să servească la crearea unei IA reale, care în viitor va putea lupta și coloniza Jupiter? Un cuvânt simplu - necugetare. Nici măcar mințile puternice ale Microsoft nu au reușit să vină cu reguli în care comportamentul complex este benefic. Ce putem spune despre restul. Indiferent de turneu, aceeași tactică câștigă totul: „cu cât mai simplu, cu atât mai bine”! Cine a câștigat Terariul? Compatrioții noștri. Și ce au făcut? Iată o listă completă a acelor reguli după care a trăit cel mai viabil erbivor virtual al turneului;

1. Dacă vezi un prădător, fugi de el. Dacă vezi un animal de felul tău alergând rapid într-o direcție, fugi în aceeași direcție.

2. Dacă în jur sunt doar străini, mănâncă repede toată iarba pentru ca alții să primească mai puțină.

3. Dacă nu vezi străini, mănâncă-l exact cât ai nevoie. În cele din urmă, dacă nu vezi nici iarbă, nici prădători, mergi acolo unde privești ochii.

Din punct de vedere intelectual? Nu, dar este eficient.

Aplicații comerciale

În zonele semnificative din punct de vedere comercial, nu sunt necesare turnee, arbitri, reguli de selecție. Înaltă știință pur și simplu nu a fost necesară nici în recunoașterea textului, nici în crearea de jocuri pe calculator.

Este nevoie de o echipă armonioasă de oameni, cu capul limpede și o bună educație, și aplicarea competentă a unui număr mare de algoritmi destul de simpli în esența lor.

Nu va fi posibil să obțineți cunoștințe sacre în aceste domenii, nu se vor face mari descoperiri și nimeni nu se străduiește deloc pentru asta. Oamenii doar câștigă bani pentru ei înșiși, îmbunătățindu-ne în același timp viața.

Concluzie

Știința „creării inteligenței artificiale” nu a putut decât să atragă atenția filozofilor. Odată cu apariția primelor sisteme inteligente, au fost ridicate întrebări fundamentale despre om și cunoaștere, și parțial despre ordinea mondială.

Din păcate, formatul testului nu permite dezvăluirea și analizarea mai amplă a unui subiect atât de interesant și presant precum inteligența artificială, dar sper că am reușit să identific gama de probleme principale și să schițăm modalități de rezolvare a acestora.

„Apariția mașinilor care ne depășesc în inteligență este un rezultat firesc al dezvoltării civilizației noastre tehnocrate. Nu se știe unde ne-ar duce evoluția dacă oamenii ar merge pe calea biologică - au început să îmbunătățească structura unei persoane, calitățile și proprietățile sale. Dacă toți banii cheltuiți pentru dezvoltarea armelor s-ar fi dus la medicină, am fi învins toate bolile cu mult timp în urmă, am fi împins bătrânețea și poate am fi atins nemurirea...

Știința nu poate fi interzisă. Dacă umanitatea se autodistruge, înseamnă că evoluția a mers pe o cale fără fund pentru această umanitate și nu are dreptul să existe. Poate că cazul nostru este o fundătură. Dar nu suntem primii și nici ultimii aici. Nu se știe câte civilizații au fost înaintea noastră și unde s-au dus.

Șef al Departamentului Universității Radiotehnice de Stat Taganrog, președinte al Consiliului Asociației Ruse de Sisteme Fuzzy, academician al Academiei Ruse de Științe Naturale, profesor, doctor în științe tehnice Leonid Bershtein.

Lista literaturii folosite

1. Marea Enciclopedie Sovietică

2. T.A. Gavrilova, Doctor în Științe Tehnice, Profesor al Departamentului de Tehnologii Inteligente Calculatoare, Universitatea Tehnică de Stat din Sankt Petersburg, Șef al Laboratorului de Sisteme Inteligente la Institutul de Calcul de Înaltă Performanță și Baze de Date. Articol. www.big.spb.ru

4. Chekina M.D. „Probleme filozofice ale inteligenței artificiale”. Raportul premiului la a 54-a Conferință științifică a studenților a TTIUFU. 2007 www.filosof.historic.ru

5. Bly Whitby „Inteligenta artificiala: Matricea este reala”, FAIR-PRESS, 2004


Top