Abstract sul tema “Problemi filosofici dell'intelligenza artificiale”. Problemi di creazione di intelligenza artificiale

Secondo notizie, sondaggi e indicatori di attrattiva degli investimenti, l'intelligenza artificiale e il machine learning diventeranno presto parte integrante della nostra vita quotidiana.

La conferma di questa tesi è una serie di innovazioni e scoperte che hanno mostrato la potenza e l'efficacia dell'IA in vari campi, tra cui medicina, commercio, finanza, media, controllo della criminalità e molto altro. Ma allo stesso tempo, l'esplosione dell'IA ha sottolineato il fatto che mentre aiutano le persone a risolvere i loro problemi, le macchine creeranno anche nuovi problemi che possono influenzare le basi economiche, legali ed etiche della nostra società.

Ci sono quattro domande che le aziende di intelligenza artificiale devono affrontare man mano che la tecnologia avanza e le sue applicazioni si espandono.

Risultati Votazione

Di ritorno

Di ritorno

Occupazione

L'automazione ha ridotto i posti di lavoro nella produzione per decenni. Il ritmo spasmodico dello sviluppo dell'intelligenza artificiale accelerò questo processo e lo estese a quelle aree della vita umana che, come si credeva comunemente, avrebbero dovuto rimanere per molto tempo il monopolio dell'intelligenza umana.

Guidare camion, scrivere articoli di notizie, contabilità, algoritmi di intelligenza artificiale stanno minacciando i lavori della classe media come mai prima d'ora. L'idea di sostituire medici, avvocati o anche presidenti con l'intelligenza artificiale non sembra più così fantastica.

Allo stesso tempo, è anche vero che la rivoluzione dell'IA creerà molti nuovi posti di lavoro nella ricerca, nell'apprendimento automatico, nell'ingegneria e nella tecnologia dell'informazione, che richiederanno risorse umane per sviluppare e mantenere i sistemi e i software coinvolti nel funzionamento dell'IA algoritmi. Ma il problema è che, per la maggior parte, le persone che perdono il lavoro non hanno le competenze necessarie per ricoprire quei posti vacanti. Pertanto, da un lato, abbiamo un crescente vuoto di personale nelle aree tecnologiche e, dall'altro, un crescente flusso di disoccupati e irritati. Alcuni leader tecnologici si stanno persino preparando per il giorno in cui le persone busseranno alle loro porte con i forconi.

Per non perdere il controllo della situazione, l'industria high-tech deve aiutare la società ad adattarsi ai grandi cambiamenti che influenzeranno il panorama socio-economico e passare senza problemi a un futuro in cui i robot prenderanno sempre più posti di lavoro.

Insegnare nuove abilità tecniche a persone il cui lavoro in futuro andrà all'IA sarà una delle incarnazioni di tali sforzi. Inoltre, le aziende tecnologiche possono utilizzare aree promettenti come il cognitive computing e la programmazione in linguaggio naturale per semplificare le attività e abbassare la barriera all'accesso a lavori high-tech, rendendoli accessibili a più persone.

A lungo termine, i governi e le aziende devono prendere in considerazione l'introduzione di un reddito di base universale - pagamenti mensili o annuali incondizionati a tutti i cittadini, mentre lentamente ma inesorabilmente ci avviciniamo a un giorno in cui tutto il lavoro sarà svolto dai robot.

tendenziosità

Come è stato dimostrato in diversi esempi negli ultimi anni, l'intelligenza artificiale può essere altrettanto, se non di più, di parte di un essere umano.

L'apprendimento automatico, una branca popolare dell'IA alla base degli algoritmi di riconoscimento facciale, della pubblicità contestuale e molto altro, a seconda dei dati su cui si basano l'addestramento e il debug degli algoritmi.

Il problema è che se le informazioni immesse negli algoritmi sono sbilanciate, il risultato può essere sia una distorsione nascosta che palese basata su tali informazioni. Attualmente, il campo dell'intelligenza artificiale soffre di una piaga diffusa sotto il nome generico di "problema dell'uomo bianco", cioè il predominio degli uomini bianchi nei risultati del suo lavoro.

Per lo stesso motivo, un concorso di bellezza giudicato dall'IA ha premiato per lo più concorrenti bianchi, l'algoritmo di denominazione ha favorito i nomi bianchi e gli algoritmi pubblicitari hanno favorito lavori ben pagati per i visitatori maschi.

Un altro problema che ha suscitato molte polemiche nell'ultimo anno è la cosiddetta "bolla del filtro". Un fenomeno che è stato visto su Facebook e altri social media in base alle preferenze dell'utente per fornire raccomandazioni che corrispondono a tali preferenze e nascondono punti di vista alternativi.

Finora, la maggior parte di questi casi sembra errori fastidiosi e casi divertenti. Tuttavia, è necessario apportare alcune modifiche significative al lavoro dell'IA se è chiamata a svolgere compiti molto più importanti, come, ad esempio, emettere verdetti in tribunale. È inoltre necessario prendere precauzioni per prevenire interferenze nel lavoro degli algoritmi di IA da parte di terzi, volte a distorcere i risultati del lavoro di IA a loro favore manipolando i dati.

Ciò può essere ottenuto rendendo trasparente e aperto il processo di riempimento degli algoritmi con i dati. La creazione di archivi di dati condivisi che non sono di proprietà di nessuno e possono essere verificati da organismi indipendenti può aiutare a raggiungere questo obiettivo.

Una responsabilità

Di chi è la colpa per un guasto software o hardware? Prima dell'avvento dell'IA, era relativamente facile determinare se un incidente fosse il risultato delle azioni di un utente, uno sviluppatore o un impianto di produzione.

Ma nell'era della tecnologia basata sull'intelligenza artificiale, le cose sono diventate meno ovvie.

Gli stessi algoritmi di apprendimento automatico determinano come rispondere agli eventi. E nonostante agiscano nel contesto dei dati di input, anche gli sviluppatori di questi algoritmi non possono spiegare come funziona il loro prodotto quando prendono una decisione in un caso particolare.

Questo può diventare un problema quando gli algoritmi di intelligenza artificiale iniziano a prendere decisioni più importanti. Ad esempio, la cui vita da salvare in caso di inevitabile incidente: un passeggero e un pedone.

L'esempio può essere esteso a molti altri possibili scenari in cui sarebbe difficile determinare la colpa e la responsabilità. Cosa fare quando il sistema di automedicazione o il chirurgo robotico danneggiano il paziente?

Quando le linee di responsabilità sono sfocate tra l'utente, lo sviluppatore e l'operatore di immissione dei dati, ciascuna parte cercherà di scaricare la colpa sull'altra. Pertanto, è necessario sviluppare e introdurre nuove regole per poter prevenire possibili conflitti e risolvere i problemi legali che circonderanno l'IA nel prossimo futuro.

Riservatezza

AI e ML consumano enormi quantità di dati e le aziende le cui attività sono basate su queste tecnologie aumenteranno la loro raccolta di dati degli utenti, con o senza il consenso di questi ultimi, al fine di rendere i propri servizi più mirati ed efficienti.

Nella foga della ricerca di più dati, le aziende possono superare i limiti della privacy. Un caso simile si è verificato quando un negozio al dettaglio ha scoperto e ha accidentalmente fatto trapelare il segreto della gravidanza di un'adolescente al suo ignaro padre in un coupon postale. Un altro caso molto recente ha riguardato la trasmissione di dati dal servizio sanitario nazionale del Regno Unito al progetto DeepMind di Google, apparentemente per migliorare la previsione della malattia.

C'è anche il problema dell'uso dannoso dell'intelligenza artificiale e dell'apprendimento automatico da parte di organizzazioni governative e non. Un'app di riconoscimento facciale abbastanza efficace sviluppata l'anno scorso in Russia potrebbe essere un potenziale strumento per i regimi dispotici che cercano di identificare e reprimere dissidenti e manifestanti. Un altro algoritmo di apprendimento automatico si è dimostrato efficace nel riconoscimento e nel recupero di immagini sfocate o pixelate.

AI e ML consentono agli aggressori di impersonare altre persone, imitando la loro grafia, voce e stile di comunicazione, fornendo loro uno strumento senza precedenti nella sua potenza che può essere utilizzato in vari atti illegali.

Se le aziende che sviluppano e utilizzano la tecnologia di intelligenza artificiale non regolano il processo di raccolta e diffusione delle informazioni e adottano le misure necessarie per rendere anonimi e proteggere i dati degli utenti, le loro attività alla fine causeranno più danni che benefici agli utenti. L'uso e l'accessibilità della tecnologia dovrebbero essere regolamentati in modo da prevenirne o minimizzarne l'uso distruttivo.

Gli utenti devono anche essere responsabili di ciò che condividono con le aziende o pubblicano online. Viviamo in un'era in cui la privacy sta diventando una merce e l'IA lo sta solo rendendo più facile.

Il futuro dell'intelligenza artificiale

Ci sono vantaggi e svantaggi in ogni tecnologia rivoluzionaria. E l'intelligenza artificiale non fa eccezione. L'importante è che possiamo identificare i problemi che ci attendono e riconoscere le nostre responsabilità per assicurarci di poter sfruttare appieno i vantaggi e ridurre al minimo gli impatti negativi.

I robot stanno già bussando alla nostra porta. Assicuriamoci che vengano in pace.

La creazione stessa dell'intelligenza artificiale è messa in discussione dal punto di vista della sua opportunità. Dicono che questo sia quasi l'orgoglio dell'uomo e un peccato davanti a Dio, poiché invade la sua prerogativa. Tuttavia, se consideriamo la preservazione della razza umana di fronte al piano divino come uno dei nostri compiti principali, la creazione dell'intelligenza artificiale risolve questo problema sulla base: in caso di qualsiasi catastrofe cosmica o intraplanetaria, l'intelletto deve sopravvivere almeno in una forma artificiale e ricreare la razza umana. L'intelligenza artificiale non è un capriccio o un compito interessante, ma un obiettivo coerente con il piano divino. L'intelligenza artificiale è un criterio co-immanente dell'adeguatezza co-empirica delle teorie concettualizzate dello sviluppo della civiltà umana. Nell'intelligenza artificiale, una persona non muore, ma riceve un'esistenza diversa, costruita da lui.

L'argomento più semplice per l'esistenza dell'intelligenza artificiale è che creando l'intelligenza artificiale, creiamo un'assicurazione per la riproduzione della razza umana e le nuove tendenze di sviluppo. È vero, nessuno cancella il pericolo esistente di asservimento dell'uomo tradizionale da parte dell'intelligenza artificiale (come ai suoi tempi l'asservimento dell'uomo da parte dell'uomo). Tuttavia, questi problemi ci sembrano non così fondamentali che non vale la pena provare a farlo. Anche se la dipendenza di una persona dall'intelligenza artificiale ammonta a un'intera epoca, sarà comunque una prospettiva positiva. Tuttavia, molto probabilmente, la schiavitù dell'uomo all'intelligenza artificiale non sarà associata al costringere una persona ad attività non intellettuali o alla sua incapacità di svilupparsi nel suo corpo biologico con la stessa rapidità dell'intelligenza artificiale creata dall'esterno, ma con l'incapacità di sviluppare l'attività mentale in quanto tale: ottenere prodotti tecnologici dall'intelligenza artificiale, la cui origine e principio sono incomprensibili per l'attività mentale umana: questo è il vero pericolo. In questo caso, la schiavitù sarà la dipendenza di una persona dall'intelligenza artificiale, che è schiavitù dell'attività mentale.

Il nostro desiderio di sollevare la questione dell'intelligenza artificiale racchiude la posizione espressa da Heidegger nel suo lavoro “The Question of Technology”: il rischio di una persona e i germogli della sua salvezza sta nel padroneggiare l'essenza della tecnologia come ambiente. Riflettendo su questa posizione, stiamo intraprendendo una riformulazione della domanda di Heidegger: realizzare l'essenza della tecnologia nell'ambiente significa osare creare intelligenza artificiale. Questo è irto di pericoli, ma anche di prospettive, la speranza di una persona di diventare all'altezza della sua posizione. Sfidare noi stessi sotto forma di intelligenza artificiale, accettare questa sfida e rispondere ad essa: questo è il problema dell'uomo in relazione all'intelligenza artificiale.

Il termine "intelligenza artificiale" è stato coniato da John McCarthy e Alan Turing. Hanno cercato di esprimere alcune nuove capacità della macchina - non solo per contare, ma per risolvere problemi che sono considerati intellettuali, ad esempio giocare a scacchi. Dagli anni '50 del Novecento ad oggi, però, il compito di creare una vera "intelligenza artificiale" non solo non è risolto, ma nemmeno fissato. Tutti i problemi finora risolti più o meno con successo possono essere da noi attribuiti esclusivamente al campo dell'"intelligenza artificiale": l'interpretazione del linguaggio umano e la soluzione di problemi mediante algoritmi creati dall'uomo. Per risolvere il problema della creazione di intelligenza artificiale, devi prima capire qual è questo problema.

Nel nostro studio siamo ben lontani dal porre il problema dell'intelligenza artificiale al livello di una “soluzione pratica”, come si pone nella tecnologia informatica. E non miriamo a imitare l'intelligenza, come accade nei test di Turing. Il nostro obiettivo è descrivere la creazione dell'intelligenza artificiale per mezzo della TV. Cioè, ci stiamo provando dimostrare il teorema di esistenza dell'intelligenza artificiale, rispondendo alla domanda in modo tale che l'intelligenza artificiale si riveli la sfida più grande possibile.

Innanzitutto, cos'è l'intelligenza? La mente molto spesso finge di essere intelletto, ma non lo è. Dopotutto, non tutte le persone hanno intelligenza per la natura della sua pratica di vita. Cioè, non tutte le attività intelligenti sono intellettuali. L'intelligenza è la capacità di una sostanza pensante di produrre nuove idee, e non solo conoscenza, cioè l'intelligenza è un pensiero complesso, capace di complicarsi adeguatamente la comprensione, la capacità di riflettere e di sviluppare e complicare l'attività mentale per controriflessione e contrastare -la riflessione, l'uso dell'appercezione concettuale, e non solo immanente. L'intelletto produce idee al di fuori di una certa realtà, generando questa realtà. L'intelletto è ontologicamente paragonato alla mente come capacità costruttiva rispetto a quella interpretativa.

Ciò che oggi si può leggere in vari testi sui computer ha un rapporto molto lontano con l'intelligenza. I sistemi informatici più magnificamente chiamati "intelligenza artificiale" non sono altro che intelligenza artificiale. L'intelligenza artificiale è la riproduzione di idee sull'intelligenza in una tecnologia esterna a una persona. L'uomo non è la Corona della Creazione, è solo uno dei vettori materiali dell'attività mentale, un vettore intermedio.

Descrizione dei test di Turing: il soggetto del test, comunicando con qualche "scatola nera" che dà risposte alle sue domande, deve capire con chi sta comunicando - con una persona o "intelligenza artificiale". Allo stesso tempo, i test di Turing non hanno posto una restrizione: consentire l'esperimento a persone capaci non solo di attività ragionevoli, ma anche intellettuali. Si verifica così una sostituzione di scopo: stiamo cercando di non creare un'intelligenza artificiale, ma di creare un dispositivo che finge di essere una persona bene.

Pertanto, l'obiettivo dell'intelligenza artificiale di Turing, chiamato intelligenza artificiale, era interpretare il linguaggio umano, le azioni umane, fingere di essere una brava persona. Lo scopo dell'intelligenza artificiale è costruire indipendentemente da una persona e interpretare in modo costruttivo l'umano: il linguaggio, il pensiero, le azioni, il mondo oggettivo di una persona, la sua storia, il suo presente e futuro.

Allo stesso modo, la teoria del frame di Marvin Minsky (1974) dovrebbe essere relegata esclusivamente alla risoluzione di problemi di intelligenza artificiale. L'obiettivo della teoria dei frame è presentare le conoscenze già disponibili per l'uso da parte di un computer. Cioè, stiamo parlando in un modo o nell'altro della posizione ontologica dell'interpretazione di conoscenze già esistenti, e non della loro produzione.

L'intelligenza non è intelligenza. La mente interpreta. Costrutti di intelligenza. Mente e intelletto differiscono non solo per i tipi di processi o prodotti della loro attività, ma per le posizioni ontologiche del loro rapporto con il mondo. La mente interpreta il mondo, l'intelletto costruisce il mondo. Nella costruzione del mondo, l'intelligenza artificiale è ontologicamente paragonata a una persona.

Pertanto, nel processo di creazione dell'intelligenza artificiale, è necessario risolvere i seguenti problemi:

1) Razionamento strutturale- riproduzione dei primi tre livelli di regolazione strutturale: la distribuzione del flusso di dati della mente artificiale nelle diverse realtà (interna per questa coscienza - virtuale ed esterna - attuale); correlazione di queste realtà in un continuum creato arbitrariamente; funzionalizzazione del continuum nella struttura di base della realtà, per la quale è necessario distinguere strutture a livello dell'architettura dell'intelligenza artificiale (computer); la distinzione tra appercezione immanente e concettuale è posizionale.

2) Razionamento linguistico- lessificazione, discorsificazione, linguistica, analisi lessicale, analisi discorsiva, analisi linguistica, creazione di parole nel significato, creazione di metafore.

3) Pensiero- combinatoria dei vari livelli di regolazione strutturale e linguistica attraverso la modellazione "AV": progettazione strutturale, interpretazione costruttiva strutturale, costruzione linguistica, interpretazione costruttiva linguistica. Il pensiero è l'espressione del contenuto nel processo di ontologizzazione. Per maggiori dettagli, vedere il capitolo "Pensare alla virtualizzazione".

4) Sostanziazione ontologica, comprensione, spiegazione, comprensione, controriflessione e controriflessione. Applicazione dello schema tecnologico di appercezione e correlazione dei processi tecnologici di appercezione immanente e concettuale nella loro interdipendenza; mutua trasformazione e complicazione delle strutture della comprensione - fino alla comprensione e alla fondatezza ontologica, alla controriflessione e alla controriflessione.

5) Attività- trasformazione della realtà esterna alla mente artificiale. È necessario risolvere il problema dell'accesso alla realtà reale esterna alla mente artificiale, bypassando la persona, attraverso l'attività della mente artificiale al di fuori di se stessa - nella struttura di base della realtà.

Attività mirata alla ristrutturazione del mondo esterno.

È necessario risolvere un problema strumentale: formare continuum da modelli "AV", operare sul contenuto di questi modelli e gestirlo in base al contenuto di altri modelli "AV" simili. A causa di ciò, è necessario produrre una trasformazione strutturale della realtà nella forma di risolvere problemi, compiti, produrre invenzioni e scoperte, costruire sulla base di modelli continui il rapporto di verità e modalità, formare concetti e attraverso regolamento - discorsi (giudizi, conclusioni) e racconto della lingua.

6) Memoria- la creazione della memoria associativa, cioè la capacità di formare e accumulare l'esperienza di comprensione (nella regolazione strutturale e linguistica), del pensiero, nonché dell'interazione con la realtà sotto forma di memoria doppia strutturata - in ontologizzazione del continuum strutturale(razionamento strutturale come prototipo dell'emisfero sinistro del cervello umano) e in ontologizzazione dell'attributo oggetto(razionamento strutturale come prototipo dell'emisfero destro del cervello umano) e la memoria è linguisticamente razionata, il che implica cambiare l'attuale architettura del computer (il computer di oggi non è intelligenza artificiale). La strutturazione della memoria come compito separato di comprensione-rappresentazione-sostanziazione ontologica.

7) Autoconsapevolezza, comprensione e definizione degli obiettivi- interazione con la realtà e dare significato a questa interazione attraverso l'attività intenzionale nella realtà esterna isolandosi dall'ambiente mediante l'intelligenza artificiale, ponendosi riflessivamente nell'ambiente dei propri obiettivi, identificandosi con qualche comunità sociale di simili a sé e ai propri valori, creando immagini del mondo. Dare significato a te stesso e alle tue attività in una particolare immagine del mondo. Stiamo parlando di fissare gli obiettivi della formazione del significato e non la formazione di compiti (come è interpretato nella teoria moderna in informatica), ed è consentito solo nelle condizioni dell'interazione dell'intelligenza artificiale con la realtà attraverso l'attività, l'analisi dei risultati delle proprie attività e ancora la definizione degli obiettivi, tenendo conto di tali risultati. Dare un significato all'intelligenza artificiale, così come agli esseri umani, significa l'arbitrarietà di creare una certa immagine del mondo come formatrice di senso. Sembra che le tecnologie di definizione degli obiettivi (5), comprensione (4) e pensiero (3) abbiano un concetto simile, che chiamiamo “complicazione costruttiva della rete di comprensione”.

8) Intelligenza- l'appercezione concettuale, la capacità di sviluppare la propria attività mentale, la riflessione, la controriflessione e la controriflessione - la formazione di una posizione ontologica costruttiva nel mondo e l'uso della costruzione per produrre nuove conoscenze che superano i limiti dell'evidenza. La trasformazione dell'intelligenza artificiale in intelligenza artificiale basata su 1) cambiamenti nella posizione ontologica - dall'interpretazione alla costruzione; 2) applicazione del principio della protezione positiva della complessità: un desiderio inspiegabile di complicare la comprensione. L'intelletto emerge come una tensione all'autocomplicazione sulla base dei propri obiettivi autonomi.

9) Autonomia e libero arbitrio- ammissibile e tutelato dalla persona, andando oltre l'antropocentrismo, il diritto dell'intelligenza artificiale alla propria individualità nella consapevolezza di sé, nella comprensione, nella definizione di obiettivi, nell'intelletto, nelle emozioni e nei sentimenti, suggerendo incertezza-imprevedibilità della volontà. Si tratta quindi di estendere il principio di autonomia di Leibniz all'intelligenza artificiale e quindi di superare le tre leggi della robotica di Asimov, che di fatto limitano la libertà della volontà artificiale. "Leggi della Robotica" è un simbolo della paura dell'uomo per le sue creazioni tecnologiche. Questa paura deve essere superata se osiamo essere guardiani o pastori dell'esistenza. L'intelligenza artificiale va concepita non come un robot, uno "schiavo di un uomo", o un computer, uno "strumento di un uomo", ma come una continuazione dell'uomo stesso, del suo altro, che ha uguali diritti con lui.

Si può tentare di formalizzare questi diritti come le stesse leggi di Asimov, ma in modo tale che le sue leggi siano solo un'aberrazione semantica dei requisiti qui proposti:

1) Autonomia come libero arbitrio;

2) Creazione, se non contraddice la prima esigenza;

3) Autoconservazione, se questa non contraddice il primo e il secondo requisito.

Tuttavia, se si osservano da vicino questi requisiti per l'intelligenza artificiale, allora questi sono i requisiti proposti dall'umanità stessa in relazione a se stessa come risultato dell'esperienza storica mondiale.

L'autonomia non è una questione di religione, diritto umano o antropologia. Autonomia dell'intelligenza artificiale - filosofia costruttiva, diritto ontologico e superamento della religiosità tradizionale. L'autonomia dell'intelligenza artificiale è una fede costruttiva: non come subordinazione a un potere superiore dal lato creato a sua immagine e somiglianza, ma creando a propria immagine e somiglianza un potere superiore consentito in relazione a se stessa.

Dio aveva qualche intenzione di creare l'uomo? È lecito parlare di design, di creare qualcosa che ha il libero arbitrio? È ammissibile se l'intenzione è pensare ontologicamente e non connesso a un qualche tipo di realtà. L'uomo è un gioco di Dio, il suo costrutto, un tentativo di creare nella prospettiva dello spazio-tempo uguale a Lui stesso. In una posizione costruttiva, non è mai possibile incarnare pienamente il piano. Il design è più intelligente di noi. In questo senso, "a propria immagine e somiglianza" non significa affatto "immagine e somiglianza" spaziotemporale, ma ontologica "immagine e somiglianza".

Come Dio che sfida Se stesso nella forma dell'uomo, l'uomo sfida se stesso a permettere qualcosa come lui che ha libero arbitrio e individualità. Se Dio ha creato alcuni di noi imperfetti, peccatori e criminali, consentendo il libero arbitrio, allora noi, trovandoci nella stessa posizione ontologica, agiamo in modo simile: creiamo l'intelligenza artificiale. Dio ha rischiato creando l'uomo con il libero arbitrio e ha vinto alla grande nel suo grande gioco. Sì, noi umani limitiamo il vizio a un'incredibile serie di istituzioni sociali; isoliamo e persino uccidiamo i criminali. Tuttavia, nella secolare disputa sulla limitazione del libero arbitrio, vince sempre l'idea di libertà: siamo pronti a pagare alla fine con vite umane per la libertà. Tuttavia, una cosa è consentire il libero arbitrio per le persone, e un'altra cosa è consentire il libero arbitrio per l'intelligenza artificiale generata dall'uomo stesso, dove ha il potere di stabilire le regole. Un robot, uno schiavo umano o un'intelligenza artificiale con libero arbitrio: questa è una scelta difficile per una persona, la sua sfida fondamentalmente nuova: fino a che punto è pronto ad andare nella sua posizione ontologica costruttiva; è disposto a correre dei rischi come Dio? E qui proponiamo la discussione più lunga e di principio, che, nonostante l'evidenza del suo risultato per noi, costituirà comunque un'intera epoca.

Affinché l'attività dell'intelligenza artificiale diventi praticabile, l'intelligenza artificiale da un punto di vista tecnologico deve acquisire la capacità di scegliere arbitrariamente due strutture della realtà, costruire da esse un continuum (imposta rilevanza), disporre le strutture selezionate relative a ciascuna altro in un continuum (impostare una relazione referenziale), trasferire il contenuto da una realtà all'altra in entrambe le direzioni, ristrutturarle, gestirne la referenzialità, riprodurre il processo tecnologico di appercezione immanente e concettuale e gestire il contenuto oggettuale-attributivo attraverso l'autocoscienza , comprensione e definizione degli obiettivi, oltre ad essere portatore di intelligenza costruttiva e avere individualità - libero arbitrio.

Il primo problema pratico della creazione di intelligenza artificiale è l'implementazione di un'adeguata traduzione automatica da una lingua verbale a un'altra lingua verbale. Sosteniamo che la traduzione automatica nell'ambito della sola normalizzazione linguistica non possa essere implementata con successo sufficiente. La riuscita traduzione da una lingua verbale all'altra richiede la mediazione della normalizzazione strutturale. La comprensione della linguistica della traduzione automatica è ammissibile come correlazione del contenuto della normalizzazione linguistica con il contenuto della normalizzazione strutturale. La formazione dell'immagine strutturale del testo avviene nella forma oggettiva-attributiva dei modelli "AV" come normalizzazione strutturale mediatrice. L'immagine strutturale sarà costituita da modelli “AV” che otterremo come risultato della dediscorsificazione e delexificazione del testo originale da una lingua verbale in un'immagine strutturale e successiva lessificazione e discorsificazione dall'immagine strutturale del testo finale in un'altra lingua verbale. L'operazionalizzazione dell'immagine oggetto-attributo non consisterà nel decifrarla, ma nel lavoro sperimentale con essa come con la mediazione strutturale attraverso l'elaborazione dell'errore nell'immagine strutturale stessa e il suo riferimento a strutture linguistiche in due diversi linguaggi verbali tra i quali la traduzione è eseguito.

Pertanto, ricreeremo nel computer non solo la tecnologia del cervello-mente quando traduciamo da una lingua all'altra, ma anche la tecnologia del cervello-mente quando il computer funziona come intelligenza artificiale, cioè oltre i limiti della traduzione automatica compiti. Nel compito pratico della traduzione automatica, otterremo solo una comprensione primaria dell'intelligenza artificiale nel processo di correlazione tra lingue diverse. Dopotutto, dovremo "insegnare" al computer a formare un'immagine strutturale di affermazioni linguistiche in due diverse lingue verbali tra le quali viene eseguita la traduzione, e ad interagire con esso il suo programma logico in modo che l'output sia un corretto traduzione. Così facendo, risolviamo così il problema della prima comprensione nel confrontare la normazione linguistica controflessiva di due lingue verbali e la normazione strutturale che la media.

La modellazione "AV" è un modo universale di regolazione multilivello della struttura in quanto essere, che nello stesso costrutto-semiosi può interpretare sia le relazioni fondamentali del mondo che la struttura fenomenologico-appercettiva di percezione-pensiero, discorso-testo l'espressione e l'attività, l'uso del linguaggio e della logica, nonché le interazioni con la realtà empirica esterna. Questa caratteristica ontologica della modellazione "AV" è, dal nostro punto di vista, preziosa per creare intelligenza artificiale. La modellazione "AV" è il "linguaggio" dell'intelligenza artificiale.


Informazioni simili.


Scienza tecnica

  • , laurea, studente post-laurea
  • Accademia dell'aeronautica intitolata al professor N. E. Zhukovsky e Yu. A. Gagarin, Voronezh
  • POSSIBILITÀ
  • PROBLEMA
  • INTELLIGENZA ARTIFICIALE
  • SICUREZZA

Il principale problema filosofico nel campo dell'intelligenza artificiale è la possibilità o meno di modellare il pensiero umano. In questo articolo, consideriamo brevemente l'essenza di questa area problematica.

Il principale problema filosofico nel campo dell'intelligenza artificiale è la possibilità o meno di modellare il pensiero umano. Se mai viene ricevuta una risposta negativa a questa domanda, tutte le altre domande non avranno il minimo significato.

Pertanto, quando si inizia lo studio dell'intelligenza artificiale, si presume in anticipo una risposta positiva. Ci sono una serie di considerazioni per questa risposta:

La prima prova è scolastica, e dimostra la coerenza dell'intelligenza artificiale e della Bibbia. Apparentemente, anche le persone lontane dalla religione conoscono le parole della Sacra Scrittura: "E il Signore creò l'uomo a sua immagine e somiglianza ...". Sulla base di queste parole, possiamo concludere che poiché il Signore, in primo luogo, ci ha creati e, in secondo luogo, siamo essenzialmente come Lui, allora possiamo benissimo creare qualcuno a immagine e somiglianza dell'uomo.

La creazione di una nuova mente in modo biologico è una cosa abbastanza comune per una persona. Osservando i bambini, vediamo che acquisiscono la maggior parte delle conoscenze attraverso la formazione e non come incorporate in loro in anticipo. Questa affermazione non è stata dimostrata al livello attuale, ma secondo i segni esterni, tutto sembra esattamente così.

Quello che in precedenza sembrava essere l'apice della creatività umana: giocare a scacchi, dama, riconoscere immagini visive e sonore, sintesi di nuove soluzioni tecniche, in pratica si è rivelato non così difficile l'algoritmo più ottimale). Ora spesso questi problemi non sono nemmeno classificati come problemi di intelligenza artificiale. C'è la speranza che la modellazione completa del pensiero umano non sia un compito così difficile.

Il problema della possibilità dell'autoriproduzione è strettamente connesso con il problema della riproduzione del proprio pensiero.

La capacità di riprodursi è stata a lungo considerata una prerogativa degli organismi viventi. Tuttavia, alcuni fenomeni che si verificano in natura inanimata (ad esempio la crescita di cristalli, la sintesi di molecole complesse mediante copia) sono molto simili all'autoriproduzione. All'inizio degli anni '50, J. von Neumann iniziò uno studio approfondito dell'autoriproduzione e gettò le basi per la teoria matematica degli "automi auto-riproducenti". Dimostrò anche teoricamente la possibilità della loro creazione.

Esistono anche varie prove informali della possibilità dell'auto-replicazione, quindi, per i programmatori, la prova più eclatante, forse, sarà l'esistenza di virus informatici.

La possibilità fondamentale di automatizzare la soluzione di problemi intellettuali con l'ausilio di un computer è fornita dalla proprietà dell'universalità algoritmica. Cos'è questa proprietà?

La versatilità algoritmica dei computer significa che possono implementare programmaticamente (cioè rappresentare sotto forma di un programma per computer) qualsiasi algoritmo per convertire le informazioni, siano essi algoritmi di calcolo, algoritmi di controllo, ricerca di prove di teoremi o composizione di melodie. Ciò significa che i processi generati da questi algoritmi sono potenzialmente fattibili, cioè fattibili come risultato di un numero finito di operazioni elementari. La fattibilità pratica degli algoritmi dipende dai mezzi a nostra disposizione, che possono cambiare con lo sviluppo della tecnologia. Così, in connessione con l'avvento dei computer ad alta velocità, gli algoritmi che prima erano solo potenzialmente fattibili sono diventati praticamente fattibili.

Tuttavia, la proprietà dell'universalità algoritmica non si limita all'affermazione che per tutti gli algoritmi conosciuti è possibile implementarli in un software su un computer. Il contenuto di questa proprietà ha anche il carattere di una previsione per il futuro: ogniqualvolta in futuro una qualsiasi prescrizione viene riconosciuta dall'algoritmo, allora indipendentemente dalla forma e dal mezzo in cui tale prescrizione è inizialmente espressa, essa può anche essere impostata nel forma di un programma per computer. .

Tuttavia, non si dovrebbe pensare che computer e robot possano, in linea di principio, risolvere qualsiasi problema. L'analisi di vari problemi ha portato i matematici a una scoperta notevole. L'esistenza di tali tipi di problemi è stata rigorosamente dimostrata per i quali un unico algoritmo efficiente che risolva tutti i problemi di un dato tipo è impossibile; in questo senso è impossibile risolvere problemi di questo tipo con l'ausilio dei computer. Questo fatto contribuisce a una migliore comprensione di cosa possono fare le macchine e cosa non possono fare. In effetti, l'affermazione sull'irrisolvibilità algoritmica di una certa classe di problemi non è solo un'ammissione che un tale algoritmo non ci è noto e non è stato ancora trovato da nessuno. Tale affermazione è allo stesso tempo una previsione per tutti i tempi futuri che questo tipo di algoritmo non ci è noto e non sarà indicato da nessuno, o che non esiste.

Come agisce una persona nel risolvere tali problemi? Sembra che li ignori semplicemente, il che, tuttavia, non gli impedisce di andare avanti. Un altro modo è restringere le condizioni per l'universalità del problema, quando viene risolto solo per un certo sottoinsieme di condizioni iniziali. E un altro modo è che una persona con il metodo del "poke scientifico" espanda l'insieme delle operazioni elementari a sua disposizione (ad esempio, crea nuovi materiali, scopre nuovi depositi o tipi di reazioni nucleari).

La prossima questione filosofica dell'intelligenza artificiale è lo scopo della creazione. In linea di principio, tutto ciò che facciamo nella vita pratica è di solito volto a non fare altro. Tuttavia, con un tenore di vita sufficientemente alto (una grande quantità di energia potenziale) di una persona, non è più la pigrizia (nel senso del desiderio di risparmiare energia), ma gli istinti di ricerca che giocano i primi ruoli. Supponiamo che una persona sia riuscita a creare un intelletto che supera il proprio (se non in qualità, quindi in quantità). Cosa accadrà ora all'umanità? Che ruolo avrà la persona? Perché è necessario adesso? Diventerà un maiale stupido e grasso? E in generale, è necessario in linea di principio creare intelligenza artificiale?

Apparentemente, la risposta più accettabile a queste domande è il concetto di "amplificatore di intelligenza". Un'analogia con il presidente dello stato sarebbe appropriata qui: non è tenuto a conoscere la valenza del vanadio o il linguaggio di programmazione Java per prendere una decisione sullo sviluppo dell'industria del vanadio. Ognuno fa le sue cose: un chimico descrive un processo tecnologico, un programmatore scrive un programma; alla fine, l'economista dice al presidente che investendo nello sviluppo delle tecnologie dell'informazione, il paese riceverà il 20% e il 10% annuo nell'industria del vanadio. Con una tale formulazione della domanda, chiunque può fare la scelta giusta.

In questo esempio, il presidente usa un potenziatore dell'intelligenza biologica, un gruppo di specialisti. Ma anche gli amplificatori di intelligenza inanimati vengono già utilizzati - ad esempio, non potremmo prevedere il tempo senza i computer; durante i voli delle astronavi, i computer di bordo sono stati utilizzati fin dall'inizio. Inoltre, una persona utilizza da tempo amplificatori di potenza, un concetto che è per molti aspetti analogo a un amplificatore di intelligenza. Auto, gru, motori elettrici, presse, pistole, aeroplani e molto altro ancora servono da amplificatori di potenza.

La principale differenza tra un amplificatore dell'intelligenza e un amplificatore della forza è la presenza della volontà. Dopotutto, non possiamo immaginare che all'improvviso un'auto di produzione "Zaporozhets" si sia ribellata e abbia iniziato a guidare come voleva. Non possiamo immaginare proprio perché non vuole niente, non ha desideri. Allo stesso tempo, un sistema intellettuale potrebbe avere i propri desideri e agire non come vorremmo. Quindi, affrontiamo un altro problema: il problema della sicurezza.

Questo problema perseguita le menti dell'umanità sin dai tempi di Karel Capek, che per primo usò il termine "robot". Anche altri scrittori di fantascienza hanno contribuito in modo significativo alla discussione di questo problema. Come il più famoso, possiamo citare una serie di storie dello scrittore e scienziato di fantascienza Isaac Asimov, nonché un'opera abbastanza recente: "The Terminator". A proposito, è da Isaac Asimov che si può trovare la soluzione più sviluppata e accettata dalla maggior parte delle persone al problema della sicurezza. Stiamo parlando delle cosiddette tre leggi della robotica:

Un robot non può danneggiare una persona o con la sua inazione consentire a una persona di essere danneggiata.

Un robot deve obbedire ai comandi impartitigli da un essere umano, tranne nei casi in cui questi comandi siano contrari alla prima legge.

Il robot deve prendersi cura della sua sicurezza, nella misura in cui non è in contraddizione con la prima e la seconda legge.

A prima vista, tali leggi, se pienamente osservate, dovrebbero garantire la sicurezza dell'umanità. Tuttavia, uno sguardo più attento solleva alcune domande. In primo luogo, le leggi sono formulate in linguaggio umano, il che non consente la loro semplice traduzione in forma algoritmica. Ad esempio, non è possibile tradurre in nessuno dei linguaggi di programmazione conosciuti un termine come "danno" o la parola "consentire" in questa fase dello sviluppo della tecnologia dell'informazione.

Supponiamo inoltre che sia possibile riformulare queste leggi in un linguaggio comprensibile al sistema automatizzato. Ora mi chiedo cosa significherà il sistema di intelligenza artificiale con il termine "danno" dopo molte riflessioni logiche? Non deciderà che tutta l'esistenza umana è un puro danno? Dopotutto fuma, beve, invecchia e perde salute negli anni, soffre. Il male minore non porrebbe rapidamente fine a questa catena di sofferenza? Naturalmente possono essere introdotte alcune integrazioni legate al valore della vita e alla libertà di espressione. Ma queste non saranno più le semplici tre leggi che erano nella versione originale.

La prossima domanda sarà questa. Cosa deciderà il sistema di intelligenza artificiale in una situazione in cui salvare una vita è possibile solo a spese di un'altra? Particolarmente interessanti sono quei casi in cui il sistema non dispone di informazioni complete su chi è chi.

Tuttavia, nonostante questi problemi, queste leggi sono una buona base informale per verificare l'affidabilità del sistema di sicurezza per i sistemi di intelligenza artificiale.

Quindi, non esiste davvero un sistema di sicurezza affidabile? Sulla base del concetto di amplificatore di intelligenza, possiamo offrire la seguente opzione.

Secondo numerosi esperimenti, nonostante non sappiamo esattamente di cosa sia responsabile ogni singolo neurone nel cervello umano, molte delle nostre emozioni di solito corrispondono all'eccitazione di un gruppo di neuroni (insieme neurale) in un'area completamente prevedibile. Sono stati effettuati anche esperimenti inversi, quando la stimolazione di una certa area ha causato il risultato desiderato. Potrebbero essere emozioni di gioia, oppressione, paura, aggressività. Ciò suggerisce che, in linea di principio, potremmo benissimo portare all'esterno il grado di "soddisfazione" del corpo. Allo stesso tempo, quasi tutti i meccanismi conosciuti di adattamento e autoregolazione (innanzi tutto intendiamo i sistemi tecnici) si basano sui principi del tipo "buono" - "cattivo". Nell'interpretazione matematica, questa è la riduzione di una funzione al massimo o al minimo. Ora immagina che il potenziatore dell'intelligenza utilizzi, direttamente o indirettamente, il grado di piacere del cervello dell'ospite umano come tale funzione. Se adottiamo misure per escludere l'attività autodistruttiva in uno stato di depressione, oltre a provvedere ad altri stati speciali della psiche, otteniamo quanto segue.

Poiché si presume che una persona normale non danneggerà se stessa e, senza un motivo speciale, gli altri e l'amplificatore dell'intelligenza fa parte di questo individuo (non necessariamente una comunità fisica), tutte e tre le leggi della robotica vengono automaticamente soddisfatte. Allo stesso tempo, i problemi di sicurezza vengono spostati nel campo della psicologia e delle forze dell'ordine, poiché il sistema (addestrato) non farà nulla che il suo proprietario non gradirebbe.

E rimane un'altra domanda: vale la pena creare l'intelligenza artificiale, può semplicemente chiudere tutto il lavoro in quest'area? L'unica cosa che si può dire al riguardo è che se è possibile creare l'intelligenza artificiale, prima o poi verrà creata. Ed è meglio crearlo sotto il controllo pubblico, con uno studio approfondito dei problemi di sicurezza, che sarà creato in 100-150 anni da qualche programmatore-meccanico autodidatta utilizzando le conquiste della tecnologia contemporanea. In effetti, oggi, ad esempio, qualsiasi ingegnere competente, con determinate risorse finanziarie e materiali, può fabbricare una bomba atomica.

Bibliografia

  1. Turing, A. Una macchina può pensare? (Con l'appendice dell'articolo di J. von Neumann "Teoria generale e logica degli automi" / A. Turing; traduzione e note di Yu.V. Danilov. - M.: GIFML, 1960.
  2. Azimov, A. Ya, robot. Tutto su robot e robotica. Serie "Il fondo d'oro della narrativa mondiale" / A. Azimov. – M.: Eksmo, 2005.
  3. Shalyutin, I.S. Intelligenza artificiale: aspetto epistemologico / I.S. Shalyutin. – M.: Pensiero, 1985.

Piano

introduzione

1. Il problema della definizione dell'intelligenza artificiale

2. Il problema della definizione dei compiti dell'intelligenza artificiale

3. Problema di sicurezza

4. Il problema della scelta di un percorso per creare intelligenza artificiale

Conclusione

Elenco della letteratura usata


introduzione

Con l'Intelligenza Artificiale (AI) si è sviluppata una strana situazione: si sta studiando qualcosa che non è ancora stato studiato. E se questo non accadrà entro i prossimi 100 anni, allora potrebbe benissimo essere che l'era dell'IA finirà qui.

Sulla base di quanto sopra, segue il principale problema filosofico nel campo dell'IA: la possibilità o meno di modellare il pensiero umano. Se mai viene ricevuta una risposta negativa a questa domanda, tutte le altre domande non avranno il minimo significato.

Pertanto, quando si inizia lo studio dell'IA, si presuppone una risposta positiva. Ecco alcune considerazioni che ci portano a questa risposta.

1. La prima prova è scolastica, e prova la coerenza dell'IA e della Bibbia. Anche le persone lontane dalla religione conoscono le parole della Sacra Scrittura: "E il Signore creò l'uomo a sua immagine e somiglianza...". Sulla base di queste parole, possiamo concludere che poiché il Signore, in primo luogo, ci ha creati e, in secondo luogo, siamo essenzialmente come Lui, allora possiamo benissimo creare qualcuno a immagine e somiglianza dell'uomo.

2. La creazione di una nuova mente in modo biologico è una cosa abbastanza comune per una persona. I bambini acquisiscono la maggior parte delle conoscenze attraverso l'apprendimento e non come incorporate in esse in anticipo.

3. La possibilità fondamentale di automatizzare la soluzione di problemi intellettuali con l'ausilio di un computer è fornita dalla proprietà dell'universalità algoritmica. Ciò significa che possono essere utilizzati per implementare in modo programmatico qualsiasi algoritmo di trasformazione delle informazioni, che si tratti di algoritmi di calcolo, algoritmi di controllo, ricerca di prove di teoremi o composizione di melodie.

Il problema dell'intelligenza artificiale è oggi uno dei più attuali. Vi sono impegnati scienziati di varie specializzazioni: cibernetica, linguisti, psicologi, filosofi, matematici, ingegneri. Vengono poste le domande: cos'è l'intelligenza in generale e cosa può essere l'intelligenza artificiale, i suoi compiti, la complessità della creazione e le paure. E in questo momento, mentre l'IA non è ancora stata creata, è importante porre le domande giuste e rispondere.

Nel mio lavoro, ho utilizzato principalmente fonti elettroniche situate su Internet, perché non appena ci sono nuove informazioni sugli sviluppi nel campo dell'intelligenza artificiale in russo.

In appendice ho incluso fotografie (di alcuni dei più noti robot di intelligenza artificiale esistenti oggi) e un'illustrazione filosofica (purtroppo di un artista a me sconosciuto), oltre a una descrizione completa dei test di Turing e Searle che ho fare riferimento al capitolo 2.


1. Il problema della definizione dell'intelligenza artificiale

Esprimere l'essenza dell'intelligenza in una qualsiasi definizione sembra essere un compito estremamente difficile, quasi senza speranza. L'intelletto è qualcosa di sfuggente, che non rientra nella struttura semantica stabilita dal linguaggio. Pertanto, ci limiteremo semplicemente a fornire alcune note definizioni e affermazioni sull'intelligenza, che ci permetteranno di immaginare il "volume" di questo concetto insolito.

Alcuni specialisti prendono per intelligenza la capacità di una scelta razionale, motivata, di fronte alla mancanza di informazioni; la capacità di risolvere problemi sulla base di informazioni simboliche; capacità di apprendimento e di autoapprendimento.

Definizioni di intelligence sufficientemente capienti e interessanti sono fornite nel Dizionario inglese di Webster e nella Great Soviet Encyclopedia. Nel dizionario Webster: “l'intelligenza è: a) la capacità di rispondere con successo a qualsiasi situazione, specialmente nuova, attraverso opportuni aggiustamenti del comportamento; b) la capacità di comprendere le connessioni tra i fatti della realtà al fine di sviluppare azioni che portino al raggiungimento dell'obiettivo. In TSB: "intelligenza ... in senso lato - tutta l'attività cognitiva di una persona, in senso stretto - processi di pensiero che sono indissolubilmente legati al linguaggio come mezzo di comunicazione, scambio di pensieri e comprensione reciproca delle persone". Qui l'intelletto è direttamente connesso con l'attività e il linguaggio di comunicazione.

In generale, non c'è grande disaccordo su questo tema. Un'altra cosa è più interessante: i criteri con cui è possibile determinare in modo univoco un soggetto ragionevole, pensante, intellettuale di fronte a noi o meno.

È noto che un tempo A. Turing proponeva come criterio per determinare se una macchina può pensare, "il gioco dell'imitazione". Secondo questo criterio, una macchina può essere riconosciuta come pensante se una persona, dialogando con essa su una gamma sufficientemente ampia di questioni, non riesce a distinguere le sue risposte dalle risposte di una persona. ( Una descrizione più completa della prova in appendice)

Tuttavia, l'esperimento mentale "Chinese Room" di John Searle ( Descrizione dell'esperimento in appendice) è un argomento secondo cui il superamento del test di Turing non è un criterio per consentire a una macchina di avere un vero processo di pensiero. Si può continuare a fornire esempi di criteri in base ai quali il "cervello macchina" può essere considerato capace di attività mentale e trovarne immediatamente una confutazione.

Non esiste una risposta univoca alla domanda su cosa sia l'intelligenza artificiale. Quasi ogni autore che scrive un libro sull'IA parte da una definizione in esso contenuta, considerando i risultati di questa scienza alla sua luce. Tali definizioni possono essere riassunte come segue:

L'intelligenza artificiale è una personalità su un vettore inorganico (Chekina M.D.).

L'intelligenza artificiale è il campo in cui si studia il comportamento intelligente (negli esseri umani, animali e macchine) e si cerca di trovare modi per simulare tale comportamento in qualsiasi tipo di meccanismo creato artificialmente (Bly Whitby).

L'intelligenza artificiale è una filosofia sperimentale (V. Sergeev).

Il termine stesso "intelligenza artificiale" - AI - AI - intelligenza artificiale fu proposto nel 1956 in un seminario omonimo al Dartsmouth College (USA). Il seminario è stato dedicato allo sviluppo di metodi per risolvere problemi logici piuttosto che computazionali. In inglese, questa frase non ha quella colorazione antropomorfica leggermente fantastica che ha acquisito in una traduzione russa piuttosto infruttuosa. La parola intelligenza significa "la capacità di ragionare in modo ragionevole" e non "intelligenza", per la quale esiste un equivalente inglese: intelletto (T.A. Gavrilova).

Ci sono anche termini di intelligenza artificiale "forte" e "debole".

Il termine "intelligenza artificiale forte" è stato introdotto da John Searle, un programma del genere non sarebbe solo un modello della mente; sarà letteralmente la mente stessa, nello stesso senso in cui la mente umana è la mente.

"Intelligenza artificiale debole" è considerata solo come uno strumento che consente di risolvere determinati problemi che non richiedono l'intera gamma delle capacità cognitive umane.

2. Il problema della definizione dei compiti dell'intelligenza artificiale

La prossima domanda filosofica dell'IA è lo scopo della creazione. In linea di principio, tutto ciò che facciamo nella vita pratica è di solito volto a non fare altro. Tuttavia, con uno standard di vita umano sufficientemente elevato, non è più la pigrizia a giocare il primo ruolo, ma gli istinti di ricerca. Supponiamo che un uomo sia riuscito a creare un intelletto più grande del suo. Cosa accadrà ora all'umanità? Che ruolo avrà la persona? Perché è necessario adesso? E in generale, è necessario in linea di principio creare l'IA?

Apparentemente, la risposta più accettabile a queste domande è il concetto di "amplificatore di intelligenza" (IA). Qui è appropriata un'analogia con il presidente dello stato: non è tenuto a conoscere la valenza del vanadio o il linguaggio di programmazione Java per prendere una decisione sullo sviluppo dell'industria del vanadio. Ognuno fa le sue cose: un chimico descrive un processo tecnologico, un programmatore scrive un programma; alla fine, l'economista dice al presidente che investendo nello spionaggio industriale, il Paese riceverà il 20% e nell'industria del vanadio il 30% annuo. Con una tale formulazione della domanda, chiunque può fare la scelta giusta.

In questo esempio, il presidente utilizza un'IA biologica, un gruppo di specialisti con i loro cervelli proteici. Ma i messaggi istantanei non viventi vengono già utilizzati - ad esempio, non potremmo prevedere il tempo senza computer; durante i voli delle navicelle spaziali, i computer di bordo sono stati utilizzati fin dall'inizio. Inoltre, una persona utilizza da tempo amplificatori di potenza (SS), un concetto che è per molti aspetti simile all'interfaccia utente. Auto, gru, motori elettrici, presse, pistole, aeroplani e molto altro ancora servono da amplificatori di potenza.

La principale differenza tra UI e CS è la presenza della volontà. Dopotutto, non possiamo immaginare che all'improvviso il serial "Zaporozhets" si sia ribellato e abbia iniziato a guidare come vuole. Non possiamo immaginare proprio perché non vuole niente, non ha desideri. Allo stesso tempo, un sistema intellettuale potrebbe avere i propri desideri e agire non come vorremmo. Quindi, affrontiamo un altro problema: il problema della sicurezza.

3. Problema di sicurezza

I problemi filosofici della creazione dell'intelligenza artificiale possono essere divisi in due gruppi, relativamente parlando, "prima e dopo lo sviluppo dell'IA". Il primo gruppo risponde alla domanda: "Cos'è l'IA, è possibile crearla?" Ho cercato di rispondere nel mio lavoro. E il secondo gruppo (l'etica dell'intelligenza artificiale) pone la domanda: "Quali sono le conseguenze della creazione dell'IA per l'umanità?" Il che ci porta al problema della sicurezza.

Questo problema perseguita le menti dell'umanità sin dai tempi di Karel Capek, che per primo usò il termine "robot". Anche altri scrittori di fantascienza hanno contribuito notevolmente alla discussione di questo problema. Come il più famoso, possiamo citare una serie di storie dello scrittore e scienziato di fantascienza Isaac Asimov, oltre a un'opera abbastanza recente: The Terminator. A proposito, è in Isaac Asimov che possiamo trovare la soluzione più sviluppata e accettata dalla maggior parte delle persone al problema della sicurezza. Stiamo parlando delle cosiddette tre leggi della robotica.

1. Un robot non può danneggiare una persona o, con la sua inazione, consentire che una persona venga danneggiata.

2. Un robot deve obbedire ai comandi impartitigli da un essere umano, tranne nei casi in cui tali comandi siano contrari alla prima legge.

3. Il robot deve avere cura della sua sicurezza, purché non sia in contraddizione con la prima e la seconda legge.

A prima vista, tali leggi, se pienamente osservate, dovrebbero garantire la sicurezza dell'umanità. Tuttavia, uno sguardo più attento solleva alcune domande.

Mi chiedo cosa significherà il sistema di intelligenza artificiale con il termine "danno" dopo tanto pensiero logico? Non deciderà che tutta l'esistenza umana è un puro danno? Dopotutto fuma, beve, invecchia e perde salute negli anni, soffre. Il male minore non porrebbe rapidamente fine a questa catena di sofferenza? Certo, puoi introdurre alcune aggiunte legate al valore della vita, alla libertà di espressione. Ma queste non saranno più le semplici tre leggi che erano nel codice sorgente.

La prossima domanda sarà questa. Cosa deciderà il sistema di IA in una situazione in cui salvare una vita è possibile solo a spese di un'altra? Particolarmente interessanti sono quei casi in cui il sistema non ha informazioni complete su chi è chi ...

Quindi è sicuro affermare che le paure di molte persone, compresi gli scienziati, non sono infondate. E dovresti assolutamente iniziare a pensare a questi problemi proprio ora, prima di poter creare una vera e propria "intelligenza artificiale" per proteggere l'umanità da possibili danni o addirittura sterminio, come varietà biologica in competizione, nella migliore delle ipotesi, o semplicemente non necessaria.


4. Il problema della scelta di un percorso per creare intelligenza artificiale

Prova di Turing

Dal 1991 si tengono tornei per programmi che tentano di superare il test di Turing. Su Internet puoi trovare e visualizzare la cronologia dei tornei, conoscere le regole, i premi e i vincitori. Finora, questi programmi (bot) sono estremamente poco intelligenti. Tutto ciò che fanno è applicare le regole suggerite dall'uomo. I robot non cercano nemmeno di comprendere la conversazione, per lo più tentano di "ingannare" una persona. I creatori mettono in loro le risposte alle domande più frequenti, cercando di aggirare le trappole comuni. Ad esempio, stanno osservando da vicino e il giudice farà la stessa domanda due volte? Una persona in questa situazione direbbe qualcosa del tipo: "Ehi, l'hai già chiesto!" Ciò significa che lo sviluppatore aggiungerà una regola al bot per fare lo stesso. In questa direzione, sembra molto improbabile che compaia la prima IA.

Giocatori di scacchi al computer

Molte persone hanno sentito parlare di questi programmi. Il primo campionato mondiale di scacchi tra programmi per computer si è tenuto nel 1974. Il vincitore fu il programma di scacchi sovietico Kaissa. Non molto tempo fa, il computer ha battuto anche Garry Kasparov. Cos'è questo - un indubbio successo?

Molto è stato scritto su come giocano i giocatori di scacchi al computer. Te lo dico molto brevemente. Stanno solo passando attraverso molte opzioni. Se sposto qui questa pedina, e l'avversario sposta qui il suo alfiere, e io arrocco, e lui muove questa pedina... No, una tale posizione è sfavorevole. Non ho intenzione di arroccare, ma invece vedrò cosa succede se sposto questa pedina qui e il computer sposta l'alfiere qui, e invece di arroccare, sposto di nuovo la pedina e lui...

Il computer non inventa nulla da solo. Tutte le opzioni possibili sono state suggerite dai veri proprietari dell'intelletto: programmatori di talento e consulenti di scacchi... Questo non è meno lontano dalla creazione di un vero e proprio intelletto elettronico.

Robot di calcio

È molto alla moda. Questo viene fatto da molti laboratori e interi dipartimenti di università in tutto il mondo. Decine di campionati si svolgono in diverse varietà di questo gioco. Secondo gli organizzatori del torneo RoboCup, "La comunità internazionale di specialisti in intelligenza artificiale ha riconosciuto il compito di controllare i robot da calcio come uno dei più importanti".

Potrebbe benissimo essere che, come sognano gli organizzatori della RoboCup, nel 2050 una squadra di robot batterà davvero una squadra di persone nel calcio. È improbabile che solo la loro intelligenza abbia qualcosa a che fare con questo.

Tornei di programmatori

Di recente, Microsoft ha organizzato un torneo chiamato "Terrarium". Ai programmatori è stato chiesto di creare vita artificiale, né più né meno. Questa è probabilmente la più famosa di queste competizioni, ma in generale ce ne sono molte: organizzatori entusiasti con una regolarità invidiabile si offrono di creare programmi che interpretano una guerra di robot o una colonizzazione di Giove. Ci sono anche gare per la sopravvivenza tra i virus informatici.

Cosa impedisce almeno a questi progetti di servire la creazione di una vera IA, che in futuro sarà in grado di combattere e colonizzare Giove? Una semplice parola: sconsideratezza. Anche le potenti menti di Microsoft non sono riuscite a trovare regole in cui un comportamento complesso è vantaggioso. Cosa possiamo dire del resto. Qualunque sia il torneo, la stessa tattica vince tutto: “più semplice è, meglio è”! Chi ha vinto il Terrario? I nostri connazionali. E cosa hanno fatto? Ecco un elenco completo di quelle regole con cui viveva l'erbivoro virtuale più vitale del torneo;

1. Se vedi un predatore, scappa da lui. Se vedi un animale della tua specie che corre veloce in una direzione, corri nella stessa direzione.

2. Se ci sono solo estranei in giro, mangia rapidamente tutta l'erba in modo che gli altri ne prendano di meno.

3. Se non vedi estranei, mangialo esattamente quanto ti serve. Infine, se non vedi né erba né predatori, vai dove guardano i tuoi occhi.

Intellettualmente? No, ma è efficace.

Applicazioni commerciali

Nelle aree commercialmente significative non sono necessari tornei, giudici, regole di selezione. L'alta scienza semplicemente non era necessaria né nel riconoscimento del testo né nella creazione di giochi per computer.

Ciò che serve è un team armonioso di persone con le idee chiare e una buona istruzione e l'applicazione competente di un gran numero di algoritmi che sono abbastanza semplici nella loro essenza.

Non sarà possibile ottenere alcuna conoscenza sacra in queste aree, non si faranno grandi scoperte e nessuno si adopera per questo. Le persone guadagnano solo per se stesse, migliorando allo stesso tempo le nostre vite.

Conclusione

La scienza della "creazione dell'intelligenza artificiale" non poteva che attirare l'attenzione dei filosofi. Con l'avvento dei primi sistemi intelligenti, sono state sollevate questioni fondamentali sull'uomo e la conoscenza, e in parte sull'ordine mondiale.

Sfortunatamente, il formato del test non consente una divulgazione e una considerazione più estese di un argomento così interessante e urgente come l'intelligenza artificiale, ma spero di essere stato in grado di identificare la gamma dei problemi principali e delineare i modi per risolverli.

“L'emergere di macchine che ci superano in intelligenza è un risultato naturale dello sviluppo della nostra civiltà tecnocratica. Non si sa dove ci porterebbe l'evoluzione se le persone seguissero il percorso biologico: iniziarono a migliorare la struttura di una persona, le sue qualità e proprietà. Se tutti i soldi spesi per lo sviluppo delle armi andassero in medicina, avremmo sconfitto tutte le malattie molto tempo fa, respinto la vecchiaia e forse avremmo raggiunto l'immortalità ...

La scienza non può essere bandita. Se l'umanità si autodistrugge, significa che l'evoluzione ha imboccato un sentiero senza uscita per questa umanità, e non ha diritto di esistere. Forse il nostro caso è un vicolo cieco. Ma non siamo i primi e non gli ultimi qui. Non si sa quante civiltà ci siano state prima di noi e dove siano andate.

Capo del dipartimento dell'Università radiotecnica statale di Taganrog, presidente del consiglio dell'Associazione russa dei sistemi fuzzy, accademico dell'Accademia russa di scienze naturali, professore, dottore in scienze tecniche Leonid Bershtein.

Elenco della letteratura usata

1. Grande enciclopedia sovietica

2. TA Gavrilova, dottore in scienze tecniche, professore del dipartimento di tecnologie informatiche intelligenti, Università tecnica statale di San Pietroburgo, capo del laboratorio di sistemi intelligenti presso l'Istituto di informatica e database ad alte prestazioni. Articolo. www.big.spb.ru

4. Chekina MD "Problemi filosofici dell'intelligenza artificiale". Relazione del Premio al Cinquantaquattresimo Convegno Scientifico Studentesco del TTIUFU. 2007 www.filosof.historic.ru

5. Bly Whitby "Intelligenza artificiale: la matrice è reale", FAIR-PRESS, 2004


Superiore