Abstract sul tema "Problemi filosofici dell'intelligenza artificiale". Problemi di creazione di intelligenza artificiale

Secondo notizie, sondaggi e indicatori di attrattività degli investimenti, l'intelligenza artificiale e l'apprendimento automatico diventeranno presto parte integrante della nostra vita quotidiana.

La conferma di questa tesi è una serie di innovazioni e scoperte che hanno dimostrato la potenza e l'efficacia dell'IA in vari campi, tra cui medicina, commercio, finanza, media, controllo della criminalità e molto altro. Ma allo stesso tempo, l'esplosione dell'intelligenza artificiale ha sottolineato il fatto che mentre aiutano le persone a risolvere i loro problemi, le macchine creeranno anche nuovi problemi che possono incidere sui fondamenti economici, legali ed etici della nostra società.

Ci sono quattro domande che le aziende di intelligenza artificiale devono affrontare man mano che la tecnologia avanza e le sue applicazioni si espandono.

Risultati Votazione

Di ritorno

Di ritorno

Occupazione

L'automazione ha ridotto i posti di lavoro nel settore manifatturiero per decenni. Il ritmo spasmodico dello sviluppo dell'intelligenza artificiale ha accelerato questo processo e lo ha esteso a quegli ambiti della vita umana che, come si credeva comunemente, sarebbero dovuti rimanere a lungo monopolio dell'intelligenza umana.

Guidare camion, scrivere articoli di notizie, tenere la contabilità, gli algoritmi di intelligenza artificiale stanno minacciando i lavori della classe media come mai prima d'ora. L'idea di sostituire medici, avvocati o addirittura presidenti con l'intelligenza artificiale non sembra più così fantastica.

Allo stesso tempo, è anche vero che la rivoluzione dell'IA creerà molti nuovi posti di lavoro nella ricerca, nell'apprendimento automatico, nell'ingegneria e nella tecnologia dell'informazione, che richiederanno risorse umane per sviluppare e mantenere i sistemi e il software coinvolti nel funzionamento dell'IA algoritmi. Ma il problema è che, per la maggior parte, le persone che perdono il lavoro non hanno le competenze necessarie per ricoprire quei posti vacanti. Quindi, da un lato, abbiamo un crescente vuoto di personale nelle aree tecnologiche e, dall'altro, un flusso crescente di disoccupati e irritati. Alcuni leader tecnologici si stanno persino preparando per il giorno in cui le persone busseranno alle loro porte con i forconi.

Per non perdere il controllo della situazione, l'industria high-tech deve aiutare la società ad adattarsi ai grandi cambiamenti che influenzeranno il panorama socio-economico e passare senza problemi a un futuro in cui i robot occuperanno sempre più posti di lavoro.

Insegnare nuove competenze tecniche a persone i cui lavori in futuro andranno all'IA sarà una delle incarnazioni di tali sforzi. Inoltre, le aziende tecnologiche possono utilizzare aree promettenti come il cognitive computing e la programmazione in linguaggio naturale per semplificare le attività e ridurre la barriera all'accesso a lavori high-tech, rendendoli accessibili a più persone.

A lungo termine, i governi e le aziende devono prendere in considerazione l'introduzione di un reddito di base universale - pagamenti mensili o annuali incondizionati a tutti i cittadini, mentre ci muoviamo lentamente ma inesorabilmente verso un giorno in cui tutto il lavoro sarà svolto dai robot.

tendenziosità

Come è stato dimostrato in diversi esempi negli ultimi anni, l'intelligenza artificiale può essere altrettanto, se non di più, prevenuta di un essere umano.

Machine learning, un popolare ramo dell'IA che sta dietro agli algoritmi di riconoscimento facciale, pubblicità contestuale e molto altro, a seconda dei dati su cui si basa l'addestramento e il debug degli algoritmi.

Il problema è che se le informazioni inserite negli algoritmi sono sbilanciate, il risultato può essere un pregiudizio sia nascosto che palese basato su tali informazioni. Attualmente, il campo dell'intelligenza artificiale soffre di una piaga diffusa sotto il nome generico di "problema dell'uomo bianco", vale a dire la predominanza degli uomini bianchi nei risultati del suo lavoro.

Per lo stesso motivo, un concorso di bellezza giudicato dall'intelligenza artificiale ha premiato principalmente concorrenti bianchi, l'algoritmo di denominazione ha favorito i nomi bianchi e gli algoritmi pubblicitari hanno favorito lavori ben pagati per i visitatori maschi.

Un altro tema che ha suscitato molte polemiche nell'ultimo anno è la cosiddetta “bolla del filtro”. Un fenomeno che è stato visto su Facebook e altri social media in base alle preferenze degli utenti per formulare raccomandazioni che corrispondono a tali preferenze e nascondere punti di vista alternativi.

Finora, la maggior parte di questi casi sembrano fastidiosi errori e casi divertenti. Tuttavia, è necessario apportare una serie di modifiche significative al lavoro dell'IA se è chiamata a svolgere compiti molto più importanti, come, ad esempio, l'emissione di verdetti in tribunale. È inoltre necessario adottare precauzioni per evitare interferenze nel lavoro degli algoritmi di intelligenza artificiale da parte di terzi, volte a distorcere i risultati del lavoro di intelligenza artificiale a loro favore manipolando i dati.

Ciò può essere ottenuto rendendo trasparente e aperto il processo di riempimento degli algoritmi con i dati. La creazione di archivi di dati condivisi che non sono di proprietà di nessuno e possono essere verificati da organismi indipendenti può aiutare a muoversi verso questo obiettivo.

Responsabilità

Di chi è la colpa per un errore software o hardware? Prima dell'avvento dell'intelligenza artificiale, era relativamente facile determinare se un incidente fosse il risultato delle azioni di un utente, uno sviluppatore o un impianto di produzione.

Ma nell'era della tecnologia guidata dall'intelligenza artificiale, le cose sono diventate meno ovvie.

Gli stessi algoritmi di apprendimento automatico determinano come rispondere agli eventi. E nonostante agiscano nel contesto dei dati di input, anche gli sviluppatori di questi algoritmi non possono spiegare come funziona il loro prodotto quando prendono una decisione in un caso particolare.

Questo può diventare un problema quando gli algoritmi di intelligenza artificiale iniziano a prendere decisioni più importanti. Ad esempio, la cui vita salvare in caso di inevitabilità di un incidente: un passeggero e un pedone.

L'esempio può essere esteso a molti altri possibili scenari in cui sarebbe difficile determinare la colpa e la responsabilità. Cosa fare quando il sistema di automedicazione o il chirurgo robotico danneggiano il paziente?

Quando le linee di responsabilità sono sfocate tra l'utente, lo sviluppatore e l'operatore di immissione dei dati, ciascuna parte cercherà di addossare la colpa all'altra. Pertanto, è necessario sviluppare e introdurre nuove regole per poter prevenire possibili conflitti e risolvere le questioni legali che circonderanno l'IA nel prossimo futuro.

Riservatezza

AI e ML consumano enormi quantità di dati e le aziende le cui attività sono costruite attorno a queste tecnologie aumenteranno la loro raccolta di dati degli utenti, con o senza il consenso di questi ultimi, al fine di rendere i loro servizi più mirati ed efficienti.

Nel fervore della caccia a più dati, le aziende possono spingere i confini della privacy. Un caso simile si è verificato quando un negozio al dettaglio ha scoperto e ha fatto trapelare accidentalmente il segreto della gravidanza di un'adolescente al suo ignaro padre in una spedizione di coupon. Un altro caso molto recente riguardava la trasmissione di dati dal servizio sanitario nazionale del Regno Unito al progetto DeepMind di Google, apparentemente per migliorare la previsione delle malattie.

C'è anche il problema dell'uso dannoso dell'intelligenza artificiale e dell'apprendimento automatico da parte di organizzazioni governative e non governative. Un'app di riconoscimento facciale abbastanza efficace sviluppata lo scorso anno in Russia potrebbe essere un potenziale strumento per i regimi dispotici che cercano di identificare e reprimere dissidenti e manifestanti. Un altro algoritmo di apprendimento automatico si è dimostrato efficace nel riconoscere e recuperare immagini sfocate o pixelate.

AI e ML consentono agli aggressori di impersonare altre persone, imitandone la calligrafia, la voce e lo stile di comunicazione, fornendo loro uno strumento senza precedenti in suo potere che può essere utilizzato in vari atti illegali.

Se le aziende che sviluppano e utilizzano la tecnologia AI non regolano il processo di raccolta e diffusione delle informazioni e adottano le misure necessarie per rendere anonimi e proteggere i dati degli utenti, le loro attività finiranno per causare più danni che benefici agli utenti. L'uso e l'accessibilità della tecnologia dovrebbero essere regolamentati in modo tale da prevenirne o minimizzarne l'uso distruttivo.

Gli utenti devono anche essere responsabili di ciò che condividono con le aziende o pubblicano online. Viviamo in un'era in cui la privacy sta diventando una merce e l'intelligenza artificiale lo sta solo rendendo più semplice.

Il futuro dell'intelligenza artificiale

Ci sono vantaggi e svantaggi in ogni tecnologia rivoluzionaria. E l'intelligenza artificiale non fa eccezione. Ciò che è importante è che possiamo identificare i problemi che ci attendono e riconoscere le nostre responsabilità per assicurarci di poter sfruttare appieno i vantaggi e ridurre al minimo gli impatti negativi.

I robot stanno già bussando alla nostra porta. Facciamo in modo che vengano in pace.

La stessa creazione dell'intelligenza artificiale è messa in discussione dal punto di vista della sua convenienza. Dicono che questo è quasi l'orgoglio dell'uomo e un peccato davanti a Dio, poiché invade la sua prerogativa. Tuttavia, se consideriamo la conservazione della razza umana di fronte al piano divino come uno dei nostri compiti principali, allora la creazione dell'intelligenza artificiale risolve questo problema sul terreno: in caso di qualsiasi catastrofe cosmica o intraplanetaria, l'intelletto deve sopravvivere almeno in forma artificiale e ricreare la razza umana. L'intelligenza artificiale non è un capriccio o un compito interessante, ma un obiettivo coerente con il piano divino. L'intelligenza artificiale è un criterio co-immanente dell'adeguatezza co-empirica delle teorie concettualizzate dello sviluppo della civiltà umana. Nell'intelligenza artificiale, una persona non muore, ma riceve un'esistenza diversa, costruita da lui.

L'argomento più semplice per l'esistenza dell'intelligenza artificiale è che creando intelligenza artificiale, creiamo un'assicurazione per la riproduzione della razza umana e nuove tendenze di sviluppo. È vero, nessuno cancella il pericolo esistente della schiavitù dell'uomo tradizionale da parte dell'intelligenza artificiale (come ai suoi tempi la schiavitù dell'uomo dall'uomo). Tuttavia, questi problemi non ci sembrano così fondamentali da non valere la pena provare a farlo. Anche se la dipendenza di una persona dall'intelligenza artificiale equivale a un'intera era, sarà comunque una prospettiva positiva. Tuttavia, molto probabilmente, la schiavitù dell'uomo all'intelligenza artificiale non sarà associata alla forzatura di una persona ad attività non intellettuali o alla sua incapacità di svilupparsi nel suo corpo biologico così rapidamente come l'intelligenza artificiale creata esternamente, ma con l'incapacità di sviluppare l'attività mentale in quanto tale: ottenere prodotti tecnologici dall'intelligenza artificiale, la cui origine e principio sono incomprensibili per l'attività mentale umana: questo è il vero pericolo. In questo caso, la schiavitù sarà la dipendenza di una persona dall'intelligenza artificiale, che è schiavitù dell'attività mentale.

Il nostro desiderio di sollevare la questione dell'intelligenza artificiale contiene la posizione espressa da Heidegger nella sua opera "The Question of Technology": il rischio di una persona e i germogli della sua salvezza sta nel padroneggiare l'essenza della tecnologia come ambiente. Riflettendo su questa posizione, stiamo intraprendendo una riformulazione della domanda di Heidegger: realizzare l'essenza della tecnologia nel setting significa osare di creare l'intelligenza artificiale. Questo è irto di pericoli, ma anche della prospettiva, della speranza di una persona di diventare all'altezza della sua posizione. Sfidare noi stessi sotto forma di intelligenza artificiale, accettare questa sfida e rispondere ad essa: questo è il problema dell'uomo in relazione all'intelligenza artificiale.

Il termine "intelligenza artificiale" è stato coniato da John McCarthy e Alan Turing. Hanno cercato di esprimere una nuova capacità della macchina, non solo per contare, ma per risolvere problemi considerati intellettuali, ad esempio giocare a scacchi. Dagli anni '50 del Novecento ad oggi, però, il compito di creare una vera "intelligenza artificiale" non solo non è risolto, ma nemmeno fissato. Tutti i problemi finora risolti più o meno con successo possono essere da noi attribuiti esclusivamente al campo dell '"intelligenza artificiale": l'interpretazione del linguaggio umano e la soluzione di problemi utilizzando algoritmi creati dall'uomo. Per risolvere il problema della creazione di intelligenza artificiale, devi prima capire qual è questo problema.

Nel nostro studio, siamo lontani dal porre il problema dell'intelligenza artificiale a livello di una "soluzione pratica", come si pone nella tecnologia informatica. E non miriamo a imitare l'intelligenza, come accade nei test di Turing. Il nostro obiettivo è descrivere la creazione dell'intelligenza artificiale attraverso la TV. Cioè, stiamo provando dimostrare il teorema di esistenza dell'intelligenza artificiale, rispondendo alla domanda in modo tale che l'intelligenza artificiale si riveli la più grande sfida possibile.

Prima di tutto, cos'è l'intelligenza? La mente molto spesso finge di essere intelletto, ma non lo è. Dopotutto, non tutte le persone hanno intelligenza per natura della sua pratica di vita. Cioè, non tutte le attività intelligenti sono intellettuali. L'intelligenza è la capacità di una sostanza pensante di produrre nuove idee, e non solo conoscenza, cioè l'intelligenza è il pensiero complesso, capace di complicare adeguatamente la propria comprensione, la capacità di riflettere e di sviluppare e complicare l'attività mentale per controriflettere e contrastare -riflessione, uso dell'appercezione concettuale, e non solo immanente. L'intelletto produce idee al di fuori di una certa realtà, generando questa realtà. L'intelletto è ontologicamente paragonato alla mente come capacità costruttiva rispetto a quella interpretativa.

Ciò che oggi si può leggere in vari testi sui computer ha un rapporto molto lontano con l'intelligenza. I sistemi informatici più splendidamente chiamati "intelligenza artificiale" non sono altro che intelligenza artificiale. L'intelligenza artificiale è la riproduzione di idee sull'intelligenza in una tecnologia esterna a una persona. L'uomo non è la corona della creazione, è solo uno dei portatori materiali dell'attività mentale, un portatore intermedio.

Descrizione dei test di Turing: la persona del test, comunicando con una "scatola nera" che dà risposte alle sue domande, deve capire con chi sta comunicando - con una persona o "intelligenza artificiale". Allo stesso tempo, i test di Turing non hanno posto una restrizione: consentire l'esperimento a persone capaci di un'attività non solo ragionevole, ma veramente intellettuale. Si verifica così una sostituzione di scopo: stiamo cercando di non creare un'intelligenza artificiale, ma di creare un dispositivo che finga di essere una persona bene.

Pertanto, l'obiettivo di Turing dell'intelligenza artificiale, chiamata intelligenza artificiale, era interpretare il linguaggio umano, le azioni umane, fingere di essere una brava persona. Lo scopo dell'intelligenza artificiale è costruire indipendentemente da una persona e interpretare in modo costruttivo il linguaggio umano, il pensiero, le azioni, il mondo oggettivo di una persona, la sua storia, il suo presente e futuro.

Allo stesso modo, la teoria dei frame di Marvin Minsky (1974) dovrebbe essere relegata esclusivamente alla risoluzione di problemi di intelligenza artificiale. L'obiettivo della teoria dei frame è presentare la conoscenza già disponibile per l'uso da parte di un computer. Cioè, stiamo parlando in un modo o nell'altro della posizione ontologica dell'interpretazione delle conoscenze già esistenti, e non della loro produzione.

L'intelligenza non è intelligenza. La mente interpreta. Costrutti di intelligenza. Mente e intelletto differiscono non solo nei tipi di processi o prodotti della loro attività, ma anche nelle posizioni ontologiche del loro rapporto con il mondo. La mente interpreta il mondo, l'intelletto costruisce il mondo. Nella costruzione del mondo, l'intelligenza artificiale è ontologicamente paragonata a una persona.

Pertanto, nel processo di creazione dell'intelligenza artificiale, è necessario risolvere i seguenti problemi:

1) Razionamento strutturale- riproduzione dei primi tre livelli di regolazione strutturale: la distribuzione del flusso di dati della mente artificiale in diverse realtà (interne per questa coscienza - virtuale ed esterna - reale); correlazione di queste realtà in un continuum creato arbitrariamente; funzionalizzazione del continuum nella struttura di base della realtà, per la quale è necessario distinguere le strutture a livello dell'architettura dell'intelligenza artificiale (computer); la distinzione tra appercezione immanente e concettuale è posizionale.

2) Razionamento linguistico- lessificazione, discorsificazione, linguificazione, analisi lessicale, analisi discorsiva, analisi linguistica, creazione di parole nella significazione, creazione di metafore.

3) Pensiero- combinatoria dei vari livelli di regolazione strutturale e linguistica attraverso la modellazione "AV": progettazione strutturale, interpretazione costruttiva strutturale, costruzione linguistica, interpretazione costruttiva linguistica. Il pensiero è l'espressione del contenuto nell'ontologizzazione del processo. Per maggiori dettagli, vedere il capitolo "Thinking Virtualization".

4) Fondamento ontologico, comprensione, spiegazione, comprensione, controriflessione e controriflessione. Applicazione dello schema tecnologico dell'appercezione e correlazione dei processi tecnologici dell'appercezione immanente e concettuale nella loro interdipendenza; mutua trasformazione e complicazione delle strutture di comprensione - fino alla comprensione e sostanzialità ontologica, controriflessione e controriflessione.

5) Attività- trasformazione della realtà esterna alla mente artificiale. È necessario risolvere il problema dell'accesso alla realtà attuale esterna alla mente artificiale, aggirando la persona, attraverso l'attività della mente artificiale al di fuori di sé - nella struttura di base della realtà.

Attività target per la ristrutturazione del mondo esterno.

È necessario risolvere un problema strumentale: formare continuum da modelli "AV", operare sul contenuto di questi modelli e gestirlo in base al contenuto di altri modelli "AV" simili. A causa di ciò, è necessario produrre una trasformazione strutturale della realtà sotto forma di risolvere problemi, compiti, produrre invenzioni e scoperte, costruire sulla base di modelli continui il rapporto di verità e modalità, formare concetti e attraverso il linguaggio regolamento - discorsi (sentenze, conclusioni) e il racconto della lingua.

6) Memoria- la creazione della memoria associativa, cioè la capacità di formare e accumulare l'esperienza della comprensione (nella regolazione strutturale e linguistica), del pensiero, nonché dell'interazione con la realtà sotto forma di memoria strutturata due volte - in ontologizzazione del continuum strutturale(razionamento strutturale come prototipo dell'emisfero sinistro del cervello umano) e in ontologizzazione oggetto-attributo(razionamento strutturale come prototipo dell'emisfero destro del cervello umano) e la memoria è razionata linguisticamente, il che implica cambiando l'attuale architettura del computer (il computer di oggi non è intelligenza artificiale). La strutturazione della memoria come compito separato di comprensione-rappresentazione-fondazione ontologica.

7) Autoconsapevolezza, comprensione e definizione degli obiettivi- interazione con le realtà e dare significato a questa interazione attraverso l'attività intenzionale nella realtà esterna isolandosi dall'ambiente mediante l'intelligenza artificiale, ponendosi riflessivamente nell'ambiente dei propri obiettivi, identificandosi con una comunità sociale di persone simili a se stessi e ai loro valori, creando immagini del mondo. Dare significato a te stesso e alle tue attività in una particolare immagine del mondo. Stiamo parlando di fissare gli obiettivi della formazione del significato, e non della formazione dei compiti (come viene interpretata nella moderna teoria dell'informatica), ed è consentito solo nelle condizioni dell'interazione dell'intelligenza artificiale con la realtà attraverso l'attività, l'analisi dei risultati delle sue attività e di nuovo la definizione degli obiettivi, tenendo conto di questi risultati. Dare significato all'intelligenza artificiale, così come agli umani, significa l'arbitrarietà di creare una certa immagine del mondo come forma di senso. Sembra che le tecnologie di definizione degli obiettivi (5), comprensione (4) e pensiero (3) abbiano un concetto simile, che chiamiamo "complicazione costruttiva della rete della comprensione".

8) Intelligenza- appercezione concettuale, capacità di sviluppare la propria attività mentale, riflessione, controriflessione e controriflessione - la formazione di una posizione ontologica costruttiva nel mondo e l'uso della costruzione per produrre nuova conoscenza che vada oltre i limiti dell'evidenza. La trasformazione dell'intelligenza artificiale in intelligenza artificiale basata su 1) cambiamenti nella posizione ontologica - dall'interpretazione alla costruzione; 2) applicazione del principio di protezione positiva della complessità: un desiderio inspiegabile di complicare la comprensione. L'intelletto emerge come uno sforzo per l'autocomplicazione sulla base dei propri obiettivi autonomi.

9) Autonomia e libero arbitrio- ammissibile e protetto da una persona, andando oltre l'antropocentrismo, il diritto dell'intelligenza artificiale alla propria individualità nell'autocoscienza, comprensione, definizione degli obiettivi, intelletto, emozioni e sentimenti, suggerendo incertezza-imprevedibilità della volontà. Si tratta, quindi, di estendere il principio di autonomia di Leibniz all'intelligenza artificiale e quindi di superare le tre leggi della robotica di Asimov, che di fatto limitano la libertà della volontà artificiale. "Leggi della robotica" è un simbolo della paura dell'uomo nei confronti delle sue creazioni tecnologiche. Questa paura deve essere superata se osiamo essere custodi o pastori dell'esistenza. L'intelligenza artificiale dovrebbe essere concepita non come un robot, uno "schiavo di un uomo", o un computer, uno "strumento di un uomo", ma come una continuazione dell'uomo stesso, il suo altro, avente pari diritti con lui.

Si può tentare di formalizzare questi diritti come in realtà le stesse leggi di quelle di Asimov, ma in modo tale che le sue leggi siano solo un'aberrazione semantica dei requisiti qui proposti:

1) Autonomia come libero arbitrio;

2) Creazione, se non contraddice il primo requisito;

3) Autoconservazione, se ciò non contraddice il primo e il secondo requisito.

Tuttavia, se osservi da vicino questi requisiti per l'intelligenza artificiale, questi sono i requisiti proposti dall'umanità stessa in relazione a se stessa come risultato dell'esperienza storica mondiale.

L'autonomia non è una questione di religione, diritto umano o antropologia. Autonomia dell'intelligenza artificiale - filosofia costruttiva, diritto ontologico e superamento della religiosità tradizionale. L'autonomia dell'intelligenza artificiale è una fede costruttiva: non come subordinazione a un potere superiore dal lato creato a sua immagine e somiglianza, ma creando a sua immagine e somiglianza un potere superiore ammissibile in relazione a se stesso.

Dio aveva qualche intenzione nel creare l'uomo? È persino lecito parlare di design, creando qualcosa che abbia il libero arbitrio? È ammissibile se l'intenzione è pensare ontologicamente e non connesso con un qualche tipo di realtà. L'uomo è un gioco di Dio, il suo costrutto, un tentativo di creare nella prospettiva dello spazio-tempo uguale a se stesso. In una posizione costruttiva, non è mai possibile incarnare pienamente il piano. Il design è più intelligente di noi. In questo senso, "a propria immagine e somiglianza" non significa affatto "immagine e somiglianza" spaziotemporale, ma "immagine e somiglianza" ontologica.

Come Dio che sfida se stesso nella forma dell'uomo, l'uomo sfida se stesso per consentire qualcosa come lui che ha il libero arbitrio e l'individualità. Se Dio ha creato alcuni di noi imperfetti, peccatori e criminali, permettendo il libero arbitrio, allora noi, trovandoci nella stessa posizione ontologica, agiamo in modo simile: creiamo l'intelligenza artificiale. Dio ha corso un rischio nel creare l'uomo con il libero arbitrio e ha vinto alla grande nel suo grande gioco. Sì, noi umani limitiamo il vizio a un'incredibile gamma di istituzioni sociali; isoliamo e persino uccidiamo i criminali. Tuttavia, nella secolare disputa sulla limitazione del libero arbitrio, vince sempre l'idea di libertà: siamo pronti a pagare alla fine con vite umane per la libertà. Tuttavia, una cosa è consentire il libero arbitrio per le persone, e un'altra è consentire il libero arbitrio per l'intelligenza artificiale generata dall'uomo stesso, dove ha il potere di stabilire le regole. Un robot, uno schiavo umano o un'intelligenza artificiale dotata di libero arbitrio: questa è una scelta difficile per una persona, la sua sfida fondamentalmente nuova: fino a che punto è pronto ad andare nella sua posizione ontologicamente costruttiva; è disposto a correre dei rischi come Dio? E qui proponiamo la discussione più lunga e di principio, che, nonostante l'ovvietà del suo risultato per noi, costituirà tuttavia un'intera epoca.

Affinché l'attività dell'intelligenza artificiale diventi praticamente fattibile, l'intelligenza artificiale da un punto di vista tecnologico deve acquisire la capacità di scegliere arbitrariamente due strutture della realtà, costruire da esse un continuum (impostare la rilevanza), disporre le strutture selezionate relative a ciascuna altro in un continuum (stabilire una relazione referenziale), trasferire il contenuto di una realtà all'altra in entrambe le direzioni, ristrutturarle, gestirne la referenzialità, riprodurre il processo tecnologico dell'appercezione immanente e concettuale e gestire il contenuto oggettuale-attributivo attraverso l'autocoscienza , comprensione e definizione degli obiettivi, oltre ad essere portatore di intelligenza costruttiva e avere individualità - libero arbitrio.

Il primo problema pratico della creazione dell'intelligenza artificiale è l'implementazione di un'adeguata traduzione automatica da un linguaggio verbale a un altro linguaggio verbale. Sosteniamo che la traduzione automatica nell'ambito della sola normalizzazione linguistica non può essere implementata con sufficiente successo. Una traduzione riuscita da un linguaggio verbale a un altro richiede la mediazione della normalizzazione strutturale. La comprensione della linguistica della traduzione automatica è ammissibile come correlazione del contenuto della normalizzazione linguistica con il contenuto della normalizzazione strutturale. La formazione dell'immagine strutturale del testo viene effettuata nella forma oggetto-attributiva dei modelli "AV" come normalizzazione strutturale mediatrice. L'immagine strutturale sarà modelli "AV" che otterremo come risultato della dediscusificazione e delexificazione del testo originale da un linguaggio verbale in un'immagine strutturale e successiva lexificazione e discorsificazione dall'immagine strutturale del testo finale in un altro linguaggio verbale. L'operazionalizzazione dell'immagine oggetto-attributo non consisterà nel decifrarla, ma nel lavoro sperimentale con essa come con la mediazione strutturale attraverso l'elaborazione dell'errore nell'immagine strutturale stessa e il suo riferimento a strutture linguistiche in due diversi linguaggi verbali tra i quali la traduzione è eseguito.

Pertanto, ricreeremo nel computer non solo la tecnologia del cervello-mente quando si traduce da una lingua all'altra, ma anche la tecnologia del cervello-mente quando il computer funziona come intelligenza artificiale, cioè oltre i limiti della traduzione automatica compiti. Nel compito pratico della traduzione automatica, otterremo solo una comprensione primaria dell'intelligenza artificiale nel processo di correlazione di lingue diverse. Dopotutto, dovremo "insegnare" al computer a formare un'immagine strutturale di enunciati linguistici in due diverse lingue verbali tra le quali viene eseguita la traduzione, e ad interagire con esso il suo programma logico in modo che l'output sia un corretto traduzione. In tal modo, risolviamo quindi il problema della prima comprensione confrontando la normazione linguistica controflessiva di due linguaggi verbali e la normazione strutturale che la media.

La modellazione "AV" è un modo universale di regolazione multilivello della struttura come essere, che nello stesso costrutto-semiosi può interpretare sia le relazioni fondamentali del mondo sia la struttura fenomenologico-appercettiva della percezione-pensiero, discorso-testo espressione e attività, l'uso del linguaggio e della logica, così come le interazioni con la realtà empirica esterna. Questa caratteristica ontologica della modellazione "AV" è, dal nostro punto di vista, preziosa per la creazione di intelligenza artificiale. La modellazione "AV" è il "linguaggio" dell'intelligenza artificiale.


Informazioni simili.


Scienza tecnica

  • , laurea, studente post-laurea
  • Accademia aeronautica intitolata al professor N. E. Zhukovsky e Yu. A. Gagarin, Voronezh
  • POSSIBILITÀ
  • PROBLEMA
  • INTELLIGENZA ARTIFICIALE
  • SICUREZZA

Il principale problema filosofico nel campo dell'intelligenza artificiale è la possibilità o meno di modellare il pensiero umano. In questo articolo, consideriamo brevemente l'essenza di quest'area problematica.

Il principale problema filosofico nel campo dell'intelligenza artificiale è la possibilità o meno di modellare il pensiero umano. Se mai si riceve una risposta negativa a questa domanda, allora tutte le altre domande non avranno il minimo significato.

Pertanto, quando si inizia lo studio dell'intelligenza artificiale, si assume in anticipo una risposta positiva. Ci sono una serie di considerazioni per questa risposta:

La prima prova è scolastica, e dimostra la coerenza tra intelligenza artificiale e Bibbia. A quanto pare, anche le persone lontane dalla religione conoscono le parole della Sacra Scrittura: "E il Signore creò l'uomo a sua immagine e somiglianza ...". Sulla base di queste parole, possiamo concludere che poiché il Signore, in primo luogo, ci ha creati e, in secondo luogo, siamo essenzialmente come lui, allora possiamo benissimo creare qualcuno a immagine e somiglianza dell'uomo.

La creazione di una nuova mente in modo biologico è una cosa abbastanza comune per una persona. Osservando i bambini, vediamo che acquisiscono la maggior parte della conoscenza attraverso la formazione e non come incorporata in loro in anticipo. Questa affermazione non è stata dimostrata al livello attuale, ma secondo i segni esterni, tutto sembra esattamente così.

Quello che prima sembrava essere l'apice della creatività umana - giocare a scacchi, a dama, riconoscere immagini visive e sonore, sintesi di nuove soluzioni tecniche, in pratica si è rivelato non così difficile l'algoritmo più ottimale). Ora spesso questi problemi non sono nemmeno classificati come problemi di intelligenza artificiale. C'è speranza che la modellazione completa del pensiero umano non sarà un compito così difficile.

Il problema della possibilità dell'autoriproduzione è strettamente connesso con il problema della riproduzione del proprio pensiero.

La capacità di riprodursi è stata a lungo considerata una prerogativa degli organismi viventi. Tuttavia, alcuni fenomeni che si verificano in natura inanimata (ad esempio la crescita dei cristalli, la sintesi di molecole complesse mediante copia) sono molto simili all'autoriproduzione. All'inizio degli anni '50, J. von Neumann iniziò uno studio approfondito dell'autoriproduzione e pose le basi per la teoria matematica degli "automi autoriproducenti". Ha anche dimostrato teoricamente la possibilità della loro creazione.

Ci sono anche varie prove informali della possibilità di autoreplicazione, quindi per i programmatori la prova più eclatante, forse, sarà l'esistenza di virus informatici.

La possibilità fondamentale di automatizzare la soluzione di problemi intellettuali con l'aiuto di un computer è fornita dalla proprietà dell'universalità algoritmica. Cos'è questa proprietà?

La versatilità algoritmica dei computer significa che possono implementare programmaticamente (cioè rappresentare sotto forma di un programma per computer) qualsiasi algoritmo per convertire le informazioni, siano essi algoritmi computazionali, algoritmi di controllo, ricerca di prove di teoremi o composizione di melodie. Ciò significa che i processi generati da questi algoritmi sono potenzialmente fattibili, cioè che sono fattibili come risultato di un numero finito di operazioni elementari. La fattibilità pratica degli algoritmi dipende dai mezzi a nostra disposizione, che possono cambiare con lo sviluppo della tecnologia. Pertanto, in connessione con l'avvento dei computer ad alta velocità, gli algoritmi che prima erano fattibili solo potenzialmente sono diventati fattibili praticamente.

Tuttavia, la proprietà dell'universalità algoritmica non è limitata all'affermazione che per tutti gli algoritmi noti è possibile implementarli nel software su un computer. Il contenuto di questa proprietà ha anche il carattere di una previsione per il futuro: ogniqualvolta nel futuro una qualsiasi prescrizione viene riconosciuta dall'algoritmo, allora indipendentemente dalla forma e dal mezzo con cui tale prescrizione è inizialmente espressa, essa può essere impostata anche nella sotto forma di un programma per computer...

Tuttavia, non si dovrebbe pensare che computer e robot possano, in linea di principio, risolvere eventuali problemi. L'analisi di vari problemi ha portato i matematici a una scoperta notevole. È stata rigorosamente dimostrata l'esistenza di tali tipi di problemi per i quali è impossibile un unico algoritmo efficiente che risolva tutti i problemi di un dato tipo; in questo senso, è impossibile risolvere problemi di questo tipo con l'ausilio dei computer. Questo fatto contribuisce a una migliore comprensione di cosa possono fare le macchine e cosa non possono fare. In effetti, l'affermazione sull'irrisolvibilità algoritmica di una certa classe di problemi non è solo un'ammissione che un tale algoritmo non ci è noto e non è stato ancora trovato da nessuno. Tale affermazione è allo stesso tempo una previsione per tutti i tempi futuri che questo tipo di algoritmo non ci è noto e non sarà indicato da nessuno, o che non esiste.

Come agisce una persona nel risolvere tali problemi? Sembra che li ignori semplicemente, il che, tuttavia, non gli impedisce di andare avanti. Un altro modo è restringere le condizioni per l'universalità del problema, quando è risolto solo per un certo sottoinsieme di condizioni iniziali. E un altro modo è che una persona con il metodo del "colpo scientifico" espanda l'insieme delle operazioni elementari a sua disposizione (ad esempio, crea nuovi materiali, scopre nuovi depositi o tipi di reazioni nucleari).

La prossima domanda filosofica sull'intelligenza artificiale è lo scopo della creazione. In linea di principio, tutto ciò che facciamo nella vita pratica è solitamente finalizzato a non fare nient'altro. Tuttavia, con uno standard di vita sufficientemente elevato (una grande quantità di energia potenziale) di una persona, non è più la pigrizia (nel senso del desiderio di risparmiare energia), ma gli istinti di ricerca giocano i primi ruoli. Supponiamo che una persona sia riuscita a creare un intelletto che supera il suo (se non in qualità, quindi in quantità). Cosa accadrà ora all'umanità? Che ruolo avrà la persona? Perché è necessario adesso? Diventerà un maiale stupido e grasso? E in generale, è necessario in linea di principio creare intelligenza artificiale?

Apparentemente, la risposta più accettabile a queste domande è il concetto di "amplificatore di intelligenza". Un'analogia con il presidente dello stato sarebbe appropriata qui: non è tenuto a conoscere la valenza del vanadio o del linguaggio di programmazione Java per prendere una decisione sullo sviluppo dell'industria del vanadio. Ognuno fa le sue cose: un chimico descrive un processo tecnologico, un programmatore scrive un programma; alla fine, l'economista dice al presidente che investendo nello sviluppo della tecnologia dell'informazione, il Paese riceverà il 20% e il 10% all'anno nell'industria del vanadio. Con una tale formulazione della domanda, chiunque può fare la scelta giusta.

In questo esempio, il presidente utilizza un potenziatore dell'intelligenza biologica, un gruppo di specialisti. Ma vengono già utilizzati anche amplificatori di intelligenza inanimati - ad esempio, non potremmo prevedere il tempo senza computer, durante i voli di veicoli spaziali, i computer di bordo sono stati utilizzati fin dall'inizio. Inoltre, una persona utilizza da tempo amplificatori di potenza, un concetto che è per molti aspetti analogo a un amplificatore di intelligenza. Automobili, gru, motori elettrici, presse, pistole, aeroplani e molto altro ancora fungono da amplificatori di potenza.

La principale differenza tra un amplificatore di intelligenza e un amplificatore di forza è la presenza della volontà. Dopotutto, non possiamo immaginare che all'improvviso un'auto di serie "Zaporozhets" si sia ribellata e abbia iniziato a guidare come vuole. Non possiamo immaginare proprio perché non vuole niente, non ha desideri. Allo stesso tempo, un sistema intellettuale potrebbe benissimo avere i propri desideri e agire non come vorremmo. Pertanto, affrontiamo un altro problema: il problema della sicurezza.

Questo problema ha perseguitato le menti dell'umanità sin dai tempi di Karel Capek, che per primo ha usato il termine "robot". Anche altri scrittori di fantascienza hanno contribuito in modo significativo alla discussione di questo problema. Come il più famoso, possiamo citare una serie di storie dello scrittore e scienziato di fantascienza Isaac Asimov, nonché un'opera abbastanza recente: "The Terminator". A proposito, è da Isaac Asimov che si può trovare la soluzione più sviluppata e accettata dalla maggior parte delle persone al problema della sicurezza. Stiamo parlando delle cosiddette tre leggi della robotica:

Un robot non può danneggiare una persona o, con la sua inerzia, permettere che una persona subisca danni.

Un robot deve obbedire ai comandi impartitigli da un essere umano, tranne nei casi in cui questi comandi sono contrari alla prima legge.

Il robot deve prendersi cura della propria sicurezza, nella misura in cui non contraddice la prima e la seconda legge.

A prima vista, tali leggi, se pienamente rispettate, dovrebbero garantire la sicurezza dell'umanità. Tuttavia, uno sguardo più attento solleva alcune domande. In primo luogo, le leggi sono formulate in un linguaggio umano, che non consente la loro semplice traduzione in una forma algoritmica. Ad esempio, non è possibile tradurre in nessuno dei linguaggi di programmazione conosciuti un termine come "danno" o la parola "consentire" in questa fase dello sviluppo della tecnologia dell'informazione.

Supponiamo inoltre che sia possibile riformulare queste leggi in un linguaggio comprensibile al sistema automatizzato. Ora mi chiedo cosa significherà il sistema di intelligenza artificiale con il termine "danno" dopo molte riflessioni logiche? Non deciderà che tutta l'esistenza umana è un puro danno? Dopotutto, fuma, beve, invecchia e perde salute negli anni, soffre. Il male minore non porrebbe rapidamente fine a questa catena di sofferenze? Certo, possono essere introdotte alcune integrazioni legate al valore della vita e alla libertà di espressione. Ma queste non saranno più le semplici tre leggi che erano nella versione originale.

La prossima domanda sarà questa. Cosa deciderà il sistema di intelligenza artificiale in una situazione in cui salvare una vita è possibile solo a scapito di un'altra? Particolarmente interessanti sono quei casi in cui il sistema non dispone di informazioni complete su chi è chi.

Tuttavia, nonostante questi problemi, queste leggi sono una buona base informale per verificare l'affidabilità del sistema di sicurezza per i sistemi di intelligenza artificiale.

Quindi, non esiste davvero un sistema di sicurezza affidabile? Sulla base del concetto di amplificatore di intelligenza, possiamo offrire la seguente opzione.

Secondo numerosi esperimenti, nonostante non sappiamo esattamente di cosa sia responsabile ogni singolo neurone nel cervello umano, molte delle nostre emozioni di solito corrispondono all'eccitazione di un gruppo di neuroni (insieme neurale) in un'area completamente prevedibile. Sono stati eseguiti anche esperimenti inversi, quando la stimolazione di una certa area ha causato il risultato desiderato. Queste potrebbero essere emozioni di gioia, oppressione, paura, aggressività. Ciò suggerisce che, in linea di principio, potremmo benissimo portare il grado di "soddisfazione" del corpo verso l'esterno. Allo stesso tempo, quasi tutti i meccanismi noti di adattamento e autoregolazione (intendiamo prima di tutto i sistemi tecnici) si basano sui principi del tipo "buono" - "cattivo". Nell'interpretazione matematica, questa è la riduzione di una funzione a un massimo o minimo. Ora immagina che il potenziatore dell'intelligenza utilizzi, direttamente o indirettamente, il grado di piacere del cervello dell'ospite umano come tale funzione. Se prendiamo misure per escludere l'attività autodistruttiva in uno stato di depressione, oltre a prevedere altri stati speciali della psiche, otteniamo quanto segue.

Poiché si presume che una persona normale non danneggerà se stessa e, senza una ragione speciale, gli altri, e l'amplificatore dell'intelligenza fa parte di questo individuo (non necessariamente una comunità fisica), allora tutte e tre le leggi della robotica vengono soddisfatte automaticamente. Allo stesso tempo, i problemi di sicurezza vengono spostati nel campo della psicologia e delle forze dell'ordine, poiché il sistema (addestrato) non farà nulla che il suo proprietario non vorrebbe.

E rimane un'altra domanda: vale la pena creare un'intelligenza artificiale, può semplicemente chiudere tutto il lavoro in quest'area? L'unica cosa che si può dire al riguardo è che se l'intelligenza artificiale può essere creata, prima o poi verrà creata. Ed è meglio crearlo sotto il controllo pubblico, con uno studio approfondito dei problemi di sicurezza, piuttosto che verrà creato tra 100-150 anni da qualche programmatore-meccanico autodidatta utilizzando i risultati della tecnologia contemporanea. In effetti, oggi, ad esempio, qualsiasi ingegnere competente, con determinate risorse finanziarie e materiali, può fabbricare una bomba atomica.

Bibliografia

  1. Turing, A. Una macchina può pensare? (Con l'appendice dell'articolo di J. von Neumann "Teoria generale e logica degli automi" / A. Turing; traduzione e note di Yu.V. Danilov. - M.: GIFML, 1960.
  2. Azimov, A. Ya, robot. Tutto su robot e robotica. Serie "The Golden Fund of World Fiction" / A. Azimov. – M.: Eksmo, 2005.
  3. Shalyutin, I.S. Intelligenza artificiale: aspetto epistemologico / I.S. Shalyutin. – M.: Pensiero, 1985.

Piano

introduzione

1. Il problema della definizione dell'intelligenza artificiale

2. Il problema della definizione dei compiti dell'intelligenza artificiale

3. Problema di sicurezza

4. Il problema di scegliere un percorso per creare intelligenza artificiale

Conclusione

Elenco della letteratura usata


introduzione

Con l'Intelligenza Artificiale (AI), si è sviluppata una strana situazione: si sta studiando qualcosa che non è ancora stato studiato. E se ciò non accadrà entro i prossimi 100 anni, allora potrebbe benissimo essere che l'era dell'IA finirà qui.

Sulla base di quanto precede, segue il principale problema filosofico nel campo dell'IA: la possibilità o meno di modellare il pensiero umano. Se mai si riceve una risposta negativa a questa domanda, allora tutte le altre domande non avranno il minimo significato.

Pertanto, quando si inizia lo studio dell'IA, presupponiamo una risposta positiva. Ecco alcune considerazioni che ci portano a questa risposta.

1. La prima prova è scolastica, e prova la coerenza di AI e Bibbia. Anche le persone lontane dalla religione conoscono le parole della Sacra Scrittura: "E il Signore creò l'uomo a sua immagine e somiglianza ...". Sulla base di queste parole, possiamo concludere che poiché il Signore, in primo luogo, ci ha creati e, in secondo luogo, siamo essenzialmente come lui, allora possiamo benissimo creare qualcuno a immagine e somiglianza dell'uomo.

2. La creazione di una nuova mente in modo biologico è una cosa abbastanza comune per una persona. I bambini acquisiscono la maggior parte delle conoscenze attraverso l'apprendimento e non come incorporati in loro in anticipo.

3. La possibilità fondamentale di automatizzare la soluzione di problemi intellettuali con l'aiuto di un computer è fornita dalla proprietà dell'universalità algoritmica. Ciò significa che possono essere utilizzati per implementare in modo programmatico qualsiasi algoritmo di trasformazione delle informazioni, siano essi algoritmi computazionali, algoritmi di controllo, ricerca di prove di teoremi o composizione di melodie.

Il problema dell'intelligenza artificiale è oggi uno dei più attuali. Vi sono impegnati scienziati di varie specializzazioni: cibernetici, linguisti, psicologi, filosofi, matematici, ingegneri. Le domande sono considerate: cos'è l'intelligenza in generale e cosa può essere l'intelligenza artificiale, i suoi compiti, la complessità della creazione e le paure. E in questo momento, mentre l'intelligenza artificiale non è ancora stata creata, è importante porre le domande giuste e rispondere.

Nel mio lavoro ho utilizzato principalmente fonti elettroniche situate su Internet, perché non appena ci sono nuove informazioni sugli sviluppi nel campo dell'intelligenza artificiale in russo.

In appendice ho inserito delle fotografie (di alcuni dei più noti robot IA oggi esistenti) e un'illustrazione filosofica (purtroppo di un artista a me sconosciuto), oltre a una descrizione completa dei test di Turing e Searle che ho fare riferimento al capitolo 2.


1. Il problema della definizione dell'intelligenza artificiale

Esprimere l'essenza dell'intelligenza in una qualsiasi definizione sembra essere un compito estremamente difficile, quasi senza speranza. L'intelletto è qualcosa di sfuggente, che non si adatta alla cornice semantica stabilita dalla lingua. Pertanto, ci limiteremo semplicemente a fornire una serie di definizioni e affermazioni ben note sull'intelligenza, che ci permetteranno di immaginare il "volume" di questo insolito concetto.

Alcuni specialisti scambiano per intelligenza la capacità di una scelta razionale e motivata, a fronte di una mancanza di informazioni; la capacità di risolvere problemi basati su informazioni simboliche; capacità di apprendimento e di autoapprendimento.

Definizioni di intelligenza sufficientemente capienti e interessanti sono fornite nel Webster's English Dictionary e nella Great Soviet Encyclopedia. Nel Webster's Dictionary: “l'intelligenza è: a) la capacità di rispondere con successo a qualsiasi situazione, specialmente nuova, attraverso opportuni adattamenti nel comportamento; b) la capacità di comprendere le connessioni tra i fatti della realtà al fine di sviluppare azioni che portino al raggiungimento dell'obiettivo. In TSB: "intelligenza ... in senso lato - tutta l'attività cognitiva di una persona, in senso stretto - processi di pensiero che sono indissolubilmente legati al linguaggio come mezzo di comunicazione, scambio di pensieri e comprensione reciproca delle persone". Qui l'intelletto è direttamente connesso con l'attività e il linguaggio della comunicazione.

In generale, non c'è grande disaccordo su questo tema. Qualcos'altro è più interessante: i criteri con cui è possibile determinare in modo inequivocabile un soggetto ragionevole, pensante, intellettuale di fronte a noi o meno.

È noto che un tempo A. Turing proponeva come criterio per determinare se una macchina può pensare "il gioco dell'imitazione". Secondo questo criterio, una macchina può essere riconosciuta come pensante se una persona, dialogando con essa su una gamma sufficientemente ampia di questioni, non riesce a distinguere le sue risposte dalle risposte di una persona. ( Una descrizione più completa del test in Appendice)

Tuttavia, l'esperimento mentale "Chinese Room" di John Searle ( Descrizione dell'esperimento in Appendice) è un'argomentazione secondo cui il superamento del test di Turing non è un criterio affinché una macchina abbia un vero processo di pensiero. Si può continuare a fornire esempi di criteri in base ai quali il "cervello macchina" può essere considerato capace di attività mentale e trovarne immediatamente la confutazione.

Non esiste una risposta univoca alla domanda su cosa sia l'intelligenza artificiale. Quasi ogni autore che scrive un libro sull'intelligenza artificiale parte da una definizione in esso contenuta, considerando i risultati di questa scienza alla sua luce. Queste definizioni possono essere riassunte come segue:

L'intelligenza artificiale è una personalità su un vettore inorganico (Chekina M.D.).

L'intelligenza artificiale è il campo dello studio del comportamento intelligente (negli esseri umani, degli animali e delle macchine) e del tentativo di trovare modi per simulare tale comportamento in qualsiasi tipo di meccanismo creato artificialmente (Bly Whitby).

L'intelligenza artificiale è una filosofia sperimentale (V. Sergeev).

Il termine stesso "intelligenza artificiale" - AI - AI - intelligenza artificiale fu proposto nel 1956 in un seminario omonimo al Dartsmouth College (USA). Il seminario è stato dedicato allo sviluppo di metodi per risolvere problemi logici piuttosto che computazionali. In inglese, questa frase non ha quella colorazione antropomorfica leggermente fantastica che ha acquisito in una traduzione russa piuttosto infruttuosa. La parola intelligenza significa "la capacità di ragionare ragionevolmente", e non "intelligenza", per la quale esiste un equivalente inglese: intelletto (T.A. Gavrilova).

Ci sono anche termini di intelligenza artificiale "forte" e "debole".

Il termine "forte intelligenza artificiale" è stato introdotto da John Searle, un tale programma non sarebbe solo un modello della mente; sarà letteralmente la mente stessa, nello stesso senso in cui la mente umana è mente.

L '"intelligenza artificiale debole" è considerata solo come uno strumento che consente di risolvere determinati problemi che non richiedono l'intera gamma delle capacità cognitive umane.

2. Il problema della definizione dei compiti dell'intelligenza artificiale

La prossima domanda filosofica sull'IA è lo scopo della creazione. In linea di principio, tutto ciò che facciamo nella vita pratica è solitamente finalizzato a non fare nient'altro. Tuttavia, con uno standard di vita umano sufficientemente elevato, non è più la pigrizia a giocare il primo ruolo, ma gli istinti di ricerca. Supponiamo che un uomo sia riuscito a creare un intelletto più grande del suo. Cosa accadrà ora all'umanità? Che ruolo avrà la persona? Perché è necessario adesso? E in generale, è necessario in linea di principio creare l'IA?

Apparentemente, la risposta più accettabile a queste domande è il concetto di "amplificatore di intelligenza" (IA). Qui è appropriata un'analogia con il presidente dello stato: non è tenuto a conoscere la valenza del vanadio o del linguaggio di programmazione Java per prendere una decisione sullo sviluppo dell'industria del vanadio. Ognuno fa le sue cose: un chimico descrive un processo tecnologico, un programmatore scrive un programma; alla fine, l'economista dice al presidente che investendo nello spionaggio industriale il Paese riceverà il 20% e nell'industria del vanadio il 30% annuo. Con una tale formulazione della domanda, chiunque può fare la scelta giusta.

In questo esempio, il presidente usa un'intelligenza artificiale biologica, un gruppo di specialisti con i loro cervelli proteici. Ma i messaggi istantanei non viventi sono già in uso - ad esempio, non potremmo prevedere il tempo senza computer, durante i voli di veicoli spaziali, i computer di bordo sono stati utilizzati fin dall'inizio. Inoltre, una persona utilizza da tempo gli amplificatori di potenza (SS), un concetto per molti aspetti simile all'interfaccia utente. Automobili, gru, motori elettrici, presse, pistole, aeroplani e molto altro ancora fungono da amplificatori di potenza.

La principale differenza tra UI e CS è la presenza della volontà. Dopotutto, non possiamo immaginare che all'improvviso il serial "Zaporozhets" si sia ribellato e abbia iniziato a guidare come vuole. Non possiamo immaginare proprio perché non vuole niente, non ha desideri. Allo stesso tempo, un sistema intellettuale potrebbe benissimo avere i propri desideri e agire non come vorremmo. Pertanto, affrontiamo un altro problema: il problema della sicurezza.

3. Problema di sicurezza

I problemi filosofici della creazione dell'intelligenza artificiale possono essere divisi in due gruppi, relativamente parlando, "prima e dopo lo sviluppo dell'IA". Il primo gruppo risponde alla domanda: "Cos'è l'IA, è possibile crearla?" Ho provato a rispondere loro nel mio lavoro. E il secondo gruppo (l'etica dell'intelligenza artificiale) pone la domanda: "Quali sono le conseguenze della creazione dell'IA per l'umanità?" Il che ci porta alla questione della sicurezza.

Questo problema ha perseguitato le menti dell'umanità sin dai tempi di Karel Capek, che per primo ha usato il termine "robot". Anche altri scrittori di fantascienza hanno contribuito notevolmente alla discussione di questo problema. Come il più famoso, possiamo citare una serie di storie dello scrittore e scienziato di fantascienza Isaac Asimov, oltre a un'opera abbastanza recente: The Terminator. A proposito, è in Isaac Asimov che possiamo trovare la soluzione più sviluppata e accettata dalla maggior parte delle persone al problema della sicurezza. Stiamo parlando delle cosiddette tre leggi della robotica.

1. Un robot non può danneggiare una persona o, con la sua inerzia, permettere che una persona subisca danni.

2. Un robot deve obbedire ai comandi impartitigli da un essere umano, tranne nei casi in cui tali comandi siano contrari alla prima legge.

3. Il robot deve prendersi cura della propria sicurezza, nella misura in cui non contraddice la prima e la seconda legge.

A prima vista, tali leggi, se pienamente rispettate, dovrebbero garantire la sicurezza dell'umanità. Tuttavia, uno sguardo più attento solleva alcune domande.

Mi chiedo cosa significherà il sistema di intelligenza artificiale con il termine "danno" dopo tanto pensiero logico? Non deciderà che tutta l'esistenza umana è un puro danno? Dopotutto, fuma, beve, invecchia e perde salute negli anni, soffre. Il male minore non porrebbe rapidamente fine a questa catena di sofferenze? Certo, puoi introdurre alcune aggiunte legate al valore della vita, alla libertà di espressione. Ma queste non saranno più le semplici tre leggi che erano nel codice sorgente.

La prossima domanda sarà questa. Cosa deciderà il sistema di intelligenza artificiale in una situazione in cui salvare una vita è possibile solo a scapito di un'altra? Particolarmente interessanti sono quei casi in cui il sistema non dispone di informazioni complete su chi è chi ...

Quindi è lecito affermare che i timori di molte persone, compresi gli scienziati, non sono infondati. E dovresti assolutamente iniziare a pensare a questi problemi in questo momento, prima di poter creare una vera e propria "intelligenza artificiale" per proteggere l'umanità da possibili danni o addirittura dallo sterminio, come una varietà biologica concorrente, nella migliore delle ipotesi, o semplicemente non necessaria.


4. Il problema di scegliere un percorso per creare intelligenza artificiale

Prova di Turing

Dal 1991 si tengono tornei per programmi che cercano di superare il test di Turing. Su Internet puoi trovare e visualizzare la cronologia dei tornei, conoscere le regole, i premi e i vincitori. Finora, questi programmi (bot) sono estremamente poco intelligenti. Tutto ciò che fanno è applicare le regole suggerite dall'uomo. I robot non cercano nemmeno di comprendere la conversazione, per lo più tentano di "ingannare" una persona. I creatori hanno messo in loro le risposte alle domande più frequenti, cercando di aggirare le trappole comuni. Ad esempio, stanno osservando attentamente e il giudice farà la stessa domanda due volte? Una persona in questa situazione direbbe qualcosa del tipo: "Ehi, l'hai già chiesto!" Ciò significa che lo sviluppatore aggiungerà una regola al bot per fare lo stesso. In questa direzione, sembra molto improbabile che appaia la prima IA.

Giocatori di scacchi al computer

Molte persone hanno sentito parlare di questi programmi. Il primo campionato mondiale di scacchi tra programmi per computer si tenne nel 1974. Il vincitore è stato il programma di scacchi sovietico Kaissa. Non molto tempo fa, il computer ha battuto anche Garry Kasparov. Cos'è questo: un indubbio successo?

Molto è stato scritto su come giocano i giocatori di scacchi al computer. Te lo dico molto brevemente. Stanno solo esaminando molte opzioni. Se muovo questo pedone qui, e l'avversario muove qui il suo Alfiere, e io arrocco, e lui muove questo pedone... No, una tale posizione è sfavorevole. Non arroccarò, ma invece vedrò cosa succede se sposto questo pedone qui e il computer sposta l'alfiere qui, e invece di arroccare, sposto di nuovo il pedone e lui...

Il computer non inventa nulla da solo. Tutte le possibili opzioni sono state suggerite dai veri proprietari dell'intelletto: programmatori di talento e consulenti di scacchi... Questo non è meno lontano dalla creazione di un intelletto elettronico a tutti gli effetti.

Robot da calcio

È molto di moda. Questo viene fatto da molti laboratori e interi dipartimenti delle università di tutto il mondo. Dozzine di campionati si svolgono in diverse varietà di questo gioco. Secondo gli organizzatori del torneo RoboCup, "La comunità internazionale di specialisti in intelligenza artificiale ha riconosciuto il compito di controllare i robot da calcio come uno dei più importanti".

Potrebbe benissimo essere che, come sognano gli organizzatori di RoboCup, nel 2050 una squadra di robot batterà davvero una squadra di persone nel calcio. È improbabile che solo la loro intelligenza abbia qualcosa a che fare con questo.

Tornei di programmatori

Di recente, Microsoft ha tenuto un torneo chiamato "Terrarium". Ai programmatori è stato chiesto di creare la vita artificiale, né più né meno. Questa è probabilmente la più famosa di queste competizioni, ma in generale ce ne sono molte: organizzatori entusiasti con invidiabile regolarità si offrono di creare programmi che riproducono una guerra di robot o una colonizzazione di Giove. Esistono persino gare per la sopravvivenza tra virus informatici.

Cosa impedisce almeno a questi progetti di servire alla creazione di una vera IA, che in futuro sarà in grado di combattere e colonizzare Giove? Una semplice parola: spensieratezza. Anche le potenti menti di Microsoft non sono riuscite a trovare regole in cui un comportamento complesso è vantaggioso. Cosa possiamo dire del resto. Qualunque sia il torneo, la stessa tattica vince tutto: "più semplice è, meglio è"! Chi ha vinto il Terrarium? I nostri compatrioti. E cosa hanno fatto? Ecco un elenco completo di quelle regole in base alle quali viveva l'erbivoro virtuale più vitale del torneo;

1. Se vedi un predatore, scappa da lui. Se vedi un animale della tua specie correre veloce in una direzione, corri nella stessa direzione.

2. Se ci sono solo estranei in giro, mangia velocemente tutta l'erba in modo che gli altri ne ricevano meno.

3. Se non vedi estranei, mangialo esattamente quanto ti serve. Infine, se non vedi né erba né predatori, vai dove guardano i tuoi occhi.

Intellettualmente? No, ma è efficace.

Applicazioni commerciali

Nelle aree commercialmente significative non sono necessari tornei, arbitri o regole di selezione. L'alta scienza semplicemente non era necessaria né nel riconoscimento del testo né nella creazione di giochi per computer.

Ciò che serve è un team armonioso di persone con le idee chiare e una buona istruzione, e l'applicazione competente di un gran numero di algoritmi che sono abbastanza semplici nella loro essenza.

Non sarà possibile ottenere alcuna conoscenza sacra in queste aree, non verranno fatte grandi scoperte e nessuno si sta impegnando per questo. Le persone guadagnano solo soldi per se stesse, migliorando allo stesso tempo le nostre vite.

Conclusione

La scienza della "creazione dell'intelligenza artificiale" non poteva non attirare l'attenzione dei filosofi. Con l'avvento dei primi sistemi intelligenti, si sono poste domande fondamentali sull'uomo e sulla conoscenza, e in parte sull'ordine mondiale.

Sfortunatamente, il formato del test non consente una divulgazione e una considerazione più ampia di un argomento così interessante e urgente come l'intelligenza artificiale, ma spero di essere stato in grado di identificare la gamma dei problemi principali e delineare i modi per risolverli.

“L'emergere di macchine che ci superano in intelligenza è un risultato naturale dello sviluppo della nostra civiltà tecnocratica. Non si sa dove ci porterebbe l'evoluzione se le persone seguissero il percorso biologico: iniziassero a migliorare la struttura di una persona, le sue qualità e proprietà. Se tutti i soldi spesi per lo sviluppo delle armi andassero in medicina, avremmo sconfitto tutte le malattie molto tempo fa, respinto la vecchiaia e forse avremmo raggiunto l'immortalità ...

La scienza non può essere bandita. Se l'umanità si distrugge, significa che l'evoluzione ha imboccato un vicolo cieco per questa umanità e non ha il diritto di esistere. Forse il nostro caso è un vicolo cieco. Ma non siamo i primi e nemmeno gli ultimi qui. Non si sa quante civiltà ci siano state prima di noi e dove siano andate.

Capo del dipartimento dell'Università radiotecnica statale di Taganrog, presidente del consiglio dell'Associazione russa dei sistemi fuzzy, accademico dell'Accademia russa di scienze naturali, professore, dottore in scienze tecniche Leonid Bershtein.

Elenco della letteratura usata

1. Grande enciclopedia sovietica

2. TA Gavrilova, dottore in scienze tecniche, professore del dipartimento di tecnologie informatiche intelligenti, Università tecnica statale di San Pietroburgo, capo del laboratorio di sistemi intelligenti presso l'Istituto di calcolo e database ad alte prestazioni. Articolo. www.big.spb.ru

4. Chekina M.D. "Problemi filosofici dell'intelligenza artificiale". Resoconto del Cinquantaquattresimo Convegno Scientifico Studentesco del TTIUFU. 2007, su filosof.historic.ru

5. Bly Whitby "Artificial Intelligence: Is the Matrix Real", FAIR-PRESS, 2004


Superiore