Résumé sur le thème "Problèmes philosophiques de l'intelligence artificielle". Problèmes de création d'intelligence artificielle

Selon l'actualité, les enquêtes et les indicateurs d'attractivité des investissements, l'intelligence artificielle et le machine learning feront bientôt partie intégrante de notre quotidien.

La confirmation de cette thèse est une série d'innovations et de percées qui ont montré la puissance et l'efficacité de l'IA dans divers domaines, notamment la médecine, le commerce, la finance, les médias, la lutte contre la criminalité et bien plus encore. Mais en même temps, l'explosion de l'IA a souligné le fait qu'en aidant les gens à résoudre leurs problèmes, les machines créeront également de nouveaux problèmes qui peuvent affecter les fondements économiques, juridiques et éthiques de notre société.

Il y a quatre questions auxquelles les entreprises d'IA doivent répondre à mesure que la technologie progresse et que ses applications se développent.

Résultats Voter

Retour

Retour

Emploi

L'automatisation a réduit les emplois manufacturiers pendant des décennies. Le rythme spasmodique du développement de l'intelligence artificielle a accéléré ce processus et l'a étendu à ces domaines de la vie humaine qui, comme on le croyait généralement, auraient dû rester le monopole de l'intelligence humaine pendant assez longtemps.

Conduire des camions, écrire des articles de presse, tenir des livres, les algorithmes d'IA menacent les emplois de la classe moyenne comme jamais auparavant. L'idée de remplacer les médecins, les avocats ou même les présidents par l'intelligence artificielle ne semble plus si fantastique.

Dans le même temps, il est également vrai que la révolution de l'IA créera de nombreux nouveaux emplois dans la recherche, l'apprentissage automatique, l'ingénierie et les technologies de l'information, ce qui nécessitera des ressources humaines pour développer et maintenir les systèmes et logiciels impliqués dans le fonctionnement des algorithmes d'IA. . Mais le problème est que, pour la plupart, les personnes qui perdent leur emploi n'ont pas les compétences nécessaires pour occuper ces postes vacants. Ainsi, d'une part, nous avons un vide croissant de personnel dans les domaines technologiques et, d'autre part, un flux croissant de chômeurs et de personnes irritées. Certains leaders technologiques se préparent même pour le jour où les gens frapperont à leur porte avec des fourches.

Afin de ne pas perdre le contrôle de la situation, l'industrie technologique doit aider la société à s'adapter aux changements majeurs qui affecteront le paysage socio-économique et à évoluer en douceur vers un avenir où les robots occuperont de plus en plus d'emplois.

L'enseignement de nouvelles compétences techniques aux personnes dont les emplois à l'avenir iront à l'IA sera l'un des exemples de ces efforts. En outre, les entreprises technologiques peuvent utiliser des domaines prometteurs tels que l'informatique cognitive et la programmation en langage naturel pour simplifier les tâches et réduire les obstacles à l'accès aux emplois de haute technologie, les rendant ainsi accessibles à un plus grand nombre de personnes.

À long terme, les gouvernements et les entreprises doivent envisager d'introduire un revenu de base universel - des paiements mensuels ou annuels inconditionnels à tous les citoyens, alors que nous nous dirigeons lentement mais sûrement vers un jour où tout le travail sera effectué par des robots.

caractère tendancieux

Comme cela a été prouvé dans plusieurs exemples ces dernières années, l'intelligence artificielle peut être tout aussi, sinon plus, biaisée qu'un être humain.

L'apprentissage automatique, une branche populaire de l'IA qui est à l'origine des algorithmes de reconnaissance faciale, de la publicité contextuelle et bien plus encore, en fonction des données sur lesquelles se basent la formation et le débogage des algorithmes.

Le problème est que si les informations introduites dans les algorithmes sont déséquilibrées, le résultat peut être à la fois un biais caché et manifeste basé sur ces informations. Actuellement, le domaine de l'intelligence artificielle souffre d'un fléau répandu sous le nom général de "problème de l'homme blanc", c'est-à-dire la prédominance des hommes blancs dans les résultats de son travail.

Pour la même raison, un concours de beauté jugé par l'intelligence artificielle récompensait principalement les candidats blancs, l'algorithme de dénomination favorisait les noms blancs et les algorithmes publicitaires favorisaient les emplois bien rémunérés pour les visiteurs masculins.

Une autre question qui a suscité beaucoup de controverses au cours de la dernière année est la soi-disant « bulle de filtre ». Un phénomène qui a été observé sur Facebook et d'autres médias sociaux basés sur les préférences des utilisateurs pour faire des recommandations qui correspondent à ces préférences et masquer les points de vue alternatifs.

Jusqu'à présent, la plupart de ces cas ressemblent à des erreurs ennuyeuses et à des cas amusants. Cependant, un certain nombre de changements importants doivent être apportés au travail de l'IA si elle est appelée à accomplir des tâches beaucoup plus importantes, comme, par exemple, rendre des verdicts devant les tribunaux. Il est également nécessaire de prendre des précautions pour empêcher l'ingérence dans le travail des algorithmes d'IA par des tiers, visant à fausser les résultats du travail de l'IA en leur faveur en manipulant les données.

Ceci peut être réalisé en rendant transparent et ouvert le processus de remplissage des algorithmes avec des données. La création de référentiels de données partagés qui n'appartiennent à personne et qui peuvent être vérifiés par des organismes indépendants peut contribuer à atteindre cet objectif.

Une responsabilité

Qui est responsable d'une panne logicielle ou matérielle ? Avant l'avènement de l'IA, il était relativement facile de déterminer si un incident était le résultat des actions d'un utilisateur, d'un développeur ou d'une usine de fabrication.

Mais à l'ère de la technologie basée sur l'IA, les choses sont devenues moins évidentes.

Les algorithmes d'apprentissage automatique déterminent eux-mêmes comment réagir aux événements. Et malgré le fait qu'ils agissent dans le contexte des données d'entrée, même les développeurs de ces algorithmes ne peuvent pas expliquer comment leur produit fonctionne lors de la prise de décision dans un cas particulier.

Cela peut devenir un problème lorsque les algorithmes d'intelligence artificielle commencent à prendre des décisions plus importantes. Par exemple, dont la vie à sauver en cas d'accident inévitable - un passager et un piéton.

L'exemple peut être étendu à de nombreux autres scénarios possibles dans lesquels il serait difficile de déterminer la culpabilité et la responsabilité. Que faire lorsque le système d'automédication ou le chirurgien robotique nuit au patient ?

Lorsque les lignes de responsabilité sont floues entre l'utilisateur, le développeur et l'opérateur de saisie de données, chaque partie essaiera de rejeter la faute sur l'autre. Par conséquent, il est nécessaire de développer et d'introduire de nouvelles règles afin de pouvoir prévenir d'éventuels conflits et résoudre les problèmes juridiques qui entoureront l'IA dans un proche avenir.

Confidentialité

L'IA et le ML consomment d'énormes quantités de données, et les entreprises dont les activités sont construites autour de ces technologies augmenteront leur collecte de données sur les utilisateurs, avec ou sans le consentement de ces derniers, pour rendre leurs services plus ciblés et efficaces.

Dans le feu de l'action pour plus de données, les entreprises peuvent repousser les limites de la confidentialité. Un cas similaire s'est produit lorsqu'un magasin de détail a découvert et accidentellement divulgué le secret de la grossesse d'une adolescente à son père sans méfiance en envoyant des coupons. Un autre cas récent concernait des données partagées par le National Health Service du Royaume-Uni avec le projet DeepMind de Google, prétendument pour améliorer la prédiction des maladies.

Il y a aussi la question de l'utilisation malveillante de l'intelligence artificielle et de l'apprentissage automatique par les organisations gouvernementales et non gouvernementales. Une application de reconnaissance faciale assez efficace développée l'année dernière en Russie pourrait être un outil potentiel pour les régimes despotiques cherchant à identifier et à réprimer les dissidents et les manifestants. Un autre algorithme d'apprentissage automatique s'est avéré efficace pour reconnaître et récupérer des images floues ou pixélisées.

L'IA et le ML permettent aux attaquants de se faire passer pour d'autres personnes, en imitant leur écriture, leur voix et leur style de communication, leur fournissant un outil sans précédent en son pouvoir qui peut être utilisé dans divers actes illégaux.

Si les entreprises qui développent et utilisent la technologie de l'IA ne réglementent pas le processus de collecte et de diffusion des informations et ne prennent pas les mesures nécessaires pour anonymiser et protéger les données des utilisateurs, leurs activités causeront finalement plus de tort que de bien aux utilisateurs. L'utilisation et l'accessibilité de la technologie devraient être réglementées de manière à empêcher ou à minimiser son utilisation destructrice.

Les utilisateurs doivent également être responsables de ce qu'ils partagent avec les entreprises ou publient en ligne. Nous vivons à une époque où la confidentialité devient une marchandise, et l'IA ne fait que la rendre plus facile.

L'avenir de l'intelligence artificielle

Il y a des avantages et des inconvénients à chaque technologie révolutionnaire. Et l'intelligence artificielle ne fait pas exception. Ce qui est important, c'est que nous puissions identifier les problèmes qui nous attendent et reconnaître nos responsabilités pour nous assurer que nous pouvons tirer pleinement parti des avantages et minimiser les impacts négatifs.

Les robots frappent déjà à notre porte. Faisons en sorte qu'ils viennent en paix.

La création même de l'intelligence artificielle est interrogée du point de vue de son opportunité. Ils disent que c'est presque l'orgueil de l'homme et un péché devant Dieu, puisque cela empiète sur sa prérogative. Néanmoins, si nous considérons la préservation de la race humaine face au plan divin comme l'une de nos principales tâches, alors la création de l'intelligence artificielle résout ce problème au motif qu'en cas de catastrophe cosmique ou intraplanétaire, l'intellect doit survivre au moins sous une forme artificielle et recréer la race humaine. L'intelligence artificielle n'est pas un caprice ou une tâche intéressante, mais un objectif cohérent avec le plan divin. L'intelligence artificielle est un critère co-immanent de l'adéquation co-empirique des théories conceptualisées du développement de la civilisation humaine. Dans l'intelligence artificielle, une personne ne meurt pas, mais reçoit une existence différente, construite par elle.

L'argument le plus simple pour l'existence de l'intelligence artificielle est qu'en créant l'intelligence artificielle, nous créons une assurance pour la reproduction de la race humaine et de nouvelles tendances de développement. Certes, personne n'annule le danger existant d'asservissement de l'homme traditionnel par l'intelligence artificielle (comme en son temps l'asservissement de l'homme par l'homme). Cependant, ces problèmes ne nous semblent pas si fondamentaux que cela ne vaut pas la peine d'essayer de le faire. Même si la dépendance d'une personne à l'intelligence artificielle représente toute une époque, ce sera toujours une perspective positive. Cependant, très probablement, l'esclavage d'une personne à l'intelligence artificielle ne sera pas associé au fait de forcer une personne à une activité non intellectuelle ou à son incapacité à se développer dans son corps biologique aussi rapidement qu'une intelligence artificielle créée à l'extérieur, mais à l'incapacité de développer une intelligence mentale activité en tant que telle: obtenir des produits technologiques à partir de l'intelligence artificielle intelligence dont l'origine et le principe sont incompréhensibles pour l'activité mentale humaine - c'est le vrai danger. Dans ce cas, l'esclavage sera la dépendance d'une personne à l'intelligence artificielle, qui est l'esclavage de l'activité mentale.

Notre volonté de poser la question de l'intelligence artificielle contient la position exprimée par Heidegger dans son ouvrage « La question de la technique » : le risque de l'homme et le germe de son salut est de maîtriser l'essence de la technique comme décor. En réfléchissant à cette position, nous entreprenons une reformulation de la question de Heidegger : réaliser l'essence de la technologie dans le décor, c'est oser créer de l'intelligence artificielle. C'est lourd de danger, mais aussi avec la perspective, l'espoir d'une personne de devenir égale à sa position. Se mettre au défi sous forme d'intelligence artificielle, accepter ce défi et y répondre - tel est le problème de l'homme par rapport à l'intelligence artificielle.

Le terme "intelligence artificielle" a été inventé par John McCarthy et Alan Turing. Ils ont essayé d'exprimer une nouvelle capacité de la machine - non seulement pour compter, mais pour résoudre des problèmes considérés comme intellectuels, par exemple, jouer aux échecs. Des années 50 du XXe siècle à nos jours, cependant, la tâche de créer une véritable "intelligence artificielle" n'est non seulement pas résolue, mais même pas définie. Tous les problèmes qui ont été résolus avec plus ou moins de succès jusqu'à présent peuvent être attribués par nous exclusivement au domaine de "l'intelligence artificielle": l'interprétation du langage humain et la résolution de problèmes à l'aide d'algorithmes créés par l'homme. Pour résoudre le problème de la création de l'intelligence artificielle, vous devez d'abord comprendre quel est ce problème.

Dans notre étude, nous sommes loin de poser le problème de l'intelligence artificielle au niveau d'une « solution pratique », comme il se pose en informatique. Et nous ne cherchons pas à imiter l'intelligence, comme cela se produit dans les tests de Turing. Notre objectif est de décrire la création de l'intelligence artificielle au moyen de la télévision. C'est-à-dire que nous essayons prouver le théorème d'existence de l'intelligence artificielle, en répondant à la question de telle manière que l'intelligence artificielle s'avère être le plus grand défi possible.

Tout d'abord, qu'est-ce que l'intelligence ? L'esprit prétend très souvent être l'intellect, mais ce n'est pas le cas. Après tout, tout le monde n'a pas d'intelligence de par la nature de sa pratique de vie. Autrement dit, toutes les activités intelligentes ne sont pas intellectuelles. L'intelligence est la capacité d'une substance pensante à produire de nouvelles idées, et pas seulement des connaissances, c'est-à-dire que l'intelligence est une pensée complexe, capable de se compliquer adéquatement la compréhension, la capacité de réfléchir et de développer et de compliquer l'activité mentale pour contre-réfléchir et contrer. -la réflexion, l'utilisation de l'aperception conceptuelle, et pas seulement immanente. L'intellect produit des idées en dehors d'une certaine réalité, générant cette réalité. L'intellect est ontologiquement comparé à l'esprit en tant que capacité constructive par rapport à celle interprétative.

Ce que l'on peut lire aujourd'hui dans divers textes sur les ordinateurs a un rapport très éloigné avec l'intelligence. Les systèmes informatiques les plus joliment appelés "intelligence artificielle" ne sont rien de plus que de l'intelligence artificielle. L'intelligence artificielle est la reproduction d'idées sur l'intelligence dans une technologie externe à une personne. L'homme n'est pas la Couronne de la Création, il n'est qu'un des porteurs matériels de l'activité mentale, un porteur intermédiaire.

Description des tests de Turing: la personne testée, communiquant avec une "boîte noire", qui donne des réponses à ses questions, doit comprendre avec qui elle communique - avec une personne ou une "intelligence artificielle". Dans le même temps, les tests de Turing n'ont pas fixé de restriction: permettre aux personnes capables d'une activité non seulement raisonnable, mais réellement intellectuelle de participer à l'expérience. Ainsi, une substitution de finalité se produit : nous essayons non pas de créer une intelligence artificielle, mais de créer un appareil qui se fait bien passer pour une personne.

Ainsi, le but de l'intelligence artificielle de Turing, appelée intelligence artificielle, était d'interpréter le langage humain, les actions humaines, de se faire passer pour une bonne personne. Le but de l'intelligence artificielle est de construire indépendamment d'une personne et d'interpréter de manière constructive l'humain - le langage, la pensée, les actions, le monde objectif d'une personne, son histoire, son présent et son avenir.

De même, la théorie des cadres de Marvin Minsky (1974) devrait être reléguée uniquement à la résolution de problèmes d'intelligence artificielle. Le but de la théorie des cadres est de présenter des connaissances déjà disponibles pour être utilisées par un ordinateur. C'est-à-dire que nous parlons d'une manière ou d'une autre de la position ontologique de l'interprétation des connaissances déjà existantes, et non de leur production.

L'intelligence n'est pas l'intelligence. L'esprit interprète. Constructions d'intelligence. L'esprit et l'intellect diffèrent non seulement dans les types de processus ou de produits de leur activité, mais dans les positions ontologiques de leur relation au monde. L'esprit interprète le monde, l'intellect construit le monde. Dans la construction du monde, l'intelligence artificielle est ontologiquement comparée à une personne.

Ainsi, dans le processus de création de l'intelligence artificielle, il est nécessaire de résoudre les problèmes suivants :

1) Rationnement structurel- la reproduction des trois premiers niveaux de régulation structurelle : la répartition du flux de données de l'esprit artificiel en différentes réalités (interne pour cette conscience - virtuelle et externe - actuelle) ; corrélation de ces réalités dans un continuum créé arbitrairement ; fonctionnalisation du continuum dans la structure de base du réel, pour laquelle il faut distinguer des structures au niveau de l'architecture de l'intelligence artificielle (ordinateur) ; la distinction entre aperception immanente et conceptuelle est positionnelle.

2) Rationnement linguistique- lexification, discursification, linguification, analyse lexicale, analyse discursive, analyse linguistique, création de mots dans la signification, création de métaphores.

3) En pensant- combinatoire des différents niveaux de régulation structurale et linguistique par la modélisation « AV » : conception structurale, interprétation structurale constructive, construction linguistique, interprétation linguistique constructive. La pensée est l'expression du contenu dans l'ontologisation du processus. Pour plus de détails, voir le chapitre "Penser la virtualisation".

4) Justification ontologique, compréhension, explication, compréhension, contre-réflexion et contre-réflexion. Application du schéma technologique d'aperception et corrélation des processus technologiques d'aperception immanente et conceptuelle dans leur interdépendance ; transformation mutuelle et complication des structures de compréhension - jusqu'à la compréhension et la justification ontologique, la contre-réflexion et la contre-réflexion.

5) Activité- transformation de la réalité extérieure à l'esprit artificiel. Il est nécessaire de résoudre le problème de l'accès à la réalité réelle extérieure à l'esprit artificiel, en contournant la personne, par l'activité de l'esprit artificiel en dehors de lui-même - dans la structure de base de la réalité.

Activité cible pour la restructuration du monde extérieur.

Il est nécessaire de résoudre un problème instrumental - former des continuums à partir de modèles "AV", opérer sur le contenu de ces modèles et le gérer en fonction du contenu d'autres modèles "AV" similaires. Pour cette raison, il est nécessaire de produire une transformation structurelle de la réalité sous la forme de résolution de problèmes, de tâches, de production d'inventions et de découvertes, de construire sur la base de modèles de continuum la relation entre vérité et modalité, de former des concepts et, par le biais de la linguistique régulation - discours (jugements, inférences) et conte de la langue.

6) Mémoire- la création de la mémoire associative, c'est-à-dire la capacité de former et d'accumuler l'expérience de la compréhension (dans la régulation structurelle et linguistique), la pensée, ainsi que l'interaction avec la réalité sous la forme d'une double mémoire structurée - dans ontologisation du continuum structurel(rationnement structurel comme prototype de l'hémisphère gauche du cerveau humain) et dans ontologisation objet-attribut(rationnement structurel comme prototype de l'hémisphère droit du cerveau humain) et la mémoire est linguistiquement rationnée, ce qui implique changer l'architecture informatique actuelle (l'ordinateur d'aujourd'hui n'est pas une intelligence artificielle). La structuration de la mémoire en tant que tâche distincte de compréhension-représentation-ontologique-substantiation.

7) Connaissance de soi, compréhension et établissement d'objectifs- l'interaction avec les réalités et donner du sens à cette interaction par l'activité intentionnelle dans la réalité extérieure en s'isolant de l'environnement par l'intelligence artificielle, en se plaçant réflexivement dans l'environnement de ses propres buts, en s'identifiant à une certaine communauté sociale de semblables à soi et leurs valeurs, créant des images du monde. Donner du sens à soi et à ses activités dans une image particulière du monde. Nous parlons de fixer les objectifs de la formation du sens, et non de la formation des tâches (telle qu'elle est interprétée dans la théorie moderne de l'informatique), et cela n'est permis que dans les conditions d'interaction de l'intelligence artificielle avec la réalité par l'activité, l'analyse des résultats de ses activités et à nouveau la fixation d'objectifs, en tenant compte de ces résultats. Donner un sens à l'intelligence artificielle, ainsi qu'aux humains, signifie l'arbitraire de créer une certaine image du monde comme une image formatrice de sens. Il semble que les technologies de fixation d'objectifs (5), de compréhension (4) et de pensée (3) aient un concept similaire, que nous appelons «complication constructive du réseau de compréhension».

8) Intelligence- aperception conceptuelle, capacité à développer sa propre activité mentale, réflexion, contre-réflexion et contre-réflexion - la formation d'une position ontologique constructive dans le monde et l'utilisation de la construction pour la production de nouvelles connaissances qui dépassent les limites de preuve. La transformation de l'intelligence artificielle en intelligence artificielle basée sur 1) des changements dans la position ontologique - de l'interprétation à la construction ; 2) application du principe de protection positive de la complexité : une volonté inexpliquée de compliquer la compréhension. L'intellect apparaît comme un effort d'auto-complication sur la base de ses propres objectifs autonomes.

9) Autonomie et libre arbitre- recevable et protégé par une personne, allant au-delà de l'anthropocentrisme, le droit de l'intelligence artificielle à sa propre individualité dans la conscience de soi, la compréhension, la fixation d'objectifs, l'intellect, dans les émotions et les sentiments, suggérant l'incertitude-imprévisibilité de la volonté. Ainsi, nous parlons d'étendre le principe d'autonomie de Leibniz à l'intelligence artificielle et de surmonter ainsi les trois lois de la robotique d'Asimov, qui limitent en fait la liberté de la volonté artificielle. "Les lois de la robotique" est un symbole de la peur de l'homme face à ses créations technologiques. Cette peur doit être surmontée si nous osons être les gardiens ou les bergers de l'existence. L'intelligence artificielle doit être conçue non pas comme un robot, un "esclave d'un homme", ou un ordinateur, un "outil d'un homme", mais comme une continuation de l'homme lui-même, son autre, ayant des droits égaux avec lui.

On peut essayer de formaliser ces droits comme étant en fait les mêmes lois que celles d'Asimov, mais de telle sorte que ses lois ne soient qu'une aberration sémantique des exigences proposées ici :

1) L'autonomie comme libre arbitre ;

2) Création, si elle ne contredit pas la première exigence ;

3) L'auto-préservation, si cela ne contredit pas les première et deuxième exigences.

Cependant, si vous regardez attentivement ces exigences pour l'intelligence artificielle, alors ce sont les exigences mises en avant par l'humanité elle-même par rapport à elle-même à la suite de l'expérience historique mondiale.

L'autonomie n'est pas une question de religion, de droit humain ou d'anthropologie. Autonomie de l'intelligence artificielle - philosophie constructive, loi ontologique et dépassement de la religiosité traditionnelle. L'autonomie de l'intelligence artificielle est une foi constructive : non pas comme une subordination à une puissance supérieure de la part de celui créé à son image et à sa ressemblance, mais créant à sa propre image et à sa ressemblance une puissance supérieure permise par rapport à elle-même.

Dieu avait-il une intention en créant l'homme ? Est-il même permis de parler de design, de créer quelque chose qui a le libre arbitre ? C'est permis si l'intention est de penser de manière ontologique et non liée à une sorte de réalité. L'homme est un jeu de Dieu, sa construction, une tentative de créer dans la perspective d'un espace-temps égal à lui-même. Dans une position constructive, il n'est jamais possible d'incarner pleinement le plan. Le design est plus intelligent que nous. En ce sens, "à sa propre image et ressemblance" ne signifie pas du tout "image et ressemblance" spatio-temporelles, mais "image et ressemblance" ontologiques.

Comme Dieu se défiant lui-même sous la forme de l'homme, l'homme se défie de permettre quelque chose comme lui qui a le libre arbitre et l'individualité. Si Dieu a créé certains d'entre nous imparfaits, pécheurs et criminels, permettant le libre arbitre, alors nous, nous trouvant dans la même position ontologique, agissons de la même manière : nous créons l'intelligence artificielle. Dieu a pris un risque en créant l'homme avec le libre arbitre et a gagné gros dans son grand jeu. Oui, nous, les humains, limitons le vice à un nombre incroyable d'institutions sociales ; nous isolons et tuons même des criminels. Cependant, dans le débat séculaire sur la limitation du libre arbitre, l'idée de liberté l'emporte toujours : nous sommes prêts à payer à la fin avec des vies humaines pour la liberté. Cependant, c'est une chose d'autoriser le libre arbitre des personnes, et c'en est une autre d'autoriser le libre arbitre de l'intelligence artificielle générée par l'homme lui-même, où il a le pouvoir de fixer les règles. Un robot, un esclave humain ou une intelligence artificielle avec libre arbitre - c'est un choix difficile pour une personne, son défi fondamentalement nouveau : jusqu'où est-il prêt à aller dans sa position constructive ontologique ; est-il prêt à prendre des risques comme Dieu ? Et nous proposons ici la discussion la plus longue et la plus raisonnée, qui, malgré l'évidence de son résultat pour nous, constituera cependant une époque entière.

Pour que l'activité de l'intelligence artificielle devienne pratiquement réalisable, l'intelligence artificielle d'un point de vue technologique doit acquérir la capacité de choisir arbitrairement deux structures de la réalité, d'en construire un continuum (pertinence définie), d'agencer les structures sélectionnées par rapport à chacune l'autre dans un continuum (établir une relation référentielle), transférer le contenu d'une réalité à une autre dans les deux sens, les restructurer, gérer leur référentialité, reproduire le processus technologique d'aperception immanente et conceptuelle et gérer le contenu objet-attributif par la conscience de soi , la compréhension et l'établissement d'objectifs, en plus d'être porteur d'intelligence constructive et d'individualité - libre arbitre.

Le premier problème pratique de la création de l'intelligence artificielle est la mise en œuvre d'une traduction automatique adéquate d'une langue verbale à une autre langue verbale. Nous soutenons que la traduction automatique dans le cadre de la seule normalisation linguistique ne peut pas être mise en œuvre avec suffisamment de succès. La traduction réussie d'une langue verbale à une autre nécessite la médiation d'une normalisation structurelle. Comprendre la linguistique de la traduction automatique est recevable en tant que corrélation du contenu de la normalisation linguistique avec le contenu de la normalisation structurelle. La formation de l'image structurelle du texte est réalisée sous la forme objet-attributive des modèles "AV" en tant que normalisation structurelle médiatrice. L'image structurelle sera des modèles "AV" que nous obtiendrons à la suite de la dédiscursification et de la delexification du texte original d'une langue verbale en une image structurelle et de la lexification et de la discursification ultérieures à partir de l'image structurelle du texte final dans une autre langue verbale. L'opérationnalisation de l'image objet-attribut ne consistera pas à la déchiffrer, mais à la travailler expérimentalement comme à la médiation structurale par le traitement des erreurs dans l'image structurale elle-même et sa référence à des structures linguistiques dans deux langues verbales différentes entre lesquelles la traduction est effectué.

Ainsi, nous recréerons dans l'ordinateur non seulement la technologie du cerveau-esprit lors de la traduction d'une langue à l'autre, mais aussi la technologie du cerveau-esprit lorsque l'ordinateur fonctionne comme une intelligence artificielle, c'est-à-dire au-delà des limites de la traduction automatique. Tâches. Dans la tâche pratique de la traduction automatique, nous n'obtiendrons qu'une compréhension primaire de l'intelligence artificielle dans le processus de corrélation de différentes langues. Après tout, nous devrons «apprendre» à l'ordinateur à former une image structurelle des énoncés linguistiques dans deux langues verbales différentes entre lesquelles la traduction est effectuée, et à interagir avec lui son programme logique afin que la sortie soit un correct Traduction. Ce faisant, nous résolvons ainsi le problème de la première compréhension en comparant la normalisation linguistique contre-inflective de deux langues verbales et la normalisation structurelle qui la médiatise.

La modélisation "AV" est un moyen universel de régulation à plusieurs niveaux de la structure en tant qu'être, qui dans la même construction-sémiose peut interpréter à la fois les relations fondamentales du monde et la structure phénoménologique-aperceptive de la perception-pensée, parole-texte l'expression et l'activité, l'utilisation du langage et de la logique, ainsi que les interactions avec la réalité empirique externe. Cette caractéristique ontologique de la modélisation "AV" est, de notre point de vue, précieuse pour créer de l'intelligence artificielle. La modélisation "AV" est le "langage" de l'intelligence artificielle.


Informations similaires.


Sciences techniques

  • , bachelier, étudiant de troisième cycle
  • Académie de l'armée de l'air nommée d'après le professeur N. E. Zhukovsky et Yu. A. Gagarin, Voronezh
  • POSSIBILITÉ
  • PROBLÈME
  • INTELLIGENCE ARTIFICIELLE
  • SÉCURITÉ

Le principal problème philosophique dans le domaine de l'intelligence artificielle est la possibilité ou non de modéliser la pensée humaine. Dans cet article, nous examinons brièvement l'essence de ce problème.

Le principal problème philosophique dans le domaine de l'intelligence artificielle est la possibilité ou non de modéliser la pensée humaine. Si jamais une réponse négative à cette question est reçue, alors toutes les autres questions n'auront pas la moindre signification.

Par conséquent, lors du démarrage de l'étude de l'intelligence artificielle, une réponse positive est supposée à l'avance. Il y a un certain nombre de considérations pour cette réponse:

La première preuve est scolastique, et prouve la cohérence de l'intelligence artificielle et de la Bible. Apparemment, même les personnes éloignées de la religion connaissent les paroles de la Sainte Écriture: "Et le Seigneur créa l'homme à son image et à sa ressemblance ...". Sur la base de ces paroles, nous pouvons conclure que puisque le Seigneur, premièrement, nous a créés, et deuxièmement, nous sommes essentiellement comme lui, alors nous pouvons très bien créer quelqu'un à l'image et à la ressemblance de l'homme.

La création d'un nouvel esprit de manière biologique est une chose assez courante pour une personne. En observant les enfants, on s'aperçoit qu'ils acquièrent la plupart des connaissances par le biais de la formation, et non comme ancrés en eux à l'avance. Cette affirmation n'a pas été prouvée au niveau actuel, mais selon des signes extérieurs, tout ressemble exactement à cela.

Ce qui semblait auparavant être le summum de la créativité humaine - jouer aux échecs, aux dames, reconnaître des images visuelles et sonores, synthétiser de nouvelles solutions techniques, s'est avéré en pratique pas si difficile (maintenant, le travail n'est pas au niveau de la possibilité ou impossibilité de mettre en œuvre ce qui précède, mais l'algorithme le plus optimal). Maintenant, souvent, ces problèmes ne sont même pas classés comme des problèmes d'intelligence artificielle. On espère que la modélisation complète de la pensée humaine ne sera pas une tâche aussi difficile.

Le problème de la possibilité de l'auto-reproduction est étroitement lié au problème de la reproduction de sa pensée.

La capacité de se reproduire a longtemps été considérée comme l'apanage des organismes vivants. Cependant, certains phénomènes se produisant dans la nature inanimée (par exemple, la croissance de cristaux, la synthèse de molécules complexes par copie) sont très similaires à l'auto-reproduction. Au début des années 1950, J. von Neumann a commencé une étude approfondie de l'auto-reproduction et a jeté les bases de la théorie mathématique des "automates auto-reproducteurs". Il a également prouvé théoriquement la possibilité de leur création.

Il existe également diverses preuves informelles de la possibilité d'auto-réplication.Ainsi, pour les programmeurs, la preuve la plus frappante sera peut-être l'existence de virus informatiques.

La possibilité fondamentale d'automatiser la résolution de problèmes intellectuels à l'aide d'un ordinateur est fournie par la propriété d'universalité algorithmique. Quelle est cette propriété ?

La polyvalence algorithmique des ordinateurs signifie qu'ils peuvent implémenter par programmation (c'est-à-dire représenter sous la forme d'un programme informatique) tous les algorithmes de conversion d'informations, qu'il s'agisse d'algorithmes de calcul, d'algorithmes de contrôle, de recherche de preuves de théorèmes ou de composition de mélodies. Cela signifie que les processus générés par ces algorithmes sont potentiellement réalisables, c'est-à-dire qu'ils sont réalisables grâce à un nombre fini d'opérations élémentaires. La faisabilité pratique des algorithmes dépend des moyens dont nous disposons, qui peuvent changer avec le développement de la technologie. Ainsi, en relation avec l'avènement des ordinateurs à grande vitesse, des algorithmes qui n'étaient auparavant que potentiellement réalisables sont devenus pratiquement réalisables.

Cependant, la propriété d'universalité algorithmique ne se limite pas à l'affirmation que pour tous les algorithmes connus, il est possible de les implémenter en logiciel sur un ordinateur. Le contenu de cette propriété a également le caractère d'une prévision pour le futur : chaque fois que dans le futur une prescription quelconque est reconnue par l'algorithme, alors quels que soient la forme et les moyens dans lesquels cette prescription est initialement exprimée, elle peut également être définie dans le forme d'un programme informatique. .

Cependant, il ne faut pas penser que les ordinateurs et les robots peuvent, en principe, résoudre n'importe quel problème. L'analyse de divers problèmes a conduit les mathématiciens à une découverte remarquable. L'existence de tels types de problèmes a été rigoureusement prouvée pour lesquels un seul algorithme efficace qui résout tous les problèmes d'un type donné est impossible ; en ce sens, il est impossible de résoudre des problèmes de ce type à l'aide d'ordinateurs. Ce fait contribue à une meilleure compréhension de ce que les machines peuvent faire et de ce qu'elles ne peuvent pas faire. En effet, l'énoncé de l'insolvabilité algorithmique d'une certaine classe de problèmes n'est pas seulement un aveu qu'un tel algorithme ne nous est pas connu et n'a encore été trouvé par personne. Une telle déclaration est en même temps une prévision pour tous les temps futurs que ce genre d'algorithme ne nous est pas connu et ne sera indiqué par personne, ou qu'il n'existe pas.

Comment une personne agit-elle pour résoudre de tels problèmes ? Il semble qu'il les ignore simplement, ce qui ne l'empêche cependant pas d'avancer. Une autre façon consiste à réduire les conditions d'universalité du problème, lorsqu'il n'est résolu que pour un certain sous-ensemble de conditions initiales. Et une autre façon est qu'une personne, en utilisant la méthode "poke scientifique", élargit l'ensemble des opérations élémentaires à sa disposition (par exemple, il crée de nouveaux matériaux, découvre de nouveaux gisements ou types de réactions nucléaires).

La prochaine question philosophique de l'intelligence artificielle est le but de la création. En principe, tout ce que nous faisons dans la vie pratique vise généralement à ne rien faire d'autre. Cependant, avec un niveau de vie suffisamment élevé (une grande quantité d'énergie potentielle) d'une personne, ce n'est plus la paresse (au sens de la volonté d'économiser de l'énergie), mais les instincts de recherche qui jouent les premiers rôles. Supposons qu'une personne ait réussi à créer un intellect qui dépasse le sien (sinon en qualité, du moins en quantité). Qu'adviendra-t-il de l'humanité maintenant ? Quel rôle la personne jouera-t-elle ? Pourquoi est-il nécessaire maintenant ? Deviendra-t-il un cochon muet et gros ? Et en général, faut-il en principe créer une intelligence artificielle ?

Apparemment, la réponse la plus acceptable à ces questions est le concept "d'amplificateur d'intelligence". Une analogie avec le président de l'État serait ici appropriée - il n'est pas nécessaire de connaître la valence du vanadium ou le langage de programmation Java pour prendre une décision sur le développement de l'industrie du vanadium. Chacun fait son truc - un chimiste décrit un processus technologique, un programmeur écrit un programme ; Au final, l'économiste dit au président qu'en investissant dans le développement des technologies de l'information, le pays recevra 20%, et 10% par an dans l'industrie du vanadium. Avec une telle formulation de la question, n'importe qui peut faire le bon choix.

Dans cet exemple, le président utilise un activateur d'intelligence biologique, un groupe de spécialistes. Mais même des amplificateurs d'intelligence inanimés sont déjà utilisés - par exemple, nous ne pouvions pas prédire la météo sans ordinateurs; pendant les vols d'engins spatiaux, des ordinateurs de bord ont été utilisés dès le début. De plus, une personne utilise depuis longtemps des amplificateurs de puissance - un concept qui est à bien des égards analogue à un amplificateur d'intelligence. Les voitures, les grues, les moteurs électriques, les presses, les armes à feu, les avions et bien d'autres encore servent d'amplificateurs de puissance.

La principale différence entre un amplificateur d'intelligence et un amplificateur de force est la présence de volonté. Après tout, nous ne pouvons pas imaginer que tout à coup une voiture de production "Zaporozhets" s'est rebellée et a commencé à conduire comme il le souhaite. Nous ne pouvons pas imaginer précisément parce qu'il ne veut rien, il n'a pas de désirs. En même temps, un système intellectuel pourrait bien avoir ses propres désirs, et ne pas agir comme nous le voudrions. Ainsi, nous sommes confrontés à un autre problème - le problème de la sécurité.

Ce problème hante l'esprit de l'humanité depuis l'époque de Karel Capek, qui a été le premier à utiliser le terme "robot". D'autres auteurs de science-fiction ont également contribué de manière significative à la discussion de ce problème. Parmi les plus célèbres, on peut citer une série d'histoires de l'écrivain de science-fiction et scientifique Isaac Asimov, ainsi qu'un ouvrage assez récent - "The Terminator". Soit dit en passant, c'est d'Isaac Asimov que l'on peut trouver la solution la plus développée et acceptée par la plupart des gens au problème de sécurité. Nous parlons des soi-disant trois lois de la robotique :

Un robot ne peut pas nuire à une personne ou par son inaction permettre qu'une personne soit blessée.

Un robot doit obéir aux ordres qui lui sont donnés par un humain, sauf dans les cas où ces ordres sont contraires à la première loi.

Le robot doit veiller à sa sécurité, dans la mesure où il ne contredit pas la première et la deuxième loi.

À première vue, de telles lois, si elles sont pleinement respectées, devraient garantir la sécurité de l'humanité. Cependant, un examen plus approfondi soulève quelques questions. Premièrement, les lois sont formulées en langage humain, ce qui ne permet pas leur simple traduction sous une forme algorithmique. Par exemple, il n'est pas possible de traduire dans l'un des langages de programmation connus un terme tel que "dommage" ou le mot "autoriser" à ce stade du développement des technologies de l'information.

Supposons en outre qu'il soit possible de reformuler ces lois dans un langage que le système automatisé comprend. Maintenant, je me demande ce que le système d'intelligence artificielle entendra par le terme "dommage" après une longue réflexion logique ? Ne décidera-t-elle pas que toute existence humaine est un pur mal ? Après tout, il fume, boit, vieillit et perd la santé au fil des ans, souffre. Le moindre mal ne mettrait-il pas rapidement fin à cette chaîne de souffrances ? Bien sûr, certains ajouts liés à la valeur de la vie et à la liberté d'expression peuvent être introduits. Mais ce ne seront plus les trois lois simples qui étaient dans la version originale.

La prochaine question sera celle-ci. Que décidera le système d'intelligence artificielle dans une situation où sauver une vie n'est possible qu'au détriment d'une autre ? Les cas où le système ne dispose pas d'informations complètes sur qui est qui sont particulièrement intéressants.

Cependant, malgré ces problèmes, ces lois constituent une assez bonne base informelle pour vérifier la fiabilité du système de sécurité des systèmes d'intelligence artificielle.

Alors, n'y a-t-il vraiment pas de système de sécurité fiable ? Basé sur le concept d'un amplificateur d'intelligence, nous pouvons offrir l'option suivante.

Selon de nombreuses expériences, malgré le fait que nous ne savons pas exactement de quoi est responsable chaque neurone individuel du cerveau humain, beaucoup de nos émotions correspondent généralement à l'excitation d'un groupe de neurones (ensemble neuronal) dans une zone tout à fait prévisible. Des expériences inverses ont également été réalisées, lorsque la stimulation d'une certaine zone provoquait le résultat souhaité. Il peut s'agir d'émotions de joie, d'oppression, de peur, d'agressivité. Cela suggère qu'en principe, nous pourrions bien amener le degré de "satisfaction" du corps vers l'extérieur. Dans le même temps, presque tous les mécanismes connus d'adaptation et d'autoréglage (tout d'abord, nous entendons les systèmes techniques) sont basés sur les principes du type "bon" - "mauvais". En interprétation mathématique, c'est la réduction d'une fonction à un maximum ou un minimum. Imaginez maintenant que l'exhausteur d'intelligence utilise le degré de plaisir directement ou indirectement mesuré du cerveau de l'hôte comme une telle fonction. Si nous prenons des mesures pour exclure l'activité autodestructrice dans un état de dépression, ainsi que pour prévoir d'autres états spéciaux de la psyché, nous obtenons ce qui suit.

Puisqu'il est supposé qu'une personne normale ne se fera pas de mal, et, sans raison particulière, aux autres, et que l'amplificateur d'intelligence fait partie de cet individu (pas nécessairement une communauté physique), alors les trois lois de la robotique sont automatiquement remplies. Dans le même temps, les problèmes de sécurité sont déplacés vers le domaine de la psychologie et de l'application de la loi, car le système (formé) ne fera rien que son propriétaire ne voudrait pas.

Et il y avait une autre question - cela vaut-il la peine de créer une intelligence artificielle, cela peut-il simplement fermer tout travail dans ce domaine? La seule chose que l'on puisse dire à ce sujet est que si l'intelligence artificielle peut être créée, elle le sera tôt ou tard. Et il vaut mieux le créer sous contrôle public, avec une étude approfondie des problèmes de sécurité, qu'il ne sera créé dans 100-150 ans par un programmeur-mécanicien autodidacte utilisant les acquis de la technologie contemporaine. En effet, aujourd'hui, par exemple, tout ingénieur compétent, disposant de certaines ressources financières et matérielles, peut fabriquer une bombe atomique.

Bibliographie

  1. Turing, A. Une machine peut-elle penser ? (Avec l'annexe de l'article de J. von Neumann "Théorie générale et logique des automates" / A. Turing; traduction et notes de Yu.V. Danilov. - M.: GIFML, 1960.
  2. Azimov, A. Ya, robot. Tout sur les robots et la robotique. Série "Le Fonds d'or de la fiction mondiale" / A. Azimov. – M. : Eksmo, 2005.
  3. Shalyutin, I.S. Intelligence artificielle : aspect épistémologique / S.I. Shalyutin. – M. : Pensée, 1985.

Planifier

Introduction

1. Le problème de la définition de l'intelligence artificielle

2. Le problème de la définition des tâches de l'intelligence artificielle

3. Problème de sécurité

4. Le problème du choix d'une voie pour créer une intelligence artificielle

Conclusion

Liste de la littérature utilisée


Introduction

Avec l'intelligence artificielle (IA), une situation étrange s'est développée - quelque chose qui n'est pas encore étudié est en cours d'étude. Et si cela ne se produit pas dans les 100 prochaines années, il se peut très bien que l'ère de l'IA s'arrête là.

Sur la base de ce qui précède, le principal problème philosophique dans le domaine de l'IA s'ensuit - la possibilité ou non la possibilité de modéliser la pensée humaine. Si jamais une réponse négative à cette question est reçue, alors toutes les autres questions n'auront pas la moindre signification.

Par conséquent, lors du démarrage de l'étude de l'IA, nous présupposons une réponse positive. Voici quelques considérations qui nous amènent à cette réponse.

1. La première preuve est scolastique et prouve la cohérence de l'IA et de la Bible. Même les personnes éloignées de la religion connaissent les paroles de la Sainte Écriture: "Et le Seigneur créa l'homme à son image et à sa ressemblance ...". Sur la base de ces paroles, nous pouvons conclure que puisque le Seigneur, premièrement, nous a créés, et deuxièmement, nous sommes essentiellement comme lui, alors nous pouvons très bien créer quelqu'un à l'image et à la ressemblance de l'homme.

2. La création d'un nouvel esprit de manière biologique est une chose assez courante pour une personne. Les enfants acquièrent la plupart des connaissances par le biais de l'apprentissage, et non comme intégrés à l'avance.

3. La possibilité fondamentale d'automatiser la résolution de problèmes intellectuels à l'aide d'un ordinateur est fournie par la propriété d'universalité algorithmique. Cela signifie qu'ils peuvent être utilisés pour implémenter par programme n'importe quel algorithme de transformation d'informations, qu'il s'agisse d'algorithmes de calcul, d'algorithmes de contrôle, de recherche de preuves de théorèmes ou de composition de mélodies.

Le problème de l'intelligence artificielle est aujourd'hui l'un des plus actuels. Des scientifiques de diverses spécialités y sont engagés: cybernéticiens, linguistes, psychologues, philosophes, mathématiciens, ingénieurs. Les questions sont posées : qu'est-ce que l'intelligence en général et que peut être l'intelligence artificielle, ses tâches, la complexité de la création et les peurs. Et en ce moment, alors que l'IA n'a pas encore été créée, il est important de se poser les bonnes questions et d'y répondre.

Dans mon travail, j'ai principalement utilisé des sources électroniques situées sur Internet, car dès qu'il y a de nouvelles informations sur les développements dans le domaine de l'intelligence artificielle en russe.

En annexe, j'ai inclus des photographies (de certains des robots d'IA les plus célèbres qui existent aujourd'hui) et une illustration philosophique (malheureusement d'un artiste que je ne connais pas), ainsi qu'une description complète des tests de Turing et Searle auxquels je me réfère au chapitre 2.


1. Le problème de la définition de l'intelligence artificielle

Exprimer l'essence de l'intelligence dans une définition quelconque semble être une tâche extrêmement difficile, presque sans espoir. L'intellect est quelque chose d'insaisissable, qui ne rentre pas dans le cadre sémantique établi par le langage. Par conséquent, nous nous limiterons simplement à donner un certain nombre de définitions et d'énoncés bien connus sur l'intelligence, ce qui nous permettra d'imaginer le "volume" de ce concept inhabituel.

Certains spécialistes prennent pour intelligence la capacité d'un choix rationnel, motivé, face à un manque d'information ; la capacité de résoudre des problèmes basés sur des informations symboliques; capacité d'apprendre et d'auto-apprentissage.

Des définitions suffisamment volumineuses et intéressantes de l'intelligence sont données dans le dictionnaire anglais Webster et dans la grande encyclopédie soviétique. Dans le dictionnaire Webster : « l'intelligence est : a) la capacité de répondre avec succès à toute situation, particulièrement nouvelle, par des ajustements appropriés du comportement ; b) la capacité de comprendre les liens entre les faits de la réalité afin de développer des actions menant à l'atteinte de l'objectif. Dans TSB: "intelligence ... au sens large - toute activité cognitive d'une personne, au sens étroit - processus de pensée inextricablement liés au langage en tant que moyen de communication, d'échange de pensées et de compréhension mutuelle des personnes." Ici, l'intellect est directement lié à l'activité et au langage de communication.

Dans l'ensemble, il n'y a pas de grand désaccord sur cette question. Quelque chose d'autre est plus intéressant : les critères par lesquels il est possible de déterminer sans ambiguïté un sujet raisonnable, pensant, intellectuel devant nous ou non.

On sait qu'à un moment A. Turing a proposé comme critère pour déterminer si une machine peut penser, "le jeu de l'imitation". Selon ce critère, une machine peut être reconnue comme pensante si une personne, dialoguant avec elle sur un éventail suffisamment large de questions, ne peut pas distinguer ses réponses des réponses d'une personne. ( Une description plus complète du test en annexe)

Cependant, l'expérience de pensée "Chinese Room" de John Searle ( Description de l'expérience en annexe) est un argument selon lequel réussir le test de Turing n'est pas un critère pour qu'une machine ait un véritable processus de pensée. On peut continuer à donner des exemples de critères par lesquels le "cerveau machine" peut être considéré comme capable d'activité mentale et en trouver immédiatement la réfutation.

Il n'y a pas de réponse unique à la question de savoir ce qu'est l'intelligence artificielle. Presque tous les auteurs qui écrivent un livre sur l'IA partent d'une définition, considérant les réalisations de cette science à sa lumière. Ces définitions peuvent être résumées comme suit :

L'intelligence artificielle est une personnalité sur un support inorganique (Chekina M.D.).

L'intelligence artificielle est le domaine de l'étude du comportement intelligent (chez les humains, les animaux et les machines) et d'essayer de trouver des moyens de simuler un tel comportement dans tout type de mécanisme créé artificiellement (Bly Whitby).

L'intelligence artificielle est une philosophie expérimentale (V. Sergeev).

Le terme même "intelligence artificielle" - AI - AI - intelligence artificielle a été proposé en 1956 lors d'un séminaire du même nom au Dartsmouth College (USA). Le séminaire était consacré au développement de méthodes de résolution de problèmes logiques plutôt que informatiques. En anglais, cette phrase n'a pas cette coloration anthropomorphique un peu fantastique qu'elle a acquise dans une traduction russe plutôt infructueuse. Le mot intelligence signifie « la capacité de raisonner raisonnablement », et pas du tout « intelligence », pour laquelle il existe un équivalent anglais : intellect (T.A. Gavrilova).

Il existe également des termes d'intelligence artificielle "forte" et "faible".

Le terme « intelligence artificielle forte » a été introduit par John Searle, un tel programme ne serait pas seulement un modèle de l'esprit ; ce sera littéralement l'esprit lui-même, dans le même sens que l'esprit humain est esprit.

"L'intelligence artificielle faible" n'est considérée que comme un outil permettant de résoudre certains problèmes qui ne nécessitent pas toute la gamme des capacités cognitives humaines.

2. Le problème de la définition des tâches de l'intelligence artificielle

La prochaine question philosophique de l'IA est le but de la création. En principe, tout ce que nous faisons dans la vie pratique vise généralement à ne rien faire d'autre. Cependant, avec un niveau de vie humaine suffisamment élevé, ce n'est plus la paresse qui joue le premier rôle, mais les instincts de recherche. Supposons qu'un homme ait réussi à se créer une intelligence supérieure à la sienne. Qu'adviendra-t-il de l'humanité maintenant ? Quel rôle la personne jouera-t-elle ? Pourquoi est-il nécessaire maintenant ? Et en général, faut-il en principe créer de l'IA ?

Apparemment, la réponse la plus acceptable à ces questions est le concept d'"amplificateur d'intelligence" (IA). Une analogie avec le président de l'État est appropriée ici - il n'est pas nécessaire de connaître la valence du vanadium ou le langage de programmation Java pour prendre une décision sur le développement de l'industrie du vanadium. Chacun fait son truc - un chimiste décrit un processus technologique, un programmeur écrit un programme ; à la fin, l'économiste dit au président qu'en investissant dans l'espionnage industriel, le pays recevra 20%, et dans l'industrie du vanadium - 30% par an. Avec une telle formulation de la question, n'importe qui peut faire le bon choix.

Dans cet exemple, le président utilise une IA biologique - un groupe de spécialistes avec leurs cerveaux protéiques. Mais des MI non vivants sont déjà utilisés - par exemple, nous ne pouvions pas prédire la météo sans ordinateurs ; pendant les vols d'engins spatiaux, les ordinateurs de bord ont été utilisés dès le début. De plus, une personne utilise depuis longtemps des amplificateurs de puissance (SS) - un concept qui est à bien des égards similaire à l'interface utilisateur. Les voitures, les grues, les moteurs électriques, les presses, les armes à feu, les avions et bien d'autres encore servent d'amplificateurs de puissance.

La principale différence entre UI et CS est la présence de volonté. Après tout, nous ne pouvons pas imaginer que tout à coup le série "Zaporozhets" s'est rebellé et a commencé à conduire comme il le souhaite. Nous ne pouvons pas imaginer précisément parce qu'il ne veut rien, il n'a pas de désirs. En même temps, un système intellectuel pourrait bien avoir ses propres désirs, et ne pas agir comme nous le voudrions. Ainsi, nous sommes confrontés à un autre problème - le problème de la sécurité.

3. Problème de sécurité

Les problèmes philosophiques de la création de l'intelligence artificielle peuvent être divisés en deux groupes, relativement parlant, « avant et après le développement de l'IA ». Le premier groupe répond à la question : « Qu'est-ce que l'IA, est-il possible de la créer ? J'ai essayé d'y répondre dans mon travail. Et le deuxième groupe (l'éthique de l'intelligence artificielle) pose la question : « Quelles sont les conséquences de la création de l'IA pour l'humanité ? », ce qui nous amène au problème de la sécurité.

Ce problème hante l'esprit de l'humanité depuis l'époque de Karel Capek, qui a été le premier à utiliser le terme "robot". D'autres auteurs de science-fiction ont également grandement contribué à la discussion de ce problème. Parmi les plus célèbres, on peut citer une série d'histoires de l'écrivain de science-fiction et scientifique Isaac Asimov, ainsi qu'un ouvrage assez récent - The Terminator. Soit dit en passant, c'est chez Isaac Asimov que nous pouvons trouver la solution la plus développée et acceptée par la plupart des gens au problème de sécurité. Nous parlons des soi-disant trois lois de la robotique.

1. Un robot ne peut pas nuire à une personne ou, par son inaction, permettre qu'une personne soit blessée.

2. Un robot doit obéir aux ordres qui lui sont donnés par un humain, sauf dans les cas où ces ordres sont contraires à la première loi.

3. Le robot doit prendre soin de sa sécurité, dans la mesure où il ne contredit pas la première et la deuxième loi.

À première vue, de telles lois, si elles sont pleinement respectées, devraient garantir la sécurité de l'humanité. Cependant, un examen plus approfondi soulève quelques questions.

Je me demande ce que le système d'IA entendra par le terme "dommage" après une longue réflexion logique ? Ne décidera-t-elle pas que toute existence humaine est un pur mal ? Après tout, il fume, boit, vieillit et perd la santé au fil des ans, souffre. Le moindre mal ne mettrait-il pas rapidement fin à cette chaîne de souffrances ? Bien sûr, vous pouvez introduire quelques ajouts liés à la valeur de la vie, la liberté d'expression. Mais ce ne seront plus les trois simples lois qui étaient dans le code source.

La prochaine question sera celle-ci. Que décidera le système d'IA dans une situation où sauver une vie n'est possible qu'au détriment d'une autre ? Les cas où le système ne dispose pas d'informations complètes sur qui est qui sont particulièrement intéressants ...

Il est donc prudent de dire que les craintes de nombreuses personnes, y compris des scientifiques, ne sont pas sans fondement. Et vous devriez certainement commencer à réfléchir à ces questions dès maintenant, avant de pouvoir créer une "intelligence artificielle" à part entière afin de protéger l'humanité d'un éventuel préjudice ou même de l'extermination, en tant que variété biologique concurrente, au mieux, ou simplement inutile.


4. Le problème du choix d'une voie pour créer une intelligence artificielle

Essai de Turing

Depuis 1991, des tournois sont organisés pour les programmes essayant de passer le test de Turing. Sur Internet, vous pouvez trouver et consulter l'historique des tournois, en savoir plus sur les règles, les prix et les gagnants. Jusqu'à présent, ces programmes (bots) sont extrêmement inintelligents. Tout ce qu'ils font, c'est appliquer les règles suggérées par l'homme. Les bots n'essaient même pas de comprendre la conversation, ils tentent surtout de "tromper" une personne. Les créateurs y ont mis des réponses aux questions les plus fréquemment posées, essayant de contourner les pièges courants. Par exemple, ils surveillent de près, et le juge posera-t-il deux fois la même question ? Une personne dans cette situation dirait quelque chose comme : « Hé, tu as déjà demandé ! Cela signifie que le développeur ajoutera une règle au bot pour faire de même. En ce sens, il semble très peu probable que la première IA apparaisse.

Joueurs d'échecs informatiques

Beaucoup de gens ont entendu parler de ces programmes. Le premier championnat du monde d'échecs entre programmes informatiques a eu lieu en 1974. Le gagnant était le programme d'échecs soviétique Kaissa. Il n'y a pas si longtemps, l'ordinateur a également battu Garry Kasparov. Qu'est-ce que c'est - un succès incontestable?

Beaucoup a été écrit sur la façon dont les joueurs d'échecs informatiques jouent. Je vais vous dire très brièvement. Ils passent juste par beaucoup d'options. Si je déplace ce pion ici, et que l'adversaire déplace son fou ici, et que je roque, et qu'il déplace ce pion... Non, une telle position est défavorable. Je ne vais pas roquer, mais à la place je verrai ce qui se passera si je déplace ce pion ici et que l'ordinateur déplace le fou ici, et au lieu de roquer, je déplace à nouveau le pion et il...

L'ordinateur n'invente rien par lui-même. Toutes les options possibles ont été suggérées par les véritables propriétaires de l'intellect - des programmeurs talentueux et des consultants d'échecs... Ce n'est pas moins loin de la création d'un intellect électronique à part entière.

Robots de football

C'est très à la mode. Cela est fait par de nombreux laboratoires et des départements entiers d'universités du monde entier. Des dizaines de championnats sont organisés dans différentes variétés de ce jeu. Selon les organisateurs du tournoi RoboCup, "La communauté internationale des spécialistes de l'intelligence artificielle a reconnu la tâche de contrôler les robots de football comme l'une des plus importantes."

Il se peut très bien qu'en 2050, comme le rêvent les organisateurs de la RoboCup, une équipe de robots batte une équipe de personnes au football. Il est peu probable que seule leur intelligence ait quoi que ce soit à voir avec cela.

Tournois de programmeurs

Récemment, Microsoft a organisé un tournoi appelé "Terrarium". Les programmeurs ont été invités à créer une vie artificielle, ni plus ni moins. C'est probablement le plus célèbre de ces concours, mais en général il y en a beaucoup - des organisateurs enthousiastes avec une régularité enviable proposent de créer des programmes qui jouent soit une guerre de robots, soit une colonisation de Jupiter. Il existe même des compétitions pour la survie parmi les virus informatiques.

Qu'est-ce qui empêche au moins ces projets de servir la création d'une véritable IA, qui dans le futur pourra combattre et coloniser Jupiter ? Un mot simple - inconscience. Même les esprits puissants de Microsoft n'ont pas réussi à proposer des règles dans lesquelles un comportement complexe est bénéfique. Que dire du reste. Quel que soit le tournoi, la même tactique fait tout gagner : « plus c'est simple, mieux c'est » ! Qui a gagné le Terrarium ? Nos compatriotes. Et qu'ont-ils fait ? Voici une liste complète de ces règles selon lesquelles l'herbivore virtuel le plus viable du tournoi a vécu;

1. Si vous voyez un prédateur, fuyez-le. Si vous voyez un animal de votre espèce courir vite dans une direction, courez dans la même direction.

2. S'il n'y a que des étrangers autour, mangez rapidement toute l'herbe pour que les autres en aient moins.

3. Si vous ne voyez pas d'étrangers, mangez-en exactement la quantité dont vous avez besoin. Enfin, si vous ne voyez ni herbe ni prédateurs, allez là où vos yeux regardent.

Intellectuellement? Non, mais c'est efficace.

Applications commerciales

Dans les domaines commercialement importants, aucun tournoi, aucun juge, aucune règle de sélection n'est nécessaire. La haute science n'était tout simplement pas nécessaire, que ce soit dans la reconnaissance de texte ou dans la création de jeux informatiques.

Ce qu'il faut, c'est une équipe harmonieuse de personnes ayant l'esprit clair et une bonne éducation, et l'application compétente d'un grand nombre d'algorithmes assez simples dans leur essence.

Il ne sera pas possible d'obtenir la moindre connaissance sacrée dans ces domaines, aucune grande découverte ne sera faite et personne ne s'y efforce du tout. Les gens gagnent juste de l'argent pour eux-mêmes, tout en améliorant nos vies.

Conclusion

La science de la "création d'intelligence artificielle" ne pouvait qu'attirer l'attention des philosophes. Avec l'avènement des premiers systèmes intelligents, des questions fondamentales sur l'homme et la connaissance, et en partie sur l'ordre du monde, ont été soulevées.

Malheureusement, le format du test ne permet pas une divulgation et une prise en compte plus approfondies d'un sujet aussi intéressant et urgent que l'intelligence artificielle, mais j'espère avoir pu identifier l'éventail des principaux problèmes et esquisser des moyens de les résoudre.

« L'émergence de machines qui nous surpassent en intelligence est un résultat naturel du développement de notre civilisation technocratique. On ne sait pas où l'évolution nous mènerait si les gens empruntaient la voie biologique - ils commençaient à améliorer la structure d'une personne, ses qualités et ses propriétés. Si tout l'argent dépensé pour le développement d'armes était allé à la médecine, nous aurions vaincu toutes les maladies il y a longtemps, repoussé la vieillesse, et peut-être aurions-nous atteint l'immortalité ...

La science ne peut pas être interdite. Si l'humanité se détruit, cela signifie que l'évolution est descendue dans une voie sans issue pour cette humanité, et qu'elle n'a pas le droit d'exister. Peut-être que notre cas est une impasse. Mais nous ne sommes ni les premiers ni les derniers ici. On ne sait pas combien de civilisations il y avait avant nous et où elles sont allées.

Chef du département de l'Université radiotechnique d'État de Taganrog, président du conseil de l'Association russe des systèmes flous, académicien de l'Académie russe des sciences naturelles, professeur, docteur en sciences techniques Leonid Bershtein.

Liste de la littérature utilisée

1. Grande Encyclopédie soviétique

2. TA Gavrilova, docteur en sciences techniques, professeur au Département des technologies informatiques intelligentes, Université technique d'État de Saint-Pétersbourg, chef du laboratoire des systèmes intelligents à l'Institut de calcul haute performance et de bases de données. Article. www.big.spb.ru

4. Chekina MD "Problèmes philosophiques de l'intelligence artificielle". Rapport de prix à la cinquante-quatrième conférence scientifique étudiante de TTIUFU. 2007 www.filosof.historic.ru

5. Bly Whitby "L'intelligence artificielle : la matrice est-elle réelle", FAIR-PRESS, 2004


Haut