Publicité

Le progrès de l'intelligence artificielle et ses conséquences

Consultor de planejamento estratégico, regional e de sistemas de energia à CXA- Arquitetura e Engenharia Ltda.
14 Feb 2018
Le progrès de l'intelligence artificielle et ses conséquences
Le progrès de l'intelligence artificielle et ses conséquences
Le progrès de l'intelligence artificielle et ses conséquences
Le progrès de l'intelligence artificielle et ses conséquences
Prochain SlideShare
Ackerman04Ackerman04
Chargement dans ... 3
1 sur 4
Publicité

Contenu connexe

Publicité

Plus de Fernando Alcoforado(20)

Publicité

Le progrès de l'intelligence artificielle et ses conséquences

  1. 1 LE PROGRÈS DE L'INTELLIGENCE ARTIFICIELLE ET SES CONSÉQUENCES Fernando Alcoforado * Une lecture des livres Artificial Intelligence de Jerry Kaplan (New York: Oxford University Press, 2016), Thinking Machines de Luke Dormehl (New York: Tarcher Perigee Book, 2017), Rise of the Robots de Martin Ford (New York: Basic Books, 2016) et Le mythe de la Singularité de Jean-Gabriel Ganascia (Paris: Éditions du Seuil, 2017) nous ont permis de comprendre l'ampleur de l'avancée de l'intelligence artificielle et ses conséquences pour l'humanité qui sont exposées dans les paragraphes suivants. Il existe de nombreuses définitions de l'intelligence artificielle, mais beaucoup d'entre elles sont fortement alignées sur le concept de créer des programmes informatiques ou des machines capables de se comporter intelligemment comme les humains. L'intelligence artificielle (IA) est la capacité d'un ordinateur numérique ou d'un robot commandé par ordinateur à effectuer des tâches communément associées à des êtres intelligents. Le terme est souvent appliqué au projet de développement de systèmes dotés des processus intellectuels caractéristiques des humains, tels que la capacité de raisonner, de découvrir des sens, de généraliser ou d'apprendre de l'expérience passée. Qu'est-ce que l'intelligence? Les psychologues ne caractérisent généralement pas l'intelligence humaine par une seule caractéristique, mais par la combinaison de nombreuses capacités différentes. La recherche en IA portait principalement sur les éléments de l'intelligence suivants: apprentissage, raisonnement, résolution de problèmes, perception et utilisation du langage. En ce qui concerne l'apprentissage, il existe plusieurs formes différentes appliquées à l'intelligence artificielle. Le plus simple est d'apprendre par essais et erreurs. Par exemple, un programme d'ordinateur simple pour résoudre les problèmes de jeu d'échecs. Le programme peut stocker les solutions avec la position de l'un des échecs pieces, de sorte que la prochaine fois que l'ordinateur trouve la même position de la même pièce, il se souviendrait les solutions adoptées. Cette simple mémorisation d'éléments et de procédures individuels - connue sous le nom d'apprentissage par cœur - est relativement facile à mettre en œuvre sur un ordinateur. Plus difficile est le problème de la mise en œuvre de ce qu'on appelle la généralisation. La généralisation implique l'application de l'expérience passée à de nouvelles situations analogues. Le raisonnement est la capacité de tirer des inférences appropriées à la situation. Les inférences sont classées comme déductive ou inductive. Un exemple d'inférence déductive est le cas d'accidents antérieurs qui ont été causés par une défaillance d'un composant dont on déduit que l'accident a été causé par la défaillance de ce composant. En inférence déductive, la vérité des prémisses garantit la vérité de la conclusion, alors que dans le cas inductif, la vérité de la prémisse soutient la conclusion sans donner de garantie absolue. Le raisonnement inductif est courant en science, où les données sont recueillies et des modèles provisoires sont élaborés pour décrire et prédire le comportement futur jusqu'à ce que l'apparition de données anormales force le modèle à être révisé. Le raisonnement déductif est courant en mathématiques et en logique, où des structures élaborées de théorèmes irréfutables sont construites à partir d'un petit ensemble d'axiomes et de règles de base.
  2. 2 La résolution de problèmes, en particulier dans l'intelligence artificielle, peut être caractérisée comme une recherche systématique à travers une série d'actions possibles pour atteindre un objectif ou une solution prédéfinie. Les méthodes de résolution de problèmes sont divisées en objectifs spéciaux et généraux. Une méthode spéciale est adaptée à un problème spécifique et exploite souvent des caractéristiques très spécifiques de la situation dans laquelle le problème est intégré. En revanche, une méthode à usage général est applicable à une grande variété de problèmes. Une technique à usage général utilisée dans l'IA est une analyse progressive ou incrémentielle de la différence entre l'état actuel et le but ultime. Le programme sélectionne des actions à partir d'une liste de médias - dans le cas d'un robot simple jusqu'à ce qu'il atteigne le but. Dans la perception, l'environnement est scanné à travers différents organes sensoriels, réels ou artificiels, et la scène est décomposée en objets séparés dans diverses relations spatiales. La perception est compliquée par le fait qu'un objet peut sembler différent en fonction de l'angle d'observation, de la direction et de l'intensité de l'éclairage de la scène, et que l'objet contraste avec le champ environnant. Actuellement, la perception artificielle est assez avancée pour permettre aux capteurs optiques d'identifier les individus, les véhicules autonomes conduisent à des vitesses modérées sur la route ouverte et les robots errent dans les bâtiments en collectant des canettes de soda vides. L'un des premiers systèmes à intégrer la perception et l'action fut FREDDY, un robot stationnaire avec un oeil de télévision en mouvement et une pincettes main, construit à l'Université d'Edimbourg en Écosse entre 1966 et 1973 sous la direction de Donald Michie. FREDDY a été capable de reconnaître une variété d'objets et pourrait être chargé d'assembler des artefacts simples, comme une voiture jouet, à partir d'une pile aléatoire de composants. En ce qui concerne l'utilisation du langage, il est important de noter qu'une langue est un système de signes ayant un sens par convention. Dans ce sens, le langage n'a pas besoin d'être confiné à la parole. Les panneaux de signalisation, par exemple, forment un minilangage, et c'est une question de convention que le symbole de danger signifie «danger en avant» dans certains pays. Une caractéristique importante des langues humaines avec des panneaux de signalisation est leur productivité. Un langage productif peut formuler une variété illimitée de phrases. Il est relativement facile d'écrire des programmes informatiques qui semblent capables, dans des contextes strictement restreints, de répondre couramment aux questions et aux énoncés en langage humain. Bien qu'aucun de ces programmes ne comprenne vraiment le langage, ils peuvent, en principe, atteindre le point où leur maîtrise d'une langue est indiscernable de celle d'un être humain normal. Depuis le développement de l'ordinateur numérique dans les années 1940, il a été démontré que les ordinateurs peuvent être programmés pour exécuter des tâches très complexes - comme trouver des preuves de théorèmes mathématiques ou jouer aux échecs - avec une grande compétence. Pourtant, en dépit des progrès continus dans la vitesse et la capacité de mémoire du traitement informatique, il n'y a toujours pas de programmes qui peuvent combiner la flexibilité humaine dans des domaines plus vastes ou des tâches qui exigent beaucoup de connaissances quotidiennes. D'autre part, certains programmes ont atteint les niveaux de performance des experts et des professionnels humains dans l'exécution de certaines tâches spécifiques, de sorte que l'intelligence
  3. 3 artificielle dans ce sens limité se retrouve dans des applications aussi diverses que le diagnostic médical et la reconnaissance vocale. L'apprentissage automatique est un domaine de l'informatique qui permet aux ordinateurs d'apprendre sans être explicitement programmés. Arthur Samuel, un pionnier américain dans le domaine des jeux informatiques et de l'intelligence artificielle, a inventé le terme «Machine Learning» en 1959 alors qu'il travaillait chez IBM. Evolué à partir de l'étude de la reconnaissance des formes et de la théorie de l'apprentissage informatique en intelligence artificielle, l'apprentissage automatique explore l'étude et la construction d'algorithmes capables d'apprendre et de prédire des données. Ces algorithmes dépassent les instructions de programme strictement statiques en faisant des prédictions ou des décisions basées sur des données, en construisant un modèle à partir d'entrées d'échantillons. L'apprentissage automatique est utilisé dans diverses tâches informatiques telles que le filtrage des e-mails, la détection des intrusions sur le réseau ou les débutants malveillants qui travaillent pour une violation de données, la reconnaissance optique des caractères par classification informatique et la vision par ordinateur. L'apprentissage automatique est étroitement lié aux statistiques computationnelles (et qui se chevauchent souvent), qui mettent également l'accent sur la prévision à l'aide d'ordinateurs. Il a de forts liens avec l'optimisation mathématique, qui fournit des méthodes, des théories et des champs d'application sur le terrain. Dans l'analyse des données, l'apprentissage automatique est une méthode utilisée pour concevoir des modèles complexes et des algorithmes qui se prêtent à la prédiction. Dans l'utilisation commerciale, cela s'appelle l'analyse prédictive. Ces modèles analytiques permettent aux chercheurs, aux spécialistes des données, aux ingénieurs et aux analystes de «produire des décisions et des résultats fiables et reproductibles» et de découvrir des «idées cachées» en apprenant les relations historiques et les tendances dans les données. En 1950, l'informaticien britannique Alan Turing spéculait déjà sur l'émergence des machines à penser dans son ouvrage «Computing Machinery and Intelligence», et le terme «intelligence artificielle» fut inventé en 1956 par le scientifique John McCarthy. Après quelques avancées significatives dans les années 1950 et 1960, lorsque des laboratoires d'intelligence artificielle ont été mis en place à Stanford et au Massachusetts Institute of Technology (MIT), il était clair que la tâche de créer une telle machine serait plus difficile que si pensais. Puis vint le soi-disant «hiver de l'intelligence artificielle», une période sans grandes découvertes dans ce domaine et avec une forte réduction du financement de ses recherches. Dans les années 1990, la communauté de l'intelligence artificielle a mis de côté une approche logique qui impliquait la création de règles pour guider un ordinateur à agir, avec l´adoption d´une approche statistique, avec l'utilisation de bases de données et demander à la machine de les analyser et de les résoudre problèmes par eux-mêmes. Les experts estiment que l'intelligence des machines correspondra à celle des humains d'ici 2050, grâce à une nouvelle ère dans leur capacité à apprendre. Les ordinateurs commencent déjà à assimiler l'information à partir des données collectées, tout comme les enfants apprennent du monde qui les entoure. Cela signifie que nous créons des machines qui peuvent apprendre à jouer à des jeux informatiques - et qui sont très doués pour eux - et aussi pour communiquer en simulant la parole humaine, comme avec les smartphones et leurs systèmes d'assistants virtuels.
  4. 4 La conséquence immédiate des progrès de l'intelligence artificielle est la progression du chômage. Cet effet social négatif est inévitable car il résulte de forces économiques hors de contrôle. L'intelligence artificielle est positive pour le capitaliste qui en fait usage parce qu'elle ferait face à ses concurrents de manière plus compétitive puisqu'elle aurait, entre autres avantages, augmenter sa productivité et réduire ses coûts. Cependant, il serait également extrêmement négatif pour le capitaliste parce qu'il tend à réduire les revenus disponibles pour la masse des travailleurs exclus de la production, contribuant ainsi à la chute de la demande de produits et de services. La grande menace de l'intelligence artificielle est qu'elle pourrait conduire à l'extinction de la race humaine, selon le scientifique Stephen Hawking qui a publié un article sur ce sujet le 1er mai 2014 dans The Independent. Hawking affirme que les technologies évoluent à un rythme si vertigineux qu'elles deviendront ingérables au point de mettre l'humanité en danger. Hawking conclut: aujourd'hui, il serait temps d'arrêter; demain serait trop tard. * Fernando Alcoforado, 78, membre de l´Académie Bahia de l'Education et de l'Académie Rotary Brésilienne de Lettres - Section de Bahia, ingénieur et docteur de planification du territoire et du développement régional pour l'Université de Barcelone, professeur d'université et consultant en planification stratégique, la planification la planification stratégique, la planification d'entreprise, planification des systèmes d'énergie, est l'auteur de livres de la Globalização (Editora Nobel, São Paulo, 1997), De Collor a FHC- O Brasil e a Nova (Des)ordem Mundial (Editora Nobel, São Paulo, 1998), Um Projeto para o Brasil (Editora Nobel, São Paulo, 2000), Os condicionantes do desenvolvimento do Estado da Bahia (Tese de doutorado. Universidade de Barcelona,http://www.tesisenred.net/handle/10803/1944, 2003), Globalização e Desenvolvimento (Editora Nobel, São Paulo, 2006), Bahia- Desenvolvimento do Século XVI ao Século XX e Objetivos Estratégicos na Era Contemporânea (EGBA, Salvador, 2008), The Necessary Conditions of the Economic and Social Development- The Case of the State of Bahia (VDM Verlag Dr. Müller Aktiengesellschaft & Co. KG, Saarbrücken, Germany, 2010), Aquecimento Global e Catástrofe Planetária (Viena- Editora e Gráfica, Santa Cruz do Rio Pardo, São Paulo, 2010), Amazônia Sustentável- Para o progresso do Brasil e combate ao aquecimento global (Viena- Editora e Gráfica, Santa Cruz do Rio Pardo, São Paulo, 2011), Os Fatores Condicionantes do Desenvolvimento Econômico e Social (Editora CRV, Curitiba, 2012), Energia no Mundo e no Brasil- Energia e Mudança Climática Catastrófica no Século XXI (Editora CRV, Curitiba, 2015), As Grandes Revoluções Científicas, Econômicas e Sociais que Mudaram o Mundo (Editora CRV, Curitiba, 2016) et A Invenção de um novo Brasil (Editora CRV, Curitiba, 2017). Il a Blog propre sur Internet (http://fernando.alcoforado.zip.net). E-mail: falcoforado@uol.com.br.
Publicité