Intelligence artificielle: attention danger, même Bill Gates a peur! - L'Express L'Expansion
SOURCE Intelligence artificielle: attention danger, même Bill Gates a peur! - L'Express L'Expansion:
Les progrès de l'intelligence artificielle menacent la survie de l'espèce. Et ce n'est pas madame Michu mais Bill Gates, Stephen Hawking et Elon Musk qui le disent. Ils ne sont d'ailleurs pas les seuls dans la communauté scientifique.
Quel est le point commun entre Stephen Hawking, Bill Gates et Elon Musk ? Le scientifique, le co-fondateur de Microsoft, et celui de Tesla et SpaceX pensent que l'intelligence artificielle constitue une menace pour l'humanité. Bill Gates est le dernier des trois à avoir pris position sur le sujet, la semaine dernière, au détour d'une session de questions-réponses sur Reddit.
"Je ne comprends pas pourquoi les gens ne sont pas inquiets"
"Je suis de ceux qui s'inquiètent de la super-intelligence. Dans un premier temps, les machines accompliront de nombreuses tâches à notre place et ne seront pas super-intelligentes. Cela devrait être positif si nous gérons ça bien. Plusieurs décennies plus tard cependant, l'intelligence sera suffisamment puissante pour poser des problèmes. Je suis d'accord avec Elon Musk et d'autres, et je ne comprends pas pourquoi les gens ne sont pas inquiets", a déclaré Bill Gates.
Elon Musk joue depuis quelques temps le rôle du Cassandre de l'intelligence artificielle. "Je pense que nous devrions être très prudents. Si je devais deviner ce qui représente la plus grande menace pour notre existence, je dirais probablement l'intelligence artificielle. Je suis de plus en plus enclin à penser qu'il devrait y avoir une régulation, à un niveau national ou international, simplement pour être sûr que nous ne sommes pas en train de faire quelque chose de stupide. Avec l'intelligence artificielle, nous invoquons un démon." L'entrepreneur, adepte des projets futuristes dont la faisabilité n'est pas toujours aussi réaliste que celle de ses voitures électriques, passe parfois pour un doux dingue. Mais il n'est pas le seul à tirer la sonnette d'alarme.
Le célèbre physicien Stephen Hawking, à qui l'on doit des avancées théoriques significatives dans le domaine des trous noirs et de la création de l'univers, se montre lui aussi pessimiste. "Réussir à créer une intelligence artificielle serait le plus grand événement dans l'histoire de l'homme. Mais ce pourrait aussi être le dernier", prévient-il. Ou encore : "L'impact à court terme de l'intelligence artificielle dépend de qui la contrôle. Et, à long terme, de savoir si elle peut être tout simplement contrôlée".
Impossible d'anticiper l'ensemble des effets pervers
Pourquoi tant de méfiance à l'égard de nos futurs systèmes informatiques ? L'avenir qu'ils nous réservent serait-il forcément à l'image des dystopies imaginées par la science-fiction ? En réalité, certains sont capables de démontrer par A+B pourquoi le développement de l'intelligence artificielle constitue un danger potentiel. Bien sûr, il y a la cyberguerre, le piratage, ou encore la probabilité que quelqu'un conçoive une intelligence informatique délibérément malfaisante. Mais le plus préoccupant, ce n'est pas cela. C'est la possibilité que la machine se retourne contre l'homme, non parce qu'elle aurait acquis comme par magie une conscience maléfique, mais parce que les capacités de calcul limité des programmeurs ne peuvent pas éviter l'apparition d'effets pervers.
En savoir plus sur http://lexpansion.lexpress.fr
'via Blog this'