Selon moi, il sera possible de stopper le processus avant que cela ne se produise. Les avancées scientifiques en générales se font par petits pas, par petites améliorations du travail déjà effectué. Passer d’un seul coup d’une intelligence artificielle inoffensive vers une intelligence artificielle capable de se restructurer de son propre chef, et qui de plus aurait comme ambition de détruire l’humanité me paraît improbable, ce serait un pas trop grand à franchir d’un seul coup. Le jour où nous nous approcherons de cet état d’avancement, nous aurons des signes avant coureurs nous permettant de réagir. Si cette intelligence commence un jour à penser par elle-même, nous aurons un premier signal que la prudence s’impose. Elle aura besoin des supports informatiques physiques pour se maintenir, ces supports finissent par tomber en panne, il faut des humains pour extraire les métaux et synthétiser les matériaux pour fabriquer ces supports. Mettre au point une intelligence capable de s’adapter à de nouvelles situations, comme la nécessité d’extraire et de fabriquer elle-même les matériaux ne se fera pas d’un seul coup. La sécurité des systèmes de défense seront améliorés en fonctions des progrès informatiques, et tant que l’intervention humaine sera nécessaire, on peut oublier l’holocauste nucléaire pour le moment.
↧