Sans être des experts de l’IA, c’est autour de bonnes tables que nous passons de bons moments à « philosopher » sur le sujet. Je vous livre en toute humilité quelques réflexions autour des questions suivantes :
Faut-il réellement avoir peur de ce que pourrait apporter l’IA ? N’est-ce pas là une cristallisation des craintes liées à toutes formes de progrès ? Et si la régulation permettait de libérer l’IA de cette combinaison d’incertitudes, de progrès et de maîtrise de risque ?
L’IA est moteur de changement et de progrès.
Existant depuis les années 1960, la recherche et les investissements dans le secteur de l’IA se sont accélérés ces derniers temps. Tim Cook a dernièrement fait savoir qu’Apple investissait de manière importante dans l’IA tout comme Microsoft, Google ou Facebook. Facebook a d’ailleurs fait savoir son rachat de la startup Ozlo spécialisée dans les bots début août pour renforcer l’assistant virtuel de son application Messenger.
Les avancées autour de la manipulation des données, la baisse du coût stockage de la data, l’amélioration des algorithmes de machine learning, de deep learning, du traitement automatique du langage Naturel (NLP), des algorithmes de réseaux neuronaux, l’émergence des ordinateurs quantiques, etc. contribuent au développement de nouvelles perspectives et applications. Tout s’accélère comme le souligne Gil Press (voir l’article ici).
Le perfectionnement des technologies de l’AI est bien présent et est déjà palpable au travers des assistants personnels, des voitures autonomes, du diagnostic médical, etc. C’est à travers ces applications que l’on perçoit dès à présent que l’IA est moteur de changement, de progrès et de gain de productivité.
Pour autant, l’IA est pointée du doigt. La sécurité des individus est au cœur du secteur de la voiture autonome. Il y a un vrai débat là-dessus : doit on sauver le conducteur ou le plus de vies possibles ? Un vrai débat de philosophie vieux comme le monde qui ressurgit. L’emploi et le développement des compétences est également au cœur des réflexions sur les apports de l’IA sur le gain de productivité.
La cristallisation des craintes liée aux progrès de l’IA.
Depuis les dernières semaines avec l’intervention de Elon Musk, tout le monde n’évoque que ses propos :
« la régulation de l’IA doit débuter MAINTENANT, l’IA représente un risque majeur pour notre civilisation. Il ne faut pas attendre une catastrophe pour l’encadrer ».
Ces propos sont relayés et amplifiés. Que se passe-t-il ? N’est-ce pas étonnant de la part de ce serial entrepreneur ?
Si on creuse un peu, ces propos ressemblent étrangement à ceux de certains scientifiques qui craignent que l’Intelligence artificielle surpasse voire remplace l’homme un jour. Stephen Hawking évoquait en 2016 à la BBC lui aussi que « l’intelligence artificielle pourrait mettre fin à l’humanité ».
Même les géants du numérique tels que Amazon, Facebook, Google, IBM et Microsoft se mettent à débattre autour des risques liés à l’AI. Ils ont d’ailleurs créé une organisation collaborative « Partnership on AI » pour partager leurs avancées techniques et ces derniers temps animer les débats éthiques.
L’éthique et la régulation source de progrès et d’innovation.
Lorsqu’il est question d’incertitude et de maîtrise des risques l’éthique pointe souvent son nez. Parce que derrière ce débat autour de l’IA, il est peut-être question d’éthique et du rapport bénéfices – risques liés aux apports de l’IA sur l’humanité.
N’avons-nous pas eu dans le passé ce type de débat ? C’est dans le secteur de la médecine que l’éthique a souvent été au cœur des débats notamment lors de grandes avancées scientifiques. Rappelez-vous les débats autour des essais cliniques ?
Certes, l’encadrement des essais cliniques a ralenti les développements puisqu’il faut désormais presque 7 à 10 ans de R&D pour un nouveau médicament pour arriver sur le marché. Mais cette régulation des essais cliniques avec des organes compétents indépendants (Agence Européenne du Médicament et la FDA aux US, etc.) a permis :
- d’encadrer, de standardiser et d’améliorer les méthodes de tests sur les animaux et sur les hommes ;
- d’élaborer un produit fiable pour l’Homme ;
- de s’assurer que les bénéfices soient supérieurs à d’éventuels risques.
Là encore, l’encadrement ne veut pas évoquer l’interdiction d’innover et de faire de la R&D, bien au contraire. Cet encadrement permet notamment de déterminer les cas d’application c’est à dire les populations pour lesquelles le médicament est le plus efficace et les conditions optimales d’utilisation (voie d’administration, concentration, posologie…).
Il en va de même dans d’autres secteurs, tels que le secteur de l’automobile avec l’instauration des normes d’émission de CO2 (normes EURO) qui ont contribué pour bon nombre de motoristes à innover (je n’évoquerai pas ici certaines pratiques de contournement 😉 )
La libéralisation de l’IA sous contrôle.
La recherche et l’innovation autour de l’IA sont en pleine ébullition. C’est en maintenant cette ébullition dans l’incertitude des débouchés que l’on contribuera à des avancées majeures, sources de progrès pour notre civilisation.
Je suis convaincu que la prise de conscience collective sur les questions d’éthique contribuera à maîtriser les risques associés. Les signaux faibles sont là, nous sommes à une période charnière. Comme d’autres secteurs, la mise en place de comités d’éthique internationaux constitués de représentants d’Etats, d’entrepreneurs et de scientifiques permettront de définir les « guides de bonnes pratiques » pour encadrer les méthodes, les applications et standardiser les approches de validation. D’autant que c’est souvent sous la contrainte que nous sommes les plus imaginatifs et créatifs !
Je ne prône pas ici un encadrement strict, toutes les applications de l’IA ne sont pas assujetties à la même libéralisation – régulation. Les règles doivent cependant laisser libre court à la créativité, à l’innovation sans limite (ou presque) pour la recherche fondamentale.
S’appuyer sur l’éthique pour encadrer les pratiques et maitriser les risques liés à de potentiels dérives de l’IA est une piste. Laissons cependant la gestion de l’incertitude aux scientifiques et entrepreneurs pour inventer, créer de nouveaux espaces et se réinventer.