Je viens de lire certaines des propositions:
-Je n’ai rien vu sur les intelligences artificielles fortes, c’est-à-dire plus proche de notre état de conscience et on peut le penser bien plus dangereuses.
Tout se qui est décrit ici est: comment améliorer la recherche , le développement de ces technologies dans ou pour l’industrie, dont on connait déjà l’intérêt pour une politique sans profit. Ainsi tout est vue dans l’intérêt économique.
Une des propositions qui m’a surpris:
Accélérer la politique d’ouverture des données publiques autour de quelques usages clés pour le développement de l’IA
La démarche d’open data fait l’objet d’une politique volontariste depuis plusieurs années. Néanmoins l’ouverture de certaines données reste perfectible. Les données juridiques (en particulier les décisions de première instance) ont notamment régulièrement été prises en exemple à l’occasion des auditions : difficile d’accès, elles sont indispensables au développement de l’écosystème des legal techs.
Que faut il comprendre ici? Que l’on veut donner le pouvoir décisionnel de la justice à des IA dans les années à venir? Ou seulement de l’étude statistique des décisions de justice alors que celle-ci sont censé resté des relations humaines, dans l’esprit des lois et non par les lois.
Deuxième débat qui m’a surpris: Faire de l’Etat l’un des premier utilisateur et promoteur de l’IA
Au delà des secteurs clés identifiés, l’ensemble du service public peut être utilisateur d’IA. Il est donc important que l’Etat s’acculture à ces technologies et leurs applications, qu’il se mette en position de pouvoir faire de l’IA à terme sur des domaines où cela n’est pas encore une priorité, et qu’il se confronte aux difficultés du terrain afin de renforcer la confiance et prendre les mesures nécessaires à la levée des freins existants.
Si je comprends bien , l’objectif est de faire de l’IA un incontournable de l’Etat. Allons nous être gérer par des IA?
Je n’ai pas l’impression de la volonté d’un débat, juste des questions déjà très orienté pour l’acceptation de l’IA.
Il défend même ce point de vue en expliquant en gros qu’un état qui n’utilise pas l’AI sera potentiellement défavorisé par rapport à des états qui l’utilisent. Il a peut-être bien raison, ce qui peut avoir des conséquences effrayantes si les aspects humains sont négligés.
Et comme par hasard Cédric Villani n’a fait aucune proposition pour le sous thème « Etablir un cadre de confiance éthique et de confiance pour le développement de l’IA »
Pour compléter la réflexion il y a le rapport de la CNIL qui vient de paraitre : « COMMENT PERMETTRE À L’HOMME DE GARDER LA MAIN - ? Les enjeux éthiques des algorithmes et de l’intelligence artificielle »
Il affirme deux principes : la loyauté : « Tout algorithme, qu’il traite ou non des données personnelles, doit être loyal envers ses utilisateurs, non pas seulement en tant que consommateurs, mais également en tant que citoyens ».
Et la vigilance/réflexivité : « il s’agit d’organiser une forme de questionnement régulier, méthodique et délibératif à l’égard de ces objets mouvants »
Il propose 6 recommandations :
Former à l’éthique tous les acteurs-maillons de la « chaîne algorithmique » (concepteurs, professionnels, citoyens) : l’alphabétisation au numérique doit permettre à chaque humain de comprendre les ressorts de la machine ;
Rendre les systèmes algorithmiques compréhensibles en renforçant les droits existants et en organisant la médiation avec les utilisateurs ;
Travailler le design des systèmes algorithmiques au service de la liberté humaine, pour contrer l’effet « boîtes noires » ;
Constituer une plateforme nationale d’audit des algorithmes ;
Encourager la recherche sur l’IA éthique et lancer une grande cause nationale participative autour d’un projet de recherche d’intérêt général ;
Renforcer la fonction éthique au sein des entreprises
Pour un résumé du rapport voir ici vous y trouverez les liens vers les manifestations et la concertation citoyenne réalisée
Je ne sais pas répondre à cette question, mais il est certain que l’IA est activement développée aussi pour traiter des optimisations dans le domaine pétrolier et énergétique. Les avancées dans l’AI sont actuellement très rapides, y compris en terme d’efficacité énergétique. Il est très probable que la consommation des AI deviennent insignifiant à moyen terme, comparé à la consommation pour les transports par exemple.
A noter que dans beaucoup d’applications de l’AI, l’étape d’apprentissage (qui consomme le plus) peut être effectuée de façon centralisée ce qui diminue drastiquement son coût énergétique quand on le divise par le nombre potentiellement immense d’utilisateurs. L’étape de la reconnaissance (ou classification) peut déjà être implémentée de façon très efficace du point de vue énergétique. Les nouvelles générations de smartphone sont généralement équipés de circuits d’accélération de traitement de classification AI.
Une intelligence artificielle forte est un système capable d’apprendre n’importe quoi pour résoudre n’importe quel problème. Aujourd’hui les systèmes développés sont incapables de faire cela. C’est pour cela que personne n’en parle pas.
L’interview d’Eric Sadin par Thinkerview à l’occasion de la sortie de son livre « l’intelligence artificielle ou l’enjeu du siècle »
Selon lui on parle beaucoup d’effets de l’IA (avantages supposés ou certains inconvénients) mais pas des causes, de ce qui se joue et ce qui se joue c’est que « l’humain a érigé une instance à nous dire la vérité en toutes choses »: