Penser l’intelligence artificielle, en bonne intelligence

Penser l’intelligence artificielle, en bonne intelligence

Partager

Vendredi 20 avril 2018
Rapport Villani

Intitulé «Donner un sens à l’intelligence artificielle», le rapport du député Cédric Villani, mathématicien lauréat de la médaille Fields, a été remis au gouvernement le 28 mars. Face aux nouvelles situations de travail issues de l’automatisation, de sérieux risques psychosociaux font leur apparition, souligne-t-il. Pour tordre le cou à ces dangers, il appuie sa démarche sur les syndicats, proposant une négociation obligatoire sur ce thème en entreprise et l’ouverture d’un «chantier législatif spécifique». Il imagine aussi une sorte de «lab» chargé d’établir une complémentarité entre l’homme et la machine.

Commandé par le gouvernement, ce rapport a voulu « dresser une feuille de route sur l’IA », expliquait M. Villani en septembre 2017. Alors que les technologies de l’IA progressent considérablement depuis le début des années 2010, que les GAFA sont à la pointe de la recherche et que les pays d’Asie investissent massivement, la France est à la traîne dans ce domaine qui suscite à la fois craintes (éthiques) et fantasmes (transhumanisme), espoirs (lutte contre les inégalités) et attentes (développement économique).

Après 420 auditions d’experts de différents domaines (dont les partenaires sociaux et la CFTC), M. Villani et son équipe ont remis un rapport 230 pages, balayant des problématiques variées et proposant une série de recommandations. A l’occasion d’un sommet sur l’IA, organisé au Collège de France à Paris, le président Emmanuel Macron, s’appuyant sur ce rapport a présenté son plan pour l’intelligence artificielle.

Le mathématicien et son équipe identifient quatre secteurs prioritaires d’investissement pour la France: la santé, l’environnement, les transports, la défense. Pour ce faire, le rapport préconise différents axes de travail majeurs.

1• Favoriser un meilleur accès aux données sous le contrôle de l’Etat

Pour fournir des résultats probants, l’IA doit s’appuyer sur d’importantes bases de données (le big data) grâce auxquelles des programmes peuvent « apprendre » et effectuer des corrélations. C’est pourquoi le gouvernement veut « renforcer » la politique d’ouverture des données publiques, mais aussi issues du secteur privé. « Dans certains cas, la puissance publique pourrait imposer l’ouverture s’agissant de certaines données d’intérêt général », stipule le rapport.

Le député évoque notamment le secteur de la santé, pour lequel il aimerait la création « d’une plate-forme d’accès et de mutualisation des données pertinentes pour la recherche et l’innovation ». « Cela devra passer par une incitation des acteurs économiques au partage et à la mutualisation de leurs données, l’État pouvant ici jouer un rôle de tiers de confiance», explique le rapport. En effet les récents scandales liés à l’exploitation de données par Facebook notamment, doit inciter l’Etat à rassurer les Français sur la confidentialité et l’usage fait des informations personnelles.

La mutualisation de data présente toutefois un risque potentiel, aucun système informatique n’étant totalement inviolable. L’inquiétude est d’autant plus forte pour les données de santé, extrêmement sensibles. Si une plate-forme pour partager ces données est effectivement créée, elle devra être mise en œuvre avec de fortes garanties concernant l’anonymisation des données et la sécurité du système. La réglementation européenne, et surtout française, en matière de données de santé étant extrêmement stricte.

2• Améliorer / Développer la recherche

Pour faire face à la fuite des cerveaux préférant les dollars de la sillicon valley à la précarité et la vétusté des structures françaises, il était urgent de revaloriser ces carrières. Aussi, Cédric Villani veut fédérer chercheurs, ingénieurs et étudiants dans des instituts interdisciplinaires, à l’intérieur d’établissements publics d’enseignement et de recherche. Ils auraient aussi vocation à rapprocher le monde de la recherche des entreprises pour favoriser les transferts de technologies.

Dans ce sens, les chercheurs pourront désormais consacrer jusqu’à la moitié de leur temps au développement d’un projet pour une entité privée, contre 20% aujourd’hui. Objectif : laisser plus de place à l’expérimentation.

Alors que l’objectif fixé par le rapport était de tripler le nombre de personnes formées à l’IA d’ici à 2020, le Président Macron a finalement opté pour un doublement, moins ambitieux, mais plus réaliste.  Pour rendre la recherche française plus attractive, le gouvernement propose également de multiplier les bourses et les chaires d’excellence.

3• Prévoir la transformation du travail

Concernant l’impact sur le marché de l’emploi, le député rappelle que les différentes études à ce sujet fournissent des prévisions très différentes. Il souhaite donc la création d’un laboratoire dédié à l’analyse et aux prévisions macroéconomiques de l’effet de l’intelligence artificielle sur l’économie et l’emploi, une sorte de « GIEC de l’IA »(sur le modèle du groupement de scientifiques chargés du climat).

Il aura pour mission « d’anticiper » et « d’expérimenter des dispositifs d’accompagnement » ou encore « des modalités nouvelles de production et de répartition de la valeur ».

Ce GIEC de l’IA, aura–t-il plus de poids que son équivalent environnemental, qui rappelons-le, n’a qu’un avis consultatif ? Et qui le composera ? Vraisemblablement, les organisations syndicales y seront représentées. Encore faut-il qu’elles ne soient pas réduites à un rôle de lanceurs d’alerte et qu’elles puissent empêcher certaines dérives.

Pour anticiper les mutations du travail, il faut aussi un effort au niveau de la formation. L’objectif du gouvernement est de doubler les effectifs. Pour ce faire, il suggère la création de doubles cursus, en mélangeant par exemple le droit et l’intelligence artificielle.

4 • Une intelligence artificielle au service de l’éthique, de la diversité, et de l’écologie

«Les chercheurs, ingénieurs et entrepreneurs qui contribuent à la conception, au développement et à la commercialisation de systèmes d’IA sont amenés à jouer un rôle décisif dans la société numérique de demain,. Il est essentiel qu’ils agissent de manière responsable, en prenant en considération les impacts socio-économiques de leurs activités.» Pour ce faire, des cours d’éthique seront créés dans les formations en informatique et en écoles d’ingénieurs.

« L’IA ne peut pas être une nouvelle machine à exclure », écrit M. Villani. Entre les biais de certains programmes – qui reproduisent le racisme et le sexisme humain par exemple –, le manque de mixité dans les équipes de recherche et les risques sociaux que peuvent représenter ces programmes, l’IA peut inquiéter.

Le rapport insiste aussi sur le besoin de féminisation de l’IA – les femmes ne sont que 10 % dans les écoles d’ingénieur en informatique. « Ce manque de diversité peut conduire les algorithmes à reproduire des biais », explique le document, qui recommande une « politique incitative » visant à atteindre un taux très ambitieux de 40 % d’étudiantes d’ici à 2020.

En matière environnementale, l’IA peut permettre des économies d’énergie considérable en  optimisant de l’utilisation de l’électricité : « l’IA peut contribuer à diminuer toutes nos consommations et à amplifier toutes nos actions en faveur du respect et de la restauration des écosystèmes », souligne le rapport. Cette optimisation sera nécessaire tant aujourd’hui l’IA semble énergivore.

Si la question éthique de l’IA tourne souvent autour du transhumanisme ou de l’homme augmenté, la question militaire est également un enjeu majeur. En effet le rapport fait du secteur de la défense un secteur prioritaire en terme d’AI. Et, alors que la France et l’Europe semble très concernées par les questions éthiques, il semble que ces considérations soient moins celles des Chinois ou des Américains, très en avance sur le sujet.

Il faudra donc que l’Europe arrive à imposer, comme pour l’écologie, des normes éthiques internationales, pour éviter des dérives morales et une concurrence économique tronquée.

5 •  L’épineuse question de la responsabilité

Avec le développement de robots autonomes, va se poser la question de la réparation en cas d’accidents et de dommages. La question préoccupe tant le monde de l’assurance que celui de la justice, même si la loi ne semble pas être sur le point de changer, en France comme ailleurs.

En outre, les robots vont de plus en plus être amenés à prendre des décisions sur des situations que n’auront pas pu prédire les ingénieurs. Qui, par exemple, sera responsable des actes des voitures autonomes ? La question revient souvent : si une voiture autonome tue quelqu’un dans un accident, la responsabilité ira-t-elle au constructeur, à l’ingénieur qui a développé l’IA, au propriétaire de la voiture ou à la personne à la place du conducteur ?

Des questions brûlantes alors que des voitures autonomes expérimentales ont déjà parcouru, aux Etats-Unis, des millions de kilomètres sur de vraies routes et qu’un premier accident mortel a lieu le mois dernier.