Bonheur et sueurs froides
Face à l’émergence rapide de l’intelligence artificielle dans leur quotidien, le regard des Français est équivoque. Tantôt distants, enthousiastes ou sceptiques, les Français relèvent pour près de 50% d’entre eux (selon une étude réalisée par Forvis Mazars et l’institut CSA en mars 2022) d’une catégorie pouvant se définir comme les « optimistes vigilants », appréhendant l’intelligence artificielle comme une famille d’outils puissants qui peut être mise au service d’enjeux sociaux tels que la santé et l’environnement, mais qui porte en contrepartie des risques élevés : protection des données, biais d’équité, opacité, contrôle humain sous influence…
Le regard ambivalent porté sur ChatGPT dans le débat public français l’illustre : cet outil pourrait faire le bonheur d’étudiants malicieux, tout en donnant des sueurs froides à leurs professeurs ; il pourrait aider de nombreux professionnels à sortir de l’ornière de la page blanche, mais constituer un danger pour un marché fondé sur la propriété intellectuelle ; ses réponses suscitent souvent l’émerveillement, d’autres sont variables ou relèvent de sophismes sur des questions d’ordre moral.
Un organisme indépendant
Parce que l’IA pourrait être à l’ère d’internet ce que la machine à vapeur fut à la révolution industrielle, les Français ne peuvent envisager cette évolution technologique sans en appréhender les risques et attendent ainsi des opérateurs un comportement de maîtrise responsable. Ils croient relativement peu aux procédures d’autocontrôle des opérateurs d’IA, 40% les jugeant même peu efficaces.
Un dispositif prévoyant des contrôles réalisés par un organisme indépendant apparaît au contraire efficace pour 74% des Français, diminuant drastiquement la proportion des sceptiques de 40 à 26%. Les grands acteurs privés utilisateurs d’IA dans des domaines sensibles tels que l’emploi, le crédit, l’assurance ou la mobilité autonome, sont attendus au tournant pour la mise en œuvre d’IA en responsabilité, sous contrôle.
Encadrement et contrôle
Les attentes à l’égard des pouvoirs publics sont également grandes pour créer les conditions de la confiance des Français en l’IA en agissant à la fois en tant qu’opérateurs, dans des domaines tels que la santé ou la sécurité où le potentiel de l’IA est reconnu ; en tant que garants d’enjeux sociétaux, pour protéger par exemple nos concitoyens d’éventuelles dérives de l’IA en matière d’emploi ou d’égalité des chances ; en tant qu’acteurs systémiques devant garantir la bonne utilisation des informations sur les usagers ; enfin, en tant que régulateurs pour favoriser le développement d’un environnement de contrôle efficace pour tous les opérateurs.
Pour renforcer l’adhésion des Français, les concepteurs et les organismes utilisateurs d’IA ont tout intérêt à accompagner ce mouvement. Dans le cas de ChatGPT, de la prohibition de contenus à caractère haineux ou raciste à l’élaboration d’un système anti-plagiat, ses concepteurs disposent de leviers pour lutter contre ces excès… des leviers nécessitant eux-mêmes des précautions puisque souvent contournables et porteurs de risques (pertinence, légitimité, biais). L’encadrement et le contrôle sont de nature à renforcer l’adhésion réelle mais fragile des Français pour tirer le meilleur de cette technologie davantage connue que comprise.
Article paru dans Les Echos