Christopher Marquis
Auteur, professeur de management à l’Université de Cambridge.La mascarade des entreprises en matière d’IA doit cesser
Tandis que l’IA progresse et s’immisce de plus en plus dans nos vies, il ne faut s’attendre ni à ce qu’elle crée un monde technologique utopique, ni à ce qu’elle anéantisse l’humanité. L’évolution la plus probable réside en effet quelque part entre les deux – dans un avenir façonné par l’adaptation face à l’imprévu, par le compromis et, plus important encore, par les décisions que nous prenons aujourd’hui pour maîtriser et guider le développement de l’IA.
En tant que leader mondial de l’IA, les États-Unis jouent un rôle particulièrement important dans la construction de cet avenir. Or, le plan d’action pour l’IA récemment annoncé par le président Donald Trump réduit à néant les espoirs de renforcement du contrôle fédéral, adoptant une approche davantage favorable à la croissance dans le développement de cette technologie. Il est par conséquent d’autant plus urgent que les gouvernements des États, les investisseurs et les citoyens américains se concentrent sur un outil de responsabilisation moins évoqué : la gouvernance d’entreprise.
Comme le démontre la journaliste Karen Hao dans son livre Empire of AI, les entreprises leaders du secteur se livrent d’ores et déjà à une surveillance de masse, exploitent leurs travailleurs, et aggravent le changement climatique. Ironie de la situation, bon nombre d’entre elles revêtent le statut de « public-benefit corporations » (PBC), une structure de gouvernance censée éviter ces abus et protéger l’humanité. Manifestement, cela ne fonctionne pas comme prévu.
La structuration des entreprises d’IA en tant que PBC constitue une forme très réussie d’éthique-washing. En s’attribuant une image de vertu auprès des régulateurs et de l’opinion publique, ces entreprises affichent un vernis de responsabilité, qui leur permet d’échapper à une surveillance plus systémique de leurs pratiques au quotidien, lesquelles demeurent opaques et potentiellement nuisibles.
La startup xAI d’Elon Musk, par exemple, est une PBC dont l’objectif affiché consiste à « comprendre l’univers ». Or, les agissements de cette entreprise – qu’il s’agisse de la construction discrète d’un superordinateur polluant à proximité d’un quartier majoritairement noir à Memphis dans le Tennessee, ou de la création d’un chatbot élogieux à l’égard d’Hitler – témoignent d’une troublante indifférence à la transparence, à la surveillance éthique et aux communautés concernées.
Les PBC constituent un outil prometteur, permettant aux entreprises de servir l’intérêt public tout en enregistrant des profits. Seulement voilà, sous sa forme actuelle – notamment en vertu des lois du Delaware, État au sein duquel sont immatriculées la plupart des entreprises publiques américaines – le modèle abonde de possibilités d’échappatoires juridiques, ne s’accompagne pas de véritables contraintes, et ne saurait par conséquent apporter les garde-fous nécessaires au développement de l’IA. Si nous entendons prévenir les effets pervers, améliorer le contrôle, et imposer à ces entreprises d’intégrer l’intérêt général dans leurs principes de fonctionnement, il est indispensable que les législateurs des États, les investisseurs et les citoyens exigent que les PBC soient repensées et renforcées.
Sans objectifs spécifiques, temporellement définis et quantifiables, il est impossible d’évaluer et de responsabiliser ces entreprises. Songez à la manière dont les PBC du secteur de l’IA s’appuient sur de vagues déclarations d’impact positif pour guider leurs opérations, OpenAI affichant par exemple comme objectif de « veiller à ce que l’IAG profite à l’ensemble de l’humanité », et Anthropic ambitionnant de « maximiser les résultats positifs pour l’humanité à long terme ». Destinées à inspirer, ces nobles intentions revêtent une imprécision qui peut être exploitée pour justifier n’importe quelle ligne de conduite, y compris des approches susceptibles de mettre en péril le bien-être collectif.
Les lois du Delaware n’imposent en effet aucunement aux PBC d’opérationnaliser la dimension de l’intérêt public au moyen de normes mesurables ou d’évaluation indépendantes, et bien qu’elles exigent la publication de rapports biennaux sur les performances en matière d’intérêt collectif, elles n’imposent pas que soient rendues publiques les conclusions de ces rapports. Les PBC ont ainsi toute liberté d’honorer ou de négliger leurs obligations sans que les citoyens en soient informés.
En ce qui concerne l’application de la loi, les actionnaires ont théoriquement la possibilité d’intenter une action en justice s’ils estiment que le conseil d’administration n’a pas respecté la mission d’intérêt public de l’entreprise. Ce recours est toutefois vide de sens, dans la mesure où les dommages causés par l’IA sont généralement diffus, de longue durée, et inconnus des actionnaires. Les parties prenantes impactées – telles que les communautés marginalisées et les sous-traitants sous-payés – ne disposent par conséquent d’aucune voie de recours pratique.
Pour pouvoir véritablement jouer un rôle dans la gouvernance de l’IA, le modèle des PBC doit s’étendre au-delà du simple masque de respectabilité, ce qui impose de repenser la manière dont l’« intérêt public » est défini, régi, mesuré et préservé au fil du temps. Compte tenu de l’absence de contrôle à l’échelle fédérale, il est nécessaire que cette réforme soit menée au niveau des États.
Les PBC doivent être contraintes de s’engager à atteindre des objectifs spécifiques, mesurables, temporellement définis, qui apparaissent noir sur blanc dans leurs documents de gouvernance, qui reposent sur des politiques internes, et qui soient liés aux évaluations de performance, aux bonus ainsi qu’aux promotions de carrière. Pour les entreprises d’IA, ces objectifs pourraient consister à garantir la sécurité des modèles de base, à réduire les biais dans les résultats des modèles, à minimiser l’empreinte carbone des cycles de formation et de déploiement, à mettre en œuvre des pratiques de travail équitables, ainsi qu’à former les ingénieurs et les chefs de produits aux droits de l’homme, à l’éthique et à la conception participative. Ce sont ces objectifs clairement définis, pas les vagues aspirations, qui permettront aux entreprises d’établir les fondations d’un alignement interne et d’une responsabilisation externe crédibles.
Les conseils d’administration et le processus de surveillance doivent également être repensés. Il est nécessaire que les conseils d’administration incluent des directeurs à l’expertise vérifiable en matière d’éthique de l’IA, de sécurité, d’impact social et de durabilité. Chaque entreprise devrait compter dans ses rangs un responsable de l’éthique doté d’un mandat clair, d’une autorité indépendante et d’un accès direct au conseil d’administration, qui puisse superviser les processus d’examen éthique, et qui soit en capacité d’interrompre ou de remanier si nécessaire les stratégies relatives aux produits.
Enfin, les entreprises d’IA structurées en tant que PBC doivent être tenues de publier des rapports annuels détaillés, incluant des informations approfondies et segmentées concernant la sûreté et la sécurité, les biais et l’équité, l’impact social et environnemental, ainsi que la gouvernance des données. Il est nécessaire que des audits indépendants – menés par des experts de l’IA, de l’éthique, des sciences de l’environnement et du droit du travail – évaluent la validité de ces informations, ainsi que les pratiques de gouvernance des entreprises, et leur alignement global sur les objectifs d’intérêt public.
Le plan d’action de Trump en matière d’IA confirme la réticence de son administration à réglementer ce secteur en pleine évolution. Pour autant, même en l’absence de contrôle fédéral, les législateurs des États, les investisseurs et les citoyens peuvent renforcer la gouvernance de l’IA par les entreprises, en faisant pression pour réformer le modèle des PBC. De plus en plus de dirigeants du secteur technologique semblent considérer l’éthique comme facultative. Les Américains doivent leur prouver qu’ils ont tort, sans quoi ils laisseront la désinformation, l’inégalité, l’exploitation des travailleurs et le pouvoir incontrôlé des entreprises façonner l’avenir de l’IA.
© Project Syndicate, 2025.
à lire aussi
Article : Cinema. In “Calle Málaga,” Maryam Touzani celebrates life and breaks the taboo around ageing
Born of pain, loss and the need to keep her mother’s memory alive, Maryam Touzani’s new film is conceived as a tribute to renewal. In the streets of Tangier, the director speaks of her desire to turn old age into a privilege and to make fiction a space of freedom in which to capture what endures within us and the love of life.
Article : Boudchart in Casablanca: a new stage in a carefully crafted artistic journey
Casablanca welcomes Amine Boudchar on April 16, 17, 18 and 19 for a series of concerts marking a turning point in his artistic development.
Article : Ligue des champions de la CAF : l’AS FAR élimine la RS Berkane et rejoint Mamelodi Sundowns en finale
Battu 1-0 à l’extérieur, le club rbati a validé son billet grâce à son succès 2-0 à l’aller, retrouvant l’ultime rendez-vous continental pour la première fois depuis 1985, où il avait été sacré.
Article : Éducation : le Maroc renforce sa coopération avec l’université chinoise Beihang
Le ministère marocain de l’Éducation nationale, du Préscolaire et des Sports a signé vendredi 17 avril à Rabat une convention de partenariat avec l’université chinoise Beihang University, visant à renforcer la coopération bilatérale en matière d’enseignement, de recherche scientifique et d’innovation technologique.
Article : Sahara : Bruxelles se projette déjà sur l’investissement
Sur Medi1TV, la haute représentante de l’UE pour les affaires étrangères a présenté l’issue "politique" du différend autour des provinces du Sud comme un facteur d’accélération d’une dynamique européenne déjà amorcée sur le terrain.
Article : Agents de gardiennage : bientôt fin des journées de 12 heures payées seulement 8
Le gouvernement, en concertation avec les partenaires sociaux, veut corriger une situation persistante en revoyant le cadre légal applicable aux amplitudes horaires dans la sécurité privée.