
Lorsque l’une des plus grandes institutions financières du pays a annoncé début janvier qu’elle cesserait de recourir à des sociétés externes de conseil en vote et s’appuierait plutôt sur des systèmes internes d’IA pour voter sur les questions liées aux actionnaires, cette décision a été largement considérée comme un discours d’investisseur. Mais l’impact s’étend bien au-delà des gestionnaires d’actifs.
Pour les conseils d’administration d’entreprises, ce changement signale quelque chose de plus fondamental. Autrement dit, la gouvernance est de plus en plus interprétée non seulement par les humains mais aussi par les machines. Et la plupart des conseils d’administration n’ont pas encore pleinement réfléchi à ce que cela signifie.
Pourquoi les conseillers en proxy sont devenus si puissants
Les sociétés de conseil en proxy n’étaient pas destinées à jouer un rôle d’intermédiaires influents. Ils sont apparus pour résoudre des problèmes pratiques d’échelle et de coordination.
Alors que les investisseurs institutionnels détenaient des actions dans des milliers d’entreprises, le vote par procuration s’est considérablement développé, couvrant tout, depuis l’élection des administrateurs et la rémunération des dirigeants jusqu’aux fusions et à une série de propositions d’actionnaires. Voter de manière responsable dans ce monde a nécessité du temps, de l’expertise et une infrastructure dont de nombreuses entreprises ne disposent pas.
Les conseillers en vote par procuration ont comblé cette lacune en regroupant les données, en analysant les informations divulguées et en fournissant des recommandations de vote. Au fil du temps, un petit nombre d’entreprises ont fini par dominer le marché. Leur influence s’est accrue non pas parce que les investisseurs devaient les suivre, mais parce que la coordination était efficace, défendable et vérifiable.
Tout aussi important, les conseillers en vote ont abordé des questions de coordination sur lesquelles les actionnaires n’avaient en réalité aucun mot à dire. Leurs racines intellectuelles résident dans des militants comme Robert Monks, qui pensaient que la dispersion de la propriété protégeait le pouvoir des entreprises de toute contestation. L’objectif n’était pas d’automatiser le vote, mais d’aider les actionnaires à agir collectivement. Pour livrer des vérités qui dérangent à la direction qui, autrement, n’atteindrait jamais le sommet. Mais au fil du temps, à mesure que l’échelle, la standardisation et l’efficacité empêchaient les conflits, les mécanismes mis en place pour faire respecter ce jugement le remplaçaient de plus en plus.
Ce qui a commencé comme un moyen d’ajuster le jugement des actionnaires est en réalité devenu une alternative.
Pourquoi le modèle change
Le pouvoir qui a permis l’expansion des conseillers en vote a également mis en évidence la tension entre efficacité et jugement.
Les politiques standardisées ont apporté de la cohérence, mais souvent aux dépens du contexte. Les décisions complexes en matière de gouvernance, le calendrier de succession du PDG, les compromis stratégiques et le renouvellement du conseil d’administration aboutissent de plus en plus à des résultats dichotomiques. La surveillance politique et réglementaire s’est accrue. Les sociétés de gestion de portefeuille ont alors commencé à se poser des questions fondamentales. Si le vote par procuration est au cœur de la responsabilité fiduciaire, pourquoi tant de décisions sont-elles externalisées ?
Le résultat fut une reconfiguration progressive. Les conseillers en proxy s’éloignent des recommandations universelles. Les grands investisseurs renforcent leurs capacités de gestion interne. Et maintenant, l’intelligence artificielle est arrivée.
Qu’est-ce qui va changer avec l’IA et qu’est-ce qui restera le même ?
L’IA promet ce que faisaient autrefois les conseillers en proxy : évolutivité, cohérence et rapidité. Le système est conçu pour traiter efficacement des milliers de réunions, de soumissions et de divulgations.
Mais l’IA n’élimine pas le jugement. Je vais le déplacer.
Les décisions sont désormais reflétées en amont dans la conception du modèle, les données d’entraînement, la pondération des variables et les protocoles de remplacement. Ces choix sont tout aussi importants que votre politique de vote par procuration. Cela devient tout simplement moins visible.
Alors que les conseillers en vote regroupaient autrefois les voix des actionnaires pour contester le pouvoir de direction, l’IA risque de rendre ces défis plus discrets, plus propres et plus difficiles à suivre.
Pour les conseils d’administration, cela modifie le public cible des informations sur la gouvernance. Ce ne sont plus seulement des analystes humains qui lisent entre les lignes. Historiquement, de plus en plus d’algorithmes lisent littéralement sans contexte, à moins que le tableau ne fournisse lui-même le contexte.
Questions de gouvernance non posées par le comité
Ce changement soulève une série de questions que de nombreux conseils d’administration n’ont pas encore pleinement résolues.
Comment sommes-nous évalués ? Les systèmes d’IA peuvent obtenir des informations à partir de déclarations de revenus, de déclarations de revenus et de dépenses, de sites Web, de rapports médiatiques et d’autres sources publiques. Les signaux de gouvernance s’accumulent désormais en permanence, et pas seulement pendant la saison des procurations.
Où peut-il être mal lu ? Langage adapté aux lecteurs humains : la nuance, la discrétion et les engagements évolutifs peuvent dérouter les machines. L’ambiguïté peut être interprétée comme une contradiction. Le silence peut être interprété comme un risque.
Et qui est responsable en cas de problème ? Il n’existe pas de processus de contestation universel pour le vote par procuration basé sur l’IA. La responsabilité peut en fin de compte incomber au gestionnaire d’actifs, mais les voies de remontée des informations peuvent être opaques, informelles ou prendre beaucoup de temps, en particulier dans le cas de votes de routine.
Les conseils d’administration doivent s’attendre à ce que si un algorithme interprète mal la gouvernance, il se peut qu’il n’y ait aucun analyste à appeler avant de voter, et qu’il n’y ait aucun moyen clair de corriger le dossier.
Considérez ce scénario
Le président du conseil d’administration d’une entreprise porte le même nom qu’un ancien cadre d’une autre entreprise qui a été impliqué dans un conflit de gouvernance il y a plusieurs années. Les systèmes d’IA analysant les informations publiques ont associé cette controverse à la mauvaise personne, sensibilisant discrètement aux risques de gouvernance avant les élections au conseil d’administration.
Dans le même temps, le conseil d’administration retarde d’un an la succession du PDG afin de maintenir la stabilité lors d’une acquisition majeure. Cette décision est réfléchie et intentionnelle, mais les preuves sont dispersées dans les déclarations de revenus, les appels de résultats et les conversations avec les investisseurs. Les systèmes d’IA signalent les retards comme des faiblesses dans la gouvernance.
Quelques jours avant l’assemblée générale annuelle, un blog tiers a publié des critiques spéculatives sur l’indépendance du conseil d’administration. Cette affirmation est sans fondement, mais elle a été rendue publique. Les systèmes d’IA ingèrent le contenu avant qu’il ne soit examiné par des humains.
Le conseil d’administration ne reconnaîtra jamais l’erreur. Aucun analyste n’est impliqué, seuls les résultats du vote réagissent après coup.
Ceux-ci ne nécessitent pas d’acteurs malveillants ou d’intentions malveillantes. C’est simplement ce qui se passe à l’intersection de l’échelle, de l’automatisation et de l’ambiguïté.
Ce que le conseil d’administration peut et ne peut pas faire
Les conseils d’administration n’ont aucun contrôle sur la manière dont les gestionnaires d’actifs conçoivent leurs systèmes d’IA. De plus, vous ne devriez pas essayer d’optimiser la divulgation de votre algorithme.
Toutefois, les conseils d’administration peuvent gouverner différemment.
Certains conseils d’administration s’efforcent déjà de fournir des informations narratives plus claires, notamment une explication plus claire de leur philosophie de gouvernance, de la manière dont les compromis sont effectués et de la manière dont le jugement est exercé. Non pas parce que les algorithmes « prennent soin », mais parce que les humains continuent de concevoir, de surveiller et parfois de contourner ces systèmes.
La clarté réduit le risque de malentendu. La cohérence réduit le coût des examens humains. Le contexte vous aide à prendre des décisions pour survivre à l’automatisation.
Cela ne signifie pas que le conseil doit expliquer publiquement toutes ses décisions ou éliminer son pouvoir discrétionnaire. Une divulgation excessive comporte ses propres risques. Mais cela signifie être prudent quant aux décisions qui nécessitent une compréhension du contexte et à celles qui peuvent être laissées à des suppositions.
Les conseils d’administration doivent également repenser l’engagement. Les conversations avec les investisseurs ne peuvent plus se concentrer uniquement sur la politique et les résultats. Des questions sur le processus doivent être incluses. Où intervient le jugement humain, ce qui déclenche les examens, comment les différends factuels sont traités et avec quelle rapidité les erreurs peuvent être corrigées.
Il ne s’agit pas de maîtriser l’IA. Il s’agit de comprendre où réside la responsabilité lorsque les décisions de gouvernance sont médiatisées par des machines.
La gouvernance à l’ère des algorithmes
Dans un environnement de vote assisté par l’IA, certaines hypothèses bien connues ne sont plus vraies.
Le silence est rarement neutre. L’ambiguïté est rarement un problème. Et la cohérence dans le temps, entre les plateformes et entre les informations fournies, devient un atout pour la gouvernance.
Ce changement est important aujourd’hui, car les résultats du vote par procuration sont de plus en plus déterminés avant que les conseils d’administration ne reconnaissent la nécessité d’une discussion.
Les tableaux qui survivent le mieux à cette transition ne sont pas ceux qui optimisent les scores ou les listes de contrôle. Il s’agira de conseils d’administration qui documenteront les décisions, expliqueront les compromis et raconteront une histoire de gouvernance cohérente qui reste vraie, qu’elle soit lue par des analystes humains, des conseillers en proxy ou des machines.
Ce n’est pas un défi technique.
C’est une question de gouvernance.
Les opinions exprimées dans les articles de commentaires de Fortune.com sont uniquement celles de l’auteur et ne reflètent pas nécessairement les opinions ou les croyances de Fortune.
Cet article a été initialement publié sur Fortune.com

