
Des documents de réunion aux appels de résultats, en passant par les conversations hors site avec les dirigeants et les machines à café, le sujet de l’IA est omniprésent. Il s’agit d’une formidable opportunité de réinventer le travail, de libérer la créativité et d’élargir les possibilités des organisations et des individus. Il en va de même pour la pression.
En réponse, de nombreuses organisations déploient et testent des outils. Une partie de cette activité est obligatoire. Mais beaucoup d’entre eux passent à côté du point le plus profond. Trop de dirigeants se demandent : « Comment l’IA va-t-elle nous changer ? » Une meilleure question est la suivante : quel type de leadership construisons-nous pour guider l’IA ?
Cette distinction est importante car la technologie à elle seule ne détermine pas les résultats. Les décisions de leadership font référence aux systèmes, normes et capacités qu’une organisation choisit de construire et d’appliquer dans ses opérations.
Voici trois façons d’améliorer les suggestions des gens à l’ère de l’IA.
Ne laissez pas la peur freiner vos ambitions
Le potentiel de l’IA réside dans des expériences audacieuses. Mais même dans les organisations les plus sophistiquées, la peur les supprime silencieusement. C’est pourquoi je me sens nerveux. Les dirigeants demandent aux employés de mener des expériences audacieuses avec l’IA tout en lançant des programmes d’efficacité que les employés interprètent comme un précurseur de licenciements. Quand les gens se sentent exposés, ils jouent petit. Les idées révolutionnaires cèdent la place à des cas de micro-utilisation, et les entreprises affinent les modèles d’aujourd’hui plutôt que de créer les modèles de demain.
Que faire : Les dirigeants peuvent réduire la peur en créant un espace protégé pour l’expérimentation de l’IA, à l’abri des pressions d’efficacité à court terme. La recherche montre que ce type de sécurité psychologique est important pour la performance. Les équipes sécurisées identifient les problèmes plus tôt, remettent en question les hypothèses plus librement et apprennent plus rapidement. Si les dirigeants veulent une réflexion audacieuse, ils doivent réduire le coût de leur mise en œuvre. Sinon, l’IA pourrait améliorer l’efficacité et le moment de repenser pourrait passer.
L’histoire le prouve. Lorsque Siemens et Toyota réinventaient leurs systèmes de production, ils protégeaient explicitement les emplois. Ce que les entreprises ont renoncé en matière d’épargne à court terme, elles l’ont gagné en innovation à long terme. Les gens osaient prendre des risques parce qu’ils pensaient que les bénéfices de la productivité seraient partagés et non militarisés.
Créer des opportunités pour que les gens apprennent est une autre façon de contribuer à réduire la peur et de permettre aux gens de penser au-delà de ce qui est facilement possible. C’est l’idée derrière les efforts du PDG Satya Nadella pour inculquer une mentalité de « tout apprendre » chez Microsoft. Cela a permis de ne pas encore tout savoir et a contribué à des percées dans les produits et les stratégies. Une autre approche consiste à prévoir du temps régulier pour le travail génératif, comme la pratique du « 20 % de temps » de Google, qui encourage les ingénieurs à réfléchir à des projets personnels qui pourraient être utiles à l’entreprise. C’est ainsi que des services comme AdSense et Google News ont vu le jour.
Utiliser l’IA comme entrée au lieu de la valeur par défaut
Des volants aux agents IA d’hier, chaque invention a augmenté ou remplacé le comportement humain. Le danger est que les gens deviennent tellement dépendants des outils qu’ils cessent de réfléchir.
À mesure que l’accès aux modèles d’IA et à la puissance de calcul s’étendra, les avantages analytiques disparaîtront. Cela rend la capacité humaine unique à interpréter le contexte, à envisager des compromis, à comprendre les impacts des parties prenantes et à remettre en question les résultats encore plus précieuse. L’Institut pour l’intelligence artificielle centrée sur l’humain de l’Université de Stanford a constaté que les équipes qui combinent les recommandations de l’IA avec la supervision d’experts surpassent systématiquement les systèmes entièrement automatisés. Ou, comme l’a dit le professeur de première année de mon fils, être intelligent, c’est savoir qu’une tomate est un fruit. Être malin, c’est savoir ne pas mettre de tomates dans sa salade de fruits.
Que faire : Concevoir des décisions pour garantir que l’IA éclaire plutôt qu’elle ne remplace le jugement. Pour les décisions critiques, les dirigeants devraient exiger de leurs équipes qu’elles documentent le raisonnement humain derrière les décisions basées sur l’IA et rendent la logique explicite afin qu’elles puissent être testées. Au fil du temps, cela renforce la compréhension et la mémoire institutionnelle, garantissant que les gens assument la responsabilité de leurs appels plutôt que de blâmer le modèle. Les équipes peuvent également encourager la dissidence structurelle comme antidote à l’excès de confiance de l’IA en posant des questions telles que « Que doit-il être vrai pour que cela soit valable ? »
Mettre l’humain au centre des jugements de valeur
Le leadership éthique à l’ère de l’IA signifie décider clairement et de manière itérative où s’arrête l’optimisation et où commence la responsabilité humaine. Parmi les questions à considérer figurent les suivantes : quelles décisions les algorithmes devraient-ils être autorisés à prendre ? Qui est responsable lorsque les décisions basées sur l’IA causent du tort ?
Que faire : Il est important que les dirigeants soient clairs sur les limites qu’ils ne doivent jamais franchir. Intégrez la gouvernance à vos flux de travail pour permettre aux utilisateurs de prendre les décisions les plus importantes. Former les managers à peser ce qui est possible et quelle est leur responsabilité.
Le jugement, l’éthique et les valeurs ne peuvent être sous-traités à l’IA. Ces capacités doivent être créées puis gérées de manière à ce qu’elles commencent au sommet et soient intégrées dans toute l’organisation. Les compromis sont inévitables en affaires. À l’ère de l’IA, il faut être intentionnel.
Les dirigeants qui comprennent ce moment ne déploieront pas d’outils d’IA simplement parce qu’ils le peuvent. Ils le feront d’une manière qui tire parti de la sécurité psychologique, du jugement humain et de la clarté éthique. L’efficacité sans empathie n’est pas un progrès. L’innovation sans jugement n’est pas du leadership.
L’IA ne décidera pas de l’avenir. Les dirigeants le feront, et l’histoire ne tolérera pas les différences.
Les opinions exprimées dans les articles de commentaires de Fortune.com sont uniquement celles de l’auteur et ne reflètent pas nécessairement les opinions ou les croyances de Fortune.

