Pépites de managementRetrouvez ici quelques pépites issues de notre veille des meilleures publications sur le leadership et le management
Stratégie

Désinvestissez-vous suffisamment ?
Mettre fin à des projets ou se séparer d’activités historiques est toujours difficile. C’est pourtant une pratique qui distingue les entreprises sur-performantes sur la durée. La logique est assez intuitive : maintenir des projets sans avenir ne fait que disperser les ressources et entamer la capacité de l’entreprise à s’investir dans des pistes plus solides. Néanmoins, dans la pratique, de nombreux biais rendent ce processus difficile. Le cabinet de conseil PwC a identifié 4 pratiques qui aident à rendre l’exercice de désinvestissement plus naturel et plus efficace :
- Mettez en place des évaluations de portefeuille standardisées et régulières. La cadence est importante pour en faire une habitude.
- Faites un examen approfondi de chaque projet du portefeuille, incluant l'analyse de l'historique des données financières, mais aussi l’analyse des informations extra-financières et l’analyse de l'environnement concurrentiel actuel et futur. Beaucoup d’entreprises s’arrêtent à la première de ces analyses.
- Impliquez le conseil d’administration dans ces évaluations. L’étude montre un impact positif significatif de cette implication sur la probabilité que les entreprises envisagent des cessions. La participation du conseil d’administration accélère également le processus de mise en œuvre.
- Travaillez en parallèle sur des plans de réinvestissement. Identifier les autres pistes que l’on pourra poursuivre une fois les projets actuels clôturés aide à contrer le biais de statu quo, en rendant visible le coût d’opportunité.
Source : The power of portfolio renewal and the value in divestitures, PwC US, mars 2023.
Pour en savoir plus :

En matière d’IA, comment éviter de mettre la charrue avant les bœufs ?
Actuellement, la plupart des entreprises s’interrogent sur la meilleure manière de tirer parti de l’IA à leur échelle. On voit ainsi fleurir les applications et les expérimentations, avec plus ou moins de réussite. Bien souvent, les frustrations sont à la hauteur des espoirs. Et pour cause : l’IA, si « intelligente » soit-elle, ne sait finalement faire qu’une chose – travailler à partir des données que nous lui transmettons. Pour en tirer parti, il faut donc disposer de données centralisées, en qualité et en quantité suffisantes et issues de sources diversifiées. Or, dans bien des organisations, ces données sont disséminées entre les différents métiers qui disposent chacun de leurs propres systèmes.
Ainsi, avant d’envisager des dispositifs sophistiqués d’IA générative, on gagne à réaliser un rapide diagnostic de son organisation. Les connaissances tacites y sont-elles suffisamment formalisées ? Sont-elles centralisées ? Le mode de collecte et de traitement des données est-il suffisamment standardisé ? D’après la nature et la quantité des données collectées, y a-t-il un risque de susciter des réponses biaisées de la part de son dispositif d’IA ? Gagnerait-on à disposer de sources supplémentaires ? Ce travail en amont est indispensable pour garantir la qualité des réponses de l’IA et maximiser son potentiel d’aide à la prise de décision.
Source : Harnessing AI to accelerate digital transformation, The Choice by ESCP, juillet 2023.
Pour en savoir plus :

Savoir quand revenir à un mode décisionnel plus intuitif
C’est un fait admis : pour prendre une décision de qualité, mieux vaut collecter un maximum d’informations et les analyser avec soin. Mais est-ce toujours vrai ?
Plusieurs travaux de recherche invitent à nuancer cette conviction. Ils mettent en évidence que dans certains contextes, on gagne à s’affranchir d’une analyse poussée de la situation. Mieux vaut alors se contenter de décider en se basant sur des critères simples, tels que des règles empiriques fondées sur des expériences passées. Cela s’observe dans trois cas de figure :
– Un contexte incertain, saturé en informations : lorsque des données et des analyses multiples sont disponibles et que l’état de l’art ne permet pas de trancher sur des bases solides, ajouter encore plus d’informations et d’analyses ne fait qu’augmenter la charge cognitive, sans pour autant clarifier la décision à prendre.
– Un environnement fluctuant : sur les marchés en évolution rapide, les données sont parfois obsolètes avant même que l’on ait eu le temps de les collecter et de les traiter.
– Une difficulté d’accès à l’information : parfois, le coût nécessaire pour collecter de l’information en quantité et en qualité suffisantes n’est pas justifié par le potentiel de gain lié à une décision mieux informée.
Dans de telles circonstances, la qualité des décisions prises repose moins sur la finesse et l’exhaustivité des analyses que sur la capacité à mobiliser son expérience ou celle de ses experts. Une découverte contre-intuitive à l’heure du Big Data !
Source : The Potency of Shortcuts in Decision-Making, Sebastian Kruse, David Bendig, Malte Brettel, MIT Sloan Management Review, septembre 2023.
Pour en savoir plus :

Comment éviter de transmettre des biais discriminatoires à ses algorithmes ?
En 2023, huit entreprises sur dix ont planifié d’investir dans l’apprentissage automatique (machine learning). Ce sous-domaine de l’intelligence artificielle permet de repérer les schémas récurrents dans les données pour guider la prise de décision.
De nombreuses décisions peuvent ainsi être déléguées à des algorithmes : sélection des candidats pour un recrutement, pour un crédit… Mais comment éduquer son algorithme de façon à éviter les biais, et en particulier les biais discriminatoires ? Les expérimentations montrent en effet que l’IA risque d’amplifierles discriminations déjà à l’œuvre. Cela résulte du fait qu’elle s’appuie sur des historiques de sélection pour effectuer son apprentissage – or ces historiques sont souvent biaisés et aboutissent à une sous-représentation de certaines populations.
De façon assez contre-intuitive, une étude sur un algorithme de gestion des crédits suggère que lui faire part des données personnelles sensibles, plutôt que de les masquer lors de l’apprentissage, permet de réduire notablement le risque de discrimination. Cerise sur le gâteau : la profitabilité des crédits accordés par cet algorithme a aussi augmenté de 8 %. Lorsqu'il n'est pas possible d'inclure directement ces données lors de la phase d’apprentissage de l'algorithme, on peut alors appliquer des facteurs de correction pour rééquilibrer les échantillons qu'on lui transmet, par exemple en augmentant la part des populations traditionnellement sous-représentées.
Source : Removing Demographic Data Can Make AI Discrimination Worse, Stephanie Kelley, Anton Ovchinnikov, Adrienne Heinrich, David R. Hardoon, Harvard Business Review, mars 2023.
Pour en savoir plus :

IA contre IA, le match du siècle ?
Le développement des intelligences artificielles augmente fortement les menaces en matière de cybersécurité. Leur utilisation par les hackers pourrait permettre de combiner des attaques ultra-personnalisées exploitant les informations spécifiques de l’entreprise. Par exemple, imaginez un appel de phishing avec une voix générée par IA imitant à s’y méprendre le ton et le style conversationnel de votre patron – un scénario de science-fiction qui va bientôt devenir réalité…
Et si vous utilisiez la puissance de l’IA pour vous prémunir contre ce risque ? Des entreprises travaillent déjà à la conception de logiciels, comme ZeroGPT, permettant de détecter des contenus générés par IA. L’IA permet aussi d’améliorer ses capacités de détection des cyber-risques. Par exemple, une IA personnalisée pourra facilement détecter des changements suspects dans le comportement en ligne d’un collaborateur – augmentation soudaine de la masse de données consultées, variation importante de la structure de mailing, etc. – et lancer une alerte, le cas échéant. Bien sûr, ces nouveaux outils n’iront pas sans soulever des questionnements éthiques autour de la protection des données personnelles – mais ils deviendront rapidement incontournables. Un nouveau chantier à surveiller de près.
Source : From ChatGPT to HackGPT: Meeting the Cybersecurity Threat of Generative AI, Karen Renaud, Merrill Warkentin, George Westerman, MIT Sloan Management Review, avril 2023.
Pour en savoir plus :