Interface utilisateur: la convergence du Web, de la mobilité et du modèle classique

7 01 2014

L’interface « homme-machine« , le dispositif qui vous permet d’interagir avec votre équipement préféré tel que votre téléphone intelligent, est la composante clé qui détermine l’efficacité et la satisfaction que vous pouvez en tirer.

Lors d’une récente session sur mon portail bancaire, je remarquais que de nouvelles options avaient été ajoutées à la page principale, que certaines avaient déplacées, qu’on avait modifié le libellé de certaines autres options…j’ai alors esquissé un sourire résultat d’une espèce d’émotion hybride. L’utilisateur en moi: « merde où est rendu la fonction, je n’ai pas de temps à perdre ». Et le concepteur de logiciel en moi : « hum bien pensé, c’est beaucoup plus logique ».

Je suivais le sujet de près depuis quelques années, mais voilà qu’il m’apparaissait mûr: la conception d’interfaces des applicatifs Web et mobiles est arrivée à une étape charnière. Une étape vécue historiquement par les applicatifs classiques.

À mon avis, les enjeux des interfaces Web et mobiles devraient se réalignés dans le courant principal de réflexion d’ici 3 à 5 ans avec la convergence évidente, sur le plan de la gestion, des applicatifs multiplateformes et multipériphériques. Je vous propose ici ma vision des choses quant aux impacts potentiels à considérer pour le concepteur de produits.

Tout en continuant de devoir être assurément esthétiques, les interfaces utilisateurs Web et mobiles seront dorénavant confrontées plus que jamais au paradoxe de l’équilibre entre la « Simplicité » et « l’Efficacité »

Vous noterez peut-être que mon billet n’accorde pas toute l’importance nécessaire à la notion « d’esthétisme ». Cette omission est volontaire pour éviter de m’embourber dans des questions délicates telles que: Qu’est-ce qui est beau et qui ne l’est pas? Vous aimez le vert, mais qu’en est-il de votre voisin?

L’esthétisme est une notion relative et donc subjective. Les références collectives existent, mais le sujet nécessiterait un billet en soi. D’autre part, cette subjectivité appelle à la capacité de personnalisation des interfaces, notion que j’intégrerai au passage.

Ce qui est simple est efficace…euh vraiment?

Depuis le début des années 2000, les notions de simplicité et d’efficacité ont été fortement bousculées, mais, surtout, trop souvent mélangées avec des réflexions du type « Une interface simple est nécessairement efficace » ou le contraire « Une interface efficace est nécessairement simple ». La première des deux étant la plus courante.

D’abord, si la simplicité et l’efficacité sont des notions cartésiennes, mesurables, il n’en reste pas moins qu’elles sont extrêmement relatives selon l’utilisateur.

De plus, on ne peut mesurer que des résultats et dans le cas qui nous préoccupe, nous pouvons dire qu’il s’agit de l’atteinte de deux objectifs de base:

  • Faire une tâche pour obtenir un résultat souhaité.
  • Faire la tâche en question le plus rapidement possible.

De là, voyons immédiatement la distinction à faire:

  • La capacité de faire une tâche par le biais d’une interface est liée à son degré d’interprétation intuitive pour poser les actions nécessaires. Si l’utilisateur ne peut comprendre ou déduire facilement ces actions, les probabilités d’absence de résultat et de blocages opérationnels augmentent.
  • La rectitude et la rapidité avec laquelle la tâche peut être effectuée via l’interface déterminent l’efficacité de cette dernière. Pour être sûr que nous sommes au même endroit: si l’interface est simple, mais qu’il ne conduit pas à la bonne tâche…c’est foutu!

Que cachent ces constats? Que la nature des tâches et les connaissances de l’utilisateur le prédisposent automatiquement quant à la perception de ce qu’il considère simple et efficace.

Ajoutez les dimensions psychologiques (ce que je connais m’apparaît plus simple) et d’imprévisibilité du monde réel (je dois faire plusieurs choses en même temps) et nous obtenons la toile de fond qui explique en grande partie pourquoi les notions de « simplicité » et « d’efficacité » ont perdu autant leurs références chez les concepteurs de produits au cours des dernières années.

Adapter l’ergonomie de la machine aux compétences du conducteur

Compte tenu de la variabilité extrême des contextes opérationnels, il devient très important de profiler adéquatement, et le plus tôt possible, votre utilisateur final. Cette information est cruciale pendant le processus de conception de l’interface d’une fonction ou des principes généraux de navigation d’un produit.

Le recours à des groupes de discussion (« focus group ») s’avère un passage obligé pour vous permettre d’établir des lignes directrices fiables en lien direct avec votre futur utilisateur.

Outre les données démographiques pertinentes (âge moyen, sexe, formation académique, expérience pertinente, etc.), ce qui m’apparaît un élément de base à établir, c’est le profil opérationnel de l’utilisateur cible. Deux aspects devraient être quantifiés à ce niveau:

  • Tâches répétitives ou variables. En terme de nombre d’interactions types avec l’applicatif, quelles proportions (%) visent une même tâche par jour.
  • Taux d’imprévus opérationnel. Combien de fois par jour êtes-vous interrompu pendant une tâche pour faire une autre tâche différente.

Interface statique, interface dynamique et autres

Sans conclure à un lien direct, le mode d’interaction à privilégier avec un utilisateur est fortement influencé par son profil opérationnel.

Une interface statique se prête habituellement mieux à un environnement de travail plus répétitif. Une structure statique facilite l’optimisation « simplicité/efficacité ».

D’ailleurs, l’utilisation d’interface statique est à la base même du succès et de la pénétration des interfaces Web et mobiles à partir des années 2000. Lorsque l’objectif n’est de faire qu’une seule ou que quelques tâches, l’interface de ce type d’applicatif peut devenir extrêmement statique, simple et efficace.

Ajoutez les possibilités graphiques du jour et des possibilités fonctionnelles restreintes et vous obtenez également une plus grande flexibilité pour créer de l’esthétisme. Steve Jobs  en a fait la preuve éloquente: la simplicité n’aura jamais été aussi belle, raffinée et attirante!

De leur côté, les interfaces dynamiques présentent tout leur potentiel dans les contextes de gestion où l’imprévu est roi. Des contextes dans lesquels l’utilisateur doit constamment modifier son plan de travail. La clé dans ce cas est la notion d’adaptabilité à la situation imprévue, la flexibilité d’adaptation opérationnelle.

Sur le plan historique, l’interface dynamique est communément appelée « interface contextuelle  » ou « interface à menus contextuels » (Context-Sensitive User Interface). Il a émergé au cours des années ’70 avec le concept des interfaces graphiques (GUI – Graphical User Interface).

Sans oblitérer la notion de « Simplicité », l’enjeu principal de ce type d’interface devient l’efficacité, la rapidité avec laquelle l’utilisateur peut passer d’un contexte de travail à un autre et, à ne pas négliger, la rapidité avec laquelle il peut revenir à son contexte initial. Pour utiliser des termes de gestion manufacturière, nous dirions que ces interfaces sont des spécialistes de réduction des temps de mise en marche (« setup time »).

Il faut souligner aussi l’introduction récente du concept d’interface adaptatif , exploité plus particulièrement dans l’univers du Web sous le libellé mieux connu de « Responsive Web Design ». Toutefois, il ne faut pas confondre ce dernier avec le concept d’interface dynamique. La distinction n’est pas un automatisme évident pour le profane, j’en conviens.

Le concept d’interface adaptatif s’attaque à l’enjeu de la qualité constante de l’expérience utilisateur dans le cadre de la variabilité des plates-formes matérielles exploitées par l’applicatif Web ou mobile. Vous changez d’équipement, on s’assure que vous demeuriez dans un contexte de navigation logique et performant.

Ce joyeux mélange de possibilités technologiques nous conduit finalement à la tendance lourde de l’interface personnalisable. Cette approche qui permet à l’utilisateur de créer sa propre saveur de « simplicité/efficacité » et d’augmenter ainsi son confort d’utilisation et ses performances. Deux aspects liés à l’optimisation de sa productivité. La tendance ne fera que s’accentuer à ce niveau.

Et pour le futur, l’interface à morphologie adaptable est certainement un incontournable pour combiner de façon fluide différents modes d’interaction (statique, dynamique) pour un même utilisateur. Les tableaux de bord de gestion sont des cibles parfaites pour ce type d’approche.

Mais encore…

Cette panoplie de possibilités nous laisse croire que tout est en place pour poursuivre notre ascension sur la courbe de la productivité individuelle et corporative. Mais il y a un phénomène susceptible d’impacter le cheminement des applicatifs Web et mobiles et, donc, de toucher bien des utilisateurs de technologies sur la planète.

Pour saisir ce phénomène, il faut d’abord mettre en perspective que depuis leur pénétration active à partir des années 2000, les principes et concepts d’interfaces d’utilisation des applicatifs Web et mobiles ont très peu été remis en question par rapport, par exemple, à l’évolution historique des GUI. Le marché et le client ont imposé la route à suivre en absence d’exigences opérationnelles critiques.

L’univers du Web et de la mobilité s’est donc développé pratiquement en parallèle comme si une coupure spatio/temporelle était survenue dans le continuum de l’évolution technologique historique.

Les besoins étaient simples et/ou les possibilités technologiques étaient, somme toute, limitées en grande partie par la vitesse et le prix de la bande passante. Mais la réduction progressive des coûts de communications combinée aux innovations portées par la virtualisation matérielle ouvre dorénavant de nouveaux horizons aux applicatifs Web et mobile. Ces nouveaux horizons de gestion amènent avec eux leurs impératifs.

Il est de la tendance naturelle de l’homme à vouloir constamment en faire davantage avec ses outils. L’utilisateur de technologies informatiques n’est pas différent. Il cherche constamment à en faire plus, à en obtenir davantage. Et ce réflexe est encore plus présent dans le contexte spécifique de l’accroissement de la productivité organisationnelle.

L’applicatif qui offrait jusqu’à maintenant que quelques options (appeler, expédier un courriel, payer une facture) devrait donc, en principe, être de plus en plus bonifié sur le plan fonctionnel.

Comme l’accès à une fonction nécessite un élément visuel (hyperlien, bouton, icône, etc.) pour son activation, l’évolution naturelle peut nous conduire vers un bel arbre de Noël en terme d’interface.

Passé un certain degré limite de charge visuelle, une interface perd automatiquement en simplicité et en efficacité. Il est connu que l’être humain ne peut se concentrer que sur un maximum d’éléments visuels à la fois, 3 à 5 habituellement, pour prendre une décision et interagir rapidement. Comme la simplicité et l’efficacité sont deux conditions essentielles pour justifier l’utilité d’un applicatif, il faut donc revenir à la case départ si la surcharge d’une interface dégrade ces aspects.

Il faut déduire ici que l’accroissement de la capacité fonctionnelle d’un applicatif entraîne éventuellement un exercice de structuration fonctionnelle de l’interface qui peut, malheureusement, être associé parfois à de la perte de simplicité pour certains utilisateurs.

Pour le concepteur d’applicatifs

Le concepteur de produits Web et mobiles sera donc confronté comme jamais auparavant au dilemme d’équilibre « simplicité/efficacité » au cours des prochaines années. Il doit donc anticiper cette mouvance pour garantir l’évolution et la pérennité de ses applicatifs.

Pour certains concepteurs, il est possible aussi que le phénomène produise moins de vagues que prévu. Si vous ciblez un utilisateur à tâches très spécialisées, l’interface statique conservera alors son positionnement stratégique. Autrement dit, si votre produit n’a pas de vocation naturelle pour un déploiement opérationnel étendu, vous êtes probablement hors d’atteinte.

Pour les autres, voici quelques suggestions à mijoter dans le cadre d’une stratégie de réalignement au besoin:

  • S’il s’avère possible de vous doter d’une feuille de route de produit claire et précise (« Product Road Map » ), cette dernière devrait vous permettre de garantir la fluidité d’évolution de votre interface et d’éviter le principal écueil commercial, soit celui de décevoir une clientèle existante suite à des changements trop radicaux.
  • Si le réflexe des changements progressifs est alléchant pour des raisons de temps, conserver à l’esprit que la cohérence de votre interface utilisateur contribue fortement à la rapidité d’adoption de votre nouvelle vision par vos utilisateurs. L’incohérence dans les mécanismes d’interaction peut être perçue comme un produit non terminé ou incomplet.
  • Réfléchissez beaucoup avant de faire une refonte globale et fondamentale de votre interface utilisateur. Assurez-vous de conserver la personnalité de votre produit, sa philosophie, bref tous les éléments qui ont contribué à son positionnement par rapport à votre concurrence. Devenir quelqu’un d’autre que vous n’avez jamais été n’est pas impossible, mais l’opération exige du doigté sur le plan des communications.

En conclusion

À l’heure où le téléphone intelligent est l’extension technologique par excellence de l’être humain, faisant de lui un pseudo-cyborg, cet utilisateur continuera d’en demander plus et de vouloir tirer davantage de ses outils technologiques.

Les applicatifs Web et mobiles seront donc inévitablement confrontés à de nouveaux enjeux d’ergonomie d’interface au fur et à mesure de la bonification de leurs capacités fonctionnelles.

Au moment où le téléphone intelligent se présente comme le périphérique unificateur de tous les besoins (film, TV, banque, journal, agenda, téléphone, achats, feuille de temps, etc.), les enjeux d’interface pour toutes les plateformes technologiques confondues sont désormais réunis sous un même courant de recherche et d’innovation.

Publicités




La fin du web…sérieusement!

15 02 2012

Sérieusement…

Je n’ai pas l’habitude et, surtout, je n’ai pas d’intérêt pour le sensationnalisme, la polémique pour la polémique, bref pour la démagogie. Mais là, la désinformation est un peu trop exagérée pour moi. Excusez donc ce billet peut-être un peu plus émotif, je reprendrai mes sens pour le prochain.

Mon titre se veut un clin d’oeil à un récent article paru le 9 février dernier sur Forbes, un article au titre de « The End of ERP« .

Je remercie Nicolas Roberge, que j’apprécie beaucoup et que je salue en passant, d’avoir servi de courroie de transmission en relançant la diffusion de l’article en question. En fait d’entrée de jeu, je dois dire que c’est le titre « The End of ERP » lui-même qui m’a dérangé plutôt que l’idée générale que Monsieur Tzuo voulait exprimer, du moins, je l’espère.

À la vitesse à laquelle nous nous tenons informés et que nous faisons dorénavant nos lectures, je n’apprécie pas beaucoup ce type de titre qui lance une affirmation erronée, une information qui peut demeurer le message central à l’esprit du lecteur pressé. De plus, je l’avoue, difficile pour moi de rester silencieux lorsqu’on vient jouer sur mon terrain. Nicolas cherchait-il à déclencher une réaction? En tout cas, j’ai mordu!

Sérieusement…

J’ai lu et relu l’article de Monsieur Tien Tzuo, CEO de Zuora, et vraiment, avec tout le respect que je suppose devoir lui porter pour ses réalisations, je suis très surpris de voir une personnalité de tant d’envergure se prêter à ce type de désinformation facile qui vise, bien sûr, à positionner son approche corporative comme étant l’avenir.

Évidemment, je n’ai rien contre le fait de positionner sa compagnie avantageusement par des écrits pertinents dans les bons médias. Au contraire. Toutefois, j’apprécie davantage ceux qui le font à partir d’une information fondée que ceux qui tentent de le faire avec tambours et trompettes pour leurs fins sans regard au fondement de l’information qu’ils divulguent.

Ainsi, j’encourage premièrement les lecteurs intéressés à se rappeler la définition du concept « ERP » avec la définition de Wikipédia.

Quand vous aurez fait lecture de cette définition, je vous prie de m’aviser si elle va à l’encontre de la mobilité, de l’interconnectivité, de l’interopérabilité, du nuage informatique, bref de tout ce qui est associé aux caractéristiques essentielles à posséder par l’entreprise qui souhaite évoluer avec succès dans la nouvelle ère du Web.

Au contraire de ce qu’avance Monsieur Tzuo, le concept ERP n’est pas strictement centré sur la notion de produit en oubliant le client.

Le concept ERP est d’abord et avant tout centré sur les processus et la fluidité de l’information afin d’accroître la productivité et la qualité décisionnelle. On touche ici à l’ensemble des pôles opérationnels d’une organisation. Parlez-en à Gartner qui a été le premier à lancer le terme.

Alors, on se comprend: le concept « ERP » n’a rien à voir avec les notions de modèle d’affaires « Services » (Subscription Economy) ou modèle d’affaires « Produit » (Product-based Economy).

Si Monsieur Tzuo n’a pas trouvé de réponse avec le concept ERP à ses questions fondamentales; « Who are my customers?, How can I price this service the way I want to?, Where’s the renew Button?, Why can’t I sell to everyone? What’s going on with my financials? » et bien…c’est simplement parce que les réponses ne sont pas uniquement dans la technologie, mais bien toujours dans la façon de les exploiter.

Ce sur quoi Monsieur Tzuo aurait dû insister dans son article, et qui transpire, un peu j’en conviens, c’est qu’effectivement les anciens modèles d’affaires ne tiennent plus. Qu’effectivement le client doit être dorénavant le centre de nos préoccupations. Que le Web offre d’innombrables nouvelles possibilités pour mieux fidéliser notre clientèle à des coûts substantiellement plus bas. Que l’entreprise qui néglige d’accepter tous les faits précédents est vouée à disparaître de la carte éventuellement.

Ai-je mentionné une approche « SaaS » ou une application Web Base quelconque ou une application SAP classique?

Oui le concept ERP doit évoluer dans son implantation en entreprise en profitant des plus récentes possibilités technologiques. Mais l’entreprise qui décide d’aller de l’avant avec ce type de projet doit d’abord choisir le modèle économique qu’elle considère le meilleur pour son secteur d’activité et elle évalue ensuite les systèmes ERP en mesure de bonifier le plus possible le modèle d’affaires privilégié.

Sérieusement…

Ce qui importe ici pour être fidèle à mes convictions professionnelles, c’est d’encourager le gestionnaire sérieux à ne pas déclencher automatiquement une remise en question complète de ses façons de faires à chaque fois qu’il atterrit sur un article qui annonce la fin prochaine d’une technologique qu’il exploite. Les nouvelles possibilités technologiques « challengent » quotidiennement nos façons de faire et, dans cette optique, oui il faut demeurer lucide, objectif et aiguiser constamment notre vision d’affaires pour faire évoluer notre entreprise.

Lancer gratuitement le message « La fin des ERP » avec comme toile de fond justificatrice les nouvelles possibilités du Web pour générer automatiquement une entreprise plus agile et plus performante, c’est comme affirmer « La fin de la nourriture » pour avancer et justifier l’idée que bientôt nous carburerons aux pilules pour gagner du temps. Oui peut-être, mais on aura encore besoin de nourriture…du moins à ce que je connais actuellement de la biologie humaine. Au risque d’en décevoir certains, le concept de « nourriture » risque de perdurer un petit moment même si le concept doit évoluer et prendre une autre forme, emprunter un autre support dans le futur.

Tant qu’à y aller avec de telles affirmations, tient pourquoi pas la fin du monde en 2012!

Bizarre, j’ai un sentiment de déjà entendu et ce n’est rien de rassurant.

Sérieusement…

Bonne gestion!





L’importance de la gestion de projet en TI – Un cas malheureux et concret!

27 05 2011

Cela va de soi, l’absence d’expertise réelle sur une technologie clé pour un projet ou l’absence de connaissance des enjeux critiques d’un secteur d’activité sont des conditions qui mènent pratiquement automatiquement un projet d’informatisation d’envergure à l’échec.

Ce qui est moins évident, c’est que même en parfaite possession de l’expertise technologique et des connaissances opérationnelles stratégiques, sans gestion de projet rigoureuse et éclairée, les probabilités d’échec sont pratiquement aussi grandes.

Mais suis-je dans les beaux concepts et la théorie?

Et bien je vous propose de lire un cas concret récent, le vrai terrain, qui s’il ne vous subjugue pas, fera certainement bouger vos neurones rationnels et émotionnels pendant un petit bout de temps!

Moi, je suis encore ébranlé de lire une telle histoire en… 2011. L’informatique de gestion, un domaine d’expertise d’après deuxième guerre. On ne parle pas ici d’un nouveau concept technologique qui vient redéfinir les façons de penser et de faire, donc à haut risque de dérapage pendant sa phase d’introduction. Comme clin d’œil toutefois, il est intéressant de noter que le cas présenté s’appuie fortement sur les nouvelles et plus récentes pensées technologiques.

L’ampleur de l’échec ne fait que rappeler la pertinence de la gestion de projets, car, comme dans l’un de mes billets antérieurs, il faut toujours conserver à l’esprit que « la technologie est un outil et non une solution« .

Bref, je dois aussi vous mettre en contexte, car le cas dont il est question m’a été rapporté par nos outils de veille marketing. Ce n’est probablement pas le seul dossier de ce type malheureusement. C’est que la solution globale proposée initialement à l’organisation au prise désormais avec la situation délicate, incluait une composante CTRL.

Le cas est apparu sur le blogue de Monsieur Nelson Dumais, journaliste technologique bien connu et respecté, avec un titre assez percutant soit: « Une histoire d’horreur informatique dans une clinique médicale« . Difficile d’éviter le sujet pour CTRL, vous comprendrez.

En parallèle, cette situation représente un bel exemple de la nouvelle réalité des réseaux sociaux et des impacts possibles, bon et moins bon, que les communications démocratisées du Web peuvent avoir sur votre entreprise.

Pour ma part, j’ai pu apprécier l’expérience d’une équipe et la présence d’outils de veille bien organisés qui ont permis à CTRL de réagir rapidement à une intrusion négative, à priori en perception, au sein de son image corporative.

Cela dit, pour avoir l’image complète de la situation vécue par l’organisation et tirer vos propres conclusions sur ce qui n’a pas fonctionné, je vous suggère de lire l’ensemble des commentaires ou… au moins de lire le mien à la fin du blogue. 😉

Il y a beaucoup de contenu, mais en vérité, en vérité je vous le dis, rarement une lecture attentive ne vous apprendra autant sur ce qu’il ne faut pas faire en informatique de gestion si vous souhaitez goûter au succès.

Savoir avec conviction qu’une approche est contreproductive ou destructrice quand on vise un objectif donné, c’est déjà une bonne étape de fait. On sait déjà ce qu’il faut éviter.

C’est comme rouler en voiture. Lorsqu’on est convaincu qu’en demeurant sur la route on a moins de problèmes, il nous reste à savoir comment contrôler le véhicule pour y arriver ou sinon on connaît alors le critère de base pour passer les entrevues et embaucher le bon chauffeur.

Bonne gestion!





Gestion du changement et appropriation technologique

13 09 2010

La gestion du changement est un aspect clé de la réussite des projets technologiques. Comme une organisation est en continuelle évolution en s’adaptant à de nouvelles visions et stratégies corporatives, il devient extrêmement important de devenir des gestionnaires efficaces du changement, des spécialistes de la rapidité d’adaptation.

De manière générale, on peut décrire le changement organisationnel comme toute modification d’un cadre de travail en place, connu et familier pour les employés. Lorsqu’il se produit un changement, planifié ou non, vous touchez alors à ce que nous appelons la « zone de confort » de vos employés.

Ignorer les impacts psychologiques d’un changement organisationnel accroît substantiellement les risques d’échec pendant la période d’implantation et d’opérationnalisation de nouvelles méthodes de travail ou d’intégration de nouvelles technologies. Il s’agit donc d’un sujet d’intérêt qui fait couler beaucoup d’encre encore aujourd’hui et plusieurs Universités offrent, d’ailleurs, des cours spécialisés sur cet aspect.

Cela dit, ce qui m’intéresse en particulier dans ce billet, c’est le changement dans un contexte d’intégration technologique. C’est-à-dire les aspects plus spécifiques à l’approche de gestion du changement lorsque ce dernier comporte l’introduction d’un nouvel outil technologique.

Évidemment, je l’ai souligné précédemment, la gestion du changement c’est principalement la gestion de l’état psychologique de l’intervenant ciblé ou impacté par le changement. À cet effet, le gestionnaire, chargé du projet, opère un peu comme un chirurgien qui doit débloquer une artère, au besoin, pour permettre au changement de s’écouler au sein de l’organisation et donc de s’opérationnaliser progressivement.

La différence majeure c’est que lorsque vous être endormi sur la table d’opération, le chirurgien possède la latitude pour faire ce qui est en son pouvoir pour corriger et améliorer votre santé alors que lorsque vous êtes bien éveillé, vous pouvez opposer une certaine résistance à son intervention. Par similitude, nous parlons alors de « résistance au changement« .

En simplifié, cette résistance est habituellement générée par une peur de l’inconnu, peur générée elle-même fréquemment par une perte de sens de l’employé qui se sent départi de son rôle, de sa reconnaissance et de son utilité au sein de l’organisation.

Comme personne n’aime se sentir inutile et incompétent, les réactions d’un employé peuvent passer du simple questionnement curieux jusqu’aux comportements et explosions émotionnelles incohérents. Bref dans tous les cas, gardons à l’esprit que la réaction, toute amplitude et nature confondue, est bien humaine et logique dans un contexte de changement.

La clé pour le gestionnaire avisé est de trouver rapidement un point d’ancrage, un point de repère pour l’employé qui vit cette incertitude organisationnelle. Plus particulièrement dans le cadre d’un changement d’une façon de faire causée par l’introduction d’une nouvelle technologie, il devient important de ramener l’attention de l’employé sur des aspects positifs liés à la technologie ciblée. Axez votre intervention sur des aspects qui permettront à l’employé de bonifier son apport à l’entreprise puisque c’est cette dernière question qui est à la source de son incertitude et, donc, de sa résistance à modifier son cadre travail.

Plus concrètement, prenons l’exemple de l’introduction d’une nouvelle technologie améliorant la fabrication d’un produit existant. Voici des pistes d’approche psychologique qui ont fait leur preuve sur le terrain:

1. Insistez sur le fait que le résultat, l’objectif final, est toujours le même sinon qu’il sera amélioré en terme de délai de livraison, de qualité ou de quantité produite. Le produit, l’objectif, ici fait office de repère connu.

2. Diriger l’attention de l’employé sur le fait que c’est grâce à son apprentissage de la nouvelle technologie qu’il améliorera son environnement de travail et que l’entreprise pourra devenir plus performante. Cet encouragement à l’effet de faire l’effort d’essayer véhicule un sentiment de reconnaissance et d’utilité de l’employé dans l’entreprise. Améliorer les performances de l’entreprise risque aussi de sonner pour lui comme « pérennité de mon emploi » combiné inconsciemment avec « un environnement plus agréable ». Deux aspects gagnants pour lui.

Par conséquent, en le motivant à essayer, vous lui rappelez qu’il est important comme personne et ce message positif réduit l’incertitude face à son rôle et ses compétences, donc cela réduit normalement aussi sa résistance.

3. Point très important. Il est connu que la motivation seule ne suffit pas à garantir qu’une ressource s’approprie un nouvel outil technologique et une nouvelle façon faire, c’est-à-dire de faire en sorte que l’employé passe de la pensée et des bonnes intentions aux actes. Un objectif essentiel pour qu’un changement se produise réellement.

Pour réduire la résistance et optimiser la vitesse d’implantation d’un changement, vous devez vous assurer que l’employé est mobilisé par le projet, c’est-à-dire qu’il le fait sien. Pour arriver à créer cet état d’esprit, vous devez mettre en place le cadre de travail nécessaire pour que l’employé puisse s’approprier l’outil technologique dans ses caractéristiques techniques comme telles.

Il est donc fondamental de prévoir et d’offrir à l’employé impacté, la flexibilité d’horaire et l’encadrement professionnel (formation spécialisée) pour lui permettre de faire sienne la nouvelle technologie et devenir, dans une certaine mesure, le « king » du nouvel outil.

Ce dernier objectif atteint, vous comprendrez alors que non seulement l’employé a retrouvé toute sa fierté, son sentiment de compétence et d’utilité dans l’organisation, mais qu’il devient également pour vous, le gestionnaire du changement, un allié précieux pour former et évangéliser le reste de votre équipe.

En résumé, sachez que si beaucoup d’entreprises sont conscientes des enjeux relatifs à la gestion du changement, plusieurs d’entre elles n’abordent malheureusement pas adéquatement les changements majeurs dans leur organisation. Je vous invite à consulter les liens intégrés à ce billet pour plus d’information. Soyez toujours vigilant si vous souhaitez rentabiliser au maximum vos investissements de temps et d’argent.





Vous êtes libre!…Vraiment?

13 04 2010

Le code libre (Open source) est une réalité technologique qui ne cesse de gagner en popularité. Il est intéressant de noter, d’autre part, que le concept était présent dès le début des années 60.

Évidemment, l’absence de structure de communication et d’échange limitait l’expansion et la croissance du concept à l’échelle planétaire telle qu’on le connait aujourd’hui.

Le sujet du code libre est très intéressant pour rappeler la grande relativité des choses, en particulier dans le domaine des technologies, lorsqu’on analyse les phénomènes technologiques sur un horizon de plus 5 ans.

Nous constatons alors que des nouveautés technologiques apparaissant aujourd’hui comme révolutionnaires sur le plan de la perception, semblent plutôt s’inscrire dans la foulée de la vielle et célèbre loi de Lavoisier: « Rien ne se perd, rien ne se crée, tout se transforme ».

Je profite du phénomène du code libre, un prétexte, pour soulever l’absence fréquente d’un sens critique aiguisé dans le processus de différenciation des nouveautés technologiques sur le plan de leurs impacts et des gains opérationnels réels qu’elles peuvent générer pour une entreprise.

Je vous propose deux visions de la nouveauté technologique:

La nouveauté fondamentale:

Soit celle issue d’une idée neuve qui modifie profondément les paradigmes de pensée et les façons de faire existantes d’une entreprise. La nouveauté susceptible de modifier le processus lui-même.

Exemple: La démocratisation du Web pour la masse dans les années 1990. La communication et le partage de l’information ne seraient plus jamais les mêmes générant ainsi des changements profonds dans les comportements sociaux de l’être humain.

La nouveauté induite:

Soit celle issue d’une possibilité préexistante et qui n’attendait qu’à s’actualiser pour créer un nouveau levier en entreprise. La nouveauté qui améliore le processus existant.

Exemple: La possibilité de fabriquer davantage d’un même produit dans une période équivalente grâce à la réduction d’un temps d’assemblage générée par la présence d’une nouvelle composante électronique plus performante.

Sur le plan de la productivité, ces deux types de nouveautés peuvent être utiles autant une que l’autre. Mais elles diffèrent de façon importante sur le plan de leurs impacts opérationnels respectifs.

Modifier les fondements d’un processus, versus l’optimiser, n’appelle pas aux mêmes investissements de temps et d’argent. Le geste ayant des coûts associés habituellement plus élevés comme la culture et la philosophie de gestion de l’entreprise peuvent davantage être ébranlées.

Et le code source dans tout cela?

Il faut comprendre que l’Open Source est d’abord le rejeton de la possibilité offerte par le Web de créer des communautés virtuelles de développeurs désormais connectés et dévoués 24h sur 24h à l’avancement d’un objectif commun. Un cerveau collectif aux neurones surmultipliés, en ébullition et en action constantes. Wow!

Sérieusement, je relis ma dernière phrase et je me demande comment ne pas être impressionné par un tel phénomène qui appelle à un seul qualificatif : « Révolution ».

Bon, bien, oui, en fait…il faut nuancer un peu tout de même.

En référence à ma vision des choses, le phénomène du code libre est une nouveauté du type « induite », car finalement ce n’est pas tant la méthodologie de développement, comprendre ici que ce n’est pas le langage de programmation ou la méthode comme une approche « SCRUM« , qui a principalement alimenté le phénomène, mais plutôt la possibilité de gestion et de partage rapide et efficace de l’objet central: le code source.

Or le code source, libre ou pas, est un animal possédant ses particularités comportementales bien à lui. C’est-à-dire que le processus de développement d’une application informatique revêt des défis de gestion propres quel que soit la plate-forme et l’approche technologique choisie.

Par conséquent, encenser le code source libre comme une panacée pour éviter les problématiques usuelles de développement d’applicatif de gestion m’apparaît être un automatisme dangereux. Car dans les faits, c’est pratiquement toujours le processus de développement qui est le déterminant majeur quant à la qualité du rendu final et non la technologie comme telle.

Évidemment, l’Open Source a des avantages marqués, entre autres, celui d’offrir une multitude d’applicatifs existants, robustes et de qualité, qui peuvent représenter la solution finale pour combler un besoin simple ou, encore, être un excellent point de départ d’une solution de gestion personnalisée plus élaborée.

Toutefois, comme les statistiques sur les coûts de déploiement d’une solution de gestion continuent de confirmer que les frais initiaux sont négligeables à moyen terme pour un client, nous pouvons déduire que les frais d’acquisition d’un code propriétaire ne sont pas réellement la composante critique dans le portrait final et global des coûts.

Autrement dit, le développement d’une application sur mesure en code libre, gratuit initialement, ne vous coûtera pas nécessairement moins cher dans le temps. En effet, ce sont les coûts de services professionnels qui prendront rapidement le dessus. Un phénomène appuyant la tendance à l’effet que le logiciel de masse, en tant qu’objet d’achat, devient en plus une commodité et que son prix tend à diminuer constamment, pour atteindre le seuil de gratuité éventuellement.

Cela dit, l’objectif de mon billet n’est pas de démarrer un débat philosophique sur la question du code libre et du code à propriétaire unique. Les arguments pourraient pleuvoir de part et d’autre pour justifier l’utilisation de l’un ou l’autre…aujourd’hui! Comme pour le reste, les approches hybrides s’installent peu à peu, effaçant progressivement la distance en fusionnant les écoles de pensées.

Les « buzzwords » ont beau se succéder à une vitesse folle, l’important n’est pas de savoir qu’elle approche technologique gagne ou perd dans l’absolu…évidemment le gagnant doit toujours être le client.

Ce qui m’interpelle donc ici c’est le phénomène de la nouveauté technologique vue dans une optique de remède à des problématiques sur lesquelles elle n’a finalement aucune emprise.

Le développement d’une application de gestion informatisée, à code libre ou propriétaire, est régi par des principes généraux intrinsèques au processus et dont le coût de développement est l’un des enjeux sans en être le seul. Rapidité de développement versus qualité du livrable, optimisation du développement stratégique du produit (PRM) en fonction de l’anticipation des besoins évolutifs et spécifiques du client, capacité d’adaptation stratégique de l’outil aux processus critiques, etc.

La gratuité initiale d’un logiciel libre ne vous prémunit pas contre le cauchemar de tout gestionnaire de TI, soit l’applicatif à bout de souffle qui ne répond plus aux besoins actuels et futurs. Un applicatif à remplacer après un investissement interne massif en formation de votre personnel et en honoraires professionnels de personnalisation et d’intégration logicielle.

Dans cette malheureuse situation, ce n’est pas non plus l’accès au code source qui vous redonne le sourire, car, à moins d’être vous même une firme de développement de logiciels, les priorités stratégiques de votre entreprise sont probablement ailleurs.

Votre meilleure assurance « pérennité – bonheur  » demeure une garantie d’accès à vos données. Votre information de gestion, voilà ce qu’il faut protéger.

Le cauchemar cité plus haut est tout à fait possible avec un applicatif à code source propriétaire me direz-vous. Tout à fait!

Cela ne fait que renforcer ma position à l’effet que « Nouveauté technologique » n’est pas toujours équivalent à « Recette magique ».

Comme gestionnaire, libre de choix vous l’êtes! Mais le logiciel libre ne vous libère pas automatiquement des pièges potentiels usuels du développement d’applicatifs de gestion informatisée.

Demeurez donc vigilant dans l’évaluation et la sélection de toute plate-forme technologique dédiée à un projet stratégique dans votre entreprise.





Potentiel TI: Approche de gestion adaptative ou rigide?

25 11 2009

La question est lancée: Devez-vous privilégier une approche de gestion basée sur la flexibilité d’adaptation à différents contextes d’affaires ou si vous devez opter pour une approche axée sur l’optimisation de processus stratégiques stables et prédéfinis?

Mon billet précédent « L’illusion de la performance » attaquait l’angle perceptuel de la performance. Un éclairage sur des dogmes courants de gestion qui peuvent facilement s’écrouler à la découverte des mouvances fondamentales contribuant réellement à un succès d’affaires.

Je vous amène maintenant dans une perspective terrain de la performance, la performance comme résultat d’une approche mécanique de la gestion. La performance méthodologique qui participe, mais ne conduit pas nécessairement, à l’établissement progressif d’un succès d’affaires.

Je me réfère à un récent article récent du magazine Direction Informatique titré, « Les TI rapportent, mais gare aux usages contreproductifs » de Anne-Marie Croteau, François Bergeron et Louis Raymond. Leur article fait mention, en introduction, d’un débat lancé en mai 2003 par Nicholas Carr, un éditeur de la célèbre Havard Business Review avec son article « IT doesn’t matter« . Mentionnons que M. Carr avait extrait cet article d’une réflexion plus poussée dans son livre « Does IT Matter? Information Technology and the Corrosion of Competitive Advantage ».

Mon intérêt ici n’est pas de démontrer ou de remettre en question la raison d’être, le levier réel, des TI comme outils de croissance et de développement corporatif. Je serais très mal placé avouons-le.

Néanmoins, je trouve fort intéressante l’idée de poser la question « Does IT Matter? » et de porter cette question dans la perspective des contextes d’affaires propices à l’éclosion de la performance par le biais des TI.

Sous cet angle, le levier de croissance potentiel, ou le potentiel de levier additionnel devrais-je dire, peut s’évaluer sur la base de trois axes d’analyse:

. Le degré de culture à l’innovation
. Le degré d’assimilation des TI par les processus d’affaires
. Le degré d’intégration des processus d’affaires

Ces trois axes forment un cube d’analyse que j’appellerais le « Cube de potentiel TI ». Si on imagine, une évaluation de chaque axe sur une échelle de 1 à 10, on comprend que selon l’entreprise, le cube peut prendre différentes dimensions et différentes formes…on parlerait d’hexaèdres pour utiliser le bon terme.

D’autre part, on peut également déduire que certaines formes de cubes correspondraient davantage à une situation de performance optimale et que d’autres formes seraient totalement à éviter.

Ce qui est intéressant à la lumière des opinions consultées, c’est qu’il est plausible de penser que le cube optimal pour une entreprise donnée n’est pas nécessairement optimal pour une autre entreprise. Voyons un peu pourquoi en rappelant les grands principes clés sous-jacents à chacun des axes:

Degré d’innovation

Plus la culture d’innovation est forte chez une entreprise, plus les TI sont susceptibles de générer de la performance et d’appuyer la croissance.

Une créativité constante mise au service de la recherche de l’approche optimale d’exploitation d’une technologie donnée relativement à un processus d’affaires donné augmente automatiquement le levier potentiel de l’outil technologique.

Bien que simpliste, cette prise de conscience est rarement présente dans les projets d’introduction de technologies. L’outil est trop fréquemment implanté dans ses caractéristiques les plus usuelles sans chercher nécessairement les « plus » qui pourraient faire une différence positive substantielle.

Degré d’assimilation

Plus les TI sont imbriqués, fusionnés étroitement avec les processus d’affaires, plus ils sont susceptibles de générer un gain de productivité pour permettre à l’entreprise de performer davantage.

Cependant, tout changement technologique, évolution technologique, est également susceptible de ralentir davantage et de générer des pertes de productivité parce qu’il est beaucoup plus perturbateur au niveau des processus.

Degré d’intégration des processus

Le degré d’intégration des processus doit être modulé en fonction de la nature des activités de l’entreprise et plus particulièrement, en fonction de la capacité d’adaptation stratégique préconisée pour optimiser le développement commercial de l’entreprise dans son marché.

Plus l’automatisme, vu dans une vision de travail à la chaîne, est un objectif stratégique pour une question de réduction des coûts, plus l’intégration des processus s’avère une voie de choix.

Plus la flexibilité d’intervention et la capacité d’adaptation deviennent la pierre angulaire de la compétitivité face à la concurrence, plus il devient difficile d’extraire des gains de productivité marquants d’une intégration globale des processus.

Le degré d’intégration optimal des processus a donc beaucoup à voir avec les meilleures pratiques d’affaires d’une industrie donnée et les contraintes de gestion imposées par le positionnement de produit choisi par l’entreprise.

D’autre part, notez que le choix final de la meilleure stratégie à prendre peut être différent tout dépendant si vous vous placez au niveau « micro opérationnel », exemple la production, ou « macro opérationnelle « , c’est-à-dire dans une vision globale d’intégration de tous les processus de l’entreprise. En fait, une réflexion similaire peut donc se faire par pôle opérationnel.

En conclusion, si une culture d’innovation forte demeure un terreau fertile pour l’optimisation des TI dans votre entreprise, il est extrêmement important de revenir constamment, dans un premier temps, aux meilleures façons de faire, celles de votre industrie, mais surtout aussi aux approches qui ont contribué à votre pérennité actuelle.

Par la suite, en symbiose avec une bonne connaissance de la dynamique entre vos pôles opérationnels, il vous reste à identifier la capacité d’adaptation requise de votre entreprise, la variabilité opérationnelle de vos processus clés, pour avoir en main les éléments de base entrant dans l’élaboration de votre stratégie TI personnalisée et optimale.





L’humain au coeur du projet de TI

27 07 2009

Je lisais récemment un article du magazine « Direction informatique » titré « Implanter les TI avec succès: tenir compte du facteur humain » qui ramenait à l’une la perspective des enjeux humains dans le cadre d’un projet de TI.

Avec l’effervescence constante entourant l’évolution des TI, une effervescence souvent tournée principalement vers la nouveauté et l’avancée technologique, cet article s’avère un rappel important, la lumière du phare que le gestionnaire de TI ne doit pas perdre de vue s’il souhaite se rendre à destination…la bonne et en temps.

Je joins donc mon expérience de terrain aux auteurs de l’article à l’effet que le facteur humain est effectivement un élément clé à intégrer rapidement en amont de la gestion de tout projet de TI pour accroître ses probabilités de succès.

Plusieurs questions complémentaires me viennent immédiatement à l’esprit « Peut-on quantifier en amont l’impact relatif du facteur humain? », « Comment peut-on le gérer et en minimiser l’impact? ». Dans ce premier billet, je me limiterai à participer à la prise de conscience de l’importance du phénomène.

Si le thème sonne un peu le réchauffé, les statistiques effroyables qui jonchent la route des projets de TI nous rappellent tout le contraire. En effet, si on se fie à différentes statistiques récentes telles que l’étude « CHAOS 2009 » du Standish Group, nous sommes toujours dans une zone, n’ayons pas peur des mots, décourageante.

En fixant les caractéristiques générales d’un projet à succès de la manière suivante:

. Un système final qui répond aux besoins fonctionnels définis à la planification initiale;
. Un projet qui se termine dans le délai prévu;
. Un projet qui se termine à l’intérieur du budget prévu;

Cette étude cite qu’un tiers (33 %) seulement des projets seraient reconnus comme de réels succès en 2009. Pire, les dépassements de coûts pour les projets à problèmes pourraient se situer dans un intervalle de 100% à 200% ! Pensez aux deniers publics investis, vos impôts, dans des projets TI d’envergure et je suis sûr que vous avez des frissons.

Je vous propose de consulter le blogue de Frederic Casagrande « Lost in Chaos » pour une représentation graphique des résultats sommaires de l’étude en question. Le deuxième graphique présente une inquiétante stabilité des résultats depuis 1994.

Des chiffres encore des chiffres, mais finalement où est le lien avec l’humain? Arrêtez-vous simplement à la première caractéristique énoncée plus haut « un système final qui répond aux besoins fonctionnels » et un premier lien vous frappe de plein fouet.

Comment un système informatique peut-il ne pas répondre aux besoins fonctionnels d’utilisateurs finaux pour lesquels le projet de TI a été mis spécifiquement en place et desquels ont été identifiés et définis les besoins? C’est un pur illogisme.

Sans vouloir réduire et élaguer l’importance de bonnes méthodologies de gestion de projets, comme pourrait me le rappeler le PMI, je crois que poser la question ici c’est y répondre: les usagers finaux ne sont tout simplement pas suffisamment et constamment imbriqués dans le processus de gestion et de développement du projet TI. Mais pourtant tout le monde est pour la vertu.

C’est ici que nous revenons à un des éléments critiques soulevés par les auteurs de l’article de Direction Informatique: l’engagement de la direction.

Encore une fois me direz-vous, où est l’erreur? Les entreprises qui décident d’investir dans un projet TI mobilisateur le font parce qu’elles y croient fermement en terme de levier indispensable de leur stratégie de développement? … Et bien je ne pense pas qu’elles y croient réellement, ou si elles le font, elles ne le font pas toujours avec un engagement senti, appuyé et exprimé quotidiennement aux usagers finaux.

Le problème de fond, c’est que la direction de trop d’organisations aborde encore aujourd’hui l’investissement dans d’un projet de TI comme une simple acquisition d’équipements informatiques. Désolé de vous surprendre s’il y a lieu, mais aborder un projet de TI sur la base d’un investissement dans une infrastructure technologique, c’est vous acheter un marteau en prenant pour acquis que la maison vienne automatiquement en bonus.

Et pour en remettre sur l’engagement actif de la direction, je fais un détour par les nouvelles approches de développement de systèmes qualifiés de « méthodes agiles » qui visent, entre autres, à rapprocher l’usager final du processus de développement pour garantir une qualité accrue du livrable dans la perspective de ses attentes initiales. Ce qui est bien, très bien, je ne peux évidemment pas être contre l’idée que je défends.

Toutefois, il y a encore quelques épines ici si on se limite, par exemple, uniquement à ce principe d’interaction rapprochée qui nous permettent de militer encore plus pour une prise en charge proactive et robuste du projet de TI par la direction. Entre autres:

. Qu’arrive-t-il si les usagers finaux ne sont pas intéressés à communiquer leurs attentes ou si, plus usuel, ce sont toujours les mêmes usagers qui interviennent et imposent leur opinion?

. Doit-on permettre l’émergence de nouvelles orientations de projet découlant du flux continuel de demandes d’ajustement et d’améliorations des usagers finaux pour se retrouver éventuellement avec des caractéristiques fonctionnelles non essentielles sur le plan stratégique ?

La liberté d’expression dans un contexte amplifié d’interaction peut effectivement alimenter un dérapage. Par conséquent, une gestion de projet agile non cadrée en fonction d’orientations stratégiques et d’interventions corporatives précises est susceptible de déboucher sur un système informatique qui « oui » répondra aux besoins des usagers finaux, mais pas nécessairement dans le délai prévu, dans le budget prévu et qui ne se logera pas nécessairement à l’intérieur des objectifs stratégiques initiaux de l’entreprise.

En conclusion, les communications humaines représentent une variable plus sensible que toute technologie prévue dans un projet de TI. J’inviterais donc tous les dirigeants qui préparent un projet de TI dans leur entreprise, à aborder la planification de leur projet en accentuant l’emphase et l’effort de gestion relatif à l’aspect humain. Comme règle du pouce pour le moment, je suggèrerais de doubler l’effort que vous croyez initialement suffisant. Je reviendrai sur des paramètres et des suggestions méthodologiques pour maximiser les chances de succès de vos projets de TI.

Il ne me reste qu’à vous partager le sentiment de fébrilité qui m’habite, encore aujourd’hui, face aux défis complexes que représente l’implantation de projets de TI en gestion d’entreprise. Le type de projet qui marie les technologies de pointe, la gestion opérationnelle et l’humain, trois spécialités aux antipodes.

Cette trinité n’est peut-être pas étrangère au faible taux de réussite historique que le domaine connaît jusqu’à maintenant. Mais, en même temps, tout reste à faire!








%d blogueurs aiment cette page :