Accueil Breadcrumb caret Produits Breadcrumb caret Autre placements Breadcrumb caret Dossiers Breadcrumb caret Industrie Breadcrumb caret Nouvelles Breadcrumb caret Thématiques Robots-conseillers : cherchez l’éthique! Le sujet brille par son absence, s’étonne Michel Mailloux. Par Michel Mailloux | 28 avril 2016 | Dernière mise à jour le 15 août 2023 4 minutes de lecture phonlamaiphoto / 123RF L’auteur a souhaité réagir au dernier éditorial de notre rédacteur en chef, Yves Bonneau. Monsieur Bonneau, Comme vous l’avez clairement démontré, les approches robotisées prendront une part de marché importante d’ici quelques années. Il serait inconcevable de s’opposer à ce changement de paradigme. Les nouvelles clientèles ont des approches différentes. La communication se fait autrement en 2016. Les robots sont là pour rester et prendre plus d’espace et nous devons nous adapter. Bref, la réalité change! Cependant, la réglementation n’est pas alignée sur ces nouvelles réalités. Les régulateurs canadiens, comme vous le soulignez, ont exigé le mode hybride… pour le moment. Ceci devrait permettre aux conseillers de s’adapter à ce nouveau monde… sous peine de disparaître. Au-delà de ces enjeux économiques très importants, il en existe au moins un autre trop souvent passé sous silence, j’ai nommé l’enjeu éthique. Plusieurs aspects éthiques sont en effet complètement absents des débats : la logique du robot, la connaissance du client ou encore la convenance. Prenons-en un fondamental, soit la logique du robot. Un robot n’est pas neutre. On programme une certaine logique. Cette logique de base n’est pas autre chose que de l’éthique (ou de la morale). Or, les règles de décision des robots ne peuvent pas seulement correspondre à des lignes de code avec des formules mathématiques, mais plutôt et avant tout à des choix philosophiques. Selon les critères moraux choisis par les concepteurs, les résultats « mathématiques » pourraient ainsi être différents pour le client. Les choix « moraux » d’un robot Il peut en fait y avoir plusieurs façons de concevoir la logique du logiciel. Pour illustrer le propos, prenons deux des différentes approches morales existantes : l’éthique des conséquences et l’éthique de la déontologie. Intéressons-nous à Madame la cliente-investisseuse, jeune professionnelle dans la trentaine, qui déclare qu’elle ne veut pas subir de perte de capital pour ses régimes de retraite. L’aversion au risque et la perte éventuelle d’une partie du capital est l’une des questions classiques qu’on retrouve dans les profils d’investisseurs. Si on développe un logiciel en fonction de l’éthique des conséquences, le logiciel choisira toujours l’option qui cause le moins de conséquences négatives pour l’ensemble des clients investisseurs. Dans le présent cas : ne pas perdre de capital. De manière stricte, ne pas perdre de capital veut dire… ne pas perdre de capital! Les réponses du logiciel seront donc des CPG ordinaires ou indexés aux marchés, ou encore des fonds distincts, pour ne citer que des produits simples. La logique morale du logiciel est appliquée : madame la cliente-investisseuse ne perdra pas de capital. Mais est-ce le bon conseil pour autant? Admettons maintenant que la logique de programmation choisie est l’éthique déontologique. Le concepteur du logiciel programme des règles professionnelles auxquelles les conseillers sont soumis. Ces normes sont celles qui déterminent les devoirs minimums exigibles. Reprenons l’exemple. Si dans les règles de base du logiciel j’inscris que la base minimale est une approche de cycle de vie (approche reconnue dans le cadre des RVER), les choix d’investissement seront forts différents. Parce que l’investissement se fait sur plus de 25 ou 30 ans, les conseils du robot comprendront des investissements plus risqués. Ces investissements plus risqués sont dans ce cas un « bon » choix moral. On pourrait multiplier les exemples, les rendre plus complexes, ajouter d’autres paramètres… et on parviendrait à des résultats tout aussi différents pour un seul et même profil. Un robot, ce n’est pas neutre! Il existe bien d’autres variables à intégrer dans ces approches, comme le devoir fiduciaire, qui relève à la fois de l’éthique déontologique et de l’éthique de la vertu (dans laquelle l’intention de l’agent est primordiale pour juger si l’action est bonne ou non). Parlant de l’éthique de la vertu, Microsoft lançait le mois dernier son robot nommé Tay. Son rôle : interagir avec les internautes sur Twitter. Son intelligence artificielle devait en outre lui permettre d’apprendre au fil des conversations et d’adapter son discours. Ce fut un échec retentissant puisqu’en moins de 24 heures Tay était devenu… obscène et raciste. En guise de conclusion, je dirais que si les modèles d’affaires sont à revoir pour les conseillers à une vitesse grand V, n’oublions surtout pas que les instruments et les robots doivent être conçus de manière éthique et que celle-ci doit être transparente. Les clients doivent demeurer au centre des préoccupations. Michel Mailloux est expert en conformité financière et éthicien. Michel Mailloux Sauvegarder Stroke 1 Imprimer Group 8 Partager LI logo