IA et devoir de conseil CGP : ce qui change en 2026

Intelligence artificielle et devoir de conseil pour les CGP en 2026

L'IA et le devoir de conseil CGP forment aujourd'hui une équation complexe que chaque conseiller en gestion de patrimoine doit maîtriser. En 2026, 90 % des acteurs des marchés financiers français utilisent ou prévoient d'utiliser l'intelligence artificielle — mais seulement 1 % y recourent directement dans la fourniture de services d'investissement, selon le rapport AMF de février 2026. Cette tension révèle une réalité : l'IA est omniprésente dans le back-office des cabinets, mais le conseil client reste une zone sous haute surveillance réglementaire. Ce guide complet fait le point sur ce que le devoir de conseil implique face à l'IA, les nouvelles obligations qui entrent en vigueur en 2026 et les bonnes pratiques pour en tirer parti sans exposer votre cabinet. Pour comprendre comment automatiser le devoir de conseil de façon conforme, consultez également notre article sur l'automatisation du devoir de conseil.

La Suite Majors® intègre des assistants IA patrimoniale conçus pour le devoir de conseil conforme : chaque analyse est tracée, validée par le conseiller et hébergée en France. Découvrir les assistants IA →

Qu'est-ce que le devoir de conseil pour un CGP ?

Le devoir de conseil est l'obligation légale qui impose au conseiller en gestion de patrimoine de fournir des recommandations personnalisées, adaptées à la situation individuelle de chaque client. Il est encadré par l'article L. 541-8-1 du Code monétaire et financier, qui exige notamment que le CGP :

  • Collecte les informations nécessaires sur la situation financière, les objectifs, la tolérance au risque et l'expérience du client (le fameux KYC et le recueil patrimonial).
  • Fournisse des conseils adaptés à cette situation personnelle — pas des recommandations standardisées applicables à tous les clients.
  • Documente les motivations de chaque recommandation dans un rapport d'adéquation formalisé.
  • Agisse dans l'intérêt du client, en évitant tout conflit d'intérêts non déclaré et en choisissant les produits les plus appropriés parmi ceux disponibles.

Ce devoir s'applique à l'ensemble du processus de conseil : de l'entrée en relation (via le DER et la lettre de mission) jusqu'au suivi post-recommandation. Il constitue le cœur de la valeur ajoutée du CGP et le distingue fondamentalement des plateformes de conseil automatisé (robo-advisors).

La question centrale de 2026 est donc la suivante : dans quelle mesure l'intelligence artificielle peut-elle intervenir dans ce processus sans compromettre la personnalisation et la traçabilité qu'exige le devoir de conseil ?

Ce que dit la réglementation : AMF, AI Act et devoir de conseil

En 2026, deux niveaux réglementaires encadrent simultanément l'usage de l'IA par les CGP : le droit financier français et européen existant, et le nouveau règlement européen sur l'IA (AI Act).

La position de l'AMF : surveillance accrue, cadre en cours de finalisation

Dans son rapport de février 2026 sur l'usage de l'IA par les acteurs des marchés financiers, l'AMF dresse un constat clair : l'adoption de l'IA est massive mais le cadre de gouvernance reste insuffisant pour de nombreux cabinets. L'Autorité identifie trois exigences fondamentales :

  1. Traçabilité claire des décisions : chaque intervention d'un système IA dans le processus de conseil doit être documentée et archivée dans le dossier client.
  2. Supervision humaine effective : le conseiller doit rester maître de la décision finale. L'IA ne peut pas émettre de recommandation sans validation humaine explicite.
  3. Contrôle des fournisseurs technologiques : les cabinets doivent auditer leurs prestataires IA, vérifier leur conformité RGPD et s'assurer de l'indépendance des algorithmes utilisés.

L'AMF avait publié en août 2025 un projet de lignes directrices sur l'utilisation de l'IA par les établissements financiers. Ce document est en cours de finalisation et devrait être adopté au cours du second semestre 2026. Dans ses priorités de supervision 2026 (#IMPACT2027), l'AMF annonce également la publication d'une étude approfondie sur les cas d'usage IA et les mécanismes de gouvernance associés.

L'AI Act européen : l'échéance du 2 août 2026

Le règlement européen sur l'intelligence artificielle (AI Act, entré en vigueur le 1er août 2024) instaure un cadre contraignant selon le niveau de risque des systèmes IA. Pour les CGP, la date critique est le 2 août 2026 : c'est à cette date qu'entrent en vigueur les obligations spécifiques aux systèmes IA à haut risque.

Catégorie IA selon l'AI Act Exemples en gestion de patrimoine Obligations pour le CGP
IA à haut risque Évaluation de solvabilité, scoring de risque client, tarification assurance vie Supervision humaine, documentation, audit fournisseur, évaluation impact
IA à risque limité Chatbots d'assistance, générateurs de documents, outils de synthèse Transparence (informer l'utilisateur qu'il interagit avec une IA)
IA à risque minimal Filtres anti-spam, moteurs de recherche documentaire Aucune obligation spécifique

L'ACPR est désignée autorité de surveillance du marché pour les services financiers dans le cadre de l'AI Act. Elle a déjà organisé des groupes de travail avec une vingtaine d'établissements pour préparer la mise en conformité. Retrouvez les détails sur le site de l'ACPR.

La règle fondamentale reste inchangée : aucun système IA ne dégage la responsabilité du CGP. L'article L. 541-8-1 du CMF s'applique pleinement, que la recommandation soit générée par un algorithme ou construite manuellement par le conseiller.

Les 3 grands risques de l'IA pour le devoir de conseil

Utiliser l'IA dans le processus de conseil patrimonial comporte des risques spécifiques que tout CGP doit avoir en tête. Trois familles de risques se distinguent :

Risque 1 : l'absence de traçabilité

Le risque le plus fréquent est d'utiliser une IA grand public — ChatGPT, Gemini ou autre — pour préparer une recommandation patrimoniale sans en garder de trace dans le dossier client. En cas de contrôle AMF ou de litige avec un client, l'absence de documentation sur l'origine et la validation de la recommandation peut constituer un manquement au devoir de conseil, passible de sanctions.

En janvier 2026, le cabinet M Capital Partners a été sanctionné à hauteur de 200 000 euros par l'AMF pour des manquements documentaires dans ses dossiers clients — une illustration concrète des conséquences d'une traçabilité insuffisante.

Risque 2 : la standardisation des recommandations

L'IA, par nature, produit des réponses basées sur des patterns statistiques. Elle peut générer des recommandations apparemment pertinentes mais en réalité standardisées, ne tenant pas compte des spécificités du client : situation matrimoniale, fiscalité personnelle, projets de vie, obligations contractuelles existantes. Un CGP qui suit aveuglément une recommandation IA sans l'adapter à la situation individuelle du client manque à son devoir de conseil — même si la recommandation est techniquement correcte en termes généraux.

Risque 3 : les hallucinations et biais algorithmiques

Les modèles de langage peuvent inventer des références réglementaires avec une apparente autorité, citer des articles de loi inexistants ou fournir des données chiffrées erronées. Un CGP qui répercute une information IA non vérifiée à son client engage sa responsabilité professionnelle. Par ailleurs, un prompt mal formulé peut orienter l'IA vers une recommandation biaisée en faveur d'un type de produit — ce qui constitue un manquement aux obligations de non-conflit d'intérêts.

Ces risques ne doivent pas conduire à rejeter l'IA, mais à en définir clairement le périmètre d'usage légitime — ce que nous détaillons dans la section suivante.

L'IA patrimoniale conçue pour le devoir de conseil

La Suite Majors® intègre des assistants IA spécialisés en gestion de patrimoine : analyse client, conformité réglementaire, succession, fiscalité. Chaque analyse est tracée, hébergée en France, et reste sous le contrôle du conseiller. Dès 50 €/mois, sans engagement.

Gratuit 14 jours • Sans engagement • Sans carte bancaire

Ce qui change concrètement en 2026 pour votre cabinet

L'année 2026 marque un tournant dans la maturité réglementaire autour de l'IA en gestion de patrimoine. Voici les changements concrets que chaque CGP doit anticiper :

L'AI Act crée de nouvelles obligations pour les deployers

En droit européen, le terme deployer désigne l'entité qui utilise un système IA dans un contexte professionnel — soit, pour les CGP, le cabinet lui-même. À partir d'août 2026, les deployers de systèmes IA à haut risque doivent :

  • Mettre en place une supervision humaine effective avec des personnes formées à comprendre les capacités et limites du système IA utilisé.
  • Tenir un registre des événements générés par le système IA, conservé pendant la durée appropriée.
  • Effectuer une évaluation de l'impact fondamental sur les droits des personnes concernées avant tout déploiement d'un système IA à haut risque.
  • Informer les clients lorsqu'ils interagissent avec un système IA (obligation de transparence).

L'AMF finalise ses lignes directrices sur l'IA

Le projet de lignes directrices AMF publié en août 2025 devrait être adopté en 2026. Il formalisera les attentes du régulateur en matière de gouvernance IA pour les conseillers financiers. Les cabinets qui auront mis en place une politique de gouvernance IA documentée seront mieux préparés — rappelons que selon le rapport AMF, seulement 72 % des grandes structures ont déjà formalisé une telle politique, et ce chiffre est bien inférieur pour les petits cabinets CGP indépendants.

La pression des clients : 56 % des jeunes ont déjà agi sur une recommandation algorithmique

Une donnée révélatrice : 56 % des 18-25 ans ont déjà agi sur une recommandation générée par un algorithme, et 18 % consultent l'IA en premier pour leurs questions de placement. Ces clients arrivent en rendez-vous avec des convictions construites par des outils IA grand public, parfois erronées. Le devoir de conseil implique désormais de corriger, contextualiser et personnaliser ces informations préalables — une compétence nouvelle pour le CGP de 2026.

Pour rester informé des évolutions réglementaires, consultez les publications officielles sur amf-france.org.

Bonnes pratiques : utiliser l'IA sans compromettre le devoir de conseil

La clé réside dans une délimitation claire des usages légitimes de l'IA. Le principe consensus dans la profession est celui du copilote : l'IA augmente les capacités du CGP, mais le conseiller reste le pilote et assume toutes les décisions.

Ce que l'IA peut faire : la zone verte

  • Préparation des rendez-vous : synthèse du dossier client, identification des points à aborder, alertes sur les incohérences entre le profil et le portefeuille existant.
  • Vérification de cohérence : contrôle automatique que la recommandation est cohérente avec le profil de risque, les objectifs et la situation fiscale du client.
  • Rédaction de documents : génération des premières versions de compte-rendu, rapport d'adéquation, lettre de mission — que le conseiller relit et valide.
  • Veille réglementaire : surveillance des évolutions AMF, ACPR, mise à jour automatique des obligations documentaires.
  • Analyse patrimoniale préliminaire : calcul des ratios, identification des risques de concentration, simulation de scénarios — présentés comme des éléments d'analyse, pas comme des recommandations finales.

Ce que l'IA ne doit pas faire : la zone rouge

  • Émettre une recommandation patrimoniale finale sans validation explicite du conseiller dans le dossier.
  • Remplacer l'échange personnalisé avec le client sur sa situation de vie, ses projets, ses contraintes — ce que l'IA ne peut pas percevoir depuis un formulaire.
  • Traiter des questions de structuration patrimoniale complexe (succession, démembrement, holding) sans supervision d'un expert humain.
  • Accéder aux données clients sur des serveurs hors UE sans garanties contractuelles appropriées (risque RGPD et confidentalité professionnelle).

Mettre en place un protocole IA dans votre cabinet CGP

Pour utiliser l'IA de façon conforme et durable, les experts recommandent de formaliser un protocole IA interne au cabinet. Voici les six composantes essentielles d'un tel protocole :

  1. Inventaire des outils IA utilisés : listez tous les outils IA actuellement en usage au cabinet (y compris les outils grand public comme ChatGPT). Pour chacun : hébergement, conditions de traitement des données, certification éventuelle.
  2. Classification des usages par niveau de risque : distinguez les usages back-office (faible risque) des usages liés au conseil client (risque élevé). Appliquez des règles d'utilisation différenciées selon cette classification.
  3. Procédure de traçabilité dans les dossiers clients : définissez un standard de documentation : quand l'IA a été utilisée, pour quelle tâche, et quelle décision finale a été prise par le conseiller. Cette trace doit figurer dans le dossier client archivé.
  4. Formation des collaborateurs : sensibilisez votre équipe aux risques d'hallucinations, aux biais algorithmiques et aux obligations légales. Un collaborateur non formé peut utiliser l'IA de bonne foi mais de manière non conforme.
  5. Politique de vérification des outputs IA : tout résultat produit par une IA avant d'être présenté à un client doit être relu et validé par un professionnel. Cette règle simple est le premier rempart contre les erreurs factuelles.
  6. Révision annuelle du protocole : le cadre réglementaire évolue rapidement (AI Act, lignes directrices AMF). Prévoyez une révision annuelle du protocole pour rester à jour. Les obligations AMF et ACPR constituent le référentiel de base pour cette révision.

La Suite Majors® intègre nativement plusieurs de ces composantes : les assistants IA réglementaires sont conçus pour produire des analyses traçables et validées par le conseiller. Les données sont hébergées en France (chiffrement AES-256), sans transmission à des tiers, et l'interface force la validation humaine avant toute génération de document client. Pour en savoir plus sur l'approche IA de Majors, consultez notre guide des meilleurs outils IA pour CGP en 2026.

En adoptant un protocole structuré et des outils spécialisés, les CGP peuvent transformer l'IA en véritable avantage compétitif — sans sacrifier la conformité réglementaire qui est au cœur de leur valeur ajoutée.

Tester la Suite Majors® Consulter le support

Questions fréquentes sur l'IA et le devoir de conseil

Non. L'article L. 541-8-1 du Code monétaire et financier s'applique pleinement, que le CGP utilise ou non l'IA. Le conseiller demeure personnellement responsable de la pertinence de chaque recommandation. L'IA est un outil d'aide à la décision, jamais un substitut au jugement professionnel. En cas de litige, c'est le conseiller — et non l'algorithme — qui engage sa responsabilité.

À partir du 2 août 2026, les obligations relatives aux systèmes IA à haut risque entrent en vigueur. Les CGP qui déploient des outils IA doivent assurer la supervision humaine, maintenir une documentation des décisions assistées par IA, évaluer l'impact sur les droits fondamentaux et auditer leurs fournisseurs technologiques. L'ACPR est l'autorité de surveillance désignée pour les services financiers dans ce cadre.

L'AMF recommande de tracer chaque intervention IA dans le dossier client : la source de la recommandation IA, la date et le contexte, et la décision humaine finale du conseiller. Cette traçabilité est indispensable en cas de contrôle AMF et pour démontrer que le CGP a bien exercé son devoir de conseil de manière personnalisée. Les outils IA spécialisés comme la Suite Majors® intègrent cette traçabilité nativement.

L'IA est particulièrement adaptée aux tâches de back-office : rédaction de comptes-rendus, vérification de cohérence profil/recommandation, veille réglementaire, préparation de rendez-vous et génération de documents conformes. En revanche, toute recommandation patrimoniale finale doit être validée et assumée par le CGP, avec une adaptation à la situation personnelle du client. Consultez notre guide des IA pour CGP pour une liste complète des cas d'usage.

La Suite Majors® intègre des assistants IA conçus pour le conseil patrimonial conforme : chaque analyse est présentée comme une aide à la décision, la traçabilité des interactions est enregistrée, et le conseiller valide chaque recommandation. Les données sont hébergées en France (AES-256), sans transmission à des tiers, conformément au RGPD et aux recommandations AMF. Découvrir la Suite Majors →

Recevez nos guides CGP chaque mois

Conformité, IA patrimoniale, bonnes pratiques : restez informé des dernières ressources pour votre cabinet.

Pas de spam. Désinscription en un clic.

Conclusion

En 2026, la question n'est plus de savoir si les CGP doivent adopter l'IA — mais comment le faire sans compromettre leur devoir de conseil. La réglementation est claire : l'article L. 541-8-1 du CMF, les exigences AMF et l'AI Act convergent vers un même principe fondamental, celui de la supervision humaine comme condition sine qua non d'un usage de l'IA conforme.

Les cabinets qui réussiront leur transition IA seront ceux qui auront su délimiter les usages légitimes, formaliser un protocole de traçabilité et adopter des outils spécialisés conçus pour le cadre réglementaire de la gestion de patrimoine. L'IA bien utilisée ne remplace pas le devoir de conseil — elle le renforce.

Pour aller plus loin : Découvrez notre comparatif des meilleurs outils IA pour CGP en 2026.

Articles connexes


Top