Le raccourcissement des délais de clôture est depuis des années un sujet incontournable, aussi bien pour les plus grands bancassureurs que pour les instituts de prévoyance ou mutuelles. En revanche, depuis deux ans la réglementation et notamment l’accélération des délais de production Solvabilité 2 a fait converger les besoins des acteurs du secteur. Dans le cadre d’IFRS 9 et IFRS 17, des besoins de révisions de processus des clôtures sont à prévoir, plus particulièrement en lien avec les calculs des engagements. Comment est-il possible d’aller plus loin, tout en gardant la main ? Comment faire pour conserver, au travers des différents projets Fast Close, les bénéfices de cette démarche sans être absorbé par les contraintes internes à l’entreprise, et par les contraintes externes des régulateurs ?

***

Dans quel contexte s’inscrit la démarche Fast Close ?

En quoi le Fast Close phase II est-il différent du Fast Close phase I ?

Les efforts d’ores et déjà accomplis par une majorité des acteurs sont considérables depuis une vingtaine d’années. Cependant, l’environnement réglementaire se complexifie au fil des années, ce qui contraint ces acteurs à repenser à la fois leurs processus, leurs méthodes et leurs organisations.

Les contraintes de raccourcissement des délais de clôture, combinées à l’arrivée de nouvelles normes, entraînent une révision des calendriers de production des comptes.

A partir de l’exercice 2018, la remise des comptes annuels Solvabilité 2 s’effectuera avant celle des Etats Nationaux Spécifiques, tandis que le contexte IFRS 17 induira une complexification très forte des calculs de provisions et des reportings dans des délais plus courts que ceux de Solvabilité 2.

Aujourd’hui, il ne s’agit donc plus seulement de travailler plus vite mais de travailler différemment pour assurer la production des comptes dans les différentes normes. Pour cela, l’anticipation et la parallélisation des travaux deviennent une nécessité.

***

Comment appréhender les nouvelles normes face au besoin de raccourcissement des délais ?

Comment repenser l’organisation pour permettre une mutualisation des méthodes de calcul entre les différentes normes ?

Les intervenants privilégient davantage la révision des processus que celle des organisations car celles-ci découlent de ces processus. Ils insistent également sur le fait qu’une réelle transformation est requise. Certains leviers d’actions ont été identifiés :

  • Un travail sur les bases de données : la mise en qualité des données initiales puis leur mise à disposition sont fondamentales, et conditionnent leur fiabilité.
  • Un travail sur les outils : l’harmonisation des outils permet de restituer des reportings de qualité.
  • Un travail sur les processus : la mutualisation des travaux et des processus sont indispensables. Disposer de modélisations les plus universelles possibles permet de garder ses hypothèses de calcul, lancer en batterie les traitements, maintenir la piste d’audit, et limiter le risque opérationnel.

Comment s’assurer de la cohérence multinormes ?

Certains intervenants préconisent que la cohérence entre les normes soit intégrée de manière native à la fois dans les outils et dans les modèles de données. C’est d’ailleurs tout l’enjeu de mettre en place des plateformes de comptabilité et reportings multinormes. Pour cela, il faut d’une part une excellente maîtrise et un alignement des référentiels. D’autre part, il faut compléter le dispositif par des matrices de contrôle et de rapprochement en aval, pour vérifier la correcte articulation, poste à poste, des différents référentiels.

La mise en place d’un code norme générique permettant de comptabiliser les écritures communes aux trois normes, et de codes normes spécifiques pour enregistrer les écritures propres à une norme, permet d’obtenir de manière native une réconciliation entre ces trois normes dans l’outil comptable.

Cependant, un intervenant émet une réserve sur les réconciliations, qu’il considère chronophages, et souvent complexes. Pour cet intervenant, il faut davantage travailler sur l’unicité de la source des données, et la cohérence des méthodologies.

Sur quels éléments est-il pertinent d’estimer ? Sur lesquels est-il préférable d’éviter ?

Les intervenants s’accordent à dire que, mis à part les placements, l’ensemble des flux fait très souvent l’objet d’estimations. L’un des intervenants en a d’ailleurs profité pour rappeler que le métier de base de l’assureur, c’est bien de réaliser des estimations.

Concernant les flux techniques, les estimations peuvent s’appuyer sur des données statistiques et historiques.
Un intervenant mentionne qu’actuellement certains flux sont projetés sur plusieurs dizaines d’années ; dans ce cadre, l’estimation d’un ou deux mois supplémentaires n’a pas d’impact significatif sur la qualité des comptes. Par ailleurs, il rappelle que l’anticipation permet de dégager du temps pour réaliser des travaux d’analyse ou études de sensibilité.

En outre, il a été indiqué par les intervenants que les estimations ne présentent pas tant de difficultés en termes de méthodes, mais plutôt en termes de collecte, d’exhaustivité, et de qualité des données.

Sur la partie actifs financiers, les valorisations sont bien souvent cristallisées le plus tard possible, quelques jours avant la clôture, la plupart des assureurs retenant des cours à J. Afin d’optimiser les travaux sous IFRS 17, si la valorisation des actifs est maintenue à J, il est recommandé d’avoir une vision globale front to back sur les contrôles afin d’éviter les doublons entre les départements, et d’effectuer des contrôles entre les périodes d’arrêtés. Ceci permet de ne réaliser lors de la clôture que les contrôles liés aux écritures d’inventaire (ICNE, surcote/décote, réévaluation, effet de change).

***

Quelles pratiques mettre en œuvre, tant sur le plan informatique qu’organisationnel ?

Quelle industrialisation des systèmes d’information ? Via quels outils ?

Les réponses varient selon les intervenants, en fonction de leurs périmètres respectifs. Pour certains, le travail porte sur la convergence des systèmes d’information vers un outil. La réconciliation automatique des flux permet en outre une réduction du temps de collecte des données, qui est un facteur clé de succès d’une clôture.

Un intervenant affirme que, à défaut de pouvoir unifier tous les systèmes de gestion, les différents outils doivent communiquer ensemble, et disposer d’un outil d’orchestration. En termes de granularité des modèles de données, il faut réussir à trouver une articulation, un dénominateur commun entre les différentes plateformes (plateforme de comptabilité multinormes, datamarts, bases actuarielles).

Les limites d’Excel ont quant à elles été pointées du doigt. Compte tenu de la volumétrie grandissante des données, des bases technico-comptables ont été développées afin d’augmenter les capacités de stockage, assurer une bonne sécurisation des données, et répondre à la nécessité de créer un entrepôt de données robuste. A présent, l’objectif est d’alimenter ces bases automatiquement.

La méthode la plus industrialisée pour produire les états réglementaires (ENS, QRT et narratifs) est d’utiliser un outil du marché, outil modulaire qui va de la production des reportings à la conversion des reportings sous format XBRL. D’autres méthodes, permettent d’établir les reportings réglementaires à partir de datawarehouse, ou bien de produire les états prudentiels à partir de l’outil de consolidation.

Comment adapter les organisations ?

La mise en place d’un pilotage centralisé est une solution retenue par plusieurs intervenants. L’implication de chaque service doit être scrupuleusement mentionnée pour chaque tâche dans le planning, notamment le service IT qui est redevable du bon fonctionnement de l’applicatif entrant en ligne de compte.

Pour être encore plus efficace, un co-pilotage entre l’actuariat et la comptabilité, par exemple, est préconisé, ainsi que la mise en place d’un comité de pilotage voire d’un comité de surveillance. Ceci permet un équilibre entre les directions contributrices de l’arrêté. Ces solutions s’adaptent particulièrement aux entreprises de grande taille.
L’un des intervenants précise que, selon la taille de l’entreprise, le Fast close ne nécessite pas toujours une réorganisation. Des échanges réguliers entre les services, combinés à un retour d’expérience après chaque arrêté permettent d’identifier les axes d’amélioration et sont garants d’une clôture réussie.

Un autre intervenant souligne que les compétences ne changent pas drastiquement avec le Fast close, qui ne bouleverse pas le rôle des acteurs, mais leurs méthodes de travail.

Comment accompagner la montée en compétence des équipes ?

La montée en compétences des équipes est un enjeu majeur, et il est important que l’accompagnement des collaborateurs se fasse de manière individualisée. Des programmes de formation ont déjà débuté, afin d’avoir une première appréhension des différents modèles. Des recrutements, ainsi que l’organisation de parcours d’évolution permettant l’émergence d’« accounteries », maîtrisant à la fois les sujets comptables et actuariels, sont incontournables. La conduite du changement est à ne surtout pas négliger, ainsi que la gestion des réticences de la part des équipes.

L’un des intervenants insiste sur le fait que cette conduite du changement devra également s’appliquer au contrôle de gestion, aux administrateurs, aux analystes, et même aux dirigeants, afin que chacun ait une bonne compréhension de la nouvelle norme IFRS 17 et de ses enjeux.

***

Jusqu’où peut-on repousser les limites du Fast Close ?

Jusqu’où peut-on aller dans le Fast Close ? Et comment garder la main ?

Dans un contexte de Fast close, les méthodes de travail et d’estimation sont amenées à évoluer. L’un des intervenants souligne qu’il faut pousser au maximum les leviers d’action, via l’automatisation, l’alignement des modèles de données, l’anticipation et la simplification afin de limiter au strict nécessaire le recours aux estimés et de compresser la partie du closing qui est faite sur des bases anticipées.

Les intervenants s’accordent pour dire qu’il est primordial de développer sa capacité à bien estimer. Si le back testing montre que les écarts sont non significatifs, cela permet d’arrêter les flux encore plus tôt. Au-delà de ce qu’il est possible de faire accepter par les CAC en termes de degré d’erreur, l’abandon de la culture du centime en interne représente un réel challenge. Il est essentiel de faire prendre conscience aux équipes qu’accepter une précision légèrement amoindrie ne remet pas en cause la sincérité des comptes et l’image fidèle de la situation de l’entreprise.

Sur la partie financière, il faut prendre en compte le fait que plus la date de valorisation des actifs est éloignée de la date de clôture, plus le risque de produire des comptes de grande qualité est dégradé.

Enfin, une autre limite du Fast Close est d’anticiper de manière trop excessive les flux réels, car la part des flux estimés va nécessiter un true-up avant la clôture des comptes, entraînant une charge de travail supplémentaire dans un calendrier très serré.

Téléchargez le Guide SeaBird Fast close

Présentation des intervenants

Marion Aubert, Directrice performance et risques chez Natixis Assurances Métier Non Vie

Après une école de commerce, Marion Aubert fait ses débuts en audit, chez EY puis rejoint le groupe Caisse d’Epargne, d’abord en banque puis en assurance. Depuis 1998, elle occupe le poste de Directeur financier au sein de diverses entités du groupe avant de prendre ces mêmes fonctions auprès de BPCE Assurances. Elle est aujourd’hui Directrice performance et risques, en charge de la direction technique, risques et data innovation, de la direction finance, de la direction des SI et de la cohérence fonctionnelle, de l’organisation, du juridique et vie sociale ainsi que de la responsabilité sociétale de l’entreprise.

Thierry Ivens, Directeur de la comptabilité chez Klésia

Diplômé d’une maîtrise Economie, Thierry Ivens occupe le poste de Responsable comptabilité technique chez Premalliance entre 2005 et 2007. Il évolue de 2007 à 2012 chez D&O, où il occupe successivement les fonctions de Responsable comptabilité auxiliaire puis Responsable comptabilité concurrentielle & régimes spéciaux puis contrôleur financier. Il rejoint FMP en 2013 en tant Directeur du Pôle Finance. Depuis 2016, Thierry Ivens est directeur de la comptabilité chez Klesia.

Sophie Le Berre, Directrice technique et comptable chez Groupama Gan Vie

Actuaire diplômée de l’Ecole Nationale de la Statistique et de l’Administration Economique (ENSAE) et Centralienne, Sophie Le Berre est membre de l’Institut des Actuaires. Elle a consacré sa carrière au secteur de l’Assurance, dans différentes fonctions techniques comme la souscription et l’actuariat produit puis comme responsable de l’actuariat inventaire des assurances collectives de Groupama. Désormais directrice technique et comptable de GGVie, elle y dirige le pôle actuariat inventaire & modélisation, la comptabilité technique et la maîtrise d’ouvrage des outils Finances et Risques.

Renaud Mesnard, Directeur en charge de la comptabilité multinormes chez Generali

Diplômé de l’IEP Paris et de Dauphine, Renaud Mesnard entame sa carrière en audit chez Deloitte. Il rejoint Generali en 2002 et occupe plusieurs postes dans les départements de contrôle de gestion, en comptabilité ou encore au contrôle financier. Il est aujourd’hui directeur comptable en charge des activités de reporting et de comptabilité multinormes.

Phuong-Lan Murie, Consultante experte en comptabilité assurance, SeaBird

Diplômée de Dauphine et Paris XII en Finance, Phuong-Lan Murie a rejoint SeaBird il y a cinq ans, après avoir occupé diverses fonctions dans le domaine financier : contrôleur financier, chef de projet, experte métier ou encore responsable data management. Chez SeaBird, elle a renforcé son expertise en comptabilité d’assurance, au travers de missions menées auprès de départements comptables ou consolidation, tant en management de transition qu’en gestion de projet. Elle est aujourd’hui en charge du pôle d’expertise en comptabilité d’assurance.