• Le champagne : pour célébrer, rien ne vaut la qualité

    by par Dave Jensen, employé rédacteur chez MasterControl | déc. 20, 2018
    2018-bl-champagne-a-staple-of-celebration-a-legacy-of-quality-page-image



    Nous savons tous que le champagne est synonyme de célébration. Cela est d'autant plus vrai à la période des fêtes, durant lesquelles le vin effervescent coule à flots. Quelle meilleure opportunité pour revenir sur l'histoire et les mérites de ce breuvage emblématique ?

    Il semblerait que pléthore d'événements justifient d'ouvrir une bouteille de champagne, que vous partiez en vacances, assistiez à un mariage, regardiez votre équipe de sport remporter un match, ou même que vous parveniez à faire toute la vaisselle. Quelle que soit l'occasion, les producteurs de champagne mettent un point d'honneur à rappeler que tous leurs ingrédients et secrets de fabrication peuvent se résumer en un mot : qualité.

    Que signifie le label ?

    Par définition, le champagne ne peut être produit que dans la région française du même nom. Le bureau du champagne explique que de nombreux vins pétillants sont produits dans le monde entier, mais que le nom Champagne peut uniquement être utilisé si les raisins ont été cultivés et récoltés, sous un contrôle strict, dans ladite région. Tous les vins concurrents sont considérés comme étant de qualité inférieure.

    Cette protection de l'appellation n'est pas nouvelle chez les viticulteurs. Voilà des décennies que les producteurs et agences gouvernementales s'efforcent de préserver l'authenticité du nom et du produit. Seuls trois types de raisin sont utilisables, à savoir le chardonnay, le pinot noir et le pinot meunier. Ainsi, si le mot Champagne apparaît sur la bouteille, vous pouvez être sûr qu'il ne peut pas s'agir d'autre chose.

    Établir un standard de qualité

    La préservation du nom et de l'héritage du champagne n'a jamais été chose aisée. Dès le début des années 1930, des organismes de régulation ont été créés, puis dissous, rétablis, remplacés, repensés ou renommés, toujours dans le but de garantir la qualité de tous les vins associés à l'appellation « Champagne ». L'organisme actuel est le Comité interprofessionnel du vin de Champagne (CIVC), qui s'assure que les producteurs suivent des directives strictes en matière de qualité et d'authenticité.

    Le champagne n'est pas qu'une simple boisson. Pour beaucoup, déboucher la bouteille, puis laisser le liquide s'en échapper avant d'avaler se première petite gorgée est un rituel que rien ne pourra jamais remplacer. Les recettes ont été couchées sur papier et perfectionnées avec précision pendant de nombreuses années, le tout dans le but inchangé de répondre aux attentes de ceux qui dégusteront le breuvage. Personne ne l'a mieux articulé que Winston Churchill en 1918 : « Souvenez-vous, Messieurs, on ne se bat pas seulement pour la France, mais aussi pour le champagne ».

    Faire honneur à sa réputation

    Sans embellir les choses, les organismes de régulation tels que le CIVC mêlent des processus de contrôle qualité et de la production du champagne à des innovations continues. Leur supervision des processus qualité s'étend de la taille des raisins à toutes les phases de production, y compris l'étiquetage des bouteilles. Un tel niveau de contrôle prouve que la gestion de la qualité occupe une place essentielle dans la fabrication du champagne.

    Cependant, les viticulteurs se conforment très volontiers à ces directives. La raison ? Les professionnels du secteur sont motivés par la préservation de la réputation d'un produit à la notoriété mondiale. De nombreux producteurs excèdent même de très loin les exigences des organismes de régulation. Comme avec tout produit dont la production est contrôlée, se contenter de suivre les directives ne suffit pas toujours à garantir un résultat satisfaisant.

    Se contenter de suivre les directives de #régulation ne suffit pas toujours à garantir un résultat satisfaisant, selon @MCMasterControl http://bit.ly/2SoJERy

    Respect à la lettre

    À l'instar du CIVC, tous les organismes de régulation au monde ont pour mission de s'assurer que les réglementations en termes de qualité sont strictement observées au sein des processus de production. Les consommateurs s'attendent, légitimement, à un certain niveau d'excellence.

    white paper icon

    Cet article vous a plu ? Vous aimerez aussi ce rapport d'analyse :

    Audit qualité : un outil au service de l'amélioration continue et de la conformité

    Télécharger le rapport gratuit


    À leurs débuts, les producteurs de champagne devaient surmonter de nombreux obstacles pour garantir une qualité de fabrication élevée. Par exemple, comme avec tous les produits soumis à régulation, se conformer est aussi synonyme de documentation complète et exacte. En termes de processus qualité, les viticulteurs de France sont restés fidèles à l'idée selon laquelle l'absence de documents signifie que le produit a été fabriqué ailleurs.

    Les régulations requièrent l'usage de techniques particulières visant à s'assurer que les vins appelés « champagne » sont tous produits selon des méthodes similaires. C'est pourquoi les viticulteurs sont chargés de documenter manuellement chaque procédure, de la culture des vignes au mélange des ingrédients, en passant par les semailles et la collecte des raisins.

    La création des documents était sans doute assez facile pour les premiers producteurs de champagne. Par exemple, l'apport d'un changement n'entraînait rien d'autre que quelques ratures et l'ajout de corrections en marge, après quoi

    • les responsables du contrôle de la documentation montraient la modification à toutes les personnes concernées, une par une.
    • Personne ne s'inquiétait de devoir retarder l'envoi du produit en attendant que tout le monde ait accepté le document révisé.
    • Les auditeurs n'avaient rien contre le fait d'effectuer un suivi manuel des changements sur des documents regroupant un nombre vertigineux de signatures.

    Un héritage intact, des processus qualité optimisés

    Pour le plus grand plaisir des amateurs de champagne du monde entier, les efforts visant à préserver l'intégrité de leur breuvage préféré n'ont jamais cessé. Heureusement, les producteurs disposent aujourd'hui de technologies facilitant grandement le respect de cet héritage. Alors que la concurrence s'intensifie et que les régulations deviennent de plus en plus strictes, une solution numérique de gestion de la qualité,telle que MasterControl, peut garantir la conformité et une bonne préparation aux audits de manière ininterrompue.

    Alors la prochaine fois que vous lèverez votre coupe pour trinquer, ayez une pensée pour tous ces producteurs dévoués. Nous leurs souhaitons de préserver à jamais la qualité de leur produit et d'accélérer sa fabrication à l'aide d'une solution numérique de gestion de la qualité efficace.


    Références :

    1. « Le champagne ne peut provenir que de la région Champagne, en France », selon le site officiel du champagne, https://www.champagne.fr/fr/terroir-appellation/defense-appellation/demarche-philosophie-expertise
    2. A Toast to the Good Life: Exploring the Regulation of Champagne, Wickes, Margaret, L, Digital Access to Scholarship at Harvard, Apr. 2003. https://dash.harvard.edu/bitstream/handle/1/8852109/Wickes.pdf?sequence=1

     

    2016-nl-bl-author-david-jensenDavid Jensen est spécialiste en marketing et communication chez MasterControl. Il rédige, pour diverses entreprises, des articles traitant des technologies, du marketing et des relations publiques depuis plus de vingt ans. Titulaire d’une licence en communication de l’université d’État de Weber, il dispose également d’un master en communication professionnelle qui lui a été décerné par le Westminster College.





     

     

     

  • Guide pour se conformer au nouveau règlement européen relatif aux dispositifs médicaux (MDR), partie 2

    by par Jerry Chapman, consultant dans le domaine des GMP et rédacteur en chef chez Xavier Health | nov. 30, 2018
    2018-bl-eu-mdr-will-require-longterm-planning-part-2-page-image


    REMARQUE DE L'ÉDITEUR
    : Voici la seconde moitié d'un article en deux parties consacré au règlement européen MDR et aux défis rencontrés par les fabricants de dispositifs médicaux. Lisez la première moitié ici. ici.

    Pas de mise en place du règlement MDR sans planification

    Plus tôt dans l'année, Gert Bos de QServe a présenté, lors d'un podcast, certains des problèmes rencontrés par les fabricants de dispositifs médicaux qui essaient de se conformer au règlement MDR, et a donné un exemple de stratégie que peuvent adopter ces entreprises à cette fin.1


    Monsieur Bos a posé deux questions qui selon lui s'appliquent aux fabricants commençant à étudier l'impact du règlement :

     

    • Quel pourcentage du chiffre d'affaires est basé sur des autorisations de commercialisation au sein de l'UE ?

    • Qu'adviendra-t-il de votre entreprise si vous perdez cette part de marché ?

    D'autres questions applicables aux fabricants de dispositifs ont été posées à Xavier Health depuis Munich, par Bassil Akra, Vice-Président des services produits pour l'organisme notifié TÜV SÜD :

    • Votre portefeuille de produits restera-t-il le même une fois le règlement MDR entièrement mis en place ?

    • Avez-vous prévu un budget suffisant pour le recrutement, la formation et le développement de nouvelles ressources ?

    • Êtes-vous prêt à investir plusieurs millions pour vous conformer aux exigences liées aux données cliniques sur les technologies éprouvées et les dispositifs anciens ?

    • Votre organisme notifié sera-t-il autorisé à fournir le même niveau de services après mai 2020 ?

    • Devez-vous changer d'organisme notifié en raison d'une perte ou d'une limitation de désignation ?

    • Travaillez-vous avec un organisme notifié britannique ou êtes-vous associé à un représentant autorisé britannique qui devra être remplacé après le Brexit ?

    Comparé à l'ancien règlement MDD, Monsieur Bos a indiqué que le nombre d'articles et de pages a été multiplié par six. Les détails et caractéristiques ont été particulièrement affectés par cette augmentation. Le règlement MDD comprenait 20 articles sur 60 pages et 12 annexes. Le MDR est composé de 123 articles sur 360 pages et de 17 annexes.

    Selon Bos, un programme de transition « typique » s'étend sur 30 mois. La date limite imposée par l'UE n'en laisse que 19. Il a illustré, à travers un graphique, les huit étapes qu'il conseille d'appliquer pour se conformer au nouveau règlement. (voir la figure ci-dessous).

    2018-mc-eu-mdr-compliance-qserve-page-image

    Il a ensuite expliqué que les premières d'entre elles incluent la création d'un projet de développement, ainsi qu'une évaluation des carences qu'il faudra combler pour se conformer à une multiplication par six des exigences juridiques. Non seulement le texte a changé, mais les tournures et concepts existants évoluent eux aussi.

    Bos a décrit les évaluations des impacts globaux et du portefeuille comme étant « essentielles », étant donné l'absence de clause d'antériorité et les restrictions en termes de continuation à court terme pour les fournisseurs européens. Une fois la transition effectuée, de nombreuses entreprises choisiront de retirer certains de leurs produits plus anciens.

    Après que les plus importantes décisions ont été prises, les étapes suivantes concerneront logiquement la formation du personnel et l'implémentation des changements. Au final, un certain niveau d'introspection est nécessaire, au même titre que les affinements de dernière minute, avant d'effectuer les premiers tests de conformité aux nouvelles exigences.

    Analyse et planification de la transition MDR

    La genèse de votre projet de transition MDR devra se baser sur une bonne compréhension de sa portée et sur une planification adéquate. Un budget initial est essentiel pour rassembler une équipe dédiée et commencer à évaluer l'environnement et la tâche en question, et pour entamer l'évaluation des carences.

    Selon Bos, les membres de votre équipe ne réaliseront pas immédiatement l'urgence de la situation, car à première vue, le règlement MDR n'est pas si différent.

    Les approbations de pré-commercialisation sont toujours octroyées par les mêmes organismes notifiés, ceux avec qui vous avez établi de bonnes relations. Ce n'est qu'une fois que vous entrez dans les détails que les problèmes majeurs se dévoilent. Les actions qu'il vous faudra entreprendre au plus vite se révèleront alors elles aussi.

    Bos conseille d'étudier de près les 45 pages d'instructions du règlement européen MDR adressé aux organismes notifiés, pour mieux comprendre ce que ces derniers sont chargés d'évaluer.

    Bos pense que les éléments les plus cruciaux à prendre en compte lors de l'analyse du projet de transition sont les suivants :

    • Quels produits sont concernés, lesquels sont exclus

    • Des données cliniques plus précises sont requises pour garantir les performances et la sûreté des dispositifs médicaux si utilisés comme prévus et pour satisfaire vos objectifs en termes de part de marché

    • Limitation des équivalences, au profit d'une confiance supérieure envers les données cliniques directes

    • Nouveauté des concepts de gestion du cycle de vie des réglementations

    • Besoin de trouver des données cliniques suffisantes, même pour les produits à faibles risques et les produits anciens

    • Exigences en termes de chaînes d'approvisionnement en amont et en aval

    • Responsabilité des représentants et sponsors autorisés de l'importateur pour les essais cliniques

    • Nombre de catégories de produits pour lesquelles les autorités européennes soutiennent les organismes notifiés, et fabricants avec exposés de position et consultations/évaluations de conformité formelles

    Selon Bos, une bonne approche consisterait à prendre moins de temps que la durée accordée par les organismes notifiés pour se conformer, car l'évaluation de la disponibilité des données cliniques figure parmi les éléments essentiels requis au début de votre projet de transition MDR.

    Évaluation des carences

    Selon Bos, cette étape commence par l'identification des produits impliqués par le règlement MDR. Y a-t-il des produits concernés qui ne sont pas commercialisés selon les préceptes du MDD ? Les classifications ont changé. Les données cliniques sont « cruciales » pour déterminer si chaque produit peut être commercialisé conformément au MDR.

    Bos a expliqué qu'il était important de réaliser des évaluations pour renforcer les relations entre votre entreprise et votre organisme notifié. Elles doivent inclure les logiques utilisées en termes de classification des produits, et d'inclusion et d'exclusion des exigences pour études cliniques (données cliniques post-commercialisation incluses).

    Bos conseille de charger une équipe de concevoir des outils d'évaluation des carences et de diriger ledit processus pour s'assurer que tous les documents sont traités, avec une attention particulière sur la disponibilité des données cliniques acceptables.

    Évaluation du portefeuille et finalisation du projet

    Selon Bos, il convient d'identifier le niveau de disponibilité des données cliniques suffisantes pour prendre en charge toutes les indications cliniques et partenaires de la chaîne d'approvisionnement. Si les fournisseurs et sous-traitants ne s'avèrent pas suffisamment disponibles ou ne souhaitent pas coopérer conformément aux nouvelles normes de transparence, il se peut que des changements chronophages soient nécessaires.

    Une question clé concerne la pérennité des produits au sein de l'entreprise : tous doivent-ils être conservés, ou serait-il préférable de revendre certains des plus anciens ?

    Bos suggère que chaque entreprise évalue sa situation actuelle et envisage sa progression en fonction des nouveaux contrôles et exigences européens. Une chose est sûre : l'inaction n'est pas une option.

    La phase d'analyse de l'impact global doit, selon Bos, comprendre l'ensemble des notifications de changements, leur durée et la définition de la stratégie de l'entreprise. Souvenez-vous que l'Europe n'existe pas indépendamment du reste du monde. Les changements requis doivent prendre en compte votre politique globale. Toutes ces étapes font partie intégrante de la stratégie de conformité.

    Pour Bos, l'organisme notifié doit demeurer un partenaire essentiel de la mise en place de votre stratégie, aujourd'hui comme demain. Vous devrez en effet les contacter pour connaître leurs projets et vous préparer à effectuer une demande de désignation MDR. Quels sont leurs objectifs ? À quels délais s'attendent-ils en termes de désignation ? Que font-ils pour améliorer la disponibilité de leurs ressources ? Assurez-vous de leur communiquer vos projets de mise en conformité basés sur le nouveau règlement MDR.

    Les dernières étapes concernent la création et la réalisation de formations internes sur le règlement européen MDR et ses conséquences, ainsi que la vérification des performances en amont des évaluations de conformité effectuées par l'organisme notifié.

    Gert Bos a insisté sur le fait que ce processus devra s'inscrire sur le long terme. Selon le règlement MDR, les améliorations, la surveillance de la sécurité des produits commercialisés et les innovations en termes de design doivent s'effectuer de manière continue.

    La discussion se poursuivra lors de l'atelier de Xavier Health sur le règlement de l'UE relatif aux dispositifs médicaux les 27 et 28 mars 2019. Lors de cet atelier, les experts Bassil Akra (TÜV SÜD), Philippe Auclair (Abbott), Gert Bos (Qserve), et Kim Trautman (NSF International) vous exposeront des plans d’action pour continuer à commercialiser vos dispositifs médicaux dans l'UE grâce à des stratégies éprouvées et en respectant les dates limites.

     

    Références

    1. Podcast GreenlightGuru avec l'invité Gert Bos, directeur exécutif de QServe, www.greenlightguru.com.

     

    2018-bl-author-jerry-chapmanJerry Chapman  est consultant dans le domaine des bonnes pratiques de fabrication (GMP) et compte sur près de 40 ans d&rsqucute;rience dans le secteur pharmaceutique. Il a occupé des postes techniques et à respdesonsabilité dans le développement de produits, la fabrication et la qualité des usines, des sites, de l'organisation et des systèmes. Il a imaginé et mis en place un processus visant à respecter les bonnes pratiques de fabrication chez Eli Lilly. Il a ensuite de nouveau travaillé comme consultant pour l'une des 5 meilleures entreprises de santé animale en 2017. Jerry Chapman a été rédacteur en chef chez International Pharmaceutical Quality (IPQ) pendant six ans pendant lesquels il devait se tenir informé et rendre compte des sujets concernant les GMP et les CMC. Il effectue des missions en tant que consultant sur les GMP, la gestion des connaissances en matière de qualité, le développement et la formation aux GMP ainsi que d’autres sujets liés. Il est également rédacteur indépendant. Consultez son site Web  ici  pour plus d’informations sur ce qu’il propose. Vous pouvez le contacter par email à l’adresse jerchap2@gmail.com.



     
  • Toujours plus intelligente : 3 façons dont l'IA transforme le secteur de la fabrication

    by par Beth Pedersen, employée rédactrice chez MasterControl | nov. 30, 2018
    2018-bl-manufacturing-and-ai-page-image




    Selon un rapport récent d'Accenture and Frontier Economics (1), d'ici 2035, les technologies basées sur l'intelligence artificielle (IA) devraient améliorer la productivité de 40 % dans 16 secteurs clés, dont la fabrication. En termes monétaires, cela pourrait se traduire par une augmentation des résultats de 3,8 milliards de dollars dans ce seul secteur, soit presque 45 % de mieux que les estimations de base. Avec un tel potentiel, l'IA est devenue et restera un facteur incontournable de l'industrie.

    Le secteur de la fabrication, qui repose sur des machines et équipements imposants, est considéré comme très capitalistique, ce qui en fait un candidat idéal à l'application de l'IA.

    Selon Andrew Ng, créateur de Google Brain et professeur en sciences informatiques à l'Université de Stanford (2), « l'IA permet de gérer la fabrication et le contrôle de la qualité, de réduire les délais de conception, de diminuer les déchets matériels, d'optimiser la réutilisation, d'effectuer des tâches de maintenance prédictive, et bien plus encore ».

    Le concept de l'IA (soit l'exécution par des machines de tâches et de processus en fonction de données pré-existantes) existe depuis les années 1950. Cette technologie imite le fonctionnement du cerveau humain en termes de mémoire, de perception, d'apprentissage, d'identification des motifs et de réalisation de calculs. De ce fait, mieux nous comprenons le cerveau humain, plus l'IA se développe. C'est ainsi que de nouvelles applications dans le secteur de la fabrication émergent. Cet article revient sur quelques-unes des manières qu'a l'IA de transformer notre industrie.

    La vision par ordinateur limite les problèmes de qualité 

    L'examen visuel des produits afin de s'assurer de leur qualité constitue une tâche chronophage mais incontournable du secteur. Elle oblige généralement les personnes responsables à inspecter manuellement des objets provenant d'un lot de production. En fonction de la taille et de la nature des produits, il arrive que des microscopes et autres outils soient nécessaires. Les objets non conformes sont ensuite examinés par les managers, qui évaluent la gravité du problème, le catégorisent, en étudient la cause et identifient la méthode de traitement appropriée.

    Analyst Report icon

    Cet article vous a plu ? Vous aimerez aussi ce rapport d'analyse :

    Feuille de route pour relever les défis liés à la qualité et la fabrication dans le secteur des sciences de la vie

    Télécharger le rapport gratuit

    Les erreurs humaines étant inévitables, ce processus n'y échappe pas, et peut donc s'avérer inefficace. Cela étant, une start-up de la Silicon Valley fondée par Andrew Ng a développé des outils de vision par ordinateur qui, grâce à un algorithme d'apprentissage automatique entraîné avec un échantillon d'images restreint, sont en mesure de détecter les imperfections les plus minimes. Ces dernières sont ensuite signalées en vue d'un traitement en profondeur. Ce processus est appelé identification automatisée des problèmes.

    La vision par ordinateur est synonyme d'amélioration de la qualité dans le secteur de la fabrication. En effet, l'IA permet d'identifier et de résoudre les problèmes à la source, et ainsi de s'assurer que les produits proposés sont immédiatement conformes et prêts à être commercialisés. De plus, les problèmes étant signalés en temps réel au sein d'un système électronique,leurs informations peuvent être intégrées à une piste d'audit et faire l'objet d'analyses avancées afin d'empêcher leur récurrence.

    Vision par ordinateur basée sur #IA, un outil bénéfique pour la #qualité dans la #fabrication, selon @MCMasterControl http://bit.ly/2QelRGT

     

    La maintenance prédictive, synonyme de temps d'arrêt réduits

    Selon des études récentes, les coûts liés aux temps d'arrêt imprévus peuvent dépasser les 50 milliards de dollars par an (3). Il n'est donc pas surprenant que la capacité de l'IA à éliminer les temps d'arrêt (dus à des pannes ou à une mauvaise gestion des équipements) de manière quasi complète figure parmi les applications les plus prometteuses de cette technologie.

    Depuis des années, les entreprises de fabrication s'appuient sur des capteurs et une maintenance préventive pour surveiller et évaluer les performances des équipements. Cependant, une telle méthode implique d'analyser manuellement d'importants volumes de données afin de produire des informations utilisables, ce qui en fait un processus réactif. A contrario, la maintenance prédictive, couplée à l'IA, tire parti d'analyses et de modèles avancés permettant de prédire les problèmes. Au fil du temps, l'apprentissage automatique permet d'optimiser la précision de ces algorithmes prédictifs. Les entreprises sont donc en mesure d'utiliser au mieux leurs équipements pour éviter les temps d'arrêt, et peuvent ainsi profiter de performances optimisées tout en contournant la méthode problématique (bien que courante) consistant à employer les équipements jusqu'à ce qu'ils présentent un problème.

    Selon @MCMasterControl, la maintenance prédictive (basée sur #IA) permet de tirer profit d'analyses et de modèles avancés pour prédire les pannes avant qu'elles ne surviennent http://bit.ly/2QelRGT

    Lorsque ces données sont rendues disponibles pour tout un réseau de solutions de fabrication, les services de maintenance et d'assurance qualité peuvent y accéder librement pour agir de façon plus rapide. Il s'agit là d'un exemple renforçant l'importance des systèmes de fabrication intégrés et entièrement numériques,qu'il s'agisse de progiciels de gestion intégrée (ERP),de la maintenance et de l'étalonnage,ou même des dossiers de production..

    La production en tant que service, solution pour la taille de lot 1

    Le coût lié au déploiement de technologies avancées dans le secteur de la fabrication continue de diminuer partout dans le monde. Ajoutons à cela une main-d'œuvre dont les coûts sont stables, et les entreprises sont plus libres que jamais en termes d'implantation des sites, ce qui permet de rapprocher matières premières, usines et consommateurs. De plus, l'alliance de l'IA avec d'autres technologies rend le secteur plus réactif et agile, ce qui ouvre la voie à de tous nouveaux modèles d'entreprise.

    La capacité des algorithmes à identifier les motifs récurrents s'avère utile dans tous les contextes. Ils peuvent, par exemple, reconnaître des motifs de consommation sur le long terme, en fonction du lieu ou selon le marché, tout en prenant en compte des facteurs variables très imprévisibles comme les cycles macroéconomiques, les évolutions politiques, et même les conditions climatiques (4). Il est avéré que les algorithmes sont capables d'interpréter avec assez de précision les sentiments exprimés sur les réseaux sociaux pour prédire des changements affectant le marché boursier. Les chercheurs pensent qu'il permettront bientôt d'analyser les interactions entre les consommateurs et leurs appareils intelligents pour anticiper la demande de certains produits ou de certaines marques.

    Pour @MCMasterControl, les algorithmes #IA identifiant les motifs peuvent prédire les demandes des consommateurs sur le long terme, en fonction du lieu ou selon le marché http://bit.ly/2QelRGT

    Alliée à diverses technologies (impression 3D, contrôle qualité centralisé, conception numérique des produits, l'Internet des objets ou l'informatique en nuage),l'IA rend possible le concept de taille de lot 1 (ou personnalisation en masse), selon lequel les entreprises collaborent avec les consommateurs pour produire des articles personnalisés répondant à leur demande, de manière fiable et efficace. Ainsi, la fabrication des produits devient non seulement possible, mais surtout rentable. Les solutions Click2Make de Siemens et Brilliant Manufacturing Suite de GE en sont des exemples (5).

    Le changement est inévitable

    L'industrie 4.0, qui correspond aux tendances technologiques actuelles dans le secteur de la fabrication, regroupe certes des concepts tels que la transformation, mais cette industrie a toujours été définie à travers le changement. Elle est née d'avancées majeures lors de la première révolution industrielle de la fin du XVIIIe siècle, et a continué d'évoluer au gré des innovations.

    Notons toutefois que les promesses de l'IA ne concernent pas que la machinerie. L'automatisation des tâches répétitives et la simplification des analyses de données chronophages permettent de donner une meilleure place à la main-d'œuvre et d'affecter le personnel à des tâches plus importantes. L'industrie 5.0, qui constitue l'étape à venir, sera basée sur la mise en avant de l'élément humain au sein des processus de fabrication et permettra une collaboration symbiotique entre employés et technologies.

    Selon Paul Daugherty, directeur des technologies et de l'innovation chez Accenture et co-auteur du rapport sur l'IA susmentionné : « pour bien saisir les possibilités de l'IA, les entreprises doivent développer dès à présent des stratégies positionnant leur main-d'œuvre au centre des processus, et s'engager à concevoir des systèmes responsables, basés sur des valeurs éthiques et morales qui favorisent des résultats positifs et encouragent les employés à se surpasser en imaginant, en créant, en innovant ».

    La fabrication et l'IA ? Une histoire qui ne fait que commencer. On en reparle !


    Références

    1. How AI Boosts Industry Profits and Innovation,2017. Accenture Research and Frontier Economics. Consulté le 19 novembre 2018.

    2. Artificial Intelligence Transforms Manufacturing,2018. The American Society of Mechanical Engineers. Consulté le 16 novembre 2018.

    3. Predictive Maintenance and the Smart Factory Floor,2017. Deloitte. Consulté le 19 novembre 2018.

    4. 3 Advances Changing the Future of Artificial Intelligence in Manufacturing,2018. Autodesk. Consulté le 16 novembre 2018.

    5. Machine Learning in Manufacturing – Present and Future Use Cases,2018. TechEmergence. Consulté le 19 novembre 2018.



    2016-nl-bl-author-beth-pedersenBeth Pedersenest spécialiste du contenu marketing au siège social de MasterControl à Salt Lake City (Utah, États-Unis). Elle a rédigé des contenus techniques et marketing pour des entreprises comme Microsoft, Novell, NetIQ, SUSE et Attachmate. Titulaire d’une licence en communication de l’université du Wisconsin à Madison, elle dispose également d’un master en communication et conception numérique qui lui a été décerné par l’université IT de Copenhague.






  • En quoi les super-vilains pourraient-ils bénéficier d'une solution pour les opérations de fabrication ?

    by par Dave Jensen, employé rédacteur chez MasterControl | nov. 27, 2018

    2018-bl-how-supervillains-could-benefit-page-image
    Tous les super-vilains partagent des traits communs. Ceux-ci incluent le narcissisme, un rire machiavélique et une lubie les encourageant à mettre l'espèce humaine entière sous leur joug. Le temps semble également leur être compté. Leurs hommes de main ne sont pour eux jamais assez rapides lorsqu'il s'agit de remplir leurs missions ou de fabriquer une machine infernale visant à nous asservir.

    Il n'est donc pas surprenant d'observer que c'est précisément cette impatience qui leur fait défaut et précipite leur défaite. Agir dans l'urgence entraîne erreurs, problèmes de communication et contretemps. C'est pourquoi les super-héros parviennent toujours à déjouer les plans maléfiques de leurs adversaires. Mais ne vous êtes-vous jamais demandé si les super-vilains ne réussiraient pas mieux s'ils utilisaient une solution de gestion de la fabrication ?

    Une piètre gestion des ressources a condamné la seconde étoile de la mort

    Il y a bien longtemps, dans un film Star Wars lointain, très lointain, l'Empire galactique s'était efforcé de construire une nouvelle étoile de la mort suite à la destruction de la première par l'alliance rebelle. Lorsque le projet prit du retard, l'Empereur Palpatine envoya Dark Vador afin qu'il supervise personnellement les opérations.

    Arrivé à l'usine, Vador commença immédiatement à jouer de ses qualités de médiateur inhérentes et appliqua une formation Six Sigma visant à booster le moral de la main-d'œuvre et d'améliorer la productivité. Les travailleurs ont en effet tendance à être plus motivés lorsqu'ils savent que leur capacité à respirer dépend fortement du bon accomplissement de leurs objectifs. Sans perdre un seul instant, Vador commença à vérifier les rapports d'état, effectua un suivi de la chaîne d'approvisionnement et utilisa probablement la Force pour envoyer quelques documents à l'imprimante. Dans le même temps, l'Empereur Palpatine se rendit également sur place pour s'assurer que lui et son apprenti déployaient efficacement leurs efforts.

    Alors que les deux serviteurs du coté obscur étaient occupés à gérer manuellement la construction de l'étoile noire, ainsi qu'à négocier avec Luke Skywalker les conditions de son recrutement, ils négligèrent plusieurs problèmes affectant d'autres domaines de leur entreprise. On pense évidemment à la faille de cybersécurité qui permit à l'alliance rebelle d'infiltrer le bunker de contrôle, de désactiver les boucliers de défense, et d'oblitérer une nouvelle fois la précieuse étoile de la mort.

    Si l'Empire avait mis en place une solution de gestion des opérations de fabrication, Vador et Palpatine auraient eu accès à une vue d'ensemble des données

    EN

    Si l'Empire avait mis en place une solution de gestion des opérations de fabrication, Vador et Palpatine auraient eu accès à une vue d'ensemble des données relatives au cycle de vie des produits et aux activés en cours, non seulement au niveau de leur étoile de la mort, mais également pour tous leurs projets galactiques. Ils n'auraient notamment pas eu besoin de se rendre sur place et d'investir du temps à s'informer sur l'avancée de la construction. Grâce à la gestion automatisée des workflows, la main-d'œuvre aurait pu partager en temps réel des données critiques et tenir leurs superviseurs au courant du statut de la faille de cybersécurité. Vador aurait été en mesure d'autoriser un processus de contrôle des changements visant à rediriger plus de ressources vers le bunker affecté.

    Lex Luthor aurait dû penser aux analyses prédictives

    L'un des plus célèbres super-vilains de DC Comics, Lex Luthor, n'est pas motivé par l'appât du gain ou la recherche du pouvoir. Il jouit déjà amplement de l'un comme de l'autre. Tout ce qu'il veut, c'est éliminer Superman. Dans le film Batman v Superman : L'Aube de la justice, il essaie d'abord de faire accuser Superman du meurtre d'un groupe terroriste en Afrique, puis d'une explosion détruisant le Capitole des États-Unis lors d'une audience du Congrès. Bien sûr, aucune des deux méthodes ne correspond au modus operandi de l'Homme d'acier.

    Insatisfait des résultats obtenus, il fomente ensuite une confrontation entre Batman et Superman, et donne au justicier de Gotham un avantage surprise sous la forme de kryptonite. Bien que la victoire du l'homme chauve-souris ait été anticipée par Luthor, ce dernier décide malgré tout de créer Doomsday, un monstre conçu à partir d'éléments kryptoniens. Il est sous-entendu que la créature ayant été ranimée grâce à l'ADN de Luthor lui-même, ce dernier serait en mesure de conserver un certain contrôle sur elle.

    white paper icon

    Cet article vous a plu ? Vous aimerez aussi ce livre blanc :

    Combler l'écart : logiciels de fabrication et l'impératif du numérique

    Télécharger gratuitement le livre blanc

    L'erreur commise par Lex Luthor est d'ordre stratégique : son approche n'implique pas de projection sur le long-terme, ni de planification réfléchie. Il préfère gaspiller son temps et ses ressources sur des opérations trop peu élaborées, qui ne mènent pas aux résultats escomptés. À chaque fois, il se contente de passer à son plan suivant sans effectuer d'analyse des données.

    Une solution de gestion des opérations aurait permis à Luthor de profiter d'une meilleur cohérence d'ensemble, ainsi que de données complètes et à jour. Ainsi, il aurait pu déterminer que ses chances de contrôler Doomsday étaient en réalité inexistantes.

    De plus, une solution de gestion automatisée des opérations lui aurait permis d'effectuer des analyses prédictives efficaces. Les informations de gestion des risques ainsi obtenues aurait indiqué qu'il serait aisé d'identifier l'auteur de toutes ces activités criminelles, à savoir Luthor lui-même. Cela l'aurait-il encouragé à repenser ses opérations ? Impossible à déterminer.

    Ce qu'il manquait à Loki ? Une meilleure gestion des workflows

    Loki, fils adoptif d'Odin considéré comme le « dieu de la malice » par son demi-frère au gros marteau Thor, semblait résolu à donner ses lettres de noblesse à l'infamie. Dans le premier volet de la saga Avengers, il essaya non seulement d'asservir la Terre entière, mais s'y prit surtout avec style.

    Pour faire simple, il vola le Tesseract, prit le contrôle de plusieurs agents du S.H.I.E.L.D. et embrigada les extra-terrestres appelés Chitauri pour anéantir la population ; le tout, sans se salir les mains.

    Au début, tout semblait aller comme Loki l'avait prévu. Il réussit à ouvrir un portail interdimensionnel, qui permit à l'armée alien d'entamer son assaut. Mais voilà : son désir de contrôler les opérations au sol en personne précipita sa défaite. Pris au piège dans un environnement compartimenté, il s'avéra incapable de communiquer efficacement avec les diverses parties Chitauri à propos des processus et de l'affectation des ressources. Au final, les troupes extra-terrestres se montrèrent impuissantes face aux compétences tactiques et militaires des Vengeurs.

    Lors d'un affrontement avec Thor, Loki, distrait, accéléra le workflow et continua de solliciter toujours plus de ressources auprès de son fournisseur, à savoir l'imposant Thanos, pour se focaliser sur la zone d'action des Vengeurs et de l'armée américaine. Pendant ce temps, Iron Man parvint à traverser le portail et à déposer une tête nucléaire à proximité du vaisseau-mère Chitauri. Cela provoqua un arrêt complet des ressources militaires Chitauri.

    Au final, les failles jonchant ses processus de gestion des workflows se sont avérées fatales pour Loki. Une solution des opérations de fabrication aurait offert à Loki une visibilité complète sur ses activités, ainsi que sur la stratégie de ses concurrents. Elle lui aurait également permis de rassembler et de partager des données critiques en temps réel sur les tâches en cours. Il aurait ainsi pu prendre des décisions éclairées en termes d'affectation des ressources, afin de contrecarrer la tête nucléaire et d'atténuer ses retombées.

    Pour une raison inconnue, les super-vilains semblent s'efforcer de saboter leurs propres plans en refusant d'utiliser des solutions adaptées, qui leur permettraient d'optimiser et d'accélérer leurs processus. À l'aide de logiciels dédiés aux opérations de fabrication comme MasterControl Manufacturing Excellence,les super-vilains seraient en mesure de construire des super-armes plus rapidement et plus efficacement. En outre, ils auraient de meilleures chances de prendre leur revanche sur ces bons samaritains de super-héros.


     

    2016-nl-bl-author-david-jensenDavid Jensen est spécialiste en marketing et communication chez MasterControl. Il rédige, pour diverses entreprises, des articles traitant des technologies, du marketing et des relations publiques depuis plus de vingt ans. Titulaire d’une licence en communication de l’université d’État de Weber, il dispose également d’un master en communication professionnelle qui lui a été décerné par le Westminster College.





  • Programme d'audit unique pour dispositifs médicaux : accès aux marchés internationaux, partie 1

    by proposé par Jean-Christophe Gourmanel et Tifany Desprez, employés d'Apsalys, un partenaire de MasterControl. | nov. 26, 2018
    2018-bl-medical-device-single-audit-program-page-image


    Le marché des dispositifs médicaux doit fréquemment s'adapter à d'importants changements réglementaires, qu'il s'agisse d'une nouvelle version de la norme ISO 13485, du règlement relatif aux dispositifs médicaux de l'Union européenne, ou du programme MDSAP international. Cet article est le premier d'une série en trois temps, dédiée à la mise en place du programme MDSAP.

    Ce programme de réglementation international est conçu pour simplifier la vente des dispositifs médicaux en Australie, au Brésil, au Canada, au Japon et aux États-Unis. Il implique un audit unique de gestion de la qualité pour les fabricants de dispositifs médicaux, visant à standardiser la validité et l'acceptation des produits dans ces cinq pays.

    Les pays membres, accompagnés de leurs organismes de réglementation associés, sont l'Australie, le Brésil, le Canada, le Japon et les États-Unis. L'Union européenne et l'Organisation mondiale de la santé ont le statut d'observateur.

    La question de l'accès au marché

    Le programme MDSAP s'inscrit dans une évolution globale de la conformité, et est devenu un facteur incontournable pour les fabricants de dispositifs médicaux souhaitant accéder aux marchés internationaux. Cela s'avère d'autant plus vrai pour le marché canadien. En 2014, Santé Canada a entamé une transition du Système canadien d'évaluation de la conformité des instruments médicaux vers le programme MDSAP. Tout au long de la transition, les certificats des deux programmes sont restés valides. Depuis le 1er janvier 2019, seul le certificat de conformité ISO 13485:2016 provenant du programme MDSAP est accepté pour les fabricants souhaitant commercialiser des dispositifs de classe II, III et IV au Canada.

    Le secteur des #DispositifsMédicaux a l'habitude des changements réglementaires. Avec @MCMasterControl, découvrez comment mettre en place le nouveau programme international #MDSAP http://bit.ly/2FxCLeE

    Objectifs du programme MDSAP

    • Simplifiez la surveillance des processus de gestion de la qualité des fabricants afin que ceux-ci se conforment à diverses normes sans redoubler d'efforts.


    • white paper icon

      Cet article vous a plu ? Vous aimerez aussi ce livre blanc :

      Top 5 Medical Device Industry Trends in 2018

      Télécharger gratuitement le livre blanc

    • Autorisez la réalisation d'une vérification unique visant à optimiser le temps et les ressources consacrées à l'évaluation de la conformité des fabricants, et à simplifier le processus dans son ensemble.

    • Encouragez un rapprochement des exigences techniques et des stratégies de réglementation au niveau mondial, sans faire preuve d'ingérence auprès des organismes individuels.

    • Promouvez des programmes transparents, prévisibles et cohérents en simplifiant les pratiques et procédures des organismes de réglementation.

    Impact du programme MDSAP sur les fabricants de dispositifs médicaux

    En regroupant les divers audits réglementaires en un seul et unique processus, le programme MDSAP permet d'économiser temps, efforts et argent. Ainsi, plutôt que de devoir se préparer à 5 audits différents chaque année, il suffit aux fabricants d'en passer un seul pour assurer leur conformité.

    Le MDSAP simplifie certes le processus en regroupant les audits, mais celui-ci demeure relativement complexe en termes opérationnels. Sont concernées les exigences ISO 13485:2016 en termes de gestion de la qualité, les bonnes pratiques de fabrication en vigueur au Brésil et la réglementation système de la FDA (partie 820 du titre 21 du CFR). D'autres exigences réglementaires importantes sont à prendre en compte, notamment au niveau de l'enregistrement, de la distribution de licences et du signalement d'événements négatifs. De ce fait, un audit MDSAP est susceptible d'être plus long qu'un audit traditionnel, les auditeurs pouvant passer une semaine voire plus dans l'entreprise.

    Selon @MCMasterControl, si les nouvelles exigences #MDSAP pour #DispositifsMédicaux rassemblent plusieurs audits #réglementaires, la mise en conformité demeure un projet complexe en termes opérationnels http://bit.ly/2FxCLeE

    Vous avez besoin d'aide pour vous conformer aux exigences réglementaires ? Contactez-nous à l'adresse www.apsalys.com.



     

    2018-bl-author-jean-christophe-gourmanelJean-Christophe Gourmanel est un ingénieur en développement d'entreprise, fort de plus de 20 ans d'expérience dans le secteur pharmaceutique, pendant lesquelles il a notamment travaillé pour l'une des cinq plus grandes entreprises de l'industrie. Il a occupé des postes techniques et de cadre, amassant une expertise robuste en gestion de projets, ventes, communications, gestion de la qualité et systèmes qualité. Il a développé et mis en place un processus Six Sigma complet chez Janssen Cilag. En 2008, il a fondé et est devenu PDG d'une entreprise consacrée aux solutions Web destinées aux organisations spécialisées dans les sciences de la vie. Gourmanel a ensuite travaillé chez Straumann, une entreprise leader d'implants dentaires, en tant que responsable des clients pour le marché français. Ce rôle lui a permis de s'intéresser à plusieurs sujets à la portée internationale, et notamment les bonnes pratiques de fabrication. Il est actuellement chef des ventes et chef des projets d'implémentation pour le partenaire français de MasterControl,Apsalys , spécialisé dans les conseils stratégiques pour les entreprises des sciences de la vie et dans les solutions d'implémentation techniques pour les pays francophones. Il est en outre fan de plongée sous-marine et passe son temps libre dans la splendide région d'Arcachon. Vous pouvez le joindre à l’adressejc.gourmanel@apsalys.com

     

    2018-bl-author-tifany-desprezTifany Despreza rejoint Apsalysen tant que responsable marketing et communications. Elle a obtenu son doctorat en neurosciences en 2015 à l'Université de Bordeaux, et a travaillé en tant qu'assistante en communications pour Bordeaux Neurocampus. Elle continue de cultiver son intérêt pour l'innovation scientifique et l'échange d'informations dans le cadre de l'accès aux marchés pour les entreprises des sciences de la vie. Elle apprécie notamment échanger avec les professionnels de l'industrie pour en apprendre plus sur la conformité et les défis liés à la qualité. Desprez est contactable à l'adresset.desprez@apsalys.com.



  • Guide pour se conformer au nouveau règlement européen relatif aux dispositifs médicaux (MDR), partie 1

    by par Jerry Chapman, consultant dans le domaine des GMP et rédacteur en chef chez Xavier Health | nov. 12, 2018
    2018-bl-eu-mdr-will-require-longterm-planning-part-1-page-image


    Les fabricants de dispositifs médicaux rencontrent des difficultés à se conformer au règlement européen MDR. En effet, il requiert davantage de temps et de ressources que prévu lors de son annonce et sa date limite d’application (mai 2020) approche.

    De nouvelles dispositions du règlement européen MDR nécessitent de mettre en place plusieurs mesures, dont de nombreuses ne sont pas évidentes, comme des tests cliniques supplémentaires, des changements de fournisseurs, des enregistrements de nouveaux produits, la gestion des nouvelles catégories des appareils, une plus grande surveillance des produits après la commercialisation, la modification du système qualité, etc.




    (voir la figure ci-dessous)
    .

    Lors de la conférence sur les dispositifs médicaux organisée par la FDA ( U.S. Food and Drug Administration) et Xavier Health en mai 2018,Kim Trautman, directrice adjointe des services internationaux concernant les dispositifs médicaux chez NSF International (et ancienne représentante de la FDA), donne un avis nuancé sur de nombreuses exigences du règlement MDR. Selon elle, « nombreux sont ceux qui ne se rendent pas compte de l’ampleur des mesures nécessaires en termes de gestion des risques et de contrôle du développement et de la conception. Les attentes sont désormais très différentes. La barre est placée plus haut ».

    Elle cite comme exemple les nouvelles attentes en termes de réduction maximale des risques liés aux patients. Auparavant, le principe ALARP (Aussi bas que raisonnablement possible) était la norme. Désormais, le nouveau règlement ne prend plus en compte ce qui est réalisable pour une entreprise. À propos des modifications apportées par le règlement MDR, Kim Trautman explique : « ajoutez à cela que si le risque n’est pas réduit, une indication le précisant doit figurer sur l’étiquette ou sur la notice. Ces nouvelles exigences ne sont pas négligeables.

    Les fabricants vont devoir prendre des décisions difficiles par rapport au travail nécessaire, notamment à propos des anciens produits et fichiers pour les rendre conformes aux nouvelles exigences ».

    Les nouvelles exigences du règlement ont également un impact sur d’autres marchés que le marché intérieur. Le marquage CE, nécessaire à la commercialisation de produits en Union européenne, est également requis par d’autres États ayant signé un accord de reconnaissance mutuelle avec l’Europe ainsi que par les pays candidats à l’adhésion à l’Union européenne dont l’Albanie, l’Ancienne République yougoslave de Macédoine, le Monténégro, la Serbie et la Turquie.

    Les anciennes directives applicables aux dispositifs médicaux servaient des intérêts à l’origine commerciaux. Désormais, le nouveau règlement met l’accent sur la protection de la santé des citoyens européens. En conséquence, les organismes notifiés doivent être davantage rigoureux par rapport aux fabricants. De nombreux dispositifs médicaux nécessitent désormais d’être étudiés et évalués par un organisme notifié pour être commercialisés dans l’UE.

    Selon Gert Bos, directeur général de Qserve, environ 30 organismes notifiés ont été retirés par la Commission européenne et les États membres à l’issue de ces changements. Parmi ceux restants, certains se sont recentrés sur leur domaine d’expertise. Les organismes notifiés étant moins nombreux, moins de ressources sont disponibles pour permettre aux fabricants de se conformer au nouveau règlement. Dans la plupart des cas, des listes d’attente apparaissent et les processus d’évaluation et de certification sont retardés.

    Le règlement MDR a été publié le 26 mai 2017 et remplace les anciennes directives en la matière y compris celle concernant les dispositifs médicaux implantables actifs. Il est applicable à partir du 26 mai 2020. Le nouveau règlement relatif aux dispositifs médicaux de diagnostic in vitro (IVDR) est quant à lui applicable à partir du 26 mai 2022. Tous les dispositifs médicaux, dont les implantables actifs, actuellement certifiés, doivent de nouveau l’être conformément aux nouvelles exigences.

    Les États membres ont dû modifier la législation ou voter de nouvelles lois pour adopter les directives. Les règlements en revanche sont directement applicables et obligatoires dans toute l’UE et ne peuvent être modifiés que par le Parlement européen.

    Les systèmes de gestion de la qualité devront être modifiés

    Top 5 Medical Device Industry Trends in 2018

    Lors d’un entretien avec Xavier Health fin octobre 2018, K. Trautman a évoqué les conséquences du règlement MDR sur le système de gestion de la qualité (QMS) d’une entreprise de dispositifs médicaux. Pour elle, cela impliquera des changements qui ne sont pas spécifiquement mentionnés dans les textes.

     

    Elle a expliqué que les règlements MDR et IVDR ne précisent pas les moyens par lesquels la conformité des fabricants devra être évaluée, mais que la plupart de ces derniers ISO 13485 utiliseront la norme

    Elle a ajouté : « les fabricants doivent déjà avoir analysé les mesures à prendre ainsi que les nouvelles exigences et développé des flux de travail en conséquence. Mais si vous examinez les réglementations, vous ne verrez pas nécessairement d'exigences spécifiques au QMS ».

    Ces changements liés au QMS devront néanmoins avoir lieu. « Vous ne voyez peut-être pas, à première vue, de flux de travail consacrés au système de gestion de la qualité mais de nombreux résultats dépendent de certains aspects du QMS qui doivent absolument être abordés même si le règlement ne stipule pas spécifiquement de nouvelles exigences à leur propos. »

    Selon K. Trautman, bien que les entreprises doivent donner la priorité aux aspects critiques du règlement, par rapport à l’équivalence par exemple, « elles ne doivent pas oublier que pour y arriver, elles devront incorporer ces modifications techniques à leur système QMS en faisant évoluer les processus de développement, de conception et de gestion des risques, ce qui prend du temps et nécessite d’être planifié ».

    Elle propose aux fabricants de se poser les questions suivantes pour préparer leur plan de qualité qui leur permettra de se conformer aux nouveaux règlements :

    • L’un de vos dispositifs a-t-il changé de catégorie ?

    • Dans quelle mesure votre certification ISO 13485:2016 sera-t-elle affectée une fois que vous aurez incorporé des appareils comprenant des produits pharmaceutiques et esthétiques désormais couverts par le nouveau règlement de l’UE ?

    Dans le cadre d’une présentation, lors de la dernière conférence Convergence de la Société professionnelle des affaires règlementaires (RASP) à Vancouver (Canada), K. Trautman a souligné quelques exigences de la norme ISO 13485 par rapport au QMS qui doivent être prises en compte au moment d’effectuer les changements nécessaires pour être conforme au règlement MDR.

    Dans la section 4.1.1 de la norme ISO 13485, il est écrit que toute organisation doit pouvoir attester d’un QMS. Celui-ci doit être conforme aux exigences de ladite norme ainsi qu’aux règlementations applicables et pouvoir rendre compte des rôles assurés par l’entreprise conformément à ces dernières. Ces rôles peuvent inclure le fabricant, un représentant autorisé, l’importateur ou le distributeur.

    En accord avec la section 4.1.4, les processus QMS doivent être gérés conformément à la norme ainsi qu’aux règlementations applicables dont fait partie le règlement MDR. Ainsi, l’impact des changements appliqués aux processus sur le système QMS et les dispositifs médicaux fabriqués doit être évalué.

    K. Trautman propose également une liste d’éléments à prendre en compte par les entreprises au moment de revoir leur système QMS pour être conformes au règlement MDR et à la norme ISO 13485. (voir la figure ci-dessous).

    Changer maintenant ou plus tard ?

    Les stratégies mises en œuvre pour se conformer aux nouvelles règlementations varient en fonction des entreprises. Cependant, l’on peut dégager deux stratégies principales, avec quelques variantes en fonction du portefeuille de produits et des ressources que chaque entreprise est prête à mobiliser pour continuer à commercialiser d’anciens produits.

    La première consiste à rendre le plus de produits possible conformes au règlement MDR avant la date limite d’application de mai 2020 et d’abandonner pour cela la commercialisation de certains anciens produits. La seconde vise à faire de nouveau certifier un plus grand nombre de produits selon les directives applicables aux dispositifs médicaux le plus tard possible avant 2020 de sorte à obtenir quatre ans supplémentaires pour que ces produits soient conformes au nouveau règlement.

    K. Trautman met en garde sur cette dernière : « si une modification est considérée essentielle une fois le règlement entièrement en vigueur, l’entreprise devra s’y conformer». Elle relève que la définition de modification essentielle « n’est pas claire ni explicitement décrite nulle part et est ainsi très subjective ».

    Les modifications en termes de fabrication sont courantes dans le domaine des dispositifs médicaux. Si une modification est jugée essentielle une fois le nouveau règlement en vigueur, les organisations doivent avoir mis en places des systèmes et des processus de gestion de la qualité conformes au règlement MDR. K. Trautman soutient qu’ « elles ne bénéficieront pas nécessairement de deux ou trois ans supplémentaires et qu’elles devront avoir mis en place de nouveaux processus et procédures dans le cas où la modification en question serait nécessaire ».

    Pour d’autres, si un nombre considérable d’entreprises ne parviennent pas à se conformer au règlement MDR avant son application, l’UE sera contrainte d’accorder un délai supplémentaire pour éviter une pénurie d’appareils. Lors d’une session d’octobre 2018, le Parlement européen a indiqué qu’il était très peu probable qu’un délai supplémentaire soit octroyé. Même si cela n’a pas explicitement été dit, étant donné qu’il a été difficile de s’accorder sur certaines dispositions, réouvrir les discussions à leur sujet relancerait de vieux débats.

    Ce même mois, la Commission européenne a publié unplan glissantqui propose des dates limites ainsi qu’un état des lieux des actes d’exécution et autres initiatives nécessaires pour faciliter le respect du règlement MDR. La Commission prévoit de revoir ce document tous les trimestres pour fournir des informations à jour aux acteurs du secteur.

    Dans la deuxième partie de cet article de blog,une feuille de route pour se conformer aux exigences du nouveau règlement européen vous sera présentée. Vous y apprendrez comment mettre en place et planifier votre transition, évaluer ce que votre entreprise doit changer ainsi que votre portefeuille de produits et prendre des décisions difficiles concernant vos anciens produits.

    La discussion se poursuivra lors de l'atelier de Xavier Health sur le règlement de l'UE relatif aux dispositifs médicaux les 27 et 28 mars 2019. Lors de cet atelier, les experts Bassil Akra (TÜV SÜD), Philippe Auclair (Abbott), Gert Bos (Qserve), et Kim Trautman (NSF International) vous exposeront des plans d’action pour continuer à commercialiser vos dispositifs médicaux dans l'UE grâce à des stratégies éprouvées et en respectant les dates limites.

     
    2018-bl-author-jerry-chapman Jerry Chapman  est consultant dans le domaine des bonnes pratiques de fabrication (GMP) et compte sur près de 40 ans d’expérience dans le secteur pharmaceutique. Il a occupé des postes techniques et à responsabilité dans le développement de produits, la fabrication et la qualité des usines, des sites, de l'organisation et des systèmes. Il a imaginé et mis en place un processus visant à respecter les bonnes pratiques de fabrication chez Eli Lilly. Il a ensuite de nouveau travaillé comme consultant pour l'une des 5 meilleures entreprises de santé animale en 2017. Jerry Chapman a été rédacteur en chef chez International Pharmaceutical Quality (IPQ) pendant six ans pendant lesquels il devait se tenir informé et rendre compte des sujets concernant les GMP et les CMC. Il effectue des missions en tant que consultant sur les GMP, la gestion des connaissances en matière de qualité, le développement et la formation aux GMP ainsi que d’autres sujets liés. Il est également rédacteur indépendant. Consultez son site Web  ici  pour plus d’informations sur ce qu’il propose. Vous pouvez le contacter par email à l’adresse jerchap2@gmail.com.


  • Assurance et contrôle qualité : quelle différence en termes de gestion de la qualité ?

    by par Kimberlee A. Washburn, experte en affaires réglementaires | nov. 05, 2018

    2018-bl-qa-vs-qc-page-image
    REMARQUE DE L'ÉDITEUR :
    cet article est le premier d'une série très populaire que nous republions afin de partager des informations éclairantes avec une plus large audience (ainsi qu'avec les nouveaux utilisateurs de GxP Lifeline).

    Pour la plupart des entreprises spécialisées dans les sciences de la vie et dans la fabrication, l'assurance qualité est indépendante des opérations et de la fabrication en elle-même. Il en va de même du contrôle qualité. Il convient cependant de définir la différence entre les deux composants essentiels, ainsi que leur importance.

    En théorie, l’assurance qualité implique des approches proactives qui ont pour but d’empêcher la fabrication de produits non conformes. Le contrôle qualité, quant à lui, implique des approches réactives et destinées à identifier de potentielles non-conformités par le biais d’inspections et de mécanismes de tests.

    En pratique, l’assurance qualité se rapporte au développement de règles destinées à garantir la qualité d’un produit, et le contrôle qualité est l’examen de ce dernier en fonction de ces mêmes règles.

     

    Connaissez-vous la différence entre #AssuranceQualité et #ContrôleQualité ? Découvrez en quoi ces deux activités affectent la qualité de #fabrication de votre entreprise, grâce à @MCMasterControl #QA #QC http://bit.ly/2qL5pi5

    Pour faire simple, assimilons l’assurance qualité au gouvernement d’un pays, et le contrôle qualité aux forces de l’ordre de ce dernier. Tout comme on ne peut envisager la non-existence d’un gouvernement et, de ce fait, que les lois soient dictées uniquement édictées par les forces de l’ordre, assurance qualité et contrôle qualité doivent aller de pair si éthique et intégrité sont recherchées.

    white paper icon

    Cet article vous a plu ? Vous aimerez aussi ce livre blanc :

    Optimisez votre système de gestion de la qualité et conformez-vous aux réglementations de la FDA et de l'ISO en six étapes

    Télécharger gratuitement le livre blanc


    L’équipe d’assurance qualité se doit d’être indépendante de celle en charge de la fabrication, notamment, conformément aux réglementations de la FDA américaine et à la norme ISO 13485. Cela n’implique pour autant pas d’être totalement autonome. Il est juste important que les objectifs ne soient pas discordants, bien que cette condition puisse parfois être complexe à satisfaire.

    Lorsque ce principe d’autonomie n’est pas respecté, plusieurs des problèmes suivants peuvent se produire. Le tableau ci-dessous répertorie quelques-unes de ces discordances et illustre le conflit à l’aide d’un exemple de situation :

       





    Exemple A : Aspirations et procédés distincts

    L’équipe d’assurance qualité est sous la responsabilité du directeur des opérations. Elle a pour rôle de garantir une production optimale.

    Pour ce faire, elle peut former, à l’inspection visuelle, les personnes en charge de la réception des matériaux. Grâce à cela, le nombre de composants présentant des défauts, et pouvant entraîner un rejet du produit assemblé, est moindre. Cette action n’induit pas une situation préoccupante. Si l’équipe d’assurance qualité remplit correctement son rôle, en initiant une formation qui porte très bien ses fruits, elle permettra d'assurer une validation immédiate des produits.

    Néanmoins, l’équipe d’assurance qualité doit également définir les niveaux d’inspection applicables aux attributs des produits concernés. Il est dans son intérêt de limiter le nombre de ceux non conformes afin de s’assurer de la satisfaction des clients, de ne pas avoir à rendre de comptes aux autorités réglementaires et d’éviter les actions peu valorisantes, comme les rappels. Si l’équipe d’assurance remplit correctement son rôle, et fait en sorte que lesdits niveaux empêchent la commercialisation de produits présentant des anomalies (ce qui nécessiterait donc une inspection de plus large envergure), il est fort probable que cela ne convienne pas à l’équipe en charge des opérations. En effet, cette dernière souhaite, en priorité, que le nombre de produits validés soit le plus élevé possible dès le premier test. Il s'agit là d'un conflit d'intérêt irréfutable. L'équipe d'assurance qualité devrait alors choisir des niveaux d'inspection moins exigeants afin d'assurer un nombre élevé de produits validés dès le premier test.

    Exemple B : Impartialité des approches adoptées lors de la prise de décision

    Imaginons le scénario suivant : le fournisseur A participe régulièrement à des réunions avec l’équipe de fabrication, auxquelles assiste aussi celle d’assurance qualité. Le fournisseur A y évoque des doutes quant à ses processus, son personnel ou ses ressources. Pour cette raison, et uniquement sur la base de cet entretien informel et d’impressions subjectives, l’équipe d’assurance qualité décide de faire appliquer des normes de validation plus strictes. Cette mesure nécessite alors de mobiliser plusieurs individus et d’effectuer un audit sur site, ce qui représente plus que ce qui aurait normalement été demandé au fournisseur.

    Le fournisseur B, quant à lui, est conforme aux exigences liées de l’entreprise, et le fournisseur C les surpasse même. L’équipe d’assurance qualité estime qu’il n’est donc pas utile d’effectuer une inspection sur site avec eux, contrairement au fournisseur A. Elle leur demande simplement de répondre à un questionnaire. Si cette situation ne s’était pas produite avec le fournisseur A, le fournisseur B et le fournisseur C auraient aussi été soumis à une inspection sur site.

    Une inspection aurait permis de découvrir que l’équipement utilisé par le fournisseur B n’était plus conforme, ce qui a donc entraîné la fabrication de produits non conformes eux aussi, sans que le problème soit identifié avant l'exécution de tests ultérieurs sur le dispositif. En outre, en effectuant une inspection, l’équipe d’assurance qualité aurait aussi pu se rendre compte que les très bons résultats obtenus par le fournisseur C lors des tests de validation étaient en fait falsifiés, et que celui-ci ne mettait pas les bonnes procédures en place en matière d’identification et de traçabilité. Le matériel mis à disposition par le fournisseur C diffère de celui initialement spécifié, et n’a pas été testé conformément aux prérogatives de la norme ISO 10993. Car ses procédures d’identification et de traçabilité ne convenaient pas, le mauvais numéro de pièce a été assigné par le fournisseur C, et le changement au niveau de la conception n’a pas été appliqué au nouveau produit.

     

    Étude : Objectifs discordants lors de la sélection de techniques statistiques

    Le tableau ci-dessous fait état des objectifs discordants de certaines équipes lors de la sélection de la technique statistique utilisée au cours de la phase de test. Les aspirations de l’équipe en charge du développement et de la fabrication diffèrent. Par ailleurs, si celle d’assurance qualité était « incorporée » à l’une de ces dernières, elle ne profiterait pas de l’indépendance requise pour prendre la décision appropriée.

     
    Développement Fabrication
    Point concerné Aspiration Technique statistique correspondante Aspiration Technique statistique correspondante
    Volume de données requis Sélection d’une technique statistique, avec le moins de données possible, afin de s’assurer de disposer de ressources adéquates et du respect des dates d’échéance Méthode descriptive (étude de moyennes, etc.)
    -ou-
    Test d’hypothèse
    Utilisation de procédés de vérification afin d’obtenir des informations sur les attributs des produits, exploitables ensuite en association avec les systèmes de tests employés lors de la phase de fabrication Méthodes graphiques (nuage de points, diagramme de Pareto, analyse de la fréquence, etc.)
    Taille d’échantillon Obtention d’une taille d’échantillon minimale ou adaptation de la taille d’échantillon au budget dédié aux prototypes et conceptions d’ingénierie Test d’hypothèse
    -ou-
    Plans d’échantillonnage par inspection (défauts mineurs/négligeables avec niveaux de qualité acceptable plus élevés)
    -ou-
    Développement d’autres techniques
    Taille d’échantillon plus conséquente afin de mieux anticiper les taux d’acceptation/de rejets Niveaux de confiance ou niveaux de fiabilité (élevés)
    -ou-
    Plans d’échantillonnage par inspection avec niveaux de qualité acceptable plus bas ou Analyse de la variance (ANOVA)
    Coût d’ajustement d’un produit non conforme Excellente réputation en matière de conception Développement d’autres techniques
    -ou-
    Plans d’échantillonnage par inspection avec niveaux de qualité acceptable plus bas
    -ou-
    Niveaux de confiance ou niveaux de fiabilité (élevés)
    Limitation des arrêts de production et des rappels Plans d’échantillonnage par inspection avec niveaux de qualité acceptable plus bas
    -ou-
    Niveaux de confiance ou niveaux de fiabilité (élevés)
    Modification des spécifications Développement de spécifications précises en fonction des matériaux et de la technologie Méthodes graphiques (nuage de points, diagramme de Pareto, analyse de la fréquence, etc.)
    -ou-
    Développement d’autres techniques ou Analyse de la variance (ANOVA)
    Mise en place de dispositifs permettant de tester les spécifications mises à jour et l’impact sur les validations de processus Méthode descriptive (étude de moyennes, etc.)
    Évaluation et qualification des fournisseurs suite à la mise à jour des spécifications ou des exigences (relatives à l’environnement, aux équipements, etc.) Méthode descriptive (étude de moyennes, etc.)
     

    L’indépendance de l’équipe d’assurance qualité est donc essentielle si l’on souhaite garantir la qualité d’un produit. Intéressons-nous maintenant à ses responsabilités, ainsi qu’à celles de l’équipe de contrôle qualité.

    Les responsabilités suivantes incombent généralement à l’équipe d’assurance qualité. Elles doivent impliquer des approches proactives et être assumées afin d’empêcher la fabrication de produits non conformes.

    • Contrôle des documents
    • Contrôle du changement
    • Examen et traitement des matériaux non conformes
    • Contrôle de la conception
    • Mises à jour logicielles
    • Évaluation et surveillance des fournisseurs
    • Exécution d’actions correctives auprès des fournisseurs
    • Audits qualité internes
    • Développement de plans d’échantillonnage
    • Actions correctives et préventives (CAPA)
    • Évaluation de la gestion du système de qualité
    • Contrôle des documents ayant trait à la qualité
    • Sélection de techniques statistiques
    • Réclamations clients
    • Contrôle environnemental
    • Contrôle de l’étiquetage
    • Mise à disposition du produit final
    • Mise à disposition du produit stérilisé
    • Gestion des dossiers DMR
    • Évaluation des tendances

    Les responsabilités suivantes incombent généralement à l’équipe de contrôle qualité. Elles doivent impliquer des approches réactives et destinées à identifier de potentielles non-conformités par le biais d’inspections et de mécanismes de tests.

    • Inspection du matériel
    • Manutention et stockage du matériel
    • Inspection et isolement du matériel non conforme
    • Émission des autorisations de retour
    • Contrôle et étalonnage des dispositifs de mesure et de surveillance
    • Inspection et test des produits au cours de la production
    • Inspection du produit final
    • Surveillance environnementale
    • Inspection de l’étiquetage

     


    Kim Washburn,experte en affaires réglementaires, s’est intéressée aux pratiques des États-Unis, de l’Union européenne, du Canada et de plus de 70 autres pays. Forte de plus de 15 années d’expérience dans le secteur pharmaceutique, de la biologie, des dispositifs médicaux et des diagnostics in-vitro, elle est spécialisée dans les questions ayant trait au développement, à la validation, au contrôle, à l’étiquetage et à la gestion des risques. Elle est également très familière de divers logiciels médicaux et rédactrice technique. Kimberlee Washburn a occupé des postes chez Abbott Laboratories, OrthoSensor, Nipro Diabetes Systems et la University of Miami Tissue Bank. Elle a obtenu une licence en biologie/informatique, obtenue à l’Université d’État de l’Illinois après avoir fréquenté l’Académie militaire de West Point.

     


     

  • Le programme Case for Quality dans la fabrication de dispositifs médicaux

    by par Stephanie Christopher, directrice du programme au sein du Medical Device Innovation Consortium (Consortium sur l’innovation dans les dispositifs médicaux) | oct. 08, 2018
    2018-bl-advancing-case-for-quality-in-medical-device-manufacturing-page-image

    Nous recherchons toujours la qualité dans les produits que nous achetons, les équipes dont nous sommes membres et les services que vous rendons ou recevons. Comment assurer cette qualité ?

    Pour un consommateur, la qualité est toujours un élément déterminant pour l’achat ou l’utilisation d’un produit. Si elle n’est pas au rendez-vous, les clients ne sont pas satisfaits. Les entreprises courent le risque de perdre des clients et d’entacher leur réputation, voire même d’être confrontées à des problèmes réglementaires ou de sécurité. Monteriez-vous sur une échelle que vous savez mal construite ? Sur un vélo qui risque fort de se casser ? Probablement pas.

    Les entreprises et les fabricants de dispositifs médicaux courent le risque de perdre des clients et d’entacher leur réputation s’ils sont incapables de respecter des standards de qualité. @MCMasterControl #MedDevice, @mastercontrol : http://bit.ly/2yjRsMj

    Les fabricants de tous types de produits doivent respecter les normes applicables pour créer et commercialiser leurs marchandises. Cependant, tous ne mettent pas la priorité sur la qualité, que ce soit celle du produit lui-même ou des pratiques de fabrication. La production de dispositifs médicaux de qualité supérieure joue un rôle important dans la santé publique. C'est pourquoi, aux États-Unis, la FDA a fait de la qualité une priorité.

    En 2011, le centre d'hygiène des dispositifs médicaux et radiologiques (CDRH) de la FDA a lancé la campagne Case for Quality (visant à promouvoir la qualité) pour faire en sorte que l’industrie des dispositifs médicaux, qui se concentrait auparavant sur le respect des règlementations, mette désormais l’accent sur la qualité, qui inclue aussi la conformité. Une étude approfondie des données des parties prenantes du secteur et de la FDA sur la qualité des dispositifs a montré que les exigences de cette dernière en termes de conformité ne permettaient pas d’assurer la qualité de tous les appareils produits. Il arrivait par exemple qu’un dispositif soit conforme aux règlementations mais de piètre qualité ou au contraire de très bonne qualité et pourtant non conforme et ainsi non commercialisable. Il était devenu évident pour la FDA que la conformité ne suffisait pas à assurer la qualité.

    Considérer la qualité comme un avantage et non comme un coût

    white paper icon

    Cet article vous a plu ? Vous aimerez aussi ce livre blanc :

    Top 5 Clinical Trends in the Medical Device Industry in 2018

    Télécharger gratuitement le livre blanc

    Cette même étude a révélé que les entreprises qui géraient efficacement les risques en incorporant des processus qualité au niveau de l’organisation étaient plus productifs, recevaient moins de plaintes et moins d’enquête par lot et disposaient de services qualité plus petits et moins coûteux que leurs concurrents.

    Pour soutenir la transition de la conformité à la qualité, le CDHR a accordé en 2015 au Consortium sur l’innovation dans les dispositifs médicaux (MDIC) un contrat pour rassembler des individus, des ressources et des idées afin de développer des outils, méthodes et pratiques qui permettent d’évaluer la qualité d’un dispositif médical. Le MDIC, dans le cadre du Case for Quality, organise un forum adressé aux acteurs du secteur et qui leur propose, au lieu de se contenter d’être conformes aux règlementations, de développer des pratiques prédictives qui permettent d’améliorer la qualité et la fiabilité des dispositifs médicaux pour obtenir de meilleurs résultats auprès des patients.

    En décembre 2017, le CDRH a lancé le Voluntary Medical Device Manufacturing and Product Quality Program Pilot (programme d’essai sur la qualité des produits et de la fabrication de dispositifs médicaux) fondé sur un modèle de maturité revu en collaboration avec le Capability Maturity Model Integration (CMMI), le MDIC et d’autres acteurs du secteur. Les entreprises de dispositifs médicaux peuvent tirer profit de ce modèle de maturité pour mesurer leur capacité à produire des appareils de bonne qualité, sans danger et performants. Elles peuvent ensuite se servir des résultats obtenus pour améliorer continuellement et de façon ciblée leurs équipements.

    La FDA ajuste ensuite ses exigences en matières de rapports et d’activités pour les fabricants dont la qualité a été évaluée par une tierce partie.


    2018-bl-voluntary-medical-device-manfucaturing-and-product-quality-pilot-page-image

    Pourquoi participer au Voluntary Quality Pilot Program du CDRH ?

    La participation des acteurs du secteur est essentielle à la mise en place durable du modèle de maturité qui remplace les procédures d’inspection classiques de la FDA. La FDA vise à se servir du modèle de maturité comme d’une méthode pour trouver de possibles améliorations qui bénéficient aussi aux fabricants :

    • Plus de production et de confiance dans le produit
    • Accélération du délai de mise sur le marché
    • Décisions mieux informées par rapport aux réglementations
    • Meilleure allocation des ressources
    • Un processus continu d’amélioration centré sur les intérêts des patients

    Les entreprises participantes qui ont été évaluées ne sont plus sujettes aux plans d’inspection de la FDA. Des contrôles de progression sont ensuite menés tous les trimestres pour vérifier les performances.

    De plus, si la FDA est assurée de la performance et du système qualité de l’entreprise (de par la participation de cette dernière au programme), elle réduit ses exigences en termes de soumission d’approbation de pré-commercialisation (PMA) pour les points suivants :

    • Préavis de 30 jours
    • Changements de sites
    • Plans originaux relatifs à la pré-commercialisation

    La FDA bénéficie également de ce programme car elle a la possibilité de réduire ses ressources internes nécessaires aux inspections et aux contrôles de la fabrication. Elle peut mettre cela à profit pour soutenir les fabricants dont la maturité et la qualité sont relativement faibles et les impliquer plus rapidement dans le développement de nouveaux produits. Les bénéfices obtenus peuvent permettre d’accélérer la mise en place d’améliorations en termes de qualité et de réduire les délais de mise sur le marché de produits plus efficaces pour les patients.

    Participer au Voluntary Quality program du CDRH nécessite d’investir dans des ressources humaines et financières. Cela sera cependant extrêmement profitable pour les entreprises. Les organisations participantes pourront ainsi améliorer leurs processus organisationnels, réduire la variabilité qui peut déboucher sur des coûts plus importants en matière de qualité et limiter les remaniements. Elles pourront estimer leurs possibles bénéfices à partir de leurs données internes et en déterminant les coûts d’évaluation conjointement avec le CMMI. Elles seront aussi capables de calculer leurs économies potentielles en termes de qualité, de soumissions et d’audits.

    Les entreprises de dispositifs médicaux expérimentent déjà les avantages d’un accent mis sur la qualité. À l’occasion d’un forum du MDIC, l’entreprise Boston Scientific a déclaré que si elle participait au programme du CDRH, elle pourrait réallouer l’équivalent de 500 000 dollars, utilisés en 2016 pour écrire et soumettre ses 69 préavis de 30 jours. Des représentants de Edwards Lifesciences et CVRx ont fait le même constat.

    Rob Decker, responsable de la qualité dans l’établissement de l’entreprise situé à Draper (Utah, États-Unis) s’exprime en ces termes : « en négociant notre participation au programme Case for Quality avec la FDA, Edwards Lifesciences s’est rendu compte qu’elle partageait avec l’institution américaine sa volonté de permettre aux patients d’avoir accès à des dispositifs médicaux sans danger, efficaces et de bonne qualité. Edwards Lifesciences reconnaît aussi que c’est dans ce but que la FDA souhaite faire évoluer les pratiques actuelles et que cela permettra à notre entreprise d’améliorer sa conformité, de se conformer à de meilleurs standards de qualité et de faire des bénéfices économiques. Il s’agit d’une situation gagnant-gagnant. »

    Al Crouse, directeur de la qualité chez CVRx témoigne d’une expérience similaire avec le programme d’essai : « CVRx avait d’abord fait le choix de prendre part au Voluntary Medical Device Manufacturing and Product Quality program pour identifier ce qui devait être amélioré dans nos produits et notre système qualité. Après les résultats de l’évaluation, nous avons trouvé des pistes non seulement dans ces domaines mais aussi dans d’autres, relatives à des activités indépendantes de notre système qualité. Ces résultats nous ont permis de prendre des actions qui ont amélioré notre rendement et les interactions entre les différents groupes de travail au sein de l’entreprise, en plus de l’efficacité du produit et de la sécurité du patient. »

    En sus des efforts du MDIC pour soutenir le programme du CDRH, quatre nouveaux groupes de travail ont été formés pour renforcer les avancées actuelles en termes de qualité dans la fabrication de dispositifs médicaux. Leur activité consiste à :

    • Remanier le processus CAPA et en faire un cadre d’amélioration continueen s’appuyant sur les meilleures pratiques mises en œuvre dans différents secteurs et sur la collaboration.

    • Créer un espace interprofessionnel « sécurisé »:un environnement non concurrentiel, collaboratif et dépourvu de système de sanctions, ouvert aux discussions sur un ensemble d’initiatives d’améliorations essentielles.

    • S’assurer que 85 % des chefs d’entreprises de dispositifs médicaux aient pris des initiatives en lien avec la qualité d’ici 2020en les convaincant que cela permettra à leur organisation et à tout le secteur d’évoluer. En effet, la qualité doit être considérée comme une priorité stratégique au sein de la gouvernance pour pouvoir se traduire dans toute l’organisation.

    • Faire de la qualité un atout dans un début de carrièreen proposant des cours sur la qualité à l’université et en sensibilisant les étudiants aux avantages de mettre l’accent sur la qualité dès le début d’une grande carrière dans le secteur des technologies médicales.

    Le MDIC continue de travailler en collaboration avec le secteur des dispositifs médicaux et le CDRH pour promouvoir la qualité et soutenir la migration de l’écosystème vers une fabrication et des produits de qualité supérieure, au-delà de la conformité. Pour connaître les critères d’éligibilité au Voluntary Medical Device Manufacturing and Product Quality Program Pilot du CDRH, rendez-vous sur le Federal Register.sur le site

    Le MDIC travaille en collaboration avec le secteur des dispositifs médicaux et la FDA pour promouvoir la qualité et encourager les fabricants à mettre l’accent sur la qualité avant la conformité. @MCMasterControl #MedDevice #FDA #MDIC, @mastercontrol http://bit.ly/2yjRsMj

    Pour plus d’informations à propos du programme Case for Quality du MDIC ou savoir comment impliquer votre entreprise, rendez-vous sur www.mdic.org/cfq.


     

    2018-bl-author-stephanie-christopherStephanie Christophertravaille dans la communication sur la santé, la gestion de projets de santé publique, ainsi que la formation et l’éducation à la communication. Elle a rejoint le MDIC en 2013 et gère l’évaluation des risques et des bénéfices sur les patients, l’implication de ces derniers et les initiatives qualité. Auparavant, elle travaillait au sein d’une équipe de santé publique pour améliorer la qualité de la communication entre les médecins et les jeunes parents à la naissance de bébés présentant des résultats anormaux aux examens. Elle a quitté ce poste en 2012-2013 afin de mener une mission spéciale pour le Centre d'hygiène des dispositifs médicaux et radiologiques (CDRH) de la FDA et former le personnel à un nouveau processus de communication sur les risques. Elle a aussi enseigné les fondamentaux de la communication à l’université Marquette.

    Elle est titulaire d’une licence en journalisme et communication de la Pacific Lutheran University à Tacoma (Washington, États-Unis) et d’un master en communication dans les domaines des sciences, de l’environnement et de la santé de l’université Marquette à Milwaukee (Wisconsin, États-Unis). Elle est aussi coordinatrice de recherche clinique certifiée par l’Association of Clinical Research Professionals (Association des professionnels en recherche clinique) dont elle a été nommée membre en 2018. Vous pouvez la contacter à l’adresse schristopher@mdic.org.

     


     

     

     

  • Conseils d‘experts pour mettre en place plus d’actions CAPA à travers l’innovation

    by par James Jardine, employé rédacteur chez MasterControl | sept. 26, 2018
    2018-bl-ken-petersons-capa-webinar-page-image

    Pour innover dans la gestion des actions correctives et préventives (CAPA), il faut commencer par les considérer comme des solutions. Innover en matière de qualité est inutile si le but est uniquement d’innover.

    Selon Ken Peterson, expert en qualité, la meilleure stratégie pour aller plus loin qu’une gestion basique des CAPA consiste à oublier le passé et réinventer le futur. Dans un livre blanc Livre blancinstructif et un webinaire en deux parties,K. Peterson explique comment associer pensée analytique et idées créatives pour développer de nouvelles solutions. Selon lui, la recherche ne doit pas limiter l’esprit d’innovation.

    Oubliez ce qui n’a pas fonctionné. Pensez à ce qui le doit.

    K. Peterson a une longue expérience de chef de gestion de la qualité. Il a passé plusieurs décennies de sa vie à améliorer les processus dans des entreprises comme IBM et Pfizer. Selon lui, les efforts en termes de gestion de la qualité sont trop souvent tournés vers l’analyse des défaillances. Les organisations se concentreraient tellement sur des CAPA visant à trouver les causes des problèmes qu’elles ne prêteraient pas attention à des solutions moins évidentes et moins conventionnelles.

    Il ajoute que l’innovation commence par une déclaration d’intention concise qui définit clairement l’objectif visé. Il s’agit de la démarche opposée à l’énoncé d’un problème : au lieu de clarifier ce qui n’a pas fonctionné, il est nécessaire de se concentrer sur la définition de ce qui doit marcher. C’est seulement lorsque vous aurez bien défini votre objectif que vous pourrez redéfinir les résultats attendus et spécifier les critères qui vous permettront de trouver une solution.

    Les dangers de la recherche trop rapide de solutions

    En tant qu’êtres humains, nous avons tendance à vouloir trouver une solution rapide pour résoudre immédiatement un problème. Dans le cadre de la qualité, cela se retourne souvent contre nous. Pour développer une solution viable qui permette de répondre aux contraintes de la direction et du marché, il vous faut d’abord définir les exigences en terme de conception avant que toute idée préconçue ne se glisse dans votre analyse. Vous pourrez toujours effectuer des modifications et vous adapter plus tard si des problèmes de conformité ou des risques apparaissent.

    Pour éviter les pièges que comportent des solutions de gestion de la qualité pas suffisamment réfléchies, K. Peterson pose les quatre questions suivantes afin de stimuler l’innovation :

    • Que doit apporter la solution ?
    • Que doit-elle permettre ?
    • Qui sera affecté par cette innovation ?
    • Quelles seront les conséquences de cette solution dans ce secteur ?

    K. Peterson conseille de mettre en place une technique de cartographie de l’esprit pour classer des idées par catégories et faire ainsi plus facilement le tri dans une grande quantité de données. Il faut d’abord se poser des questions essentielles et prescriptives pour obtenir une vision globale du problème à résoudre. Une fois avoir élaboré le cadre d’une solution viable, vous pouvez le comparer avec les exigences de conception établies et plus tard précisées. S’il existe des critères non négociables, les éléments problématiques de la solution peuvent être ajustés pour empêcher de potentiels problèmes de survenir plus tard.

    white paper icon

    Cet article vous a plu ? Vous aimerez aussi ce livre blanc :

    Advancing Beyond CAPA Using Innovation for Growth and Improvement

    Télécharger gratuitement le livre blanc

    Faire d’idées innovantes une réalité

    K. Peterson conseille de suivre les six étapes suivantes pour évaluer, catégoriser et prendre de nouvelles initiatives de sorte à trouver une solution complète à partir d’une idée.

    1. Opportunité : se poser des questions prescriptives pour identifier les opportunités
    2. Portée : reprendre les exigences en matière de conception pour comprendre tous les paramètres et vérifier la faisabilité du projet.
    3. Exigences : déterminer les éléments de la solution qui sont absolument nécessaires à son efficacité.
    4. Amélioration : définir les composantes de la solution qui sont importantes mais pas essentielles, ainsi qu’un objectif clair.
    5. Perfectionnement : ajuster la solution pour remplir les exigences prioritaires et contraignantes.
    6. Accord : obtenir le feu vert de la part des directeurs et des parties prenantes.

    Les 3 phases de la mise en place d’un processus d’innovation réitérable

    Si elles souhaitent créer un environnement favorable à l’innovation et inciter au développement de solutions créatives, les entreprises peuvent, selon K. Peterson, suivre « les principes fondamentaux d’une innovation efficace » en reproduisant les trois étapes suivantes :

    1. Développer et mettre en place un processus étape par étape pour transformer des concepts en résultats opérationnels.
    2. Utiliser des outils pratiques adaptés à l’environnement, aux produits, à la planification de la production et aux autres éléments d’organisation spécifiques à l’entreprise.
    3. Prendre les mesures nécessaires à la mise en place efficace des solutions en s’assurant de l’engagement du personnel concerné. K. Peterson explique que ce dernier point peut devenir aussi complexe que le développement de la solution si des individus clés sont réticents à une réorganisation de l’entreprise.

    Il incite les sociétés à adopter un état d’esprit progressiste pour favoriser le développement de solutions innovantes : « souvenez-vous que que l’on apprend davantage lorsque l’on se trompe que lorsque l’on réussit directement. L’on peut trouver une solution sans qu’il y ait de problème. »

    Pour en savoir plus sur les stratégies créatives visant à améliorer le processus de développement CAPA, regardez la vidéo en deux parties « Advancing Beyond CAPA Compliance Using Innovation for Improvement and Growth ». iciElle est également disponible en podcast (partie 1,, partie 2). Pour étudier la méthodologie en six étapes ainsi que les techniques innovantes de CAPA proposées par K. Peterson, téléchargez le livre blanc..


    James Jardineest spécialiste en marketing et communication chez MasterControl Inc. Titulaire d’une licence en journalisme de l’université d’Utah, il s’intéresse aux sciences de la vie et aux problèmes de réglementation depuis plus de dix ans. 
     






  • QUALITÉ 4.0 : DIX ÉTAPES POUR RÉUSSIR LA MISE EN PLACE D’UN EQMS

    by par Tifany Desprez, Responsable Communication & Marketing chez Apsalys | sept. 11, 2018

    Il est temps de vous mettre à jour avec les outils (r)évolutionnaires ! Et cela commence avec un eQMS.

    TimeToUpgrade_Quality4.0

    Le projet de mise en place d’une solution d’eQMS (electronic Quality Management System), doit se comprendre comme une opportunité d’améliorer le niveau qualité d’une organisation. Comme tout projet, il implique différentes étapes pour sa préparation, sa réalisation et son déploiement, garantissant sa réussite :

    En bref : Les principales étapes de la mise en place d’un eQMS

    Mise_en_place_eQMS-1-1500x687

    1. Réaliser un audit interne organisationnel

    Avant d’investir dans un projet coûteux et long, il est nécessaire de faire l’état des lieux du système existant. Il faut analyser de façon exhaustive les pratiques associées à la gestion de la qualité telles que la gestion des documents et des processus. Ceci permet d’identifier les forces et les faiblesses du système qualité et d’en mesurer sa conformité au regard des normes réglementaires auxquelles l’entreprise est soumise. C’est à la suite de l’audit, que l’on pourra proposer les mesures appropriées pour gagner en agilité, en conformité et accroître la rentabilité.

    2. Mesurer le ROI du projet

    Le retour sur investissement (ROI en anglais) est un indicateur clé qui aide à la décision et apporte une vision globale sur la performance du projet. Des outils en ligne gratuits vous permettent d’estimer la rentabilité à court et moyen terme liée à l’intégration d’un eQMS au sein de votre entreprise.

    Calculer votre retour sur investissement avec MasterControl

    3. Mobiliser les différents acteurs

    La démarche qualité n’aura de sens que si elle est portée par l’équipe de direction et adoptée par l’ensemble des collaborateurs. Elle doit être suffisamment anticipée pour ne pas minimiser l’action et pour fédérer l’ensemble de l’entreprise. Cette démarche requiert une certaine maturité de la part de la direction et du responsable qualité qui doivent convaincre leurs équipes, la gouvernance, les partenaires et les autres parties prenantes.

    4. Définir sa politique et ses objectifs

    Par la suite, il faut déterminer sa politique et la décliner en différents objectifs à atteindre :

    Sur le plan commercial :

    • Satisfaction du client ;
    • Accès au marché ;
    • Amélioration de son image ;
    • Création de valeur ajoutée ;
    • Compétitivité et développement.

    Sur le plan interne à l’organisation :

    • Optimisation de l’efficience opérationnelle 20% ;
    • Agilité et performance ;
    • Amélioration de la traçabilité ;
    • Maitrise, mesure et surveillance des processus qualité ;
    • Maintenance de la conformité réglementaire ;
    • Réduction des coûts ;
    • Gain de temps de recherche d’environ 50% ;
    • Efficacité de travail d’environ 30% à 40% ;
    • Responsabilisation de l’ensemble des acteurs.

    La démarche qualité se traduit, pour la personne en charge, par un argumentaire servant de feuille de route tout au long de la mise en place du processus.

    White Paper

    Cet article est lié au livre blanc suivant :
    Qualité 4.0 : éducation, engagement et stratégie gagnante
    Pour le consulter dans son intégralité, téléchargez au livre blanc gratuit.

    5. Mettre en place une équipe en charge du projet

    Lorsqu’il est établi que la mise en œuvre d’un logiciel de gestion de la qualité constitue un levier pour le développement, l’amélioration et la mise en conformité réglementaire de l’entreprise ; la prochaine étape consiste à mettre en place une équipe en charge de l’étude et de la réalisation du projet. Dans la plupart des cas, on constate que le chef de projet est issu du département qualité et/ou informatique. Il est cependant nécessaire d’impliquer les différentes représentations de l’entreprise pour s’assurer d’une acceptabilité maximale.

    6. Évaluer les besoins et mettre en place un cahier des charges techniques et fonctionnelles

    Lorsque l’équipe est constituée, il faut évaluer avec précision la configuration actuelle du système qualité et les besoins de l’entreprise à travers le nouveau logiciel de gestion de la qualité. Une fois les besoins identifiés, les différents modules du logiciel seront sélectionnés. Le cahier des charges techniques et fonctionnelles regroupera toutes les attentes précises qui seront obtenues tout au long du projet.

    7. Choisir le logiciel

    Après avoir déterminé avec précision les besoins de l’entreprise, il est temps de choisir la solution logicielle appropriée. Il est important d’étudier :

    • Les fonctionnalités

    Identifier le périmètre de la solution permet de vérifier non seulement la couverture des besoins actuels mais aussi futurs. Outre la puissance en termes de modules, l’interconnexion de ces derniers représente un avantage opérationnel. Par exemple, une réclamation client validée peut être utilisée pour lancer la non-conformité nécessaire. Vous pouvez alors lancer un CAPA pour résoudre le problème. Ce processus CAPA peut générer une demande de mise à jour de documents et /ou une formation des employés. Tout cela sous-entend l’interconnexion entre les modules de non-conformité, des CAPA et de la GED. De fait, la productivité escomptée doit être un critère de choix.

    • La capacité opérationnelle du logiciel

    L’eQMS permet de réduire la recherche documentaire, de faciliter l’accès aux documents et la collaboration, la sécurité des données, etc.

    • Les mises à jour du logiciel

    Les éditeurs effectuent des mises à jour régulières du logiciel pour assurer le bon suivi des changements réglementaires et la conformité du logiciel.

    • L’accompagnement proposé

    Dans le cas où les entreprises font appel à la sous-traitance pour des services tels que la validation logicielle, la maintenance, la formation des utilisateurs, il est recommandé de s’assurer que le fournisseur propose aussi un accompagnement par des experts qui doivent nécessairement être aussi des experts métiers.

    • La validation logicielle

    Il incombe, aux entreprises des sciences de la vie, d’intégrer une démarche de validation aux sens des exigences réglementaires. Conformément aux normes ISO 13485:2016, les entreprises sont tenues de procéder à une validation logicielle. Cette validation doit s’effectuer tout au long du cycle de vie du logiciel depuis le début du projet, et se continue au-delà de la mise en place. Lorsque vous choisissez votre logiciel, assurez-vous que celui-ci a été conçu pour être aisément «validable». Par exemple, il doit disposer d’une vraie signature électronique, d’un audit trail pouvant garantir une traçabilité complète, de règles de SOD (Segregation of Duty),… Vérifiez aussi que le fournisseur de la solution vous propose de disposer des dossiers de validation et vous apporte des garanties en termes de Data Integity. Cela représente des « plus » significatifs !

    Le logiciel MasterControl est un eQMS paramétrable permettant d’automatiser, de gérer, de suivre, d’analyser vos processus qualité dans une interface centrale. La suite logicielle intégrée, MasterControl, propose des modules interconnectés pour gérer de manière automatique, l’intégralité des processus métier dans une seule interface. MasterControl protège vos données tout au long de leur cycle de vie, permet d’automatiser les processus, d’avoir une traçabilité parfaite sur tous les évènements.

    Distributeur officiel de MasterControl pour les pays francophones, Apsalys accompagne ses clients dans toute la durée de leur projet qualité pour leur garantir la réussite.

    8. Déployer et faire migrer des données

    Le déploiement consiste en l’intégration de l’eQMS dans le système d’information ; avec si besoin des connections externes comme par exemple avec un ERP, un LIMS (Laboratory Information Management System) ou un système PLM (Product Lifecycle management)…. Pour l’installation du logiciel, le choix est large : installation sur des serveurs en local, hébergement dans un serveur distant dédié ou installation en Cloud SaaS. Le type de licences est aussi à prendre en considération selon l’utilisation du logiciel. On retrouve :

    • Les licences nommées : une licence est utilisable par une seule et unique personne. Elle n’est pas partageable.
    • Les licences simultanées : une licence est utilisable par plusieurs utilisateurs mais n’autorise qu’une seule connexion au logiciel, c’est-à-dire que les utilisateurs ne pourront pas être connectés en même temps sur le logiciel. Cette option permet d’avoir une licence partagée entre différents utilisateurs, ce qui réduit significativement le coût des licences.

    Ces choix d’acquisitions et d’hébergements se font en fonction des délais et/ou du budget alloué du projet.

    9. Paramétrer

    Après l’installation, le paramétrage est une étape critique dans la mesure où elle conditionne la bonne adéquation de la solution aux besoins quotidiens. À cette étape, il est toujours possible d’ajouter ou de personnaliser les modules en fonction des différents besoins identifiés. On procédera aussi à la reprise des données existantes, c’est à dire faire migrer les données dans la base unique du logiciel.

    10. Former les utilisateurs

    La formation est une étape indispensable qui sera plus ou moins longue en fonction du nombre de modules et de leur implémentation dans le temps. Une formation adaptée garantit une bonne utilisation de la solution logicielle. Un apprentissage module par module est recommandé pour intégrer progressivement les bonnes pratiques. Des moyens de vérification de l’acquisition des connaissances, par exemple par l’intermédiaire de QCM, permet de garantir pour certains fonctions sensibles, le bon usage de la solution.

    Les utilisateurs pourront appréhender comment les normes réglementaires sont traduites au sein du logiciel. Cela donnera du sens à son utilisation et favorisera son intégration.

    N’hésitez pas à nous contacter, pour plus d’informations.

  • Problèmes qualité : des causes primaires aux « causes réelles »

    by par David Manalan, fondateur d’INQC Consulting | mai 08, 2018
    2018-bl-quality-problems-page-image

    Si un problème lié à la qualité survient, cela signifie que quelque chose a changé. S’il est parfois aisé d’identifier ce changement, il arrive qu’une enquête s’avère essentielle. Comme nous le savons, l’analyse de la cause primaire et la mise au point d’une action corrective impliquent d’identifier cette cause et d’en empêcher la survenue subséquente. Cette méthode n’est toutefois pas toujours efficace lorsqu’il s’agit d’empêcher les problèmes de réapparaître. La raison ? Chaque cause primaire semblant unique, aucun motif n’émerge des analyses.

    Au début de ma carrière d’ingénieur, le service de fabrication de mon employeur, qui se trouvait sur un site distinct, concevait des ressources critiques pour le secteur pharmaceutique. Une fois par an environ, de sérieux problèmes qualité survenaient, et toute une équipe d’ingénieurs et de consultants se rendaient à l’usine pour étudier la situation. À chaque fois, de nouvelles causes primaires étaient identifiées. Des actions correctives étaient mises en place, et les opérations reprenaient de plus belle. Du moins jusqu’à l’année suivante, quand tout se répétait. Après trois ou quatre ans, il est apparu que ces causes primaires liées à des changements pouvaient être assimilées à des symptômes d’une cause bien plus « réelle ».

    Analyse des causes réelles

    L’approche que je propose s’appelle « analyse des causes réelles ». Elle est née en découvrant qu’Allan Sayle avait fait une observation similaire dans son livre consacré aux audits, avant de conclure qu’il n’existait en réalité que six causes réelles liées aux problèmes qualité. L’auteur avait également listé au moins deux éléments uniques à chaque cause, ce qui permettait aux auditeurs et responsables des enquêtes de les identifier convenablement. Une fois la cause réelle découverte, il convient de la traiter de façon adéquate, afin d’éliminer efficacement la problème.

    Les 6 causes réelles selon Sayle

    Commençons par aborder les six causes réelles, ainsi que leurs éléments spécifiques, tels que répertoriés par Allan Sayle :

    Manque d’organisation

    • Responsabilités et hiérarchies peu claires
    • Systèmes de gestion non définis
    • Communications inadéquates

    Formation insuffisante

    • Éducation insuffisante
    • Formation en entreprise inadéquate

    Manque de discipline

    • Exemple donné par les superviseurs et responsables
    • Culture/campagnes d’entreprise
    • Attributs personnels
    • Systèmes peu flexibles
    • Environnement démotivants

    Manque de ressources

    • Systèmes de gestion trop complexes
    • Attitudes irresponsables
    • Attentes irréalistes
    • Attributions inégales
    • Réinvestissement inadéquat
    • Manque de modernisation

    Manque de temps

    • Systèmes trop complexes
    • Attitudes irresponsables
    • Engagements irréalistes
    • Égoïsme
    • Charge de travail excessive

    Manque de soutien de la part des cadres

    • Attitude/motivation
    • Éducation des cadres
    • Gestion du temps
    • Autosatisfaction

    Identification et analyse des causes réelles

    Pour reprendre l’exemple précité, comment serait-il possible d’identifier la cause réelle et les actions à entreprendre ? Le problème ayant été résolu sans apporter de changement organisationnel considérable, il ne peut pas s’agir de cela. Aucune formation supplémentaire n’a eu lieu pour mettre fin au problème. En revanche, celui-ci semble en effet s’être amenuisé après intervention de la direction : il pourrait donc s’agir d’un manque de discipline. Il convient cependant d’être exhaustif dans notre analyse, alors continuons. Aucun changement relatif à la gestion du temps ou des ressources n’est survenue ensuite. Que reste-t-il ? Probablement un manque de soutien de la part de la direction. Celle-ci a considéré que le problème était assez important pour envoyer des ingénieurs et consultants sur place, ce qui prouve que leur soutien a résolu la situation, au moins de façon temporaire. 

    Cet article est lié au livre blanc suivant :
    Qualité 4.0 : éducation, engagement et stratégie gagnante
    Pour le consulter dans son intégralité, téléchargez au livre blanc gratuit.
     

    C’est là que les éléments spécifiques à chaque cause se révèlent utiles. La cause Manque de discipline en comprend cinq. Passons sur ceux qui ne peuvent pas s’appliquer à notre cas : rien n’indiquait que les cadres ont donné un mauvais exemple ; aucun indice ne laissait supposer que la culture d’entreprise ou les attributs individuels aient pu avoir une incidence (d’autant que, les gens ne changeant pas souvent de personnalité, la récurrence du problème sur un an va dans ce sens) ; aucun changement n’ayant été apporté aux systèmes, un possible manque de flexibilité ne saurait être la cause. Reste la possibilité d’un environnement démotivant, qui n’est pas à exclure, étant donné que le personnel de l’usine semble avoir été revigoré par la motivation de l’équipe d’ingénieurs étant intervenus.

    Qu’en est-il des éléments liés au soutien de la part des cadres ? L’attitude de la direction peut être perçue comme démotivante si les cadres n’encouragent pas activement les employés à se surpasser. Cela est également le cas lorsque les directeurs ont fait des études liées à la gestion des opérations ou à la comptabilité, mais qu’aucun ne semble être un expert en termes de qualité ou capable de contribuer à l’objectif commun de l’entreprise. Nous avons déjà établi que la cause n’était probablement pas liée à un manque ou une mauvaise gestion du temps. Le concept d’autosatisfaction renvoie à une attitude consistant à refuser le changement en vertu du succès soi-disant intemporel des processus en place. Il y a peu de chances que cela s’applique ici.

    Processus d’élimination

    Nous voici donc avec deux causes possibles, liées à un problème de motivation, idée présupposant qu’une valeur est donnée au travail de chacun par ses pairs. Si les cadres souhaitent motiver les employés, ils peuvent s’éduquer dans le domaine de la qualité et participer aux discussions d’entreprise à ce sujet, ainsi que démontrer leur intérêt pour le sujet à chaque fois que cela est pertinent. Dans l’une des entreprises avec laquelle j’ai travaillé, le PDG collabore toujours avec ses employés lors d’audits et autres inspections réglementaires. Cela lui permet d’envoyer un message clair, ce dont tout le monde prend note.

    Si les cadres négligent de prouver leur intérêt pour la qualité, les employés responsables de celle-ci finiront inévitablement par se démotiver. Un tel changement créera, à terme, des problèmes de qualité. Cette cause s’avère particulièrement complexe à identifier, car elle ne se manifeste pas de manière abrupte, mais progressive. En outre, si l’enquête permet de résoudre le problème (comme dans notre exemple), alors une cause primaire sera trouvée, mais pas la cause réelle.

    Les cinq autres causes réelles relèvent également de la responsabilité de la direction, qui est censée anticiper les problèmes et empêcher qu’ils ne surviennent. Dans le cadre des normes ISO 9001 et ISO 13485, c’est ce que l’on appelle des actions préventives. Sans elles, l’entreprise est condamnée à répéter ses actions correctives à l’infini.

    Commençons par le manque d’organisation. Il ne fait aucun doute que l’organisation d’une entreprise doit être définie par la direction. Les régulations de la FDA américaine le stipulent clairement. Qu’en est-il du manque de formation ? Les entreprises embauchent généralement des individus diplômés, expérimentés et compétents, mais un minimum de formation est nécessaire pour se familiariser aux spécificités de chaque société. Plus tard, d’autres formations peuvent se révéler essentielles en cas de nouvelles exigences ou technologies. Encore une fois, il incombe à la direction de déterminer quel type de formation est nécessaire pour chaque employé. Le manque de discipline peut-il vraiment être imputé aux cadres ? Si les responsables ordonnent aux employés d’aller plus vite en ignorant des procédures en place, la discipline de l’entreprise en souffrira forcément, au même titre que la qualité. Il arrive cependant que les attributs individuels de certains employés les conduise à contourner les procédures établies. Il revient à leurs superviseurs et collègues d’identifier ce type de comportement et d’agir en conséquence. Que peut faire la direction pour améliorer la discipline ? Le processus de sélection des employés doit permettre de détecter les possibles problèmes de discipline (contact d’anciens employeurs, période d’essai, etc.).

    La direction est indéniablement responsable du manque de ressources en termes de personnel et d‘équipement. Les régulations de la FDA américaine stipulent clairement que les cadres doivent mettre à disposition des ressources adéquates et attribuer à chacun ses responsabilités. Le manque de temps constitue un autre problème, car celui-ci ne peut pas être acheté, mais uniquement alloué stratégiquement en fonction des décisions de la direction. Généralement, les tentatives qui ambitionnent de doubler la vitesse de production en doublant la main-d’œuvre échouent. La plupart des procédés prennent un temps bien défini, et sa réduction est susceptible de conduire à d’importants problèmes de qualité. Le manque de soutien de la part des cadres a déjà été abordé, et il paraît évident que ces derniers doivent apporter leur aide aux employés et les conseiller en cas de problèmes de qualité.

    Conclusion

    Une cause primaire n’est pas une cause réelle. La première est le nom donné aux preuves objectives observées, tandis que la seconde se rapporte à l’identification d’une non-conformité. Il convient donc d’investir du temps et des efforts pour identifier ces causes, afin de réduire le nombre de problèmes de qualité et d’actions correctives et préventives.



    Références

    1. Sayle, Allan. “Management Audits: The Assessment of Quality Management Systems.” 1988. McGraw-Hill. 396 pages

     



    2018-bl-author-david-manalanDavid Manalan
    , fondateur de INCQ Consulting, travaille depuis plus de 50 ans avec des entreprises soumises aux réglementions de la FDA, de l’EPA, de l’OSHA et d’autres agences similaires. Lors de ses 25 premières années passées chez Millipore Corporation, il était chargé du développement d’appareils de filtrage, de l’amélioration du processus de fabrication, du développement des systèmes de qualité et des affaires ayant trait à la réglementation. En tant que consultant, il a passé les 25 dernières années à collaborer avec plus de 50 entreprises, comptant de 5 à 5 000 employés. Il détient une licence en ingénierie chimique, obtenue auprès du Massachusetts Institute of Technology, puis a étudié l’ingénierie biomédicale à la Northeastern University.  David Manalan est membre de l’ASQ, auditeur qualité/biomédical certifié et ingénieur qualité logiciels certifié. Il siège au conseil de plusieurs divisions de l’ASQ (biomédicale, Boston). Il a participé à des groupes de travail pour le Clinical Laboratory Standards Institute dans les domaines des systèmes qualité, de qualification des équipements et des audits. Vous pouvez le joindre à l’adresse DManalan@alum.mit.edu ou via sa page LinkedIn http://linkedin.com/in/davidmanalan..




     

     

  • Les 5 tendances principales qui affecteront le secteur des dispositifs médicaux en 2018

    by par Dave Jensen, employé rédacteur chez MasterControl | avr. 12, 2018

    2018-bl-tops-5-medical-device-industry-trends-2018-page-imageChaque nouvelle année, nous nous demandons à quelles innovations nous pouvons nous attendre. Vu la vitesse à laquelle les technologies évoluent, nous pouvons facilement passer à côté de l’une d’elles, alors même qu’elle aura été particulièrement importante.

    Le volume extrêmement élevé d’informations, transitant à la vitesse de l’éclair, vient compliquer le processus de prise de décision, déjà complexe. Avec l’aide de Walt Murray, grand spécialiste de la conformité et auditeur chevronné, nous nous sommes concentrés sur 5 tendances qui affecteront significativement le secteur des dispositifs médicaux en 2018.

    Renommé dans le monde entier, Walt Murray maîtrise parfaitement le principe de gestion des risques et est actuellement consultant chez PinPoint Consulting. Il est également habilité à auditer les systèmes de gestion de la qualité et de gestion environnementale.

    Le développement de certains logiciels, comme ceux présents dans les appareils jetables ou réutilisables, dicte celui des dispositifs médicaux. En effet, les fabricants de ces mêmes dispositifs se doivent d’examiner avec attention les tendances émergentes et de s’adapter aux idées et technologies inédites.

    1. Les logiciels se trouvant dans les dispositifs médicaux seront de plus en plus courants et complexes

    Le monde de la santé s’imprègne de plus en plus du numérique. Car des logiciels sont désormais intégrés aux dispositifs médicaux, ces derniers se complexifient davantage. Les avantages des technologies innovantes, à la fois pour les fournisseurs de soins et pour les patients, ne cessent cependant de croître.

    Les fabricants de dispositifs doivent, notamment, consacrer plus de temps et d’efforts aux éléments suivants :

    • Contrôle de la conception : les procédures d’approbation sont plus exigeantes car la probabilité que des anomalies soient identifiées ultérieurement, au cours de la phase de production ou de validation, est plus élevée.
    • Gestion des risques : la gestion des risques doit s’effectuer de façon plus avancée tout au long du cycle de vie du produit.
    • Cybersécurité : des problèmes de sécurité peuvent surgir à tout moment et doivent être immédiatement traités.
     
    Cet article est lié au livre blanc suivant :
    Top 5 Medical Device Industry Trends in 2018
    Pour le consulter dans son intégralité, téléchargez au livre blanc gratuit.

     

    2. Les solutions médicales novatrices vont se banaliser

    Les entreprises extérieures au secteur de la santé continuent de consacrer expertise et innovations au développement de produits utilisés dans ce domaine. Il y a de fortes chances que cette tendance rende le marché des dispositifs médicaux encore plus compétitif.

    Cependant, les acteurs proposant des nouveautés radicales devront toujours s’en remettre à l’ingéniosité des organisations établies pour adapter leurs créations à la complexité des réglementations et systèmes existants. Les spécificités du secteur sont susceptibles de déconcerter les sociétés non traditionnelles émergentes.

    • Tous les échanges doivent être pertinents et consignés. Il est possible que les nouvelles entreprises ne sachent pas que chaque donnée, concept, storyboard, caractéristique, e-mail et note (même celles rédigées rapidement sur un tableau blanc) doivent être consignés au sein d’un système accessible à toutes les parties.

       

    • L’adoption de nouveaux produits peut prendre du temps. Les nouvelles technologies impliquent souvent que les fournisseurs de soins modifient leurs processus. Il peut s’avérer bénéfique pour les développeurs de dispositifs médicaux de s’adapter constamment à celles-ci, de sorte que les fournisseurs soient plus enclins à personnaliser leurs flux de travail lorsqu’ils font l’acquisition de nouvelles solutions.

    3. Le nombre de défis liés aux besoins croissants en conformité va continuer d’augmenter

    Devant se conformer aux réglementations en vigueur, les applications mobiles de santé, de plus en plus nombreuses, ont provoqué une multiplication des modifications et mises à jour réglementaires. Le guide préliminaire de la FDA, applicable aux employés des secteurs des médicaments et de l’alimentation (Mobile Medical Applications Guidance for Industry and Food & Drug Administration Staff), énumère les types d’applications mobiles médicales qui seront ou non soumises à réglementation.

    Selon ce document, les applications mobiles utilisées en conjonction avec un dispositif existant, ou employées afin de transformer une plateforme mobile en solution médicale, sont réglementées par la FDA. La même approche basée sur les risques sera utilisée avec les applications mobiles et les autres dispositifs médicaux.

     

    4. Les autorités de réglementation continueront de se concentrer sur les erreurs humaines

    La volonté de réduire ou d’éliminer les erreurs se base notamment sur les objectifs établis par la norme ANSI/AAMI/IEC 62366, dédiée à la sécurité dans le cadre de l’ergonomie des interfaces.

    L’un des buts des recherches en ergonomie réalisées par les fabricants consiste à simplifier et optimiser la formation de toutes les parties impliquées. L’ensemble des équipes de développement doit donc participer à la conception de l’interface (les analyses des risques en mode de défaillance s’en trouvent notamment améliorées).

    En outre, certains problèmes liés aux facteurs humains peuvent uniquement être résolus dans l’environnement de production car celui de test n’est pas adapté. Cela induit souvent de demander une exemption des dispositifs de recherche avant de procéder à l’évaluation, et donc de soumettre une validation de pré-envoi.

    5. Le processus « de novo » va s’accélérer et se simplifier

    Ce processus n’a jamais été aussi populaire que les autres approches disponibles, à savoir les autorisations 510(k) et préalables à la mise sur le marché. Cela tend cependant à changer, le nombre de classifications réussies de type « de novo » n’ayant de cesse d’augmenter. Cela s’explique par le fait que la FDA n’exige plus de recevoir une demande d’autorisation 510(k) ni de détermination NSE (Not Substantially Equivalent).

    Selon le guide « De Novo Classification Process » (Evaluation of Automatic Class III Designation) de la FDA, les personnes souhaitant faire qualifier leur dispositif en classe I ou II peuvent (si aucun produit similaire n’existe déjà sur le marché) envoyer une demande de type « de novo » sans se soucier des autorisations 510(k) ou déterminations NSE.

    Il convient toutefois de noter que le processus « de novo » est surtout favorisé lorsque les risques sont très élevés. En d’autres termes, si vous disposez d’une nouvelle technologie qui n’est pas considérée comme présentant de hauts risques (ou si vous êtes en mesure de prouver votre capacité à gérer efficacement ces derniers), il sera possible de commercialiser votre produit rapidement et à frais réduits. Même si celui-ci est similaire à un dispositif existant, le processus « de novo » demeure adapté du moment que votre technologie est différente.

    Les changements sont souvent source de défis. Le secteur des dispositifs médicaux continue de se démarquer à travers ses nombreuses innovations et opportunités de croissance et d’évolution. Pour consulter une étude approfondie de ces tendances, reportez-vous au livre blanc Top 5 Medical Device Industry Trends in 2018.


    2016-nl-bl-author-david-jensenDavid Jensen est spécialiste en marketing et communication chez MasterControl. Il rédige, pour diverses entreprises, des articles traitant des technologies, du marketing et des relations publiques depuis plus de vingt ans. Titulaire d’une licence en communication de l’université d’État de Weber, il dispose également d’un master en communication professionnelle qui lui a été décerné par le Westminster College.





  • Mise en application prochaine du RGPD : comment s’y conformer ?

    by par Dave Jensen, employé rédacteur chez MasterControl | avr. 03, 2018

    2018-bl-eus-gdpr-page-imageSoyons réalistes : tant qu’il existera des données médicales d’intérêt, des failles seront exploitées pour tenter de les dérober. Cependant, un point est particulièrement positif : les agences de réglementation du monde entier renforcent actuellement les mesures sécurisant de telles informations.

    Le Parlement européen se prépare à publier un ensemble de règles strictes visant à protéger celles associées aux participants à des essais cliniques, ainsi qu’aux patients. Ces individus sont appelés des « personnes concernées ». Cette nouvelle loi, connue sous le nom de « Règlement général sur la protection des données » (ou « RGPD »), a été adoptée en 2016 par l’Union européenne, en complément de la directive établie en 1995. Toutes les entreprises qui collectent et traitent des données relatives à des citoyens de l’Union européenne, ainsi que du Royaume-Uni, doivent se conformer à ces nouvelles prérogatives essentielles au plus tard le 25 mai 2018.

    Le RGPD, c’est quoi exactement ?

    Le RGPD a été instauré pour élargir les droits, en matière de confidentialité, des personnes concernées impliquées dans des essais cliniques. Il a également pour but d’empêcher toute exploitation frauduleuse des données des citoyens européens. Enfin, il vient réguler le traitement et l’exportation des informations stockées au sein de l’Union, qu’elles soient ou non liées à des ressortissants du continent.

    Ce n’est pas tout : l’une des implications majeures du RGPD est l’harmonisation, au sein de l’Europe, des lois régissant la confidentialité.1 Bien que certains pays puissent choisir de faire entrer des régulations plus restrictives en vigueur, tous doivent mettre en place un même niveau de protection empêchant la divulgation ou le partage des éléments suivants :

    • Les coordonnées de base, comme le nom, l’adresse et le numéro de sécurité sociale ;
    • Les données Web, comme l’adresse IP et les informations enregistrées par les cookies ;
    • Les données biométriques ;
    • L’origine ethnique ;
    • Les opinions politiques ;
    • L’orientation sexuelle ;
    • Les tissus humains.

    Il est fort possible que votre entreprise doive apporter les modifications qui s’imposent à ses systèmes et protocoles.

     
    This article is related to the White Paper:
    Can You Afford a Data Security Breach?
    Pour le consulter dans son intégralité, téléchargez au livre blanc gratuit.

     

    Qui sera affecté par le RGPD ?

    Le RGPD s’applique à la fois aux contrôleurs et aux sous-traitants des données permettant l’identification directe ou indirecte d’une personne. Le contrôleur détermine la manière dont celles-ci seront traitées, à quelles fins et dans quelles conditions par le sous-traitant.

    Géographiquement parlant, la portée du RGPD s’étend à toutes les entreprises basées dans l’Union européenne. Cependant, celles opérant hors de cette région, mais traitant les données de citoyens européens, y sont elles aussi soumises.2

    Que faut-il faire pour se conformer au RGPD ?

    Le RGPD diffère clairement de la directive de 1995. La confidentialité constitue toujours la priorité centrale, mais les exigences ont été réexaminées afin de mieux s’accorder avec les procédés et technologies avancées d’aujourd’hui.

    Sa ressemblance est proche avec la partie 21 du CFR de la FDA américaine. Alors que toutes vos procédures opérationnelles normalisées doivent être conformes au règlement, vous devez, en outre, vous assurer que les organisations avec lesquelles vous échangez des données le respectent également.

    Traitement des données

    Le RGPD n’indique pas à proprement parler comment vous devez gérer et stocker les données collectées. Néanmoins, il souligne qu’il est essentiel d’en connaître le type et le volume, ainsi que l’emplacement, et d’être parfaitement familier des risques induits et des actions à entreprendre. Si vous souhaitez vous conformer au règlement, vous devez :

    • identifier l’intégralité des données associées à chaque personne concernée, ainsi que chaque entité externe vous fournissant celles-ci.
    • déterminer la manière dont vous allez exploiter les données à caractère personnel.
    • connaître l’emplacement des données transférées et les procédés mis en place pour protéger celles-ci lors de leur transport.
    • savoir où se trouvent tous vos serveurs, et lesquels sont spécifiquement employés pour stocker, traiter et transférer les données.

    Vous êtes, d’autre part, invité à sécuriser les échanges de données entre tous vos systèmes, parmi lesquels :

    • les serveurs.
    • les stations de travail.
    • les entrepôts.
    • les appareils mobiles.
    • les appareils portables.

    Consentement

    Le processus de consentement a été à la fois renforcé et simplifié par le RGPD : les demandes de consentement doivent désormais être concises et claires. Les formulaires ad hoc doivent, quant à eux, être accessibles facilement et aisément compréhensibles.2 D’autres conditions ont été édictées :

    • Les personnes concernées doivent pouvoir mettre fin à leur consentement aussi facilement qu’elles l’ont accordé.
    • Les personnes concernées sont autorisées à demander la suppression de leurs données (elles doivent cependant rester à disposition des fournisseurs de soins médicaux pendant une durée raisonnable, qui aura été spécifiée aux personnes concernées par ces derniers).
    • Les personnes concernées sont autorisées à demander à ce que leurs données ne soient plus traitées ou communiquées à l’avenir.
    • Les personnes concernées sont autorisées à demander gratuitement une copie de leurs données.

    Délégué à la protection des données

    Le rôle du délégué à la protection des données (DPD) est de s’assurer que la gestion et le traitement des données s’effectuent conformément au RGPD.

    Le RGPD indique dans quelles circonstances une entreprise est appelée à nommer un tel délégué. Cette action est obligatoire uniquement si un volume très élevé d’informations sensibles est contrôlé et traité.2

    Il est néanmoins conseillé de faire appel à un délégué dès que des données confidentielles sont manipulées, quelle que soit leur quantité. Voici quelques recommandations à prendre en compte :

    • Il n’est pas nécessaire de créer un nouveau poste. Un responsable de la qualité peut très bien remplir ce rôle, à partir du moment où aucun conflit d’intérêts n’a lieu.
    • Toutes les réglementations, lois et meilleures pratiques applicables doivent être connues par le DPD.
    • Le DPD doit pouvoir fournir des suggestions éclairées lorsque nécessaire.
    • Les entreprises peuvent faire appel à un DPD externe.

    Notification en cas de fuite de données

    En cas de fuite de données, il est obligatoire de contacter les autorités compétentes dans les 72 heures. Les clients du sous-traitant devront également être informés dans les mêmes délais. Si ce n’est pas le cas, un motif documenté doit être avancé pour expliquer leur non-respect.

    Formation des employés

    La conformité au RGPD doit passer par la formation des employés. Ceux-ci doivent non seulement être formés à toutes les implications du RGPD, mais également aux politiques de sécurité mises en place dans leur entreprise. Tout doit donc être revu : les technologies et les procédés généraux.

    Que se passe-t-il si l’on ne se conforme pas au RGPD ?

    Tous les pays membres de l’Union européenne doivent se conformer au RGPD d’ici le 25 mai 2018. Dans le cas contraire, ils s’exposent à des amendes pouvant atteindre 20 millions d’euros, ou jusqu’à 4 % du revenu annuel de l’entreprise en question. Des paliers ont été définis : vous serez, par exemple, redevable de 2 % si vous n’avez pas procédé à une évaluation des risques, si les dossiers associées ne sont pas correctement consignés, ou si vous n’avez pas alerté les autorités en cas de fuite.

    Conclusion

    À première vue, le processus de conformité au RGPD peut sembler intimidant. Cela étant dit, si l’on s’y intéresse de plus près, on remarque qu’un système efficace et électronique de gestion de la qualité, s’il est à portée, le facilite grandement. Grâce à lui, vous pouvez :

    • gérer des volumes élevés de données et en assurer l’intégrité et la sécurité.
    • prendre en compte toutes les exigences qui s’imposent.
    • contrôler le niveau de conformité des fournisseurs.
    • vérifier que toutes les formations adéquates ont bien été suivies et mises à jour si nécessaire.

    Pour l’instant, le RGPD concerne uniquement l’Europe. Malgré cela, et car la confidentialité et la protection des données constitue une préoccupation majeure, il est très probable qu’il s’adresse rapidement à d’autres continents.

     

    Références

    1. Règlement (UE) 2016 du Parlement européen et du Conseil http://data.consilium.europa.eu/doc/document/ST-5419-2016-INIT/fr/pdf

       

    2. Portail EUGDPR.org https://www.eugdpr.org/key-changes.html.


    2016-nl-bl-author-david-jensenDavid Jensen
    is a marketing communication specialist at MasterControl. He has been writing technical, marketing and public relations content in technology, professional development, business and regulated environments for more than two decades. He has a bachelor’s degree in communications from Weber State University and a master’s degree in professional communication from Westminster College.






  • Approche basée sur les risques : guide pratique dédié à la norme ISO 13485:2016 (partie 3)

    by par Michelle Lott, directrice et fondatrice de Lean RAQA Systems, LLC | mars 05, 2018

    2018-bl-death-by-risk-based-approach-page-imageIl s’agit de la troisième partie d’une série d’articles ayant pour sujet le guide pratique dédié à la norme ISO 13485:2016 (vous pouvez toujours consulter la premièreet la deuxième partie). Ce texte revient sur des exemples et mises en application mentionnés dans le guide pratique, et relatifs à l’adoption d’une « approche basée sur les risques ».

    Dans la partie précédente, nous en étions restés à l’assertion suivante : « Grâce au guide pratique, nous savons que l’approche basée sur les risques s’applique dans toutes les situations, mais sa définition demeure nébuleuse. Cette approche est traitée comme si elle avait été clairement définie et comprise au sein du secteur, or ce n’est pas le cas ».

    Quelles informations concrètes le guide pratique propose-t-il ? Bien que plus détaillé que la norme elle-même, il comprend également des références aux méthodes associées à l’approche basée sur les risques, dont vous avez peut-être entendu parler (FMEA/FMECA, HACCP, FTA, SWOT, les « 5 pourquoi », les « 5 forces de Porter », les questionnements conditionnels et les sessions d’échange d’idées). Un seul exemple d’application d’une telle approche, dans le cadre des processus QMS, est abordé. Selon lui, il est conseillé de commencer par une analyse SWOT (forces, faiblesses, opportunités et menaces) pour chacun d’eux. Cela est ensuite utilisé pour procéder à une analyse des dangers et points critiques pour leur maîtrise (HACCP), elle-même employée au sein d’une stratégie d’amélioration portant sur les faiblesses relatives aux systèmes de gestion de la qualité.

    Cet exemple s’avère problématique. Revenons sur certains des concepts impliqués dans la mise en place d’une approche basée sur les risques, telle que définie dans le guide pratique. Tous les exemples proviennent de la page 36.

    • « Votre organisation est en mesure d’évaluer le système QMS afin de vérifier et d’optimiser la conformité. »

    Il n’y a pas si longtemps, nous appelions ça un audit interne. Selon la norme ISO 13485:2016, l’objectif d’un tel audit est de déterminer si le système de gestion de la qualité :

    • a) est conforme aux dispositions prévues et documentées, aux exigences de la norme internationale, à celles établies par l’organisation, et aux réglementations en vigueur.
    • b) est appliqué et maintenu de manière efficace.

    En quoi l’approche basée sur les risques diffère-t-elle d’un audit interne ?

    • « L’identification d’une faiblesse potentielle au sein du processus QMS entraîne l’exécution d’une analyse détaillée. »

    Lors d’un audit, les faiblesses sont identifiées au sein d’un rapport dédié. Chacune d’elles est ensuite étudiée, et sa cause primaire établie. Cela constitue donc déjà une « analyse détaillée ».

    • « Cette analyse détaillée permet ensuite de créer une stratégie d’amélioration fiable des faiblesses identifiées. »

    La plupart des systèmes d’audit comprennent une analyse de la cause primaire, la mise en place d’actions correctives et préventives, ainsi que des tests d’efficacité. En quoi de telles actions diffèrent-elles d’une « stratégie d’amélioration fiable des faiblesses » ?

    Pourquoi le guide conseille-t-il de créer un nouveau système d’analyses basé sur les risques alors que des solutions QMS existantes et éprouvées peuvent simplement être modifiées en conséquence ? Il serait bien plus profitable aux organisations d’adopter cette approche plutôt que de tout repenser.

    Le nombre d’étapes et d’outils présentés comme nécessaires à l’analyse des systèmes de gestion de la qualité prêtent également à questionnements. Étudions cela de plus près. Tous les exemples proviennent là aussi de la page 36.

    • « Pour commencer, il convient d’effectuer une analyse de type SWOT au niveau de chaque processus QMS comportant des faiblesses potentielles. » Format italique ajouté.

    Cinq processus principaux sont définis par la norme, sans compter les sous-systèmes associés. Votre entreprise a donc besoin de réaliser cinq analyses SWOT.

    • « L’identification d’une faiblesse potentielle au sein du processus QMS donne lieu à une analyse détaillée, par exemple de type HACCP. »

    Admettons que chaque analyse ait identifié deux faiblesses. Votre entreprise se doit désormais de procéder à dix tests HACCP.

    • « Cette analyse détaillée permet ensuite de créer une stratégie d’amélioration fiable des faiblesses identifiées. »
     
    Cet article est lié au livre blanc suivant :
    ISO 13485 - Change? Do I Have To??
    Pour le consulter dans son intégralité, téléchargez au livre blanc gratuit.

     

    Admettons que chaque analyse HACCP ait identifié trois faiblesses potentielles. Vous vous retrouvez maintenant avec cinq tests SWOT, dix de type HACCP, et 30 stratégies de projet. Cela représente au minimum 45 nouveaux documents, procédés et stratégies à gérer, en plus des processus QMS existants, sans parler du fait qu’une analyse SWOT effectuée au sein de sous-systèmes étendus (par exemple, dédiés à la conception de produits) s’avère rarement utile.

    Il est clair que notre exemple ne pourrait pas convenir aux fabricants de petite ou moyenne taille, qui ne tireront aucun avantage à suivre ce guide pratique. Le manque d’exemples concrets empêche par ailleurs certaines entreprises de saisir entièrement les tenants et aboutissants de cette approche basée sur les risques et de l’appliquer à leurs processus. Enfin, aucune information n’est donnée sur les risques liés à la non-conformité aux réglementations.

    Conclusion:

    • Envisagez d’optimiser votre système d’audits existant pour l’adapter à l’approche basée sur les risques.

    Dans notre prochain article, nous passerons en revue l’évolution de la gestion des risques, mettrons en relation diverses références aux risques au sein des réglementations, et aborderons l’influence de tous ces facteurs. Comme on l’entend parfois, « Nul ne peut appréhender son futur sans connaître son passé ».


    2017-bl-author-michelle-lotMichelle Lott a près de 20 ans d’expérience dans le secteur des dispositifs médicaux, et s’est fait remarquer en créant des solutions simples à des problèmes complexes ayant trait aux environnements réglementés. Elle s’est notamment spécialisée dans les systèmes de conformité et de gestion de la qualité pour les start-ups. Par ailleurs, elle fait profiter de larges entreprises de son expertise en matière de remédiation et de reprogrammation. Fondatrice de Lean RAQA Systems, LLC, Michelle Lott a aussi précédemment occupé divers postes de direction. Elle fait à l’heure actuelle partie, en tant que représentante, du Device Good Manufacturing Practices (DGMP) Advisory Committee de la FDA (Food and Drug Administration) américaine, avec lequel elle partage conseils et recommandations. En parallèle, elle continue ses activités indépendantes en proposant des articles de thought leadership sur son blog et à travers sa newsletter.


  • Nouveau règlement européen relatif aux dispositifs médicaux : les entreprises spécialisées dans les dispositifs médicaux doivent s’y conformer d’ici 2020 au plus tard

    by par Cindy Fazzi, employée rédactrice chez MasterControl | févr. 15, 2018

    2016-bl-new-regulation-page-imageEn 2020, les États-Unis voteront pour leur président et Tokyo accueillera les Jeux Olympiques. Au même moment, le nouveau règlement européen relatif aux dispositifs médicaux aura totalement pris effet. Tout comme les politiciens et athlètes concernés par les deux premiers événements, les entreprises spécialisées dans ces mêmes dispositifs se doivent, tout autant, de se préparer à cette année importante.

    « Car les changements en 2020 seront d’envergure, il n’est pas prématuré d’en parler déjà maintenant, bien au contraire », a indiqué Matthew M. Lowe (1), vice-président exécutif de MasterControl et fort de plus de 15 années d’expérience dans le secteur des dispositifs médicaux, dans un article publié sur le site de Medical Design Technology. Il est l’auteur de toutes les citations relevées ici, sauf mention contraire.Toujours d’après ce dernier, les entreprises spécialisées dans les dispositifs médicaux devront se démarquer sur un marché européen très différent et bien plus compliqué qu’il ne l’est aujourd’hui.

    Présentation du règlement

    Le Parlement européen a adopté le règlement relatif aux dispositifs médicaux et le règlement relatif aux dispositifs médicaux de diagnostic in vitro l’année dernière. Le premier remplace les anciennes directives en la matière, et est effectif précisément depuis mai 2017.

    Le règlement relatif aux dispositifs médicaux est constitué de 10 chapitres, 16 appendices et 306 pages au total. Il contient diverses directives se rapportant à la mise sur le marché, au sein de l’Union européenne, de dispositifs médicaux et d’accessoires liés destinés aux humains.Il concerne également les essais cliniques impliquant ces mêmes produits en Europe.(2)

    « Ce qu’il est essentiel de savoir, c’est que tous les dispositifs médicaux devront faire l’objet d’une nouvelle demande de commercialisation, quel que soit leur statut sur le marché. Tout ne doit pas se faire immédiatement en fonction du type d’appareil, mais chacun devra, à un moment ou à un autre, se conformer aux nouvelles exigences. Toute entreprise qui envisage de maintenir sa présence sur le marché européenne sera concernée. »

    Comme le spécifie le nouveau règlement, « Un dispositif ne peut être mis sur le marché ou mis en service que s’il est conforme au présent règlement au moment où il est dûment fourni et dès lors qu’il est correctement installé, entretenu et utilisé conformément à sa destination ». (3)

    Processus d’équivalence

    La majorité des nouveaux dispositifs conçus aux États-Unis doit faire l’objet d’une demande d’autorisation 510(k) auprès de la FDA américaine. Si vous souhaitez obtenir une équivalence pour le marché européen, vous devez fournir de nombreux justificatifs adéquats.

    « Il est recommandé aux entreprises spécialisées dans les technologies médicales de se pencher rapidement sur le processus d’équivalence car il peut potentiellement induire des frais élevés. La plupart risque sinon de ne pas s’en rendre compte avant de débuter les démarches de mise en conformité au nouveau règlement. »

    Le nouveau règlement stipule que « le fabricant d’un dispositif pour lequel il a été démontré qu’il est équivalent à un dispositif déjà commercialisé peut ne pas conduire d’investigation clinique, pour autant que les conditions suivantes soient remplies » :

    • « Les deux fabricants ont conclu un contrat qui accorde explicitement au fabricant du second dispositif un accès total et permanent à la documentation technique. »
    • « L’évaluation clinique d’origine a été effectuée conformément aux exigences du présent règlement, et le fabricant du second dispositif en apporte la preuve manifeste à l’organisme notifié. » (4)

    Matthew M. Lowe souligne néanmoins que de telles prérogatives peuvent difficilement être respectées dans la mesure où cela impliquerait l’arrivée d’un autre concurrent.

    En effet, qui souhaiterait prendre le risque de potentiellement perdre sa part du marché ?


    Icons_webinar
    Cet article est lié à la vidéo suivante :
    MasterControl Registrations for Medical Device Firms
    Pour le consulter dans son intégralité, téléchargez votre version gratuite de celle-ci.

    Coûts supplémentaires

    L’International Trade Administration des États-Unis estime que la part du marché de l’Europe de l’Ouest, qui comporte 5 des 28 pays membres de l’Union, atteindra les 102 milliards de dollars d’ici 2020 (à noter que le Royaume-Uni quittera cette dernière en mars 2019).

    Le marché européen est bien trop lucratif pour que les fabricants de dispositifs médicaux ne l’ignorent. Afin de rester compétitifs sur celui-ci, ils doivent investir le temps et la main d’œuvre nécessaires. Cependant, cela engendre des coûts supplémentaires.

    « Vous devez dépenser plus d’argent pour proposer vos produits sur le marché européen. De ce fait, de nombreux fabricants de dispositifs pourront choisir de ne plus commercialiser ces derniers en premier dans cette région. »

    L’article de Matthew M. Lowe peut être consulté dans son intégralité sur le site de Medical Design Technology  en cliquant sur le lien ci-dessous :

    3 Reasons Why Medtech Firms Should Care (More) About the New European Med Device Regulation


    2016-nl-bl-author-cindy-fazzi

    Cindy Fazzi s’intéresse, dans ses articles qu’elle rédige pour MasterControl, au secteur des sciences de la vie et à d’autres environnements régulés. Ayant travaillé en tant que journaliste dans trois pays, elle profite d’une expérience de 20 ans en tant que reporter, rédactrice et rédactrice en chef, notamment auprès de l’Associated Press dans l’Ohio et à New York. Cindy Fazzi est détentrice d’un master de journalisme obtenu à l’université d’État de l’Ohio.




    Références :

    1 Matthew M. Lowe, vice-président exécutif et ingénieur en mécanique de formation, est fort de plus de 15 années d’expérience dans le développement, la gestion de produits et la conformité règlementaire. Il a permis la mise sur le marché de plus d’une douzaine de dispositifs médicaux et la publication de cinq brevets. Par ailleurs, il a rédigé une procédure 510(k) approuvée par la FDA, ainsi que supervisé une étude clinique multisite, pluriannuelle et post-commercialisation pour du matériel orthopédique.

    Matthew M. Lowe est également l’auteur de nombreux articles spécialisés et d’un e-book publié en 2016, intituléConvergence of Compliance and Technology: How Technology Has Changed Regulatory Compliance in the Past Decade. Enfin, il est détenteur d’une licence en ingénierie mécanique de l’université de l'Utah, et d’un MBA obtenu à l’université de l’Indiana.

    2 Règlement relatif aux dispositifs médicaux, chapitre I, article 1, point 1

    3 Règlement relatif aux dispositifs médicaux, chapitre II, article 5, point 1

    4 Règlement relatif aux dispositifs médicaux, chapitre VI, article 61, point 5


     

  • DATA INTEGRITY : un retour aux sources

    by par Philippe Charbon | déc. 20, 2017

    La Data Integrity, un retour aux sources des Bonnes Pratiques ?

    Revenons en arrière, et examinons le chemin parcouru par les systèmes d’informations dans ces 40 dernières années. Oui, oui, il faut remonter à 40 ans ! Au seuil des années 80 eut lieu un évènement qui a fracturé le monde de l’informatique : l’invention de la Micro-Informatique. Cette invention a permis à tout un chacun de posséder aujourd’hui un PC ou un Mac. Cette innovation, si elle a favorisé l’explosion de « l’informatique pour tous », a favorisé l’émergence du monde du logiciel et de la « soft  industry » : les SAP, Microsoft, Google et autres.

    Dans ce concert d’innovations et d’interfaces, on avait un peu oublié le mot « informations » pour se focaliser principalement sur les systèmes. La grande vertu de la démarche sur le Data Integrity aujourd’hui, est de revenir à l’essentiel, c’est-à-dire à l’information !

    Et pourtant, les textes étaient là …

    Il faut ici rendre hommage aux législateurs, aux textes européens et américains qui avaient déjà montrés la voie.

    L’annexe 11 des euGxP (3) incite à plusieurs reprises à une protection des données. On retrouve, par exemple, des exigences sur le maintien de la pérennité des données (§ 7.1), les sauvegardes, (§ 7.2), l’audit Trail (§ 9) ou la modification justifiée des données (§ 9 et 10). La traçabilité des modifications depuis la donnée brute est aussi en filigrane (§ 8.2), le grand classique de la protection physique (§ 7.1), la sécurité logique et le contrôle des accès (§ 12.1, 12.2, 12.3), mais aussi le suivi des incidents sur les systèmes ou les données (§ 13), la signature électronique (§ 14), et bien évidemment la continuité (§ 16) et l’archivage (§ 17). Jusqu’au principe du SOD (Segregation of Duty), qui est suggéré (§ 6). Il est aussi demandé qu’un inventaire cartographie les « flux de données » (§ 4.3).

    On pourrait effectuer le même exercice sur la base du CFR21 part 11, « electronic records, electronic signatures », et retrouver les mêmes principes avec des variantes.

    Alors pourquoi ces nouveaux textes ? Quels besoins avaient le MHRA, puis la plupart des agences derrières pour engager de nouveaux textes ? Qu’est ce qui est nouveau ? Qu’est ce qui change ?

    Alors, quoi de nouveau dans la Data Integrity ?

    • La fraude

      On le sait, l’origine du mouvement autour de la Data Integrity est la résultante de pratiques de fraude avérées qui ont clairement montré que certaines entreprises pouvaient modifier directement les données lorsque celles-ci ne correspondaient pas à leur souhait. Au cours des dernières années, il y a eu une augmentation significative des violations de l'intégrité des données. La tendance est à l'augmentation du nombre de lettres d'avertissement sur l'intégrité des données, y compris la falsification (4), émises aux sociétés pharmaceutiques. Entre janvier 2015 et mai 2016, 21 lettres d'avertissement sur 28 émises par la FDA ont impliqué des problèmes d'intégrité des données dans la fabrication de médicaments.

    • Systèmes ouverts et flux de données

      Pendant de nombreuses années les préoccupations se portaient essentiellement sur la validation des systèmes informatisés et automatisés. On en avait presqu’oublié les données qui vont avec ! Le focus est porté maintenant sur les données. La vision monolithique du système d’informations concentré dans un seul outil fermé et ne communiquant avec rien – en amont comme en aval – est erronée. Même dans le cadre d’une mise en place massive d’un ERP sur un périmètre maximum, on trouvera toujours des connexions avec des équipements de laboratoire, un LIMS, des équipements de production, des outils d’extractions. Les données circulent d’un système à un autre, évoluent, changent. Il faut donc les contrôler, vérifier que la « charge sémantique initiale » ne soit pas altérée.

    • Maîtrise de la donnée

      La préoccupation qui est au cœur de Data Integrity est finalement centrale : « Comment est-il possible de prouver que la donnée, qui est utilisée pour prendre une décision, n’a pas été modifiée ou altérée depuis son origine ? Surtout quand cette décision impacte la sécurité du patient. Ou, si une modification a été effectuée, l’a telle été dans un cadre maîtrisé et justifié ? la traçabilité de cette modification est-elle disponible ?  La valeur de référence est-elle toujours accessible ? »

    • Contributions des acteurs

      De nouveaux éléments de vigilance contribuent aussi à développer la vision du concept de Data Integrity. Des mots clés comme ALCOA, des pratiques diverses autour de la gestion des dates, la revue des audits trail, tous ces sujets sont maintenant au cœur des préoccupations des acteurs.

    • L’extension à l’entreprise
    • Et puis, Data Integrity commence à s’étendre dans toute l’entreprise. Dans un premier temps limité au laboratoire, on parle maintenant des données d’origine industrielle, on parlera bientôt de toutes les données qui sont impliquées de façon directe ou indirecte dans la sécurité du patient ou la qualité du produit.

    C’est donc une vague importante qui présente la vertu première de nous ramener à l’essentiel : les données. Et déjà, en ce sens, c’est une avancée majeure. Alors oui, « on en prend probablement pour 10 ans » comme s’en étonnait un participant, et finalement, c’est peut-être bien une bonne chose !

    Philippe Charbon, Président d’Apsalys

     

    1. https://www.gov.uk/government/uploads/system/uploads/attachment_data/file/538871/MHRA_GxP_data_integrity_consultation.pdf
    2. https://www.fda.gov/downloads/drugs/guidances/ucm495891.pdf
    3. https://www.google.fr/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&ved=0ahUKEwj_itTpieHXAhVnJ8AKHXJkCfkQFggtMAA&url=http%3A%2F%2Fansm.sante.fr%2Fcontent%2Fdownload%2F48612%2F625114%2Fversion%2F1%2Ffile%2FAnnexe-11_Systemes-Informatises_Mai2013.pdf&usg=AOvVaw01ilZGItQOpVECLWws6H6i
    4. https://www.fda.gov/downloads/AboutFDA/CentersOffices/OfficeofMedicalProductsandTobacco/CDER/UCM549445.pdf

    Philippe_Charbon_Apsalys_PresidentPhilippe Charbon, président d’Apsalys, distributeur à valeur ajoutée de la solution MasterControl pour les pays francophones. Avant de co-fonder Apsalys en 2004, Philippe Charbon a travaillé pendant plus de 20 ans au sein de grands groupes des Sciences de la Vie, à l’étude, l’élaboration et l’accompagnement de projets informatisés. Ainsi qu'à la mise en place de systèmes qualité et de mise en conformité réglementaire. Ses connaissances spécifiques des exigences réglementaires du domaine des Sciences de la Vie combinées à sa maîtrise des systèmes d'information en font de lui un expert reconnu.

    apsalys-version-courteRetrouvez-nous sur : www.apsalys.com



  • Impression sur le guide pratique dédié à la norme ISO 13485:2016

    by par Michelle Lott, directrice et fondatrice, Lean RAQA Systems | déc. 05, 2017

    2017-bl-top-10-iso-13485

    Les fabricants du monde entier ont attendu, pendant un an et demi, d’obtenir des informations supplémentaires sur les exigences de la norme ISO 13485:2016 – A Practical Guide Ils ont tous espéré que le bon guide pratique (ou “guide”tout court) arriverait enfin avec la version de septembre dédiée à la norme ISO 13485:2016. 

    Lean RAQA Systems aussi était dans l’expectative. Cependant, comme nombre de nos pairs, nous avons été quelque peu déçus par son contenu. Le guide comporte des indications vagues, et, malgré son volume conséquent (214 pages), il est impératif de consulter les autres documents qu’il mentionne afin de réellement comprendre les recommandations.

    Nous sommes toutefois là pour vous aider à comprendre ce qui, à première vue, évoque surtout une liste interminable de directives obscures. Nous nous sommes plongés dans le guide pratique et avons rédigé cet article, ainsi que développé certaines ressources, afin d’en faire un outil vraiment utile. En quelque sorte, nous vous proposons un « Guide pratique du guide pratique dédié à la norme ISO 13485:2016 » !

    Avant d’acheter le guide pratique aguide pratique et de consacrer du temps à sa lecture, nous vous recommandons de prendre les éléments suivants en compte.  

    Le guide pratique est très volumineux mais ne contient pas toutes les informations espérées 

    Sans compter la bibliographie, 214 pages du guide pratique ont été requises pour expliquer les implications de la norme ISO 13485:2016, qui elle avait été présentée dans un document de 25 pages seulement. Le guide pratique inclut le texte de cette même norme dans son intégralité (nous vous encourageons à le lire si vous ne l’avez pas déjà fait). Cela étant dit, les nombreuses entreprises qui s’attendaient à un guide pratique réellement pertinent seront tout simplement déstabilisées par sa taille et sa complexité. Plusieurs d’entre elles estimeront sûrement que le guide pratique dédié à la norme ISO 13485:2016 est en réalité plus un manuel comportant des références qu’un outil permettant de comprendre et gérer au mieux les nouvelles prérogatives. On pourrait se dire qu’un ouvrage aussi fourni que ce guide pratique est forcément profitable. Ce n’est pas l’avis de Lean RAQA Systems. Le cite les documents GHTF/SG3/N15R8, GHTF/SG3/N17:2008, GHTF/SG3.N99-10, GHTF/SG3/N18 et ISO/TR 10017. Vous devez donc jongler entre ces derniers, celui comportant le texte de la norme ISO 13485:2016 et le guide pratique, afin de clairement maîtriser les notions soulevées. Cela représente une tâche conséquente, d’autant qu’aucune de ces ressources n’est de petite taille.

    Le guide pratique ne fait pas la distinction entre les nouvelles et les anciennes exigences

    Comme la plupart des fabricants, vous êtes probablement déjà conforme à la norme ISO 13485:2003 ou EN ISO 13485:2012, et souhaitez maintenant passer à la version ISO 13485:2016. Malheureusement, le guide pratique fournit des informations aussi bien sur les nouvelles que les anciennes exigences de la norme ISO 13485. En outre, aucune distinction n’est faite entre celles-ci, qui ne sont d’ailleurs pas explicitement nommées. Le résultatnbsp? Vous devez vous-même savoir ce qui relève du passé ou du présent. Ceci est peu utile, à moins que vous n’ayez jamais effectué les démarches de conformité et deviez donc tout appliquer. Un temps conséquent est donc nécessaire pour localiser les informations qui vous importent. Par ailleurs, le guide pratique n’est pas divisé en sous-sections, ce qui rend sa consultation complexe.

    White Paper
    Cet article est lié au document suivant :
    Compliance with 21 CFR 820 and ISO 13485 Using MasterControl
    Pour consulter des informations détaillées reportez-vous votre exemplaire gratuit.


    Le guide pratique accorde peu de place au concept d’approche basée sur les risques

    Logiquement, vous consultez le industry, guide practique pour en savoir plus sur l’application d’une « approche basée sur les risques en ce qui concerne la maîtrise des processus appropriés nécessaires au système de gestion de la qualité » (ISO 13485:2016 4.1.2 b). En effet, il s’agit très certainement du point le plus crucial. Attendez-vous néanmoins à déchanter lorsque vous vous rendrez compte que trois pages et demie uniquement sont consacrées à celui-ci. Vous devrez vous contenter d’une référence au document GHTF/SG3/N15R8, constitué de 23 pages. En conséquence, les auditeurs habilités devront s’attendre à être fortement sollicités pour répondre aux questions en suspens des sociétés. Nous sommes tous logés à la même enseigne, car tous nous cherchons à savoir ce que cette mise en conformité signifie réellement.

    Nous espérons que cet article sur le guide practique vous permettra de déterminer plus facilement si le guide practique est ce qu’il faut à votre organisation, ou qu’il vous aura porté assistance. Chez Lean RAQA Systems, nous vous offrons des solutions simples à des situations complexes, comme celles induites par la norme ISO 13485. Au fil de notre étude du guide pratique, nous ne manquerons pas de partager avec vous informations, interprétations et ressources, de sorte à rendre le tout « aussi simple que possible, mais pas plus » (Albert Einstein). 


    2017-bl-author-michelle-lotForte de près de 20 années d’expérience dans le secteur des produits médicaux, Michelle Lott s’est distinguée par sa capacité à proposer, avec succès, des solutions simples à des problèmes complexes ayant trait aux environnements réglementés. Elle s’est notamment spécialisée dans les systèmes de conformité et de gestion de la qualité. Par ailleurs, elle fait profiter de larges entreprises de son expertise en la matière. Fondatrice de Lean RAQA Systems, LLC, Michelle Lott a aussi précédemment occupé divers postes de direction. Elle fait à l’heure actuelle partie, en tant que représentante, du FDA’s Device Good Manufacturing Practices (DGMP) Advisory Committee avec lequel elle partage conseils et recommandations. Enfin, elle est l’auteur d’un blog et d’une newsletter.


  • Qu'est-ce que la qualité pharmaceutique par conception?

    by par Beth Pedersen, employée rédactrice chez MasterControl | nov. 09, 2017

    2017-bl-what-is-pharma-quality-page-image
    Désormais, la qualité n’est plus assurée uniquement par des tests, comme c’était le cas autrefois. Avec seulement un médicament commercialisé sur dix produits (1), les entreprises pharmaceutiques sont de plus en plus désireuses d’adopter de nouvelles mesures pour assurer la qualité et gérer les risques. Le Quality by Design (QbD) est un sujet fortement d’actualité dans le secteur des sciences de la vie mais, au vu du nombre croissant de fabricants qui la mettent en place, ses avantages ne font plus aucun doute.

    Selon un article du magazine PharmTech sur le Quality by Designnbsp: «nbsple problème des tests en aval du processus de production est qu’ils permettent uniquement de détecter et de retirer des produits de qualité insuffisante et n’empêchent pas leur création. Les médicaments devenant de plus en plus complexes, il est crucial que la qualité soit intégrée aux produits dès leur conception pour assurer la sécurité du patient.nbsp

    Des organismes de règlementation comme la FDA cherchent à proposer une définition commune des concepts clés, de la terminologie et des attentes en lien avec le Quality By Design que l’industrie pharmaceutique cherche à mettre en place. Cet article reprend la définition actuelle du Quality by Design et ses principales caractéristiques.

    Définition du Quality by Design

    Définir le concept de qualité dans l’industrie pharmaceutique est essentiel à son incorporation dans la conception et le développement des médicaments. Toutefois, comme pour la majorité des termes du secteur, il peut être difficile d’obtenir un consensus. D’une manière générale, un produit est de qualité s’il répond aux critères scientifiques appropriés et aux objectifs de performance du processus. Les produits d’un même lot ainsi que les lots entre eux ne doivent pas ou très peu différer (3). Dans le cadre de l’industrie pharmaceutique, l’ICH Q8 définit la qualité comme la viabilité d’une substance ou d’un produit médicamenteux à être utilisé comme prévu (4). Janet Woodcock, directrice du Centre de recherche et d'évaluation des médicaments, propose une définition similaire mais plus nuancéenbsp: un médicament de bonne qualité ne doit pas être contaminé et doit procurer au patient les bénéfices thérapeutiques indiqués sur l’étiquette (5).

    Contrairement aux méthodes empiriques traditionnellement utilisées dans le développement et la fabrication d’un produit, le Quality by Design est une approche scientifique et fondée sur les risques. Il vise à intégrer la qualité dès les premières étapes de conception d‘un produit pour éviter toute défaillance d’apparaître et mieux y remédier le cas échéant (6). Beaucoup d’entreprises interprètent différemment la notion de Quality by Design mais la plupart s’accordent sur le fait qu’il s’agit de comprendre et de contrôler tous les aspects du processus de fabrication, qui font partie des propriétés essentielles de qualité d’un médicament (appelé Design Space (espace de conception)(4)). Le Quality by Design permet de créer des produits plus sûrs et plus efficaces mais aussi d’être plus flexibles par rapport aux normes appliquées dans le Design Space. Tout cela se traduit par une réduction des coûts pour les fabricants.

    Ces définitions mettent toutes l’accent sur la création d’un produit final sûr et efficace pour les patients, ce qui bénéficie à la fois aux entreprises pharmaceutiques et aux consommateurs. Par rapport au Quality by Design, les fabricants de médicaments ne se posent pas la question du pourquoi, mais plutôt celle du comment.

    5 éléments clés

    Connaître la théorie et les avantages qui se cachent derrière le concept de QbD est essentiel à sa mise en place. Pour allier la théorie à la pratique, l’ICH Q8 ainsi que d’autres initiatives de recherche nous procurent un socle solide pour commencer sa mise en œuvre. Voici les éléments clés d’un programme Quality by Design(9)nbsp:

    1. Un profil qualité cible du produit (Quality Target Product Profile, QTPP)nbsp: identifier les attributs qualité critiques (Critical Quality Attributes, CQA) d’un produit médicamenteux. Il s’agit d’un résumé qui reprend les caractéristiques de qualité que doit avoir un produit fini. Il peut comprendre un formulaire sur le dosage, les différentes voies d’administration, la force du dosage... Il doit spécifier les critères de qualité du médicament (stérilité, pureté, stabilité, distribution du produit...). Les CQA sont les attributs physiques, chimiques, biologiques ou microbiologiques d’un produit fini, dans leurs limites acceptables, qui ont des conséquences sur la qualité du produit souhaité et doivent donc être pris en compte pour établir le développement des processus et du produit. Ces propriétés peuvent être identifiées dans le profil du produit ou grâce à des connaissances préalables.

    2. Propriétés essentielles des matières premières (Critical Material Attributes, CMA)nbsp: compréhension et conception du produit et identification des CMA.Le Quality by Design a d’abord mis l’accent sur la conception,la compréhension et le contrôle des processus mais ces trois derniers aspects sont tout aussi importants pour le produit,puisqu’ils permettent de déterminer si celui-ci peut répondre aux besoins des patients et rester performant tout au long de sa durée de vie. Les propriétés essentielles, physiques, chimiques, biologiques ou microbiologiques, des matières premières (dans leurs limites, plage et distribution acceptables) doivent donc également être prises en compte.
    3. Livre blancnbsp::
      Cet article est lié au Livre blancnbsp:
      Cost of Inaction - Taking Quality Management Processes Digital
      Pour consulter des informations détaillées,  please reportez-vous Livre blancnbsp:

    4. Design Spacenbsp: compréhension et conception des processus et identification des paramètres critiques du procédé (Critical process Parameters, CPP) et des principes communs aux CMA, CPP et CQA.Les CPP du processus de développement ont une influence considérable sur l’apparence, la pureté et la production d’un médicament et doivent donc être contrôlés avant et pendant la production. Tous ces éléments constituent le Design Space, défini par l’ICH Q8 comme suitnbsp: «nbspl’association multidimensionnelle et les interactions entre des variables d’entrée et des paramètres de processus dont la capacité à assurer la qualité a été prouvée.nbsp» Le Design Space proposé par un organisme est sujet à un examen réglementaire et doit être approuvé. Cependant, une fois cela fait, toute modification intervenant dans ce Design Space n’est plus sujette à aucune notification réglementaire supplémentaire, ce qui constitue un avantage incontestable du Quality by Design.

    5. La stratégie de contrôlenbsp: spécifications des substances, des excipients ainsi que du médicament lui-même et contrôle de chaque étape du processus de fabrication.Toutes les connaissances acquises grâce aux éléments précédents débouchent sur la mise en place d’une stratégie de contrôle qui a pour but d’identifier toutes les sources de variabilité présentes dans les matières premières, spécifications du produit, opérations et processus de production, et de décider de l’aptitude à l’emploi du produit fini.

    6. Capacités des processus et amélioration continuenbsp:Cela consiste à mesurer la variabilité des processus de fabrication soumis à un contrôle statistique. Un processus doit être stable au point que toute variabilité dans les critères d’acceptabilité puisse être considérée comme aléatoire ou attribuable à une variabilité inhérente ou fortuite («nbspcause courantenbsp»). Dans un processus de développement sans QbD, les variations sont la plupart du temps découvertes pendant la production commerciale. Cette composante du QbD permet de détecter plus tôt et de réduire les causes courantes, ainsi que de soigneusement réajuster le processus pour obtenir des résultats de plus en plus proches de ceux ciblés.

    L’avenir du Quality by Design

    Le Quality by Design nécessitant des ressources considérables (en temps, en argent, en main d'œuvre, en expertise...), il a d’abord été mis en place au sein de grandes entreprises pharmaceutiques (10). Il devient toutefois de plus en plus populaire auprès des sociétés de toutes les tailles, tournées vers l’avenir. En effet, les connaissances, technologies et outils nécessaires sont de plus en plus largement établis et accessibles. Malgré les efforts qui ont déjà été menés pour mieux comprendre le concept de qualité dans l’industrie pharmaceutique, il reste encore beaucoup à faire dans le domaine du QbD, selon Janet Woodcock.

    Un article du site Pharmaceutical Online reprend les propos de J. Woodcocknbsp: «nbspla qualité d’un produit pharmaceutique est déjà définie depuis longtempsnbsp: il s’agit de son aptitude à l’emploi (11). Un produit doit procurer les bienfaits inscrits sur sa notice et ne doit pas être contaminé. Il nous manque cependant un élémentnbsp: la qualité de la production. Et c’est sur cela que nous nous concentrons réellement. Aujourd’hui, beaucoup d’entreprises du secteur proposent des produits de qualité en jetant et en gaspillant plus de 35nbsp% de ce qui est produit. Cela n’est pas étranger à la qualité de la fabrication. Nous avons longuement étudié la question et ce en toute transparencenbsp: quels indicateurs devrions-nous utiliser pour mesurer la qualité de nos processus de fabricationnbsp?nbsp»

    Nous savons cependant que la FDA, l’EMA et d’autres organismes de réglementation sont en faveur d’une approche fondée sur les risques et de l’intégration des principes du QbD dans le développement et la production des médicaments. Le QbD et ses différents aspects sont abordés en détail dans les Quality Guidance (directives sur la qualité) Q8 à Q11 de l’ICH. Même s’il reste des questions sans réponse, le Quality by Design est encore là pour longtemps.

    Références

    1. The High Price of Failed Clinical Trials: Time to Rethink The Model https://www.clinicalleader.com/doc/the-high-price-of-failed-clinical-trials-time-to-rethink-the-model-0001Consulté le 18 octobre 2017.
    2. QbD: Improving Pharmaceutical Development and Manufacturing Workflows to Deliver Better Patient Outcomes http://www.pharmtech.com/qbd-improving-pharmaceutical-development-and-manufacturing-workflows-deliver-better-patient-outcomesConsulté le 25 octobre 2017.
    3. Quality by Design Part 1: You Can’t Design Something You Don’t Understand https://www.mastercontrol.com/gxp-lifeline/quality-by-design-part-1-you-can't-design-something-you-don't-understandConsulté le 19 octobre 2017.
    4. ICH Q8 (R2) https://www.fda.gov/downloads/Drugs/Guidances/ucm073507.pdfConsulté le 16 octobre 2017.
    5. The concept of pharmaceutical quality, Janet Woodcock, American Pharmaceutical Review, 2004.
    6. Juran’s Quality Handbook, Joseph Juran and A. Blanton Godfrey, McGraw Hill, 1999.
    7. Active Pharmaceutical Ingredients: Development, Manufacturing, and Regulation, Second Edition, Stanley Nusim, Taylor & Francis Group, 2010.
    8. Final Report from the FDA-EMA pilot program for the parallel assessment of quality-by-design elements of marketing applications https://www.fda.gov/Drugs/DevelopmentApprovalProcess/Manufacturing/ucm552716.htmConsulté le 23 octobre 2017.
    9. Understanding Pharmaceutical Quality by Design https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4070262/Consulté le 16 octobre 2017.
    10. Is Quality by Design Just for Big Pharma? https://www.mastercontrol.com/gxp-lifeline/quality-by-design-just-for-big-pharma. Accessed October 23, 2017.
    11. Janet Woodcock’s Quality Agenda at CDER https://www.pharmaceuticalonline.com/doc/janet-woodcock-s-quality-agenda-at-cder-0001. Accessed October 23, 2017.


    Beth Pedersen est spécialiste du contenu marketing au siège social de MasterControl à Salt Lake City (Utah, États-Unis). Elle a rédigé des contenus techniques et marketing pour des entreprises comme Microsoft, Novell, NetIQ, SUSE et Attachmate. Titulaire d’une licence en communication de l’université du Wisconsin à Madison, elle dispose également d’un master en communication et conception numérique qui lui a été décerné par l’université IT de Copenhague.


  • Contrôle qualité et assurance qualité : quelle est la différence ?

    by par Kimberlee A. Washburn, responsable des affaires réglementaires | oct. 26, 2017

    QA QC

    En théorie, l’assurance qualité implique des approches proactives qui ont pour but d’empêcher la fabrication de produits non conformes. Le contrôle qualité, quant à lui, implique des approches réactives, destinées à identifier de potentielles non-conformités par le biais d’inspections et de mécanismes de tests.

    En pratique, l’assurance qualité se rapporte au développement de règles destinées à garantir la qualité d’un produit, et le contrôle qualité est l’examen de ce dernier en fonction de ces mêmes règles.

    Pour faire simple, assimilons l’assurance qualité au gouvernement d’un pays, et le contrôle qualité aux forces de l’ordre de ce dernier. Tout comme on ne peut envisager la non-existence d’un gouvernement et, de ce fait, que les lois soient uniquement édictées par les forces de l’ordre, assurance qualité et contrôle qualité doivent aller de pair si éthique et intégrité sont recherchées.

    L’équipe d’assurance qualité se doit d’être indépendante de celle en charge de la fabrication, notamment, conformément aux réglementations de la FDA américaine et à la norme ISO 13485. Cela n’implique pour autant pas d’être totalement autonome. Il est juste important que les objectifs ne soient pas discordants, bien que cette condition puisse parfois être complexe à satisfaire.

    Cet article est lié aux  kit d’outils :
    25 Free Resources to Boost Your Quality Management System
    Pour consulter des informations détaillées, reportez-vous  à votre kit d’outils.

    Lorsque ce principe d’autonomie n’est pas respecté, plusieurs des problèmes suivants peuvent se produire. Le tableau suivant répertorie quelques-unes de ces discordances et illustre le conflit à l’aide d’exemple de situation.


    Points pouvant induire des discordances

    Exemple de situation

    Aspirations et procédés distincts

    L’équipe d’assurance qualité est sous la responsabilité du directeur des opérations. Elle a pour rôle de garantir une production optimale.

     

    Pour ce faire, elle peut former, à l’inspection visuelle, les personnes en charge de la réception des matériaux. Grâce à cela, le nombre de composants présentant des défauts, et pouvant entraîner un rejet du produit assemblé, est moindre. Cette action n’induit pas une situation préoccupante. Si l’équipe d’assurance qualité remplit correctement son rôle, en initiant une formation qui porte très bien ses fruits, cela permet une validation immédiate.

     

    Néanmoins, l’équipe d’assurance qualité doit également définir les niveaux d’inspection applicables aux attributs des produits concernés. Il est dans son intérêt de limiter le nombre de ceux non conformes afin de s’assurer de la satisfaction des clients, de ne pas avoir à rendre de comptes aux autorités réglementaires (le cas échéant) et d’éviter les actions peu valorisantes, comme les rappels. Si l’équipe d’assurance remplit correctement son rôle, et fait en sorte que lesdits niveaux empêchent la commercialisation de produits présentant des anomalies (ce qui nécessiterait donc une inspection de plus large envergure), il est fort probable que ccela ne convienne pas à l’équipe en charge des opérations. En effet, cette dernière souhaite, en priorité, que le nombre de produits validés soit le plus élevé possible dès le premier test. Ici, les objectifs des deux équipes sont clairement discordants. L’équipe d’assurance qualité devrait donc, si l’on applique strictement les principes mentionnés plus haut et bien que cela soit difficilement imaginable, ne pas remplir correctement son rôle afin que l’équipe en charge des opérations soit satisfaite validation immédiate.

     

    Impartialité des approches adoptées lors de la prise de décision

    Imaginons le scénario suivant. Le fournisseur A participe régulièrement à des réunions avec l’équipe de fabrication, auxquelles assiste aussi celle d’assurance qualité. Le fournisseur A y évoque des doutes quant à ses processus, son personnel ou ses ressources. Pour cette raison, et uniquement sur la base de cet entretien informel et d’impressions subjectives, l’équipe d’assurance qualité décide de faire appliquer des normes de validation plus strictes. Cette mesure nécessite alors de mobiliser plusieurs individus et d’effectuer un audit sur site, ce qui représente plus que ce qui aurait normalement été demandé au fournisseur.

     

    Le fournisseur B, maintenant, a répondu favorablement aux exigences liées de l’entreprise, et le fournisseur C est même sur le point de les surpasser. L’équipe d’assurance qualité estime qu’il n’est donc pas utile d’effectuer une inspection sur site avec eux, contrairement au fournisseur A. Elle leur demande simplement de répondre à un questionnaire. Si cette situation ne s’était pas produite avec le fournisseur A, le fournisseur B et le fournisseur C auraient aussi été soumis à une inspection sur site.

     

    Une inspection aurait permis de découvrir que l’équipement utilisé par le fournisseur B n’était plus conforme, ce qui a donc entraîné la fabrication de produits non conformes eux aussi. En outre, en effectuant une inspection, l’équipe d’assurance qualité aurait aussi pu se rendre compte que les très bons résultats obtenus par le fournisseur C lors des tests de validation étaient en fait falsifiés, et que celui-ci ne mettait pas les bonnes procédures en place en matière d’identification et de traçabilité. Le matériel mis à disposition par le fournisseur C diffère de celui initialement spécifié, et n’a pas été testé conformément aux prérogatives de la norme ISO 10993. Car ses procédures d’identification et de traçabilité ne convenaient pas, le mauvais numéro de pièce a été assigné par le fournisseur C, et le changement au niveau de la conception n’a pas été appliqué au nouveau produit.

     

    Étude de cas : Objectifs discordants lors de la sélection de techniques statistiques

    Le tableau ci-dessous fait état des objectifs discordants de certaines équipes lors de la sélection de la technique statistique utilisée au cours de la phase de test. Les aspirations de l’équipe en charge du développement et de la fabrication diffèrent. Par ailleurs, si celle d’assurance qualité était « incorporée » à l’une de ces dernières, elle ne profiterait pas de l’indépendance requise pour prendre la décision appropriée. 

     

     

    Développement

    Fabrication

    Point concerné

    Aspiration

    Technique statistique correspondante

    Aspiration

    Technique statistique correspondante

    Volume de données requis

    Sélection d’une technique statistique, avec le moins de données possible, afin de s’assurer de disposer de ressources adéquates et du respect des dates d’échéance

    Méthode descriptive (étude de moyennes, etc.)

     

    ou

     

    Test d’hypothèse

    Utilisation de procédés de vérification afin d’obtenir des informations sur les attributs des produits, exploitables ensuite en association avec les systèmes de tests employés lors de la phase de fabrication

    Méthode graphique

    (nuage de points, diagramme de Pareto, analyse de la fréquence, etc.)

    Taille d’échantillon

    Obtention d’une taille d’échantillon minimale ou adaptation de la taille d’échantillon au budget dédié aux prototypes et conceptions d’ingénierie

    Test d’hypothèse

     

    or

     

    Plans d’échantillonnage par inspection (défauts mineurs/négligeables avec niveaux de qualité acceptable plus élevés)

     

    ou

     

    Développement d’autres techniques

    Taille d’échantillon plus conséquente afin de mieux anticiper les taux d’acceptation/de rejets

    Niveaux de confiance ou niveaux de fiabilité (élevés)

     

    ou

     

    Plans d’échantillonnage par inspection avec niveaux de qualité acceptable plus bas

     

    ou

     

    Analyse de la variance

    Coût d’ajustement d’un produit non conforme

    Excellente réputation en matière de conception

    Développement d’autres techniques

     

    ou

     

    Plans d’échantillonnage par inspection avec niveaux de qualité acceptable plus bas

     

    ou

     

    Niveaux de confiance ou niveaux de fiabilité (élevés)

    Limitation des arrêts de production et des rappels

    Plans d’échantillonnage par inspection avec niveaux de qualité acceptable plus bas

     

    ou

     

    Niveaux de confiance ou niveaux de fiabilité (élevés)

     

    Modification des spécifications

    Développement de spécifications précises en fonction des matériaux et de la technologie

    Méthode graphique

    (nuage de points, diagramme de Pareto, analyse de la fréquence, etc.)

     

    ou

     

    Développement d’autres techniques

     

    ou

     

    Analyse de la variance

    Mise en place de dispositifs permettant de tester les spécifications mises à jour et l’impact sur les validations de processus

    Méthode descriptive (étude de moyennes, etc.)

    Évaluation et qualification des fournisseurs suite à la mise à jour des spécifications ou des exigences (relatives à l’environnement, aux équipements, etc.)

    Méthode descriptive (étude de moyennes, etc.)

     

    L’indépendance de l’équipe d’assurance qualité est donc essentielle si l’on souhaite garantir la qualité d’un produit. Intéressons-nous maintenant à ses responsabilités, ainsi qu’à celles de l’équipe de contrôle qualité.

    Les responsabilités suivantes incombent généralement à l’équipe d’assurance qualité. Elles doivent impliquer des approches proactives et être assumées afin d’empêcher la fabrication de produits non conformes.

     

    Responsabilités de l’équipe d’assurance qualité

    Responsabilités d’autres départements

    Contrôle des documents

     

    Contrôle du changement

     

    Examen et traitement des matériaux non conformes

     

    Design Control

     

    Mises à jour logicielles

     

    Évaluation et surveillance des fournisseurs

     

    Exécution d’actions correctives auprès des fournisseurs

     

    Audits qualité internes

     

    Développement de plans d’échantillonnage

     

    Actions correctives et préventives

     

    Évaluation de la gestion du système de qualité

     

    Contrôle des documents ayant trait à la qualité

     

    Sélection de techniques statistiques

     

    Réclamations clients

     

    Contrôle environnemental

     

    Contrôle de l’étiquetage

     

    Mise à disposition du produit final

     

    Mise à disposition du produit stérilisé

     

    Gestion des dossiers DMR

     

    Gestion des dossiers DHR

     

    Évaluation des tendances

     

     

    Les responsabilités suivantes incombent généralement à l’équipe de contrôle qualité. Elles doivent impliquer des approches réactives  et destinées à identifier de potentielles non-conformités par le biais d’inspections et de mécanismes de tests.

     

    Responsabilités de l’équipe de contrôle qualité

    Responsabilités d’autres départements

    Inspection du matériel

     

    Manutention et stockage du matériel

     

    Inspection et isolement du matériel non conforme

     

    Émission des autorisations de retour

     

    Contrôle et étalonnage des dispositifs de mesure et de surveillance

     

    Inspection et test des produits au cours de la production

     

    Inspection du produit final

     

    Surveillance environnementale

     

    Inspection de l’étiquetage

     

     


    Experte en affaires réglementaires, Kim Washburn s’est intéressée aux pratiques des États-Unis, de l’Union européenne, du Canada et de plus de 70 autres pays. Forte de plus de 15 années d’expérience dans le secteur pharmaceutique, de la biologie, des dispositifs médicaux et des diagnostics in-vitro, elle est spécialisée dans les questions ayant trait au développement, à la validation, au contrôle, à l’étiquetage et à la gestion des risques. Elle est également très familière de divers logiciels médicaux et rédactrice technique. Kimberlee Washburn a occupé des postes chez Abbott Laboratories, OrthoSensor, Nipro Diabetes Systems et la University of Miami Tissue Bank. Détentrice d’une licence en biologie/informatique, obtenue à l’Université d’État de l’Illinois après avoir fréquenté l’Académie militaire de West Point, elle peut être contactée à l’adressekimberleewashburn@gmail.com.


     

  • Modernisation et optimisation des procédures CAPA

    by par Peter Knauer | oct. 17, 2017

    2017-bl-revisiting-capa-more-modern-approach-page-imageLa commercialisation des produits impliquant de plus en plus de régions aux réglementations différentes, la conformité à des normes multiples est désormais plus importante que jamais pour nos clients. Les avancées technologiques favorisent aujourd’hui le développement de produits destinés à plusieurs secteurs et impliquant des directives variées. Par exemple, une plateforme logicielle de diagnostics peut être utilisée pour identifier une maladie, qui sera ensuite traitée via une allogreffe de cellules souches personnalisée, administrée avec précision à l’aide d’un système spécialisé, le tout sous la surveillance d’une application mobile dédiée aux soins. Dans ce cas, l’instauration de procédures CAPA adaptées induit la prise en compte d’au moins quatre normes ou réglementations (notamment liées aux dispositifs médicaux, aux produits à base de cellules et de tissus, aux produits biologiques et aux bonnes pratiques de fabrication automatisée).

    Il convient par conséquent de savoir quelles normes sont prises en compte par vos procédures CAPA, et quelle est votre stratégie concernant toutes les autres. Il s’agit d’une question complexe. En règle générale, la section 8 de la norme ISO 13485 et la partie 820.100 du titre 21 du CFR sont à prendre en considération pour les dispositifs médicaux, et toutes les autres à appliquer afin de garantir une conformité sans faille. Cet article part du principe que les procédures CAPA se basent sur la partie 820.100 du titre 21 du CFR, mais intègrent également la norme ISO 13485 afin de proposer une stratégie hautement efficace. 

    Il est primordial que la régulation prise comme point de départ soit celle indiquée, en raison du niveau de détails dont elle permet de bénéficier, et de la nature normative du processus. En outre, la plupart des procédures CAPA existantes (relatives à des dispositifs médicaux ou non) ont adopté lesdites réglementations. Continuez la lecture de cet article pour obtenir des informations supplémentaires.

    Réglementations et contraintes

    Les procédures CAPA font l’objet de contraintes multiples. La FDA a notamment publié 483 observations de plus à ce sujet que pour toute autre catégorie. La partie 820.100 du titre 21 du CFR induit les éléments suivants, dans l’ordre indiquén :

    • Identification de la cause;
    • Identification des actions requises pour empêcher toute nouvelle occurrence et remédier au problème ;
    • Confirmation de l’efficacité de la solution choisie ;
    • Application de la solution à l’aide de procédures documentées ;
    • Transfert des informations aux membres du personnel concernés ;
    • Demande de vérification par la direction ;
    • Archivage.

    Les procédures CAPA mises en place s’appuieront ainsi sur ces étapes. Le but étant de se conformer au plus grand nombre de réglementations possibles, il convient également d’aborder les éléments liés à la section 8 de la norme ISO 13485 :

    • Identification de la cause ;
    • Identification des actions requises pour empêcher toute nouvelle occurrence et remédier au problème ;
    • Planification et documentation des actions requises ;
    • Vérification de la conformité de la solution choisie ;
    • Confirmation de son efficacité ;
    • Archivage.

    Il serait prudent de s’attarder sur le sens de certains mots utilisés dans le cadre de ces réglementations avant de continuer. Les termes Correction, Action corrective et Action preventive sont trop souvent mal compris. Pour faire simple, les corrections s’appliquent aux problèmes actuels, les actions correctives ont pour but d’empêcher ces problèmes de réapparaître, et les actions préventives sont conçues pour éviter qu’un problème ne se manifeste tout court. L’exemple ci-dessous en constitue une bonne illustration.

    Imaginons une usine dans laquelle un technicien découvre une valve ouverte, laissant s’échapper un réactif chimique. La correction appropriée reviendrait à stopper immédiatement la fuite, sans doute en fermant la valve. Il s’agit d’une action immédiate, entreprise avant toute procédure CAPA (personne ne souhaiterait attendre avant d’agir). Plus tard, si une procédure CAPA est initiée, une action corrective sera mise en place (installation d’un verrou ou de capteurs sur la valve). L’action préventive associée consisterait à faire de même avec toutes les valves de l’usine.

    Une autre distinction importante est celle qui concerne la Vérification et la Validation. . Reprenons le même exemple. Une fois les corrections et actions préventives appliquées, deux méthodes d’évaluation de leur efficacité existent : vous pouvez vérifier celle-ci dans un environnement de pré-production ou isolé, ou en réaliser une validation statistique.

    La première approche implique d’effectuer des tests limités ou hors ligne, en opérant une vérification de toutes les fonctionnalités applicables, alors que la seconde permet de tester le processus dans son ensemble, en se basant sur une évaluation statistique. La méthode choisie doit être adaptée à votre situation.

    Cet article est lié à la boîte à outil:
    9 Free Resources to Boost Your CAPA Management System
    Pour obtenir tous les détails, veuillez consulter votre boîte à outils gratuite.

    Analyse des réglementations

    Les deux réglementations concernées ici sont la partie 820.100 du titre 21 du CFR de la FDA et la section 8 de la norme ISO 13485. Il est essentiel d’analyser leurs implications respectives afin de mieux les concilier. Celles liées à la réglementation de la FDA sont les suivantes :

    • Recherches : vous devez identifier la cause du problème. Celle-ci étant parfois difficile à déterminer, des outils pratiques peuvent vous aider. Ces derniers dépassent le cadre de cet article, mais comprennent notamment les arbres de défaillances ou les comparateurs d’état. Gardez à l’esprit que des fausses pistes et autres problèmes à variables multiples peuvent complexifier les choses. La cause à identifier doit permettre d’expliquer TOUS les détails observés.
    • Identification des corrections et actions préventives : il faut ensuite proposer une solution au problème. Les mots clés ici sont ici « proposer » (ne mettez PAS encore votre suggestion en place) et « solution » (le problème DOIT être résolu après application). Vous pouvez bien entendu proposer plusieurs solutions.
    • Vérification et validation de l’efficacité (reportez-vous à la distinction mentionnée plus haut) de la méthode choisie : il s’agit de s’assurer que votre solution est en mesure de régler le problème sans avoir d’incidences non désirées.
    • Implémentation : une fois la solution vérifiée ou validée, elle peut être appliquée. Trois autres étapes doivent cependant être réalisées au préalable.
    • Communication : les personnes concernées doivent être informées de l’implémentation afin de s’assurer que les évaluations requises soient effectuées.
    • Demande de vérification par la direction : il est ESSENTIEL d’informer la direction quant aux procédures CAPA et solutions adoptées.
    • Archivage.

    La norme ISO implique, quant à elle, les éléments suivants :

    • Identification de la cause : étape identique à celle de la liste précédente.
    • Identification des corrections et actions préventives : étape identique à celle de la liste précédente.
    • Planification et documentation des actions à entreprendre : concevez une stratégie de vérification et d’application.
    • Vérification : vérifiez/validez la solution (aucune distinction n’est ici nécessaire).
    • Confirmation de l’efficacité : évaluez le succès de la solution (aucune vérification de la part de la direction n’est nécessaire).
    • Archivage : étape identique à celle de la liste précédente.

    Conciliation des réglementations

    Ces approches étant relativement similaires, votre procédure CAPA peut se conformer aux deux à la fois. Il est généralement conseillé de commencer par la réglementation de la FDA, celle-ci étant plus normative. Les étapes ci-dessous concernent ainsi les deux processus :

    • Identification de la cause ;
    • Planification des actions à entreprendre pour remédier au problème et empêcher toute nouvelle occurrence ;
    • Vérification/validation de l’efficacité ;
    • Application de la solution ;
    • Transfert des informations ;
    • En prenant ces étapes comme cadre de référence, la procédure CAPA pourrait alors être illustrée de la manière suivante :
    • Archivage.

    En prenant ces étapes comme cadre de référence, la procédure CAPA pourrait alors être illustrée de la manière suivante :

    2017-bl-revisiting-capa-page-image-2

    Une telle approche permet donc de se conformer à la fois à la réglementation de la FDA et à la norme ISO. Cependant, cela ne signifie pas forcément que la procédure est efficace.

    Efficacité

    Les deux approches conciliées, il convient de concevoir une procédure CAPA hautement performante. La conformité d’une procédure n’est pas toujours synonyme d’efficacité, et c’est même souvent le contraire. C’est là que les approches basées sur les risques se révèlent utiles pour donner la priorité aux problèmes les plus importants. En résumé, si tous les problèmes soumis aux procédures CAPA sont traités de la même importance, celles-ci finiront vite par ne plus fonctionner, et les événements les plus importants seront ignorés. Une solution efficace consiste à mettre en place une stratégie d’évaluation des problèmes immédiatement après la conception de votre procédure CAPA. C’est précisément ce que permet de faire le module CAPA de MasterControl. Les étapes correspondantes sont alors les suivantes :

    • Évaluation initiale axée sur les risques et détermination du type de procédure (CAPA ou non) ;
    • Identification de la cause ;
    • Planification des actions à entreprendre pour remédier au problème et empêcher toute nouvelle occurrence ;
    • Vérification/validation de l’efficacité ;
    • Application de la solution ;
    • Transfert des informations ;
    • Demande de vérification par la direction ;
    • Archivage.

    La procédure pourrait ainsi être illustrée de la manière suivante:

    2017-bl-revisiting-capa-page-image

    La mise en place d’une étape d’évaluation des risques faisant suite à leur détection permet d’identifier leur priorité et les actions à entreprendre (processus de matérioviligance ou de rappel des produits inclus, le cas échéant). Si des informations changeant la nature du risque sont découvertes lors de l’analyse de la cause, il est possible qu’une nouvelle évaluation soit nécessaire.

    L’ajout de cette étape permet donc de se concentrer sur les problèmes les plus importants. Un grand nombre d’événements signalés n’impliquent pas le recours aux procédures CAPA. Ces derniers sont simplement archivés et résolus sans qu’une analyse CAPA n’ait lieu.

    Exemple

    Revenons à notre usine à travers deux scénarios distincts. Dans le premier, la cuve se trouvant dans la zone de production contient une solution caustique relative à la stérilisation des équipements. Ledit liquide se déverse rapidement au sol. Une évaluation initiale des risques révèlerait que ce problème affecte autant la sûreté des utilisateurs finaux que celle des employés sur site, et qu’il est fort probable qu’il soit récurrent. Il s’agit donc d’une situation à haut risque. Tout le monde s’accordera à dire que la procédure de résolution CAPA s’applique à ce cas de figure. 

    Dans le second scénario, la cuve se trouve dans une zone isolée. Seules quelques gouttes d’un liquide de nettoyage non stérile s’en échappent. La sûreté des utilisateurs finaux et des employés n’est quasiment pas mise en cause, et il y a peu de chances que la cuve se vide complètement. Il s’agit donc d’une situation à risque faible. Par conséquent, ce problème n’implique pas forcément d’utiliser une procédure CAPA. Il peut simplement être documenté, puis confié à l’équipe technique pour résolution.

    Conclusion

    Selon le principe de Pareto, environ 80 % des problèmes détectés présentent un risque faible et peuvent être résolus rapidement. Les autres, plus graves, doivent faire l’objet d’une procédure CAPA, à commencer par l’identification de leur cause première. En d’autres termes, vos ressources ne doivent être lourdement sollicitées que lorsque cela est absolument nécessaire.


    2014-blog-author-photo-peter-knauer (3)

    Peter Knauer est un partenaire du service Conseils de MasterControl en matière de qualité et de conformité. Il a cofondé et participe à la gestion de Sage BioPartners, une société de consulting spécialisée en réglementations, conformité et CMC (Chemistry, Manufacturing and Controls) pour les dispositifs médicaux, médicaments et produits combinés. Vous pouvez le contacter à l’adresse pknauer@mastercontrol.com or peter.knauer@sagebiopartners.com