11th édition
 Ethique des Affaires & Conformité 

ENTREZ VOTRE MAIL POUR ACCEDER AU 
PROGRAMME DE LA CONFERENCE

Pourquoi est-il essentiel d'aborder ces thématiques lors d’un événement comme Éthique & Compliance 2025 ?

Aborder les enjeux éthiques liés à l’intelligence artificielle,  en particulier l’IA générative, lors d’un événement comme Éthique & Compliance 2025 est non seulement pertinent, mais fondamental.

Nous sommes à un moment charnière : l’encadrement réglementaire de l’IA, avec l’entrée en vigueur du règlement européen (AI Act), se structure à grande vitesse et impose aux organisations une transformation profonde de leurs pratiques.
Pour les acteurs du droit, de la stratégie et de la conformité, cela signifie anticiper, structurer et gouverner des technologies dont les effets dépassent largement le cadre purement technique.
Il ne s’agit plus seulement de stratégiser la stratégie, mais bien de stratégiser la technologie.


Un événement comme Éthique & Compliance 2025 permet de :
 
• croiser les regards entre juristes, régulateurs, dirigeants, ingénieurs et éthiciens — car aucun acteur seul ne peut encadrer efficacement l’IA ;
• traduire des principes abstraits (éthique, transparence, supervision humaine) en pratiques concrètes, opérationnelles et actionnables ;
• aligner gouvernance technologique et conformité réglementaire, dans un contexte de vigilance accrue des autorités et de forte sensibilité sociétale.

 
C’est aussi un lieu privilégié pour partager des retours d’expérience, confronter les approches sectorielles, et poser les fondements d’une intelligence artificielle digne de confiance, maîtrisée et alignée avec les valeurs européennes. En somme, l’éthique de l’IA n’est pas un supplément d’âme : c’est un levier stratégique de souveraineté, de conformité et de pérennité pour les organisations.

Quels sont, selon vous, les principaux défis éthiques posés par l’IA générative dans des
secteurs critiques comme la Santé ? 

L’IA générative ouvre des perspectives considérables dans le domaine de la Santé : assistance au diagnostic, synthèse de données médicales, génération de rapports cliniques, simulation de traitements, etc. Mais ces avancées s’accompagnent de défis éthiques majeurs.
 
En voici les principaux, analysés selon une approche multidimensionnelle :

1. Fiabilité et responsabilité des contenus générés
L’un des traits distinctifs de l’IA générative est sa capacité à produire des contenus fluides et cohérents, mais non nécessairement exacts. Cela pose la question de la responsabilité : qui est comptable de l’erreur ? Le développeur de l’algorithme, l’institution qui l’emploie ou le professionnel de santé qui s’y fie ?
L’absence actuelle de cadre juridique clair et de mécanismes d’auditabilité technique accentue ce flou. L’AI Act propose un premier cadre légal, mais il n’apporte pas encore de réponse suffisante en matière de responsabilité.


2. Opacité et manque d’explicabilité des systèmes
Les modèles génératifs, notamment ceux fondés sur des architectures de type Transformer (comme GPT), sont souvent qualifiés de boîtes noires. Leur fonctionnement interne est difficile à interpréter, même par leurs concepteurs.
Dans un secteur où les décisions doivent être traçables, justifiables et opposables, cette opacité nuit à l’éthique médicale, à la conformité réglementaire et à la confiance des patients. L’exigence d’explicabilité algorithmique devient donc une priorité, en lien avec les attentes du règlement européen sur l’IA (AI Act). Le principe de garantie humaine en est un des piliers fondamentaux.

3. Risques de biais et de discrimination
Les IA génératives sont entraînées sur de vastes ensembles de données, souvent issus d’Internet ou de corpus médicaux déséquilibrés. Cela introduit le risque de biais systémiques, liés au genre, à l’origine ethnique, à l’âge ou à la pathologie.
Par exemple, une IA majoritairement entraînée sur des données cliniques européennes peut être moins performante pour diagnostiquer certaines pathologies chez des populations sous-représentées. Ces biais peuvent mener à une médecine à deux vitesses, contraire au principe d’équité en santé.

4. Protection de la vie privée et gestion des données sensibles
Le secteur de la Santé traite des données parmi les plus sensibles. L’usage d’IA générative, pour analyser ou synthétiser ces données, implique des risques accrus en matière de confidentialité, de ré-identification ou de fuites d’informations via les modèles.
Il est donc essentiel de garantir :
le respect strict du RGPD (consentement, minimisation, limitation des finalités),
le recours à des techniques comme l’anonymisation, le chiffrement homomorphe ou la fédération des données.

5. Désintermédiation du jugement clinique
L’IA générative peut conduire à une délégation excessive : le professionnel de santé pourrait se reposer sur la machine, réduisant sa vigilance. Cela pose une question centrale : qui décide ? La réponse, selon l’AI Act, est la garantie d’un arbitrage humain.
L’éthique médicale repose sur l’autonomie du praticien, l’écoute du patient et le discernement clinique. L’IA doit rester un outil d’aide à la décision, non un substitut. Cela suppose une formation adaptée des professionnels à un usage critique et éclairé.

6. Acceptabilité sociale et relation de confiance avec le patient
L’introduction de l’IA dans le soin modifie la relation patient-soignant. Un outil génératif mal intégré peut engendrer méfiance ou sentiment de déshumanisation.
Pour favoriser l’acceptabilité, il faut :
impliquer les patients dès la conception des outils,
garantir une information claire sur le rôle de l’IA,
assurer un droit au refus et à l’intervention humaine, conformément aux droits fondamentaux des patients.

 
7. Conformité réglementaire et anticipation des futurs cadres légaux
L’éthique est indissociable de la conformité juridique. Avec l’arrivée du Règlement européen sur l’IA (AI Act), les systèmes utilisés dans la Santé sont classés à haut risque. Cela implique :

- une évaluation préalable des impacts techniques et éthiques (type analyse d’impact algorithmique),
- des exigences fortes en matière de documentation, de transparence, de supervision humaine et de robustesse.
Les organisations doivent anticiper ces obligations en mettant en place des gouvernances IA transverses et éthiques.

Les défis éthiques liés à l’IA générative ne relèvent pas seulement de la technique ou de la conformité, mais de choix fondamentaux en matière de valeurs, de responsabilité et de confiance. Une approche pluridisciplinaire, associant médecins, ingénieurs, juristes, éthiciens et patients, est essentielle pour encadrer ces technologies au service du soin, et non en remplacement de celui-ci.

Comment les entreprises peuvent-elles garantir la transparence et la supervision humaine dans l’usage des IA à haut risque ?

L’usage d’IA dites « à haut risque », selon la qualification retenue par le futur Règlement européen sur l’intelligence artificielle (AI Act), impose aux entreprises des exigences élevées en matière de transparence, de supervision humaine et de redevabilité. Dans les secteurs critiques (santé, justice, sécurité, emploi…), ces exigences ne sont pas seulement réglementaires, mais aussi éthiques et sociétales.

Pour les garantir, les entreprises doivent agir sur plusieurs leviers structurants :
 
1. Intégrer une gouvernance de l’IA dès la conception
La transparence et la supervision humaine doivent être intégrées dès les phases de conception, selon une logique de « compliance by design ».
Cela implique la mise en place :
- d’une gouvernance dédiée (comité d’éthique, cellule d’audit IA, comité de validation),
- de processus de revue pluridisciplinaire réunissant data scientists, juristes, experts métiers, éthiciens, et parfois des représentants de la société civile.

2. Assurer la documentation technique et éthique des systèmes
Garantir la transparence nécessite une documentation structurée, normalisée, et accessible aux autorités compétentes.
Cette documentation doit inclure :
- une description complète du système, de ses objectifs et cas d’usage,
- des informations sur les données d’entraînement, leur provenance, leur représentativité,
- une analyse des risques et impacts (type AIPD),
- les modalités de supervision humaine et les limites du système.

3. Mettre en place une supervision humaine effective (« human-in-the-loop »)
La supervision humaine ne doit pas être symbolique. Elle doit être active, qualifiée et dotée d’un pouvoir réel d’intervention.
Cela suppose :
- la formation des opérateurs humains aux capacités et limites des systèmes,
- la définition des points de contrôle humains dans la chaîne décisionnelle,
- des interfaces permettant d’identifier les incertitudes ou les zones de doute,
- la possibilité de corriger, bloquer ou désactiver une recommandation automatique.

4. Implémenter des mécanismes d’auditabilité et de traçabilité
Chaque décision algorithmique doit être traçable, rejouable et justifiable. 

Cela implique :
- des journaux d’activité détaillés,
- des outils de suivi des performances en production (détection de dérives, alertes),
- des audits périodiques internes ou externes,
- des mécanismes de retour d’expérience utilisateur.

5. Associer les parties prenantes
La transparence repose aussi sur l’inclusion des personnes concernées : patients, utilisateurs, collaborateurs, partenaires, voire citoyens.
Cela peut passer par :
- des consultations préalables aux déploiements,
- des engagements publics (charte éthique, code de conduite),
- la mise en place de comités de surveillance externes dans les cas sensibles.

6. Déployer un cadre de conformité aligné RGPD / AI Act
Les entreprises doivent garantir la cohérence entre les exigences du RGPD (droit à l’explication, consentement, minimisation…) et celles de l’AI Act (gestion des risques, documentation, supervision humaine).

Cela suppose :
- des équipes de conformité transverses,
- des processus harmonisés entre juridique, technique, métier et éthique,

- une culture organisationnelle axée sur la redevabilité et la transparence.

La garantie de la transparence et de la supervision humaine dans les IA à haut risque est un enjeu stratégique. Elle conditionne la confiance, la légitimité et la durabilité des usages d’IA dans les secteurs sensibles. 

Dans le cadre de la conférence sur l'Éthique des Affaires & la Conformité, nous avons échangé avec Sandrine Richard, intervenante et membre du comité éthique de Docaposte.. Sandrine est diplômée de l’Université Paris II Panthéon-Assas et de l’Institut National des Hautes Études de la Sécurité et de la Justice (INHESJ), anciennement rattaché au Premier ministre, où elle a obtenu un diplôme en protection de l’entreprise et sécurité économique. Elle est lieutenant-colonel réserviste au sein du département Défense et Sécurité de la Gendarmerie Nationale, et certifiée auditrice et consultante chez ETHIC Intelligence. Elle est accréditée en tant qu’auditrice à Washington DC sur les normes anti-corruption ISO 37001 et ISO 19600, selon les méthodologies reconnues par les organismes d’accréditation ANAB (États-Unis) et COFRAC (France).

DEMANDE D'AGENDA

29 September - 1 October, 2025

 HILTON Paris- La Défense

Paris‚ France

VISITEZ NOTRE SITE INTERNET

Sandrine présentera une keynote session sur "L’IA au prisme de l’éthique et de la compliance : lignes rouges, responsabilités et impacts concrets" lors de la deuxième jour de la conférence:

Pour plus d'informations sur le programme et les tarifs de participation, contactez:

Lorraine Bizet

lorraineb@marcusevanses.com

All Rights Reserved. marcus evans ® 2025


Vous êtes intéréssé pour assister à cet évenement?

Interview exclusive de Sandrine Richard, Membre du comite éthique, Docaposte

Garantir transparence et supervision humaine repose sur trois piliers fondamentaux :

- La gouvernance : la mise en place de comités éthiques ou d’instances de validation multidisciplinaires dès la phase de conception est indispensable.
- La documentation technique et éthique des modèles, ce que l’on appelle l’AI Act Card ou model sheet, en conformité avec les exigences européennes.

- Le principe de garantie humaine, qui doit être appliqué systématiquement : l’IA peut assister, mais ne doit jamais décider seule, en particulier dans les cas d’usage critiques.

  • Lecture stratégique de l’IA Act : gouvernance, transparence, biais et supervision humaine.
  • Cas d’usage dans le secteur de la Santé et de la Défense : IA générative, accès aux soins, lignes rouges éthiques.
  • Retour d’expérience Docaposte : politique interne IA & Éthique, formation, engagement public.