L’univers est en course pour déployer l’IA, mais une voix de premier plan en matière d’éthique technologique met en garde contre le fait de privilégier la vitesse au détriment de la sécurité, ce qui risque de provoquer une « crise de confiance ».
Suvianna Grecu, Fondatrice de la Fondation AI for Change, affirme qu’en l’absence d’une gouvernance immédiate et solide, nous sommes sur la voie de « l’automatisation des préjudices à grande échelle ».
En parlant de l’intégration de l’IA dans des secteurs critiques, Grecu estime que le danger éthique le plus pressant n’est pas la technologie elle-même, mais le manque de structure entourant son déploiement.
Des systèmes puissants prennent de plus en plus des décisions impactantes sur la vie quotidienne, allant des demandes d’emploi et des cotes de crédit aux soins de santé et à la justice pénale, souvent sans tests suffisants pour détecter les biais ou tenir compte de leur impact sociétal à long terme.
Pour de nombreuses organisations, l’éthique de l’IA reste un document de principes élevés plutôt qu’une réalité opérationnelle quotidienne. Grecu insiste sur le fait que la responsabilité véritable ne commence que lorsque quelqu’un est réellement tenu responsable des résultats. C’est dans l’écart entre l’intention et la mise en œuvre que réside le véritable risque.
La fondation de Grecu préconise un passage des idées abstraites à l’action concrète. Cela implique d’intégrer directement les considérations éthiques dans les flux de développement à travers des outils pratiques tels que des listes de contrôle de conception, des évaluations obligatoires des risques avant déploiement, et des comités de révision interfonctionnels réunissant des équipes légales, techniques et politiques.
Selon Grecu, la clé est d’établir une propriété claire à chaque étape, de construire des processus transparents et reproductibles comme pour toute autre fonction commerciale centrale. Cette approche pratique vise à faire progresser l’IA éthique, la transformant d’un débat philosophique en un ensemble de tâches gérables au quotidien.
En ce qui concerne l’application, Grecu est catégorique sur le fait que la responsabilité ne peut reposer uniquement sur le gouvernement ou l’industrie. « Ce n’est pas l’un ou l’autre, cela doit être les deux », déclare-t-elle, plaidant en faveur d’un modèle collaboratif.
Dans ce partenariat, les gouvernements doivent fixer les limites légales et les normes minimales, en particulier là où les droits fondamentaux de l’homme sont en jeu. La réglementation fournit le socle essentiel. Cependant, l’industrie possède l’agilité et le talent technique pour innover au-delà de la simple conformité.
Les entreprises sont les mieux placées pour créer des outils d’audit avancés, pionnier de nouvelles protections et repousser les limites de ce que la technologie responsable peut accomplir.
Laisser entièrement la gouvernance aux régulateurs risque d’étouffer l’innovation dont nous avons besoin, tandis que la laisser uniquement aux entreprises invite à l’abus. « La collaboration est le seul chemin durable vers l’avant », affirme Grecu.
En regardant au-delà des défis immédiats, Grecu est préoccupée par des risques plus subtils et à long terme qui reçoivent une attention insuffisante, à savoir la manipulation émotionnelle et le besoin urgent d’une technologie axée sur les valeurs.
Alors que les systèmes d’IA deviennent de plus en plus doués pour persuader et influencer les émotions humaines, elle met en garde contre les implications que cela a pour l’autonomie personnelle.
Un principe fondamental de son travail est l’idée que la technologie n’est pas neutre. « L’IA ne sera pas guidée par des valeurs, à moins que nous ne les construisions intentionnellement en elle », met-elle en garde. Il est courant de penser que l’IA reflète simplement le monde tel qu’il est. En réalité, elle reflète les données que nous lui fournissons, les objectifs que nous lui assignons et les résultats que nous récompensons.
Sans intervention délibérée, l’IA optimisera invariablement pour des métriques telles que l’efficacité, l’échelle et le profit, et non pour des idéaux abstraits comme la justice, la dignité ou la démocratie, ce qui aura naturellement un impact sur la confiance sociétale. C’est pourquoi un effort conscient et proactif est nécessaire pour décider des valeurs que nous voulons que notre technologie promeuve.
Pour l’Europe, cela représente une opportunité critique. « Si nous voulons que l’IA serve les humains (pas seulement les marchés), nous devons protéger et intégrer les valeurs européennes telles que les droits de l’homme, la transparence, la durabilité, l’inclusion et l’équité à chaque niveau : politique, conception et déploiement », explique Grecu.
Il ne s’agit pas d’arrêter le progrès. Comme elle le conclut, il s’agit de prendre le contrôle du récit et de « le façonner activement avant qu’il ne nous façonne ».
À travers le travail de sa fondation – y compris des ateliers publics et lors du prochain AI & Big Data Expo Europe, où Grecu est présidente lors du deuxième jour de l’événement – elle construit une coalition pour guider l’évolution de l’IA et renforcer la confiance en plaçant l’humanité au centre.
Voulez-vous en savoir plus sur l’IA et les mégadonnées auprès des leaders de l’industrie ? Découvrez AI & Big Data Expo qui se déroule à Amsterdam, en Californie et à Londres. Cet événement complet est co-localisé avec d’autres événements majeurs, y compris Intelligent Automation Conference, BlockX, Digital Transformation Week, et Cyber Security & Cloud Expo.
Explorez d’autres événements technologiques d’entreprise à venir et des webinaires proposés par TechForge ici.


