Avec l’avancée des agents d’intelligence artificielle, il peut devenir de plus en plus difficile de distinguer les utilisateurs dotés d’IA des vrais humains en ligne. Dans un nouveau livre blanc, des chercheurs du MIT, d’OpenAI, de Microsoft et d’autres institutions proposent l’utilisation d’informations d’identification personnelle pour prouver l’authenticité des utilisateurs en ligne tout en préservant leur vie privée.
Les informations d’identification personnelle sont essentielles pour contrer les risques associés à l’IA sophistiquée, tels que la diffusion de fausses informations ou les attaques à grande échelle. Elles permettent de filtrer le contenu en ligne et de garantir la confiance des informations reçues sur les réseaux sociaux.
Les informations d’identification personnelle reposent sur des technologies de sécurité éprouvées, telles que la cryptographie, et peuvent compléter les méthodes d’authentification existantes en ligne.
Cependant, des risques subsistent, notamment liés à la concentration du pouvoir et à la liberté d’expression. Il est donc crucial de mettre en place un système d’attribution des informations d’identification personnelles transparent et sécurisé, impliquant plusieurs émetteurs et préservant la confidentialité des utilisateurs.
Les gouvernements, les entreprises et les chercheurs sont invités à investir dans les informations d’identification personnelle, à étudier les différentes orientations de mise en œuvre et à mettre en place des politiques adaptées pour garantir leur utilisation éthique et sécurisée. Il est primordial de se préparer à un avenir où l’IA disposera de capacités avancées, tout en préservant la vie privée et la liberté d’expression en ligne.
En savoir plus : https://news.mit.edu/2024/3-questions-proving-humanity-online-0816