La tokenisation est en train de devenir un pilier de la sécurité des données modernes, aidant les entreprises à séparer la valeur de leurs données du risque associé. Lors de cette conversation avec VB, Ravi Raghu, président de Capital One Software, parle des façons dont la tokenisation peut aider à réduire la valeur des données piratées et à préserver le format et l’utilité sous-jacents des données, en se basant notamment sur l’expérience de Capital One dans l’utilisation de la tokenisation à grande échelle.
La tokenisation, affirme Raghu, est une technologie bien supérieure. Elle convertit les données sensibles en un remplacement numérique non sensible, appelé un token, qui renvoie à l’original, sécurisé dans un coffre numérique. Le token préserve à la fois le format et l’utilité des données sensibles, et peut être utilisé dans différentes applications, y compris les modèles d’IA. Parce que la tokenisation élimine le besoin de gérer les clés de chiffrement ou de consacrer des ressources informatiques au chiffrement et au déchiffrement constants, elle offre l’une des façons les plus évolutives pour les entreprises de protéger leurs données les plus sensibles.
« La partie essentielle, d’un point de vue de la sécurité, quand on y réfléchit par rapport à d’autres méthodes, c’est que si un acteur malveillant prend possession des données, il obtient des tokens », a expliqué Raghu. « Les données réelles ne sont pas stockées avec le token, contrairement à d’autres méthodes comme le chiffrement, où les données réelles sont là, attendant juste que quelqu’un obtienne une clé ou utilise la force brute pour accéder aux données réelles. Dans tous les cas, c’est la manière idéale de protéger les données sensibles. »
La tokenisation évite ces pièges en remplaçant les données originales par un substitut qui n’a aucune valeur intrinsèque. Si le token est intercepté, que ce soit par la mauvaise personne ou la mauvaise machine, les données elles-mêmes restent sécurisées.
« En fin de compte, vous protégez les données, et c’est inestimable », a déclaré Raghu. « Une autre chose inestimable – pouvez-vous l’utiliser ultérieurement à des fins de modélisation ? D’un côté, c’est une question de protection, et de l’autre côté, c’est une question de facilitation des affaires. »
Parce que la tokenisation préserve la structure et l’ordinalité des données d’origine, elles peuvent toujours être utilisées pour la modélisation et les analyses, transformant la protection en un outil d’aide aux affaires. Prenez par exemple les données de santé privées régies par la HIPAA : la tokenisation signifie que les données peuvent être utilisées pour élaborer des modèles de tarification ou pour la recherche en thérapie génique, tout en restant conforme.
La tokenisation sans coffre est une forme avancée de tokenisation qui ne nécessite pas de base de données centrale (coffre) pour stocker les correspondances de token. Au lieu de cela, elle utilise des algorithmes mathématiques, des techniques cryptographiques et des correspondances déterministes pour générer des tokens dynamiquement. Cette approche est plus rapide, plus évolutive et élimine le risque de sécurité associé à la gestion d’un coffre.
« Nous avons réalisé que pour les exigences de vitesse et d’échelle que nous avions, nous devions construire cette capacité nous-mêmes », a déclaré Raghu. « Nous avons itéré continuellement pour nous assurer qu’elle peut s’étendre à des centaines de milliards d’opérations par mois. Toute notre innovation a été axée sur la construction de la propriété intellectuelle et la capacité de réaliser cette chose à une échelle testée au combat au sein de notre entreprise, dans le but de servir nos clients. »
Alors que les méthodes traditionnelles de tokenisation peuvent impliquer une certaine complexité et ralentir les opérations, Databolt s’intègre parfaitement aux entrepôts de données chiffrées, permettant aux entreprises de maintenir une sécurité robuste sans ralentir les performances ou les opérations. La tokenisation se fait dans l’environnement du client, éliminant le besoin de communiquer avec un réseau externe pour effectuer des opérations de tokenisation, ce qui peut également ralentir les performances.
« Nous croyons fondamentalement que la tokenisation devrait être facile à adopter », a déclaré Raghu. « Vous devriez pouvoir sécuriser vos données très rapidement et fonctionner à la vitesse, à l’échelle et au coût que les organisations ont besoin. Je pense que c’est jusqu’à présent une barrière critique pour l’adoption à grande échelle de la tokenisation. Dans un monde d’IA, cela va devenir un énorme facilitateur. »
Ne manquez pas la conversation complète avec Ravi Raghu, président de Capital One Software, ici.


