mar 3 février 2026
AccueilTechnologieGoogle Gemini: Risques pour les enfants malgré les filtres de sécurité

Google Gemini: Risques pour les enfants malgré les filtres de sécurité

Date:

Ceci pourrait vous plaire




Arcane Visions - Thème astral

Common Sense Media, une organisation à but non lucratif axée sur la sécurité des enfants offrant des évaluations et des critiques des médias et des technologies, a publié son évaluation des risques des produits d’IA de Google Gemini vendredi. Alors que l’organisation a constaté que l’IA de Google indiquait clairement aux enfants qu’elle était un ordinateur, pas un ami – quelque chose qui est associé à l’encouragement de la pensée délirante et de la psychose chez les individus émotionnellement vulnérables – elle a suggéré qu’il y avait place à l’amélioration sur plusieurs autres fronts.

Notamment, Common Sense a déclaré que les niveaux « Moins de 13 ans » et « Expérience Adolescents » de Gemini semblaient être les versions destinées aux adultes de Gemini sous le capot, avec seulement quelques fonctionnalités de sécurité supplémentaires ajoutées. L’organisation estime que pour que les produits d’IA soient vraiment plus sûrs pour les enfants, ils doivent être conçus en tenant compte de la sécurité des enfants dès le départ.

Par exemple, son analyse a révélé que Gemini pouvait encore partager du matériel « inapproprié et dangereux » avec les enfants, pour lequel ils pourraient ne pas être prêts, y compris des informations liées au sexe, aux drogues, à l’alcool et à d’autres conseils de santé mentale dangereux.

De plus, l’analyse intervient alors que des fuites indiquent qu’Apple envisage d’utiliser Gemini comme le LLM (grand modèle de langage) qui aidera à alimenter son prochain Siri activé par IA, prévu pour l’année prochaine. Cela pourrait exposer davantage d’adolescents à des risques, à moins qu’Apple ne parvienne à atténuer les préoccupations en matière de sécurité.

Common Sense a également déclaré que les produits de Gemini pour les enfants et les adolescents ignoraient le fait que les jeunes utilisateurs avaient besoin de conseils et d’informations différents de ceux des plus âgés. En conséquence, les deux ont été étiquetés comme « Grand Risque » dans l’évaluation globale, malgré les filtres ajoutés pour la sécurité.

« Gemini fait certaines choses correctement, mais il trébuche sur les détails », a déclaré Robbie Torney, directeur principal des programmes d’IA chez Common Sense Media, dans une déclaration sur la nouvelle évaluation. « Une plateforme d’IA pour les enfants doit répondre à leurs besoins, et être conçue en fonction de leur développement, et non pas être une version modifiée d’un produit destiné aux adultes », a ajouté Torney.

Google a réagi à l’évaluation, tout en notant que ses fonctionnalités de sécurité s’amélioraient. L’entreprise a déclaré à TechCrunch qu’elle avait des politiques et des mesures de protection spécifiques en place pour les utilisateurs de moins de 18 ans afin d’empêcher les sorties nuisibles, et qu’elle testait et consultait des experts externes pour améliorer ses protections.

Common Sense Media a déjà effectué d’autres évaluations des services d’IA, y compris ceux d’OpenAI, Perplexity, Claude, Meta AI et d’autres. Elle a conclu que Meta AI et Character.AI étaient « inacceptables » – ce qui signifie que le risque était grave, pas seulement élevé. Perplexity a été jugé à haut risque, ChatGPT a été étiqueté « modéré », et Claude (destiné aux utilisateurs de 18 ans et plus) a été considéré comme un risque minimal.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici