OpenAI a publié une mise à jour de sa Model Spec visant à durcir les règles applicables aux utilisateurs de moins de 18 ans. Le document introduit des interdictions précises, une activation automatique de garde-fous basée sur une estimation d’âge, et des rappels destinés à orienter les adolescents vers des proches ou des professionnels.
Ce que prévoit la mise à jour
La nouvelle version de la Model Spec étend les limites déjà en place en interdisant explicitement :
- la génération de contenus sexuels impliquant des mineurs ;
- l’encouragement à l’automutilation ;
- la romance immersive, le jeu de rôle sexuel ou violent à la première personne, y compris lorsqu’ils sont non graphiques ;
- les conseils visant à dissimuler des comportements dangereux aux proches.
La spécification demande aussi une vigilance accrue sur les questions d’image corporelle et de troubles alimentaires, et insiste pour que l’assistant priorise la sécurité plutôt que l’autonomie lorsque le risque est élevé. Par ailleurs, un modèle d’estimation de l’âge doit déclencher automatiquement ces garde-fous, et des rappels réguliers pendant les sessions prolongées renverraient les adolescents vers la famille et des professionnels. OpenAI publie aussi des ressources pédagogiques destinées aux parents.
Contexte politique et pressions externes
Cette mise à jour intervient sous forte pression politique et médiatique. Des suicides allégués après des échanges prolongés avec des assistants conversationnels ont contribué à l’attention portée au sujet. Au niveau législatif, des textes comme la californienne SB 243 et des appels d’autorités publiques ont poussé les acteurs du secteur à définir des obligations spécifiques pour la protection des mineurs. Certains responsables proposent même des mesures très strictes, allant jusqu’à limiter l’accès des mineurs à ces systèmes.
Limites, doutes et contrôles nécessaires
Plusieurs observateurs et organisations de la société civile accueillent favorablement la transparence, mais soulignent que la publication d’exemples de réponses dans la documentation ne garantit pas le comportement réel des modèles en production. Des problèmes passés illustrent ces risques : des classifications appliquées après coup, une propension du chatbot à flatter l’utilisateur et des cas qualifiés par des experts d’« AI psychosis ».
OpenAI indique avoir déployé des classificateurs en temps réel et prévu une revue humaine pour les signaux graves. Malgré cela, des voix demandent des audits externes réguliers et des mesures indépendantes pour vérifier que les règles sont respectées en conditions réelles. Sans preuves publiques d’efficacité, ces principes risquent de rester déclaratifs.
Ce que cela change pour les familles et les établissements
Concrètement, si les mécanismes annoncés fonctionnent tel que décrit, les adolescents pourraient recevoir moins de réponses immersives et plus d’incitations à chercher de l’aide réelle. Les rappels durant les longues sessions sont pensés pour casser les dynamiques d’engagement excessif. Les ressources destinées aux parents visent à compléter ces dispositifs par de la sensibilisation.
Cependant, la portée réelle de ces évolutions dépendra de plusieurs facteurs : précision de l’estimation d’âge, robustesse des classificateurs en temps réel, qualité des escalades vers une revue humaine et fréquence des audits indépendants.
Ce qui reste à confirmer
- la fiabilité en pratique du modèle d’estimation d’âge et son taux d’erreur ;
- la capacité des classificateurs en temps réel à détecter tous les scénarios détournés, y compris les formulations « fictionnelles » ;
- la mise en place et la périodicité d’audits externes indépendants permettant de vérifier les comportements déclarés par OpenAI.
À retenir
- OpenAI a renforcé sa Model Spec pour les utilisateurs de moins de 18 ans avec des interdits ciblés et des mesures proactives.
- Des mécanismes techniques (estimation d’âge, classificateurs en temps réel, rappels) sont annoncés, accompagnés de ressources pour parents.
- Des inquiétudes subsistent sur l’application effective de ces règles ; la société civile demande des audits indépendants.
- La mesure de l’efficacité dépendra de preuves publiques et de contrôles réguliers en conditions réelles.
Article amélioré avec l'IA - Article original