Autrefois saluée pour son engagement envers la responsabilité éthique, la société a récemment choisi de mettre ses modèles de langage de grande taille (LLMs) sur le marché plus rapidement, au détriment des tests de sécurité approfondis. Cette décision, motivée par la pression croissante de la concurrence et la demande incessante du marché, soulève des préoccupations sur les risques potentiels et la sécurité de ces technologies.
Selon des informations relayées par le Financial Times, les équipes internes ainsi que les groupes tiers chargés de ces évaluations n’auraient eu que quelques jours pour tester certains modèles récents, contre plusieurs mois auparavant. Une source ayant participé aux tests du modèle "o3" a exprimé son mécontentement, soulignant : « Nous avions des tests de sécurité bien plus approfondis lorsque cela avait moins d'importance ».
Accélération du développement au détriment de la sécurité
Sous la pression d'une concurrence acharnée de Google, Meta, xAI ou Mistral, OpenAI accélère considérablement le développement de ses modèles d'IA. Cette course à l'innovation vise à maintenir son avance, et le contraste est frappant : alors que GPT-4 avait été testé pendant six mois avant son lancement en 2023, OpenAI aurait fait pression pour lancer son modèle "o3" dès la semaine prochaine, accordant ainsi à certains testeurs moins d'une semaine pour effectuer leurs vérifications de sécurité, selon des sources proches du dossier.
Au-delà des aspects techniques, c’est aussi l’image de l’entreprise qui est en jeu. Autrefois à but non lucratif, OpenAI est régulièrement accusée de s’être éloignée de sa mission initiale, tournée vers l’intérêt général. Une stratégie perçue comme favorisant la vitesse et le profit au détriment de la sécurité pourrait durablement nuire à sa crédibilité. De nombreux experts estiment en effet qu’un temps de test aussi court risque de compromettre la qualité du modèle dès sa mise en ligne. « Si le modèle génère des erreurs graves ou des contenus problématiques, cela sapera la confiance du public et freinera son adoption », avertit Pareekh Jain, PDG et analyste principal chez Parekh Consulting.
Des protocoles de test remis en question
Les critiques pointent également du doigt un autre problème : les tests sont souvent réalisés sur des versions préliminaires des modèles, alors que les versions finales peuvent être modifiées après cette phase de validation. Un ancien membre de l’équipe OpenAI a qualifié cette pratique de « mauvaise », en raison du risque de décalage entre ce qui est évalué et ce qui est réellement lancé.
Et si l’Union européenne a récemment adopté une réglementation plus stricte en matière d’IA, il n’existe toujours pas de cadre mondial harmonisé sur les tests de sécurité des modèles. De nombreux experts appellent à une régulation plus robuste, qui imposerait des standards clairs avant toute mise sur le marché.
Commentaire