Selon le Financial Times britannique, OpenAI a considérablement réduit le temps et les ressources alloués pour tester la sécurité de son puissant modèle d’intelligence artificielle, ce qui a suscité des inquiétudes quant à la précipitation de son lancement sans garanties suffisantes. Par rapport à il y a quelques mois, les employés et les équipes tierces n’ont récemment eu que quelques jours pour “évaluer” le dernier grand modèle de langage d’OpenAI. Selon huit personnes connaissant le processus de test d’OpenAI, les tests de cette start-up sont devenus moins approfondis, n’ayant pas suffisamment de temps et de ressources consacrés à l’identification et à la réduction des risques, car cette start-up, dont la capitalisation boursière est de 300 milliards de dollars, est sous pression pour publier rapidement de nouveaux modèles et maintenir son avantage concurrentiel. Des sources ont révélé qu’OpenAI s’efforce de lancer son nouveau modèle o3 dès la semaine prochaine, laissant à certains testeurs moins d’une semaine pour effectuer des contrôles de sécurité. Auparavant, OpenAI permettait plusieurs mois pour les tests de sécurité.