Avec pour nom Safe Superintelligence, l’ambition affichée par la start-up créée par Ilya Sutskever, cofondateur et ancien chief scientist d’OpenAI, s’avère plutôt limpide. En froid avec Sam Altman qu’il souhaitait évincer de l’entreprise, le père de ChatGPT avait finalement quitté OpenAI en mai dernier. Si Sam Altman est très présent dans les médias, Ilya Sutskever est la cheville ouvrière à l’origine des avancées dans le développement des LLM et sa déclinaison générative ChatGPT. Cofondé avec Daniel Levy, ancien chercheur de l'OpenAI, et Daniel Gross, un ancien partenaire de Y Combinator qui a dirigé les efforts d'Apple en matière d'IA et cofondé Ken Technologies, Safe Superintelligence entend concilier avancées dans le domaine des réseaux neuronaux sans occulter les questions de contrôle et d’éthique. C’est le sujet qui avait amené Ilya Sutskever à contester les directions prises par Sam Altman.
Dans une interview à l’agence Bloomberg, M. Sutskever a expliqué que SSI "ne fera rien d'autre" que de développer une superintelligence plus sûre en régulant la production d'un réseau neuronal avancé à l'aide d'un second réseau neuronal moins avancé. Lors d'un test réalisé dans le cadre du projet Superalignment chez OpenAI, les chercheurs avaient démontré comment le premier algorithme GPT-2 d'OpenAI peut être utilisé pour superviser l'algorithme GPT-4, plus récent et plus performant. "Notre modèle d'entreprise signifie que la sûreté, la sécurité et le progrès sont tous isolés des pressions commerciales à court terme", peut-on lire dans un tweet d‘Ilya Sutskever, . "Ainsi, nous pouvons évoluer en toute sérénité".
Encore très secret, Ilya Sutskever annonce de manière très succincte la création de sa start-up Safe Superintelligence.
Contrôler les initiatives IA
Les préoccupations d’Ilya Sutskever ne sont pas éloignées des tentatives de plusieurs gouvernements et organisations (dont la France et le Parlement européen) de rendre les technologies IA « sûres dès leur conception », notamment la surveillance biométrique, l'analyse prédictive appliquée à la prévention de la criminalité, l’aide aux diagnostiques médicaux ou encore la manipulation d’élections. Compte tenu du rythme rapide du développement de l'IA, la question de la sécurité ne doit pas être posée après coup, mais qu’il faut la considérer comme une exigence fondamentale du cycle de vie de ces systèmes.
Très prudent, Ilya Sutskever a refusé de nommer les bailleurs de fonds de Safe Superintelligence ou de divulguer le montant recueilli.