Avant le licenciement et la réintégration de Sam Altman, OpenAI aurait développé un système sophistiqué si puissant qu’il soulevait des problèmes de sécurité parmi les employés de l’entreprise.
Certains chercheurs d’OpenAI ont été tellement alarmés par le modèle d’intelligence artificielle qu’ils ont prévenu le conseil d’administration avant qu’Altman ne soit licencié, affirmant qu’il pourrait mettre en danger l’humanité, selon Reuters.
Certains chercheurs en sécurité et sureté étaient préoccupés par le développement rapide du système, le modèle, connu sous le nom de Q* et prononcé « Q- Star », a permis de résoudre des problèmes mathématiques fondamentaux inédits. Une avancée significative dans le domaine de l’IA serait la capacité à résoudre des problèmes mathématiques.
Ces informations ont été publiées après plusieurs jours de troubles au sein d’OpenAI, basée à San Francisco, dont le conseil d’administration a licencié Altman vendredi dernier avant de le réengager mardi soir en réponse à la menace de démission proférée par la quasi-totalité des 750 employés s’il n’était pas réintégré. Microsoft, le plus gros investisseur dans OpenAI, a également soutenu Altman.
De nombreux experts craignent que des entreprises comme OpenAI n’évoluent trop rapidement vers la création d’une intelligence générale artificielle (AGI), un système qui, théoriquement, pourrait échapper au contrôle humain et pourra effectuer un éventail de tâches à un niveau d’intelligence égal ou supérieur à celui de l’intelligence humaine.
Selon Andrew Rogoyski de l’Institute for People-Centered AI de l’université de Surrey, le développement d’un modèle de langage large (LLM) permettant de résoudre les mathématiques serait révolutionnaire. Il a affirmé que « La capacité intrinsèque des LLM à faire des mathématiques est une avancée majeure, qui permet aux IA d’offrir un tout nouvel éventail de capacités analytiques. »