· 

Pause Giant AI Experiments: une lettre ouverte

L'IA fait peur... votre avis sur le sujet?

Nous appelons tous les laboratoires d’IA à suspendre immédiatement pendant au moins 6 mois la formation de systèmes d’IA plus puissants que GPT-4.

Les systèmes d’IA dotés d’une intelligence concurrentielle humaine peuvent présenter des risques profonds pour la société et l’humanité, comme le montrent des recherches approfondies[1] et reconnu par les meilleurs laboratoires d’IA.[2] Comme indiqué dans les principes d’Asilomar sur l’IA, largement approuvés, l’IA avancée pourrait représenter un changement profond dans l’histoire de la vie sur Terre et devrait être planifiée et gérée avec le soin et les ressources correspondants. Malheureusement, ce niveau de planification et de gestion ne se produit pas, même si ces derniers mois ont vu les laboratoires d’IA enfermés dans une course incontrôlable pour développer et déployer des esprits numériques toujours plus puissants que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable.

Les systèmes d’IA contemporains deviennent maintenant compétitifs pour l’homme dans les tâches générales,[3] et nous devons nous demander: devrions-nous laisser les machines inonder nos canaux d’information de propagande et de mensonge? Devrions-nous automatiser tous les emplois, y compris ceux qui sont épanouissants? Devrions-nous développer des esprits non humains qui pourraient éventuellement nous surpasser en nombre, nous déjouer, nous rendre obsolètes et nous remplacer ? Devrions-nous risquer de perdre le contrôle de notre civilisation ? De telles décisions ne doivent pas être déléguées à des leaders technologiques non élus. Des systèmes d’IA puissants ne devraient être développés qu’une fois que nous serons convaincus que leurs effets seront positifs et que leurs risques seront gérables. Cette confiance doit être bien justifiée et augmenter avec l’ampleur des effets potentiels d’un système. La récente déclaration d’OpenAI concernant l’intelligence artificielle générale indique que « à un moment donné, il peut être important d’obtenir un examen indépendant avant de commencer à former les futurs systèmes, et pour les efforts les plus avancés d’accepter de limiter le taux de croissance du calcul utilisé pour créer de nouveaux modèles ». Nous sommes d’accord. C’est maintenant.

Par conséquent, nous appelons tous les laboratoires d’IA à suspendre immédiatement pendant au moins 6 mois la formation de systèmes d’IA plus puissants que GPT-4. Cette pause devrait être publique et vérifiable, et inclure tous les acteurs clés. Si une telle pause ne peut être adoptée rapidement, les gouvernements devraient intervenir et instituer un moratoire.

Les laboratoires d’IA et les experts indépendants devraient profiter de cette pause pour développer et mettre en œuvre conjointement un ensemble de protocoles de sécurité partagés pour la conception et le développement avancés de l’IA qui sont rigoureusement audités et supervisés par des experts externes indépendants. Ces protocoles devraient garantir que les systèmes qui y adhèrent sont sûrs hors de tout doute raisonnable.[4] Cela ne signifie pas une pause dans le développement de l’IA en général, mais simplement un recul de la course dangereuse vers des modèles de boîtes noires imprévisibles toujours plus grands avec des capacités émergentes.

La recherche et le développement en IA devraient être recentrés sur la création de systèmes puissants et à la pointe de la technologie d’aujourd’hui plus précis, sûrs, interprétables, transparents, robustes, alignés, dignes de confiance et loyaux.

Parallèlement, les développeurs d’IA doivent travailler avec les décideurs politiques pour accélérer considérablement le développement de systèmes de gouvernance de l’IA robustes. Celles-ci devraient au minimum inclure: de nouvelles autorités de réglementation compétentes dédiées à l’IA; la surveillance et le suivi des systèmes d’IA hautement performants et des vastes bassins de capacité de calcul; des systèmes de provenance et de filigrane pour aider à distinguer les fuites réelles des fuites synthétiques et à suivre les fuites des modèles; un écosystème d’audit et de certification robuste; la responsabilité pour les dommages causés par l’IA; un financement public solide pour la recherche technique sur la sécurité de l’IA; et des institutions dotées de ressources suffisantes pour faire face aux perturbations économiques et politiques dramatiques (en particulier pour la démocratie) que l’IA causera.

L’humanité peut profiter d’un avenir florissant avec l’IA. Ayant réussi à créer de puissants systèmes d’IA, nous pouvons maintenant profiter d’un « été de l’IA » dans lequel nous en récoltons les fruits, concevons ces systèmes pour le bénéfice évident de tous et donnons à la société une chance de s’adapter. La société a mis en pause d’autres technologies avec des effets potentiellement catastrophiques sur la société.[5] Nous pouvons le faire ici. Profitons d’un long été d’IA, ne nous précipitons pas sans préparation dans un automne.

Écrire commentaire

Commentaires: 0