A Bottom-up Approach to Governing the New Generation of AI

Fin novembre de l’année dernière, ChatGPT a secoué le monde dans une frénésie sur l’avenir de l’intelligence artificielle. ChatGPT fait partie de la famille des modèles d’IA génératifs qui analysent de grandes quantités de données existantes et recrachent des flux cohérents de contenu écrit, verbal et visuel. Vous pouvez, par exemple, visualiser une image d’un Tyrannosaurus Rex prise avec un objectif Canon 300mm f/2.8 en quelques secondes en tapant la commande correspondante. Ces modèles d’IA génératifs révolutionnent des secteurs allant de la santé à l’éducation, en passant par la finance et l’industrie du divertissement.

Avec le développement si rapide de l’IA, les craintes qu’elle soit utilisée de manière nuisible augmentent. Lina Khan, chef de la Federal Trade Commission fait valoir dans un New York Times article d’opinion selon lequel l’IA générative devrait être strictement réglementée pour prévenir les dommages aux consommateurs et les pratiques anticoncurrentielles. « Avec des outils qui créent des vidéos profondément fausses et des clones de voix », écrit-il, « ces technologies peuvent être utilisées pour faciliter la fraude et l’extorsion à grande échelle ».

Cependant, l’imposition de réglementations générales sur les modèles d’IA générative perturbera considérablement l’innovation et retardera les avantages qui changent la vie qu’elle apporte. Même si les gouvernements avaient les bons outils de réglementation dans leurs poches, le rythme auquel les technologies d’IA progresseront s’avérera insoluble, rendant toute forme de réglementation stricte inefficace.

Au lieu de cette approche, nous devrions opter pour des réglementations « plus souples », telles que les meilleures pratiques de l’industrie et les négociations informelles entre les parties prenantes qui encouragent la formation d’une gouvernance ascendante. De cette manière, l’innovation peut se poursuivre à un rythme soutenu tandis que des formes de gouvernance décentralisées peuvent émerger pour remédier aux dommages potentiels associés aux systèmes d’IA générative.

Outre les inquiétudes soulevées par Khan, beaucoup pensent également que cette nouvelle génération d’IA augmentera l’exploitation, le harcèlement et la désinformation sexuelle en ligne. Pour résoudre ces problèmes, des entreprises comme OpenAI et Google recrutent et forment des réviseurs humains pour supprimer les contenus malveillants et inexacts. Dans certains cas, OpenAI fixe des limites au comportement des utilisateurs par le biais de ses accords sur les conditions d’utilisation. Ces exemples représentent un effort croissant des entreprises d’IA pour intégrer une gouvernance ascendante qui ne nécessite pas de réglementation stricte.

En collaboration avec des leaders de l’industrie et d’autres parties prenantes importantes, le National Institute of Standards and Technology (NIST) a créé un cadre pour réduire les biais négatifs dans les systèmes d’IA, qui «vise à permettre le développement et l’utilisation de l’IA de manière à accroître la fiabilité, à promouvoir l’utilité , et traiter les dommages potentiels.

L’Institute of Electrical and Electronics Engineers (IEEE), une association professionnelle comptant plus de 420 000 membres dans 160 pays, a publié un rapport décrivant les normes de l’industrie qui « garantissent que toutes les parties intéressées impliquées dans la conception et le développement de systèmes autonomes et intelligents sont éduquées, formés et habilités à donner la priorité aux considérations éthiques afin que ces technologies progressent au profit de l’humanité.

En consultant de nombreuses parties prenantes, le NIST et l’IEEE créent des cadres décentralisés qui informent la communauté de l’IA des meilleures pratiques et établissent un ensemble de normes qui peuvent atténuer les problèmes avant qu’ils ne surviennent.

Bien sûr, il n’y a pas de panacée qui supprime l’incertitude entourant l’IA générative. Mais la promotion d’institutions gouvernementales spontanées alimentera des innovations qui amélioreront tout, du marketing et du service client à l’art et au divertissement musical. Une société de marketing a récemment prédit que 30 % du contenu marketing sera généré par l’IA d’ici 2025. Encore plus surprenant, ils s’attendent à ce que l’IA contribue à 90 % de la génération de texte et de vidéo pour un grand film hollywoodien d’ici 2030. .

De plus, en augmentant la productivité, l’IA générative repousse la frontière technologique. Les chercheurs du MIT, par exemple, explorent les moyens par lesquels l’IA générative peut « accélérer le développement de nouveaux médicaments et réduire la probabilité d’effets secondaires indésirables ». Les entreprises utilisent également l’IA pour générer du code informatique qui augmentera le développement de logiciels et améliorera les expériences des utilisateurs.

Contrairement aux structures de gouvernance ascendantes qui émergent, le Parlement européen envisage une proposition connue sous le nom de loi sur l’IA qui imposera des réglementations onéreuses aux entreprises d’IA dans toute l’Union européenne. Certaines parties prenantes, telles que le Future of Life Institute, soutiennent que l’IA générative doit subir des «évaluations de conformité», qui sont des exigences strictes que les entreprises d’IA doivent respecter avant que leurs technologies ne soient rendues publiques. Le même institut a également publié une lettre ouverte avec plus de 27 000 signatures, dont celle d’Elon Musk, appelant les laboratoires d’IA à suspendre le développement pendant au moins six mois jusqu’à ce qu’« un ensemble de protocoles » de sécurité partagée ait été pleinement mis en place.

Alors que les appels à réglementer l’IA en Europe se multiplient, la Maison Blanche a publié sa déclaration des droits de l’IA, décrivant ce que l’administration Biden considère comme ses principales priorités «pour construire et déployer des systèmes automatisés alignés sur les valeurs démocratiques et protéger les droits civils, libertés et vie privée ».

Malheureusement, ces propositions négligent les systèmes de gouvernance ascendants qui ont évolué en l’absence d’une surveillance gouvernementale rigide. Il est vrai qu’il existe de sérieux risques dans un monde sans limites où l’IA peut être utilisée pour suivre des millions de personnes grâce à la reconnaissance faciale, diffuser de la désinformation et escroquer des familles en imitant la voix d’un parent. Mais comme l’écrit Adam Thierer dans son livre, Entrepreneuriat insaisissableL’approche « plus douce » adopte une attitude d’innovation sans autorisation qui crée un environnement plus productif dans lequel nous pouvons résoudre des problèmes complexes sans compromettre l’incitation à innover et à découvrir de nouvelles façons de faire les choses.

Avec l’IA qui se développe à un rythme aussi rapide, il est facile de laisser nos peurs nous submerger. Après tout, c’est notre attitude à l’égard des nouvelles technologies qui façonne en fin de compte le paysage réglementaire que nous adoptons. Plutôt que de laisser de telles peurs submerger nos sens, nous devons rester prudemment optimistes quant aux incroyables possibilités que les modèles d’IA génératives ont ouvertes. Adopter une approche de gouvernance ascendante, même si elle n’est pas parfaite, est la meilleure stratégie pour garantir que les avantages de l’IA se concrétisent sans mettre en péril des valeurs importantes qui nous sont chères.

Michael N. Peterson

Michael est le spécialiste du contenu d’une institution universitaire de la région de Washington, DC.

Il poursuit actuellement une maîtrise en économie de GMU. Les études de Michael portent sur l’économie du développement et l’analyse institutionnelle.

Recevez des notifications de nouveaux articles de Michael N. Peterson et AIER.

Source