Les plus grands leaders mondiaux de la technologie appellent à l’arrêt du développement de systèmes d’intelligence artificielle (IA) au-delà de GPT-4. Elon Musk, le fondateur de Tesla et SpaceX, ainsi que d’autres leaders de l’industrie technologique, ont écrit une lettre ouverte à la société pour le demander. Ils s’inquiètent du fait que nous ne comprenons pas encore toutes ses capacités et comment cela pourrait affecter la société. Nous devons étudier cela davantage avant de développer la technologie à un point où nous ne pouvons pas la gérer.

Elon Musk et les leaders technologiques appellent à mettre fin aux expériences d’IA
Les leaders technologiques de presque toutes les grandes entreprises technologiques ont écrit une lettre ouverte à la société leur demandant d’arrêter, ou du moins de ralentir, le développement de la technologie de l’IA. La lettre, qui a été signée par Musk et 116 autres leaders technologiques, dont le PDG d’Amazon Jeff Bezos, le cofondateur d’Apple Steve Wozniak et le fondateur de Google DeepMind Demis Hassabis, indique que nous devons ralentir le développement des systèmes d’IA au-delà de GPT-4. La lettre indique que la raison en est que nous ne savons pas comment les systèmes d’IA affecteront l’humanité et suggère que nous ne devrions pas les développer avant de le faire. (1)
« Des systèmes d’IA puissants ne devraient être développés qu’une fois que nous serons convaincus que leurs effets seront positifs et que leurs risques seront gérables », indique la lettre. « Par conséquent, nous appelons tous les laboratoires d’IA à suspendre immédiatement pendant au moins 6 mois la formation de systèmes d’IA plus puissants que GPT-4. Cette pause devrait être publique et vérifiable, et inclure tous les acteurs clés. Si une telle pause ne peut être adoptée rapidement, les gouvernements devraient intervenir et instituer un moratoire. » (2))
De grands noms ont signé cette lettre
Comme déjà mentionné, de nombreux leaders éminents de l’industrie technologique ont signé cette lettre. Parmi les signataires figurent l’auteur Yuval Noah Harari, le cofondateur d’Apple Steve Wozniak, le cofondateur de Skype Jaan Tallinn, le politicien Andrew Yang et un certain nombre de chercheurs et de PDG bien connus de l’IA, dont Stuart Russell, Yoshua Bengio, Gary Marcus et Emad Mostaque. Ce n’est pas la première fois qu’un groupe de personnalités appellent à l’interdiction de la recherche sur l’IA. En avril, Elon Musk et d’autres leaders de l’industrie ont signé une lettre ouverte à l’ONU appelant à des « lois » pour contrôler la façon dont les systèmes d’IA sont développés. Il a été révélé plus tard que ces lois incluraient une interdiction des armes autonomes. (3)
Musk a précisé plus tard qu’il ne soutenait pas une interdiction de la recherche sur l’IA, arguant que cela nuirait aux chances de l’humanité de survivre à la singularité technologique à venir. Dans leur lettre, les signataires affirment qu’il n’y a « pas lieu de paniquer » car l’IA présente de nombreux avantages mais pose également des « défis sans précédent » pour l’humanité. Il s’agit notamment de la perte d’emploi et des dangers des armes autonomes. Les auteurs appellent à une initiative internationale pour s’attaquer ensemble à ces problèmes plutôt que de les laisser à des pays ou à des entreprises individuels pour les résoudre de manière indépendante.
Les avantages de l’IA
Les signataires conviennent tous que la technologie de l’IA présente des avantages pour la société. Il s’agit notamment de l’amélioration des soins de santé, de l’amélioration de la sûreté et de la sécurité, de la création de nouveaux emplois et de la croissance économique. La lettre souligne également que l’IA pourrait aider à éliminer la pauvreté, à réduire les dommages environnementaux et à améliorer l’accès à l’éducation. Cependant, il souligne que ces avantages doivent être partagés équitablement dans l’ensemble de la société. Encore une fois, ces dirigeants n’appellent pas à un arrêt permanent, juste à une pause pour apprendre et légiférer avant de continuer.
« Les laboratoires d’IA et les experts indépendants devraient profiter de cette pause pour développer et mettre en œuvre conjointement un ensemble de protocoles de sécurité partagés pour la conception et le développement avancés de l’IA qui sont rigoureusement audités et supervisés par des experts externes indépendants », écrivent-ils. « Ces protocoles devraient garantir que les systèmes qui y adhèrent sont sûrs au-delà de tout doute raisonnable. »
Les risques potentiels de l’IA
Bien sûr, l’IA peut poser de nombreux risques potentiels à la société. Il s’agit notamment de systèmes qui peuvent être utilisés par de mauvais acteurs pour causer des dommages ou de systèmes qui pourraient commettre des erreurs conduisant à des accidents. Certains des risques les plus évidents sont liés aux véhicules autonomes et à d’autres technologies où l’IA est utilisée pour la prise de décision. Par exemple, on craint qu’un système d’IA fonctionnant dans une situation à enjeux élevés puisse commettre une erreur et causer des blessures ou la mort (même s’il n’était pas directement en faute). On s’inquiète également des biais qui s’insinuent dans les ensembles de données utilisés par ces systèmes et de la façon dont cela pourrait affecter leurs décisions, par exemple lorsque Amazon a eu des problèmes avec son logiciel de reconnaissance faciale.
La conclusion
La technologie de l’IA ne va nulle part. Malheureusement, cette lettre pourrait ne pas faire de différence dans le rythme auquel les développeurs d’IA se précipitent pour produire les derniers produits et systèmes artificiellement intelligents. J’espère cependant qu’il fera un peu d’arrêt et de réflexion avant de programmer. Peut-être aussi que cela incitera les décideurs politiques à accorder une plus grande priorité aux lois et réglementations sur la technologie de l’IA. La société, après tout, pourrait en dépendre.
Sources
- « Elon Musk et d’autres experts en technologie appellent à » pause « sur les systèmes d’IA avancés. » FT
- « Pause Giant AI Experiments: An Open Letter. » Avenir de la vie
- « Elon Musk et les meilleurs chercheurs en IA appellent à une pause sur » les expériences géantes de l’IA « . » The Verge. James Vincent. 29 mars 2023.