Star Citizen Ile Avalon Pilot Logbook
Carnet de Vol d'un Citoyen de l'Espace

Un Meilleur Aujourd'hui

Showdown

Un an après sa nomination au poste d'Imperator de l'Empire Uni de la Terre, les "promesses électorales" de Laylani Addison sont toujours au point mort.

Dans cette épisode de Showdown! du 16 mars 2952, Eria Quint reçoit Yuna Glidewell, ingénieur et défenseur de l'intelligence artificielle, et Mahir Lemond, auteur du livre 2044: The Lemming Incident, afin de débattre sur la nécessité d'assouplir ou non les restrictions concernant la recherche en matière d'intelligence artificielle.

Auto-Transcription pour la soumission S&P et NFSC

EP 66:12 : "Un Meilleur Aujourd'hui"

Bienvenue à Showdown, l'émission de débat axée sur les questions les plus pressantes de l'Empire. Je suis votre modératrice ici présente, Eria Quint. Plus tard dans l'émission, nous nous pencherons sur les récents affrontements violents entre les citoyens de Yela et Crusader Security et nous nous demanderons si la police corporative est allée trop loin ou si elle s'attaque enfin à un problème qui a été ignoré pendant trop longtemps.

Mais d'abord, cela fait un an que Laylani Addison est devenue Impératrice de l'Empire Uni de la Terre et tous ses partisans ne sont pas satisfaits des progrès réalisés jusqu'à présent. Malgré sa promesse de campagne de garantir un financement accru de la recherche sur l'intelligence artificielle, elle n'a pas pris de mesures concrètes jusqu'à présent. La législation qu'elle a récemment proposée, la loi Better Today, affaiblira bon nombre des restrictions en place contre la recherche sur les IA et ouvrira la porte à un financement gouvernemental. Certains se réjouissent de cette nouvelle loi, mais d'autres ne sont pas sûrs que ce soit une bonne idée, ou une idée sûre.

Je suis ici avec Yuna Glidewell, ingénieur et défenseur de l'intelligence artificielle, et Mahir Lemond, auteur du livre 2044: The Lemming Incident.

YUNA GLIDEWELL : Bonjour Eria. C'est un plaisir d'être ici.

MAHIR LEMOND : Bonjour.

Que pensez-vous de la proposition d'Addison ?
Je commence par vous, Yuna.

YUNA GLIDEWELL : Inutile de vous dire que je suis plus qu'enthousiaste. Cela fait tellement longtemps qu'Addison a pris ses fonctions que mes collègues et moi commencions à perdre espoir. Nous pensions qu'elle avait oublié qu'elle avait gagné les élections grâce à sa promesse d'un lendemain plus radieux.

Un "lendemain plus radieux" ?
Pouvez-vous nous en dire plus ?

YUNA GLIDEWELL : Pendant trop longtemps, l'Humanité a entravé son propre progrès grâce à notre peur irrationnelle de l'intelligence artificielle. Cela fait des siècles que nous n'avons pas été autorisés à faire des progrès significatifs dans la recherche sur les intelligences artificielles, et, ce n'est pas une coïncidence à mon avis, nous avons au moins un siècle de retard sur les Xi'an en matière de technologie.

L'Empire Xi'an a-t-il développé une véritable intelligence artificielle ?
Si oui, c'est une nouvelle pour moi.

YUNA GLIDEWELL : [rires] Eh bien, pas à notre connaissance. Mais c'est pourquoi il est si important que nous soyons les premiers à le faire. Si nous créons quelque chose que même les Xi'an n'ont pas encore, nous pouvons faire des progrès considérables pour combler le fossé technologique.

Et vous, Mahir ?
La loi Better Today vous excite-t-elle ou vous inquiète-t-elle ?

MAHIR LEMOND : Elle m'inquiète profondément. Nous avons décidé il y a longtemps que les risques liés à l'IA n'en valaient pas la peine, et ce pour de très bonnes raisons, largement documentées et surtout mortelles. Cela va bien au-delà de la catastrophe de la voiture Lemming de Tokyo en 2044, qui a fait 12 456 morts et d'innombrables blessés. Chaque fois que nous avons créé des IA, nous nous en sommes sortis plus mal que prévu. La tragédie de Mars en 2125, l'explosion de la tour Cerita en 2298, l'incident d'Horus en 2696 : tous causés par des expériences bien intentionnées mais finalement dangereuses avec une intelligence artificielle.

YUNA GLIDEWELL : Ce sont toutes de terribles tragédies, je ne le conteste pas. Mais les premières technologies ont toujours des problèmes qui sont résolus dans les générations suivantes.

MAHIR LEMOND : La perte de vies humaines est un peu plus grave qu'un "problème", Mme Glidewell.

YUNA GLIDEWELL : Et comme je l'ai dit, ce sont des tragédies. Des tragédies que nous pouvons éviter si nous cessons d'avoir peur du progrès. Aujourd'hui, nous sommes capables de construire des garde-fous que nos ancêtres n'auraient pas pu imaginer. Croyez-moi, personne ne pense plus aux conséquences potentielles d'une intelligence artificielle mal fabriquée et mal gérée que les personnes qui font des recherches dans ce domaine.

MAHIR LEMOND : J'aime à penser que l'humanité progresse très bien. Regardez l'impact de la technologie de régénération. En quoi n'est-ce pas un progrès ?

YUNA GLIDEWELL : Bien sûr, je ne veux pas dire que nous n'allons nulle part. Mais s'il y a des poussées de progrès, la tendance générale est au ralentissement. Vous devez admettre qu'il est étrange que nous fassions voler les mêmes modèles de vaisseaux spatiaux pendant des centaines d'années, alors qu'au début des vols spatiaux, de nouveaux modèles de vaisseaux sortaient à un rythme effréné. Je veux dire, sérieux, mon fils pilote un vaisseau qui a été construit en 2874.

MAHIR LEMOND : Oui, je vous accorde que dans certains domaines, on a l'impression qu'il y a une accalmie. Mais c'est ainsi que le progrès fonctionne. Si vous regardez l'histoire de l'humanité, il y a eu des périodes de changement rapide, des périodes de routine et des périodes de déclin. Certaines technologies ne peuvent être pleinement utilisées que longtemps après leur découverte. Prenons l'exemple de la vapeur : elle a été créée par les humains de l'Antiquité au 1er siècle, mais n'a pu être pleinement exploitée avant les années 1700 en raison d'un manque de ressources. Dans le même ordre d'idées, regardez les navires, dont la conception n'a pas eu besoin d'être mise à jour de manière significative depuis avant même que les humains ne débarquent sur Luna. Pourquoi réparer quelque chose qui n'est pas cassé ?

YUNA GLIDEWELL : Pourquoi se contenter de ce que l'on a quand on peut obtenir quelque chose qui fonctionne mieux ? Comme vous l'avez dit, il y a des périodes de peu ou pas de changement, puis des périodes de changement explosif lorsqu'une nouvelle ressource est découverte. Les IA ont le potentiel d'être cette ressource pour nous. Quelle que soit la créativité et la perspicacité dont les humains sont capables, nos esprits sont limités. Une IA mise en réseau avec d'autres IA aura des capacités surhumaines. Imaginez ce que pourrait être le futur de la conception des vaisseaux spatiaux si nous mettions ne serait-ce que quelques IA au travail pour construire un meilleur vaisseau.

MAHIR LEMOND : Nous avons déjà des algorithmes complexes et de puissantes technologies d'apprentissage automatique qui accomplissent exactement ce que vous décrivez. La nouvelle génération de drones développée par l'armée en 1947 a été initialement conçue par un ordinateur qui avait reçu des données sur des squelettes d'oiseaux. Nous n'avons clairement pas besoin d'intelligence artificielle pour créer de nouvelles technologies. Les preuves historiques indiquent clairement...

YUNA GLIDEWELL : Encore une fois, je ne dis pas qu'il n'y a pas de risque, ce que je dis c'est que...

MAHIR LEMOND : Je n'ai pas terminé. Les preuves indiquent que lorsque l'IA est impliquée, des gens meurent.

YUNA GLIDEWELL : Vous vous méprenez délibérément sur mon interprétation. J'ai dit plusieurs fois que nous avons pris en considération le danger hypothétique et que nous ferons de la protection des vies humaines notre première priorité.

MAHIR LEMOND : Le danger n'est pas hypothétique et vous le savez. Vous vous en moquez simplement.

Revenons un instant sur la question des vies humaines. Yuna, pouvez-vous m'en dire plus sur les problèmes que l'intelligence artificielle peut aider à résoudre ?

YUNA GLIDEWELL : Merci, Eria. Quand nous aurons l'IA, les soldats n'auront plus besoin d'aller à la guerre. Les décès en salle d'opération diminueront considérablement. Les accidents de la route feront partie du passé. Les vaisseaux seront capables de voler eux-mêmes. Je pourrais continuer, mais c'est le futur dont nous nous privons. Il est seulement hors de portée parce que nous avons peur de franchir les étapes suivantes. La loi Better Today est le petit coup de pouce dont nous avons besoin pour nous faire sortir du starting-block.

MAHIR LEMOND : Très bien. Oublions le passé et imaginons une seconde qu'il n'existe aucun moyen pour une IA défectueuse ou malveillante de tuer des gens. Vous venez de décrire un monde dans lequel les victimes de la guerre, les décès précoces et la pauvreté sont tous éradiqués, ou aussi proches de l'éradication qu'ils peuvent l'être. Est-ce exact ?

YUNA GLIDEWELL : Pas exactement. Mais les choses ont définitivement le potentiel d'aller beaucoup, beaucoup mieux.

MAHIR LEMOND : Et le meilleur moyen d'y parvenir est de créer des esclaves pensants et sensibles qui résoudront nos problèmes à notre place ?

YUNA GLIDEWELL : Excusez-moi ?

Avant d'aborder cette question, nous devons faire une courte pause publicitaire. Nous reviendrons bientôt pour conclure la discussion fascinante entre Mahir Lemond et Yuna Glidewell. Puis, nous nous plongerons dans la situation de Yela. La Sécurité de Crusader peut-elle vraiment maintenir l'ordre sur une lune où il n'y en a pas ? Ne vous éloignez pas.

PAUSE TRANSCRIPT

Notes et Références

Dernière mise à jour : 16/07/2023