Ça fait des mois qu’on parle des dangers de GPT à toutes les sauces. Dans ce chaos informationnel, il est difficile de faire la part des choses. Ces IA génératives de texte, n’est-ce que de la hype ? Un extraordinaire moyen de s’économiser la rédaction de mails que personne ne lit de toute manière ? Ou bien y a t-il un véritable sujet ? Un sujet de plus qui nécessiterait vraiment notre attention déjà fracturée en des milliards d’enjeux sociétaux tous plus urgents les uns que les autres ? Dans ce second épisode, on va essayer de prendre un peu de recul et de comprendre comment l’humanité s’apprête à se lancer dans un colimaçon de 8 étages alors qu’elle ne sait toujours pas marcher.
Dans l’épisode précédent, on s’était intéressés à tous les effets indirects qu’une technologie peut avoir, notamment quand elle touche à ce qui a rendu l’espèce humaine aussi “puissante” : la communication et l’apprentissage social. Dans celui-ci on s’intéresse aux effets indirects potentiels de GPT et de tous ses cousins de la grande famille des LLMs !
📝 Google Doc sources détaillées : https://docs.google.com/document/d/17PtcJ9DGNTGxeQbZVWjKdPtBQYfiE60i0s5Qs7XnVfE/edit
QUELQUES SOURCES :
[1] Quelques très bonnes vidéos sur le fonctionnement des LLMs et de GPT :
- “Ce qui se cache derrière le fonctionnement de ChatGPT“ de la chaîne Science étonnante
- “De quoi ChatGPT est-il VRAIMENT capable ? | Ft. Science4All“ de la chaîne de Mr Phi
- “GPT-4 est-il incontrôlable ?” toujours de la chaîne de Mr Phi, une vidéo sur une explication en profondeur du concept de “pre-prompt” / “prompt cadre” et de son utilisation pour “cadrer” éthiquement les chatbots
[2] Papier de recherche “HuggingGPT: Solving AI Tasks with ChatGPT and its Friends in Hugging Face” : https://arxiv.org/pdf/2303.17580.pdf
[3] Vidéo de la session Q&A où Feynman expose sa vision de l’intelligence chez les machines en 1985 : Richard Feynman: Can Machines Think?
[4] Yann Lecun et son ami Andrew Ng tricote une énième version du modèle naïf de la technologie dans cet entretien “Why the 6-month AI Pause is a Bad Idea“
[5] Tristan Harris et Aza Raskin prennent du recul sur ce qui est en train de se passer dans le champ de l’IA en ce moment “The A.I. Dilemma – March 9, 2023”
[6] Article conjointement écrit par Éric Schmidt (ancien CEO de Google) et Jonathan Haidt dans the Atlantic “AI is about to make social media (much) more toxic”
[7] Articles sur ce fait divers tragique du suicide encouragé par chatBot : https://www.euronews.com/next/2023/03…
[8] Randima Fernando du center for humane technology dans une visio très complète de début mai 2023 “Navigating AI & Runaway Technology“ : https://vimeo.com/823877494 (passage utilisé : 24:24 à 24:35)
[9] “The intelligence explosion: Nick Bostrom on the future of AI”
[10] “La singularité | Intelligence artificielle 24” de la chaîne Science4All
[11] C’est de la série sur l’intelligence artificielle du blog Waitbutwhy qu’on a tiré la métaphore de l’escalier : https://waitbutwhy.com/2015/01/artifi…
[12] Vidéo de l’excellente chaîne “Robert Miles AI Safety“, “Why would AI want bad things? Instrumental convergence“
[13] Vidéo Robert Miles “Why ASimov’s Laws don’t work”
[14] “What if the world turned into gold ?” de Kurzgesagt