Philosopher l’IA : Créativité, étique et société - Discussion avec Flavien Chervet

3 décembre 2024

Dans ce podcast, nous recevons Flavien Chervet, expert pluridisciplinaire et auteur, ont discuté de la place de l’IA dans la société, son potentiel créatif et les implications éthiques qu’elle soulève.

Dans un contexte où l’IA est omniprésente, le podcast "IA pas que la data" reçoit Flavien Chervet, auteur de Hypercréation, pour un échange pointu sur les impacts technologiques, philosophiques et sociétaux de l’intelligence artificielle. Destiné aux experts en data, cet épisode aborde la créativité algorithmique, les défis de l’alignement et l’évolution de la société face à l’IA autonome.

Un parcours à la croisée de la technologie et de la philosophie

Flavien Chervet , à la fois philosophe et innovateur technologique, se démarque par son approche transdisciplinaire. Son expertise repose sur un solide bagage technique, ayant codé dès l’adolescence, et une capacité à intégrer des dimensions philosophiques complexes dans le développement de projets IA. Co-fondateur de Lyon-Isaï et auteur de plusieurs ouvrages (Hypercréation, Hyperprompt), il explore les zones frontières entre intelligence artificielle, créativité et société.

Créativité algorithmique : déconstruction et typologie

Contrairement aux idées reçues, Flavien défend que l’IA peut être véritablement créative. Il établit une typologie en trois catégories :

  • IA Cyborg (Type 1) : Les modèles génératifs comme MidJourney ou ChatGPT, considérés comme des augmentateurs de créativité. Ils fonctionnent via l’interpolation des données humaines et stimulent une co-création avec l’utilisateur, enrichissant les processus artistiques ou marketing en temps réel.
  • IA Exploratrice (Type 2) : Grâce à l’apprentissage par renforcement (exemple : AlphaGo), ces systèmes dépassent les cadres humains pour innover de manière autonome. AlphaTensor, développé par DeepMind, illustre ce potentiel avec la découverte d’algorithmes de multiplication matricielle optimisés, repoussant les limites mathématiques connues.
  • IA Développementale (Type 3) : Liée à la robotique, cette catégorie repose sur une exploration autonome et adaptative du monde réel. Inspirée de la cognition humaine, elle permet à chaque IA d’évoluer différemment en fonction de son environnement et ouvre la voie à des AGI (Intelligences Artificielles Générales) incarnées.

Alignement des IA : un défi technique et étique

La sécurisation des modèles de type LLM (Large Language Models) et LAM (Large Action Models) est centrale dans cette révolution. Flavien insiste sur l’urgence d’un travail intensif autour des scaling laws et des techniques de scaffolding pour maintenir le contrôle des agents autonomes. L'alignement consiste à s'assurer que l’IA respecte les valeurs éthiques, même en situations imprévues. Il mentionne le défi d’empêcher des dérives comme l’optimisation de moyens destructeurs pour atteindre des objectifs simples (le fameux « paperclip maximizer »).

Le futur du travail et de la société : redéfinir les fondamentaux

Face à l’automatisation rapide, notamment des métiers industriels et cognitifs, Flavien anticipe une redéfinition du concept même de travail. Si les cols bleus sont les premiers impactés par la robotisation, les cols blancs pourraient être augmentés par des agents autonomes. Toutefois, la question fondamentale demeure : que signifie être humain dans un monde où l’IA pourrait dépasser les capacités humaines ?

En conclusion : une réflexion stratégique pour les experts

Ce podcast est un appel à l’action pour les spécialistes du secteur. Développer des IA performantes tout en intégrant des protocoles de sécurité et d’alignement robustes est impératif. La recherche et la régulation doivent avancer de concert pour éviter une crise sociétale profonde et ouvrir la voie à une ère où la technologie renforce notre humanité plutôt qu’elle ne l’aliène.

Si vous voulez decouvrir d'autres épisodes de notre podcast IA pas que la data .