Les LLM (Large Language Models) sont partout ! De ChatGPT à Gemini, en passant par Claude et Mistral, ces modèles de langage révolutionnent la manière dont nous interagissons avec la technologie. Mais au fond, comment fonctionnent-ils vraiment ? Comprennent-ils ce qu’ils disent ou ne sont-ils que d’excellents perroquets numériques ?
Dans cet épisode, nous vous plongeons dans l’univers des modèles d’IA générative, en explorant leur mécanisme de prédiction, leurs forces, mais aussi leurs failles (hallucinations, biais, confidentialité…). Car si ces intelligences artificielles sont impressionnantes, elles sont encore loin d’être infaillibles !
🔹 Pourquoi nos IA sont (un peu) nulles ?
- Elles hallucinent (non, elles ne sont pas sous substances, mais elles inventent des trucs).
- Elles sont biaisées (selon leurs données d’entraînement).
- Elles ne comprennent rien (juste des maths et des probabilités).
Alors, faut-il s’inquiéter ou juste apprendre à mieux les utiliser ? On en parle, avec curiosité et humour, autour d’un café… ou d’une bonne dose de perplexité !
le Podcast 👇🏻
Retrouver l’ensemble des podcasts d’Octopod’ (la chaine podcast de Poulpemedia) : C’est ici !




