Aller au contenu principal

Bricodonnées : Dans les profondeurs du « Deep » : comment fonctionne l'IA générative ?

Activités collectives / TechPaf

Le 17 avril 2025

Saint-Martin-d'Hères - Domaine universitaire

Olivier Kraif

Pour éviter de tomber dans l'illusion (ô combien tentante !) de la personnification des IA avec lesquelles nous sommes de plus en plus nombreux à dialoguer, il est important de revenir aux fondamentaux : qu'est-ce qui se cache sous les profondeurs du Deep Learning ? Nous verrons qu'il s'agit d'architectures finalement très simples, qui ne font rien d'autre que multiplier des matrices de nombres pour produire des outputs. S'il y a "magie", elle se cache plutôt du côté des données, c'est-à-dire des gigacorpus de textes qui les ont alimentées… Concernant les retombées concrètes de ces modèles pour la recherche en linguistique, nous verrons en quoi ils peuvent nous permettre de devenir des "chercheur.ses augmenté.es", selon l'expression d'Etienne Ollion, en ce qu'ils nous permettent de dépasser certaines limites dans le traitement des grands volumes de données.

Date

Le 17 avril 2025
Complément date

14h à 16h

Localisation

Saint-Martin-d'Hères - Domaine universitaire

Complément lieu

Publié le 21 mars 2025

Mis à jour le 21 mars 2025