Sven Giesselbach 21 septembre 2020
Sven Giesselbach

Apprendre des représentations de texte pour la compréhension du langage naturel

Sven Giesselbach, chef de l'équipe NLU au Fraunhofer IAIS, présente l'évolution des représentations de texte, des méthodes classiques aux modèles de langage transformateurs comme BERT et GPT-3.

Adam Gonczarek & Szymon Zaręba 17 septembre 2020
Adam Gonczarek & Szymon Zaręba

Techniques de NLP avec peu de données étiquetées

Adam Gonczarek et Szymon Zaręba d'Alphamoon présentent des stratégies avancées pour obtenir des résultats performants en traitement du langage naturel (NLP) malgré un manque de données étiquetées, couvrant l'apprentissage semi-supervisé, le few-shot learning et les transformeurs hiérarchiques.

Yann LeCun 10 juin 2020
Yann LeCun

L'apprentissage auto-supervisé et l'avenir de l'IA

Yann LeCun explore les limites de l'apprentissage supervisé et par renforcement, remet en question le concept d'intelligence générale artificielle et présente l'apprentissage auto-supervisé ainsi que les modèles basés sur l'énergie comme clés de l'intelligence future.

Elon Musk 7 mai 2020
Elon Musk

Elon Musk sur The Joe Rogan Experience #1470

Elon Musk discute de la naissance de son fils X Æ A-12, de sa décision de vendre ses biens matériels, des progrès de Neuralink et de sa vision de la pandémie de COVID-19.

Eric Schmidt 6 mai 2020
Eric Schmidt

L'impact et l'avenir de l'intelligence artificielle

Eric Schmidt, ancien PDG de Google, discute de l'impact de l'IA sur l'emploi, de la rivalité technologique entre les États-Unis et la Chine, et de la compréhension de ces enjeux par le gouvernement.

Previous Page 114 of 130 Next