Рет қаралды 18,704
L'AI è ovunque e sarà sempre più rilevante negli anni a venire. Scopo di questa serie è quello di spiegarvi cosa c'è dietro a una rete neurale, perché fanno quello che fanno. Ripercorriamo con completezza la storia delle reti neurali dagli anni 50 fino alla odierna GPT, concentrandoci sulle reti che trattano il linguaggio.
La terza parte, in arrivo fra un paio di settimane, sarà specifica su GPT e chatGPT sarà quella che definitivamente risponderà a tutti i vostri dubbi e perplessità.
00:00:00 - Intro
00:00:11 - Recap della parte I
00:06:40 - Problematiche relative agli embeddings
00:11:57 - RNN
00:24:13 - Accenno alle LSTM
00:26:00 - Sequence 2 Sequence
00:34:30 - Attention in seq2seq
00:47:28 - Transformers
00:57:00 - Finalmente GPT
01:06:30 - Training di GPT
Boolean Data Week: una settimana di lezioni gratuite per scoprire le basi della data analytics.
Partecipa dal 3 aprile: advl.ink/boolean2304/enkk
Questi contenuti sono prodotti in live, quindi se ti piace Enkk, adorerai Enkk in Live su twitch.tv/enkk ogni sabato e domenica dalle 17 alle 4
LINK UTILI:
Enkk in Live: / enkk
Reddit: / enkk
Enkk IG: / enkkgram
Il mio shop Amazon: www.amazon.it/shop/enkk
Edit by Coste - / costelombo