I.A. - Formations, débouchés, projets concrets et évolutions en 2024

  Рет қаралды 7,543

codeconcept

codeconcept

2 ай бұрын

Alexandre Quemy, docteur en Machine Learning, détaille les travaux et défis des chercheurs / ingénieurs en Machine Learning en 2024.
💪 Soutenir la chaine via tipeee :
fr.tipeee.com/codeconcept
🚀 Plus de 40 formations pour 25 €/mois SANS engagement de durée 🚀
codeconcept.teachable.com/
Liens cités dans la vidéo :
Alexandre Quemy
/ aquemy
Contrôler la propagation des erreurs de calculs numériques
www.aquemy.info/2016-05-23-co...
Microsoft AutoGen
www.microsoft.com/en-us/resea...
L’IA qui hallucine de la jurisprudence
theconversation.com/ai-is-cre...
AI getting dumber?
community.openai.com/t/is-the...
Multimodal generative AI
ai.meta.com/tools/system-card...

Пікірлер: 43
@djcaesar9114
@djcaesar9114 2 ай бұрын
C'est quelqu'un de très bien, cet homme.
@maloukemallouke9735
@maloukemallouke9735 2 ай бұрын
Merci pour la vidéo, Merci Alexandre
@phennryr1216
@phennryr1216 2 ай бұрын
Super interview un très grand merci pour cette vidéo!!
@codeconcept
@codeconcept 2 ай бұрын
Merci ! C'était un plaisir d'avoir un témoignage de première main.
@fatimata_pro
@fatimata_pro 2 ай бұрын
Merci pour cet entretien, j'ai appris plein de choses 🙏
@codeconcept
@codeconcept 2 ай бұрын
Merci 😀
@atha5469
@atha5469 2 ай бұрын
Merci belle interview !
@antonzizic3483
@antonzizic3483 2 ай бұрын
chouette video !! merci beaucoup :)
@manuelminana4826
@manuelminana4826 2 ай бұрын
La meilleur vidéo de la chaine selon moi
@codeconcept
@codeconcept 2 ай бұрын
Bon et bah, ça met la pression pour les prochaines vidéos 😄
Ай бұрын
Je découvre la chaîne ! merci pour ces contenus.
@codeconcept
@codeconcept Ай бұрын
Merci et bienvenue 😀
@didier..n..1567
@didier..n..1567 2 ай бұрын
Bonjour Samir Super intéressant Alexandre sur la vision qu'il à avec l' I.A , une vision équilibrée, et pas bullshit .. PS : Et comme la si bien dit , Alexandre que je dit depuis un bail la "FORMATION' mais c'est 💲💲💵💵. Le Nerf de la guerre..
@codeconcept
@codeconcept 2 ай бұрын
Bonjour Didier 😀 et oui, le point de vue de quelqu'un du métier est tout de suite plus nuancé et riche. Mais ça fait moins le buzz qu'une vision idéalisée 👼, ou à l'opposé, cauchemardesque 👹
@capeitalist6963
@capeitalist6963 2 ай бұрын
Pour le coût des cartes graphiques, il existe la rtx 3090 qui possède également 24GO de VRAM et qui peut se trouver d'occasion pour 700euros. C'est un budget, mais un budget nettement moins élevé que les 4000 euros annoncés (la 4090 ne coute d'ailleurs pas 4000 euros, mais plutôt 1800).
@alexandrequemy
@alexandrequemy 2 ай бұрын
Effectivement! J'avais en tete la RTX 5000 ADA 32GB, laquelle j'avais compare a la RTX 4090 24GB pour le choix de ma station de travail. :-)
@naturo_yatangaki
@naturo_yatangaki 2 ай бұрын
La barre à l'entrée va augmenter mais ça c'était le cas avant les IA. Tant que quelqu'un (ou quelque chose) fait mieux avec autant voire moins de moyens, les autres resteront sur la paille.
@codeconcept
@codeconcept 2 ай бұрын
Est-ce que ça sera tenable sur la durée ? Car même pour ceux qui passeront la barre d'entrée, si tous les postes deviennent exclusivement et tout le temps consacrés à des problèmes ardus, ça peut finir par causer pas mal de burnout. Il n'est probablement pas possible d'être toujours à fond. Dans tous les métiers, il y a des tâches de difficulté et d'intensité variables. Si aux humains ne restent plus que les tâches difficiles, il va falloir doper les survivants 😄💉
@Pubelle
@Pubelle 2 ай бұрын
Llama 3 est incroyablement performant malgré ses 7 milliards de paramètres, surpassant GPT-3.5 dans certains domaines. Vers la fin de la vidéo, vous évoquez la possibilité d'avoir des modèles en local. Je me demande si cela serait réalisable avec un Raspberry Pi 5 et le Coral de Google pour gérer de petits LLM localement ? En tout cas je trouve très positif et prometteur que certaines entreprises commencent à proposer des modèles plus compacts, typiquement de 1B, 3.5B, etc. C'est très encourageant pour le futur de l'ia !
@PS3EXTRA
@PS3EXTRA 2 ай бұрын
Via Ollama un model 7B (Mistral, llama2, Straling) tourne correctement (me semble t'il) avec un i7 32GB RTX 3070. Ca tourne aussi sur un i5 16GB GTX 1060, mais c'est moins fluide. J'ai pu tester sur un Xeon 12 core 256 GB sans GPU c'est plus long mais ça passe aussi
@Pubelle
@Pubelle 2 ай бұрын
@@PS3EXTRA Donc sur un rasberry Pi 5 + Coral c'est pas envisageable ?
@alexandrequemy
@alexandrequemy 2 ай бұрын
Ce que j'entends par petits modeles ce sont surtout des modeles specialises pour des taches particulieres (e.g. Gemma pour de la generation de code). Evidemment, ils vont avoir assez peu de parametres - mais un modele avec peu de parametres n'est pas forcement un petit modeles (e.g. Llama 3 en versions 7B). Ensuite, il faut regarder ce que l'on veut faire avec le modele: - de l'inference? quelle latence est acceptable? combien de tokens par minutes en inference? combien de pipeline d'inferrence en paralelle. - de l'entrainement? du fine tuning? du continuous learning? etc. En fonction de tous les besoins, il va falloir une infrastructure differente avec des contraintes de VRAM differente. Pour un usage personnel (e.g. assistant domotique), il est certain qu'un LLama 3 7B-it quantise en 4bits pourra probablement tenir sur 8G de VRAM et avoir une latence et throughput acceptable. Pour prototyper des choses qui sortent un peu de cela, ou meme s'entrainer sur des use-cases un peu plus complexes, ca va commencer a devenir complique. J'ai essaye de faire tourner Gemma 7B-it ce week-end sur un GPU a 8GB de VRAM et meme avec un bon CPU offloading, j'ai pas reussi a obtenir des reponses avec des prompts courts sous les 20 secondes. En milieu pro, il me fait des reponses // sous la seconde avec des contextes > 1000 tokens. On en est encore loin localement avec du materiel grand public malheureusement. Mais effectivement, des modeles 1B ou meme des modeles 1 bits avec plus de parameters, specialises dans des taches particulieres et que l'on agence via un framework multi-agent - je pense que c'est non seulement le future en ce qui concerne la mise en production de IA pour des cas concrets, mais aussi une porte d'entree a moindre cout pour le grand public.
@PS3EXTRA
@PS3EXTRA 2 ай бұрын
@@Pubelle A ma grande surprise ça semble possible d'après des vidéos sur KZfaq
@radioduthe
@radioduthe 2 ай бұрын
Très intéressant, proche de ce que je pense. Notamment sur le fait que les IA se chargent de gérer les taches simples et nous laissent les taches plus "complexes"... Par contre, sur le fait que les LLM régresseraient et que tout le monde l’a constaté. Je n’ai vraiment pas ce sentiment...
@codeconcept
@codeconcept 2 ай бұрын
@radioduthe Pas tout le monde en fait, mais j'ai vu quelques commentaires sur la chaîne de devs qui avaient pourtant des versions payantes de ChatGPT ou Copilot. Suite à ça, j'ai cherché sur internet pour voir si c'était le cas pour d'autres utilisateurs de longues date et malheureusement, c'était le cas. Affaire à suivre 😀
@Decentraliseur
@Decentraliseur 2 ай бұрын
J'utilise ChatGPT Plus massivement depuis novembre 2022, et je confirme que les performances de GPT 4 ont drastiquement diminué durant 2023. Par contre depuis la dernière maj de mi avril, les performances ont augmenté a nouveau. Difficile de dire si elles sont au meme niveau qu'auparavant
@PS3EXTRA
@PS3EXTRA 2 ай бұрын
De ma petite expérience j'ai développé grâce des llm locaux un portail frontend perso fullstack hébergé dans mon salon , là ça va encore je comprends à peu prêt ce que j'ai fait grâce à l'IA, donc j'arrive à faire évoluer au fil de mes besoin mon portail codé en HTML CSS JS et je pense en maitriser les bases. Par contre bien que j’ai réussi à faire une application en python qui me rend bien service, aujourd'hui je voudrais la faire évoluer mais j'en suis incapable car dans les faits, je ne sais pas coder en python et il semble que la base de cette application ne le permette pas, ou du moins les llm n'y arrive plus. Tout ça pour dire que l’IA c’est fabuleux mais ça ne fait pas tout et sans quelques bases, ça devient très vite limitant. Arriver à faire quelque chose qui m’était jusque-là impossible, c’est génial au premier abord, mais se retrouver otage de l’IA pour avancer c’est super frustrant. Mais quand on ne part de rien, c’est déjà bien. Merci pour toutes ces explications, la vidéo est très intéressante et accessible
@Venden_IX
@Venden_IX 2 ай бұрын
Oui et ça fait des codes pas sécurisés/opti, faut avoir un certain recul pour juger si un code généré par une IA est bon
@TheRemiRODRIGUES
@TheRemiRODRIGUES 2 ай бұрын
Oui mais les LLM peuvent expliquer le code. Je me dit même que ça peut être une bonne façon d'apprendre. On lui demande de nous expliquer les concepts utilisés, de nous les expliquer et de nous donner des exercices pour qu'on puisse s'exercer à les mettre en œuvre.
@codeconcept
@codeconcept 2 ай бұрын
@@Venden_IX Niveau (absence d') optimisation, c'est typiquement ce qui est arrivé à un pote récemment : en regardant du code généré par Copilot par un de ses collègues , il a constaté que le code généré lisait d'énormes fichiers au lieu de les streamer. Donc relire attentivement le code généré reste important. Comme c'est le cas pour du code récupéré depuis StackOverflow en fait : on ne peut pas faire l'économie de comprendre ce qu'on copie, peu importe d'où vient le code récupéré 😀
@codeconcept
@codeconcept 2 ай бұрын
@@TheRemiRODRIGUES Ca fait partie du morceau d'interview que j'avais hélas coupé, pour ne pas avoir avec une vidéo trop longue. Dans un framework Multi-Agent, un agent peut critiquer le code généré par un autre agent et donc probablement l'expliquer. Ca pourrait même devenir un jeu de boisson : chaque fois que le terme Multi-Agent apparait en 2024 dans une vidéo d'IA, il faut boire un coup. Il y a un risque certain à ne plus finir une vidéo en marchant droit 🥃😄
@codeconcept
@codeconcept 2 ай бұрын
@PS3EXTRA Tu es en train d'expérimenter le fait que maintenir une application prend plus de temps et d'effort (et coûte même plus cher) que de la créer. Je te rassure, c'est le cas pour tout le monde, avec ou sans recours à l'IA 😀 C'est pour ça que c'est important de créer des fonctions avec des noms clairs, faire en sorte que chaque fonction fasse idéalement une seule chose, réussir à combiner facilement des fonctions. Sans oublier, ne pas over-ingénieurer (plus facile à dire qu'à faire). En tous cas, rien de tel que d'apprendre à créant des projets concrets 👍 Après, il faut alterner les phases théoriques (lecture de doc officielle, tuto) et mis en pratique.
@battlefield5
@battlefield5 2 ай бұрын
Attention on entend un peu echo ton interlocuteur, je pense que tu l'enregistre a la fois directement et indirectement via ton micro
@codeconcept
@codeconcept 2 ай бұрын
@battlefield5 Ca n'est que ma deuxième interview, donc j'ai encore des bonnes pratiques à découvrir 😉
@battlefield5
@battlefield5 2 ай бұрын
@@codeconcept c'est pas un reproche, juste une remarque :)
@codeconcept
@codeconcept 2 ай бұрын
@battlefield5 Pas de problème, je ne l'avais pas mal pris😀 Heureusement que ça n'est pas pas parti en larsen. Même si je suis un fan d'Hendrix, je préfère éviter le phénomène dans le cadre d'une interview.
@science.20246
@science.20246 2 ай бұрын
essayez de supprimer l'écho, et reposter la vidéo, elle très intéressante
@codeconcept
@codeconcept 2 ай бұрын
Merci ! Sur la prochaine, j'enregistrerai localement chaque source sonore que je réunirai en post prod. Là, c'est trop tard. Ceci dit, l'écho donne un effet "vaste" qui ne nuit pas à la compréhension.
@patisserietixier9989
@patisserietixier9989 Ай бұрын
j'avais 16 ans on me disait, l informatique n'a aucun avenir, aucun débouché, vous adorez ca mais il ne faut pas confondre passion et métier, donc j ai abandonné. C'étais en 1990 ... pas de bol
@johangodfroid4978
@johangodfroid4978 2 ай бұрын
dans 3 ans il y aura des AGI, la concurrence risque d'être rude , très rude
@codeconcept
@codeconcept 2 ай бұрын
C'est toujours délicat de donner une date (ne serait-ce qu'une année) précise, car entre le marketing qui exagère les possibilités de certaines IA et les limitations physiques (nombre de GPU disponibles, data center à construire etc), les investisseurs - par nature impatients- vont peut-être retirer une partie de leurs billes pour sauter sur une nouvelle hype en 2025 ou 2026, si bien que les progrès ne seront pas continu. Ensuite, même si l'AGI est effective dans deux cinq ou dix ans, la destruction de millions d'emplois dans chaque pays rendra nécessaire une réorganisation : soit revenu universel, soit économie alternative des gens éjectés qui ne se résigneront pas à être catalogués "inutiles" par les RH accro aux IA, soit un mélange des deux. C'est une période d'incertitude, voire d'angoisse, mais peut-être aussi de changement de perspective imprévisibles pas nécessairement négatifs.
@ouck02
@ouck02 2 ай бұрын
Pour moi l'IA désigne les personnes qui croient que des programmes sont ou peuvent être intelligents. Ces gens ont une intelligence artificielle
@webjumper5625
@webjumper5625 15 күн бұрын
En tout cas en expression simple libre, vous avez du mal les mecs 😅
Le père fondateur du Deep Learning - Yann Le Cun
1:51:33
Matthieu Stefani
Рет қаралды 130 М.
Choisir un métier qui ne sera pas remplacé par l'I.A.
10:15
codeconcept
Рет қаралды 53 М.
Looks realistic #tiktok
00:22
Анастасия Тарасова
Рет қаралды 105 МЛН
Despicable Me Fart Blaster
00:51
_vector_
Рет қаралды 25 МЛН
Nvidia vient juste de révolutionner l'I.A ?
26:02
cocadmin
Рет қаралды 101 М.
Créez n’importe quel site (ou jeu !) en quelques secondes
11:38
4 logiciels qui devraient être payants (tellement ils sont ouf)
25:53
Ce qui se cache derrière le fonctionnement de ChatGPT
27:23
ScienceEtonnante
Рет қаралды 1,2 МЛН
J'ai enfin découvert le prompt ultime pour ChatGPT !
16:57
Elliott Pierret
Рет қаралды 33 М.
Ноутбук за 20\40\60 тысяч рублей
42:36
Ремонтяш
Рет қаралды 68 М.
Samsung laughing on iPhone #techbyakram
0:12
Tech by Akram
Рет қаралды 2,6 МЛН
تجربة أغرب توصيلة شحن ضد القطع تماما
0:56
صدام العزي
Рет қаралды 59 МЛН
НЕ БЕРУ APPLE VISION PRO!
0:37
ТЕСЛЕР
Рет қаралды 198 М.