No video

DESTRUÍ A Las SECRETARIAS Con Inteligencia Artificial | RAG Con Llama 3/Phi 3

  Рет қаралды 48,795

Facundo Corengia

Facundo Corengia

Күн бұрын

✅ Como EMPEZAR tu NEGOCIO de IA En 2024: • Como EMPEZAR Tu NEGOCI...
Link al repositorio: github.com/fco...
En este vídeo vamos a hablar sobre el Como DESTRUÍ A Las SECRETARIAS Con Inteligencia Artificial, utilizando una herramienta de Inteligencia Artificial llamada RAG (o Retrieval Augmented Generation) que permite que puedas chatear con tus documentos de la forma más fácil posible. Es tu propia secretaria en tu propia pc que funciona de forma gratuita y con cualquier modelo LLM Open Source.
Video sobre las prompt de Liam Ottley: • why you suck at prompt...
🚀 Agenda una Consultoría GRATUITA para poder analizar tu negocio y conocer como potenciarlo con ayuda de la IA: calendly.com/b...
🤖✅ Videos que te pueden interesar:
✅ Como CREAR tu Agencia de Automatización de IA: • Guía COMPLETA para CRE...
🦾 Servicios Más EXITOSOS de una Agencia de automatización de IA: • 8 Servicios Mas Exitos...
📑 Como CREAR las Mejores PROMPTS para tu Agencia de Automatización de IA:
• El MEJOR PROMPT para t...
💻 Mejor PLATAFORMA Para CREAR Agentes de IA: • Esta NUEVA Plataforma ...
🤖 El CHATBOT Que Me Consiguió Una DEMO Con NIKE: • Este CHATBOT De IA Me ...
✅ Encontrame en:
Instagram: / facundocorengia
LinkedIn: / facundo-corengia
Basdonax AI Instagram: / basdonax.ai
Spotify: open.spotify.c...
Google Podcast: podcasts.googl...
Partes del vídeo:
00:00 Inicio
01:03 Explicación del funcionamiento
06:39 Instalación
18:02 Demo/Funcionamiento del RAG
25:10 Como ejecutar la plataforma con un click
27:24 Final/Resumen
Sobre mí 👇:
Hola, me llamo Facundo Corengia y soy desarrollador y empresario de Inteligencia Artificial (también trabajo en Data Science), soy fundador de mi propia agencia de automatizacion de IA. En este canal de KZfaq ayudo a otras personas dando a conocer este modelo de negocio, para que así puedan crear su propio negocio de IA en forma de Agencia de Automatización de IA y también tenemos vídeos de mindset y desarrollo personal para que todos puedan conseguir ser su mejor version.
Video de mi historia completa: • Como Pase de INUTIL a ...
Mi rutina: • La MEJOR RUTINA Para e...

Пікірлер: 397
@facundocorengia
@facundocorengia 3 ай бұрын
🚀 Agenda una Consultoría GRATUITA para poder analizar tu negocio y conocer como potenciarlo con ayuda de la IA: calendly.com/basdonaxai 🤖Link al repositorio: github.com/fcori47/basdonax-ai-rag Instagram: instagram.com/facundocorengia/ LinkedIn: www.linkedin.com/in/facundo-corengia/ ✅ Como CREAR tu Agencia de Automatización de IA: kzfaq.info/get/bejne/Z7mRp9Wmppm8kn0.html 🦾 Servicios Más EXITOSOS de una Agencia de automatización de IA: kzfaq.info/get/bejne/mMWabMealafcnmw.html&t 📑 Como CREAR las Mejores PROMPTS para tu Agencia de Automatización de IA: kzfaq.info/get/bejne/l9N4i8Z93buuZHk.html 💻 Mejor PLATAFORMA Para CREAR Agentes de IA: kzfaq.info/get/bejne/Z56hiLh_vbOvqmQ.html 🤖 El CHATBOT Que Me Consiguió Una DEMO Con NIKE: kzfaq.info/get/bejne/f95lqc9hyc20Z3U.html
@DemosCrackSIaHH
@DemosCrackSIaHH 3 ай бұрын
Facundo como estas? a mi me interesa empezar armar algo asi pero desconectado de la red, que pensas? hay charnce o si o si es necesario que sea con doker online?
@facundocorengia
@facundocorengia 3 ай бұрын
buenas! si usas docker de esta forma esta 100% en local osea no va ninguna info a internet
@facundocorengia
@facundocorengia 3 ай бұрын
ponele si desconectas el internet de tu pc teniendolo instalado y prendes el rag te va a andar
@CampoTraviesa2.0
@CampoTraviesa2.0 3 ай бұрын
La plaga actual...que forma de pensar tan extraña. Te sientes orgullo de destruir el trabajo de la gente amiguito?
@dd92954
@dd92954 3 ай бұрын
@@CampoTraviesa2.0 que destruir trabajo?, si con esto puedo trabajar más rápido, has intentado leerte un pdf para aprender a usar After effects o Clip Studio Paint.... (La cantidad de páginas que tieen) imagina poder transcribir directos con merlin, pasarlos a un word y meterlos en el asistente, tendrías la info que subió algún profesor a youtube, directamente en tu pc, para hacer consultas..... esta gente no valora los avances.
@manuellopez-hf1oc
@manuellopez-hf1oc 3 ай бұрын
La ia no puede acostarse con el jefe. Es una gran desventaja. 😂
@MrDamianesco
@MrDamianesco 3 ай бұрын
hey, por ahora
@santiago_mzt
@santiago_mzt 3 ай бұрын
JAJAJA
@alaincristhiamchambiturpo6562
@alaincristhiamchambiturpo6562 3 ай бұрын
Estaré esperando la versión 2. Que sea como un chat. 😊 Exelente video amigo.
@amomirestaurante4610
@amomirestaurante4610 3 ай бұрын
Excelente, la 2da parte para que lo conectemos y conteste a los clientes de whatsapp, así tendríamos una secretaria personal para nuestros clientes ❤❤
@JulioSE
@JulioSE 11 күн бұрын
Gracias por la información. Tu vídeo me ha servido de inspiración para hacer un índice de todos los documentos que me interesaban en un directorio determinado y un resumen del contenido de los mismos. Además he desarrollado una búsqueda para encontrar un tema seleccionado dentro de dichos documentos.
@allanpinkerton007
@allanpinkerton007 3 ай бұрын
Pero la secretaria hace cosas que la IA no...😌
@vanche2030
@vanche2030 3 ай бұрын
sieres nerd si la sustituyes... 😅
@alejandrogrr
@alejandrogrr 3 ай бұрын
literalmente no
@kiryhara
@kiryhara 3 ай бұрын
Ah no?
@cristianfranco5903
@cristianfranco5903 3 ай бұрын
Creo que lo están viendo desde el punto de vista "nerd" desde el otro punto de vista entenderías el comentario
@allanpinkerton007
@allanpinkerton007 3 ай бұрын
Es que si eres demasiado "nerd" no entiendes lo que es sarcasmo y se toman todo literal sin el dulce doble sentido...@@cristianfranco5903
@santievangelio4251
@santievangelio4251 2 ай бұрын
Muchas gracias Facundo, eres un crack y además muy generoso. Estaré muy atento a tus videos. Me ha ayudado mucho esta genial y muy clara explicación
@afanporsaber
@afanporsaber 3 ай бұрын
Si sustituimos a todos los funcionarios y gobernantes corruptos, nos ahorraríamos trillones de dólares y de tomas de decisión decididas por conveniencia de los corruptos y no de las Constituciones de cada nación.
3 ай бұрын
te cojen las empresas y lobbys bro
@edgardpc6378
@edgardpc6378 3 ай бұрын
Los gobernantes son corruptos pero la gente común es peor
@facu8933
@facu8933 3 ай бұрын
Eso ya lo hace china hace mas de una decada, pero seguro pensas que son socialistas y que trabajan en minas de carbon con niños jajajaa. Se te huele lo libertario a kilometros. Termina la secundaria pibe!
@gmazuel
@gmazuel 2 ай бұрын
Todos somos corruptos . El programador de la IA también se va corromper cuando tenga la necesidad y la oportunidad.
@teclag5483
@teclag5483 2 ай бұрын
porque las empresas y los lobbys y el narcotrafico no estan metidos en politica o sobornando politicos jajajaja
@davidhg834
@davidhg834 3 ай бұрын
Muchas gracias bro, estaba interesado en hacer algo asi con IA, pero no sabia por donde empezar, ya con esto puedo realizar un proyecto para mi area en la empresa.
@karlosvaliente
@karlosvaliente 3 ай бұрын
Buen proyecto! De cara a siguientes versiones sería interesante que se lean todos los ficheros que hay en una directorio. Periódicamente puede comprobar si hay nuevos ficheros o si se han modificado los que ya existían para seguir añadiendo el conocimiento propio. Además crear una pipeline que procese y entrene el modelo con la información de otras aplicaciones como Google docs, notion, Evernote... Parece que hay interfaces para cada una de setas aplicaciones en ollama Buen vídeo!!
@facundocorengia
@facundocorengia 3 ай бұрын
gracias! muy buena idea para la próxima versión!
@ivekmartinez
@ivekmartinez 3 ай бұрын
PUES pides un sistema completo, no hay LLM que cumpla esos requerimientos , lo que puedes hacer es crear un json con las url de tu directorio y ese se lo pasas a la api del llm que uses y asi recoja el conenido que uses, el lio es que llama3 tiene poco contexto entonces los pdf no deben ser muy extensos o bien ir cambiando de archivo, quizás en gemini api, podrias, con su millon de contexto, pero sería caro por el momento, y local pues con las url como lo menciono arriba.
@wilmarux
@wilmarux 3 ай бұрын
Excelente Facundo, te felicito Explicacion y ejemplo 10. Gracias por este aporte a la comunidad.
@fernandorodriguezsidro7216
@fernandorodriguezsidro7216 Ай бұрын
Enhorabuena por tu vídeo, quedó muy clara la explicación. Me gustó que dieras todo tipo de explicaciones y paso a paso para que no tengas que decir aquello de: "en local me funcionaba" o "pues a mi me iba". Sigue así :D
@bcippitelli
@bcippitelli 3 ай бұрын
Buenisimo Facundo, gracias por compartir, es algo muy bueno y útil. Voy a probarlo y te comento
@ianalexanderreyes5890
@ianalexanderreyes5890 3 ай бұрын
muchas gracias! aprecio mucho la gente que comparte sus conocimientos, me motivan a seguir siendo asi tambien, soy encargado de todo lo que es IA en la empresa en la que trabajo y seguramente implemente esto, saludos!
@facundocorengia
@facundocorengia 3 ай бұрын
excelente! me alegro que te haya ayudado!!
@alfierimorillo
@alfierimorillo 3 ай бұрын
Seria interesante que este modelo pudieras conversar con el, y mas aun usando phi-3
@ncpeaksean4278
@ncpeaksean4278 3 ай бұрын
Excelente Facu, subscribiendome y esperando más contenido como este...
@bryanvillalobos757
@bryanvillalobos757 3 күн бұрын
En contextos donde no tienes el control de docker puedes usar la api de ollama para bajarte los modelos
@AlexanderZakalov
@AlexanderZakalov 25 күн бұрын
me encanta la portada del video, lo interprete como un 'en tu cara, toma esto secretaria'
@espagnolpratique46
@espagnolpratique46 3 ай бұрын
Muchas gracias, está genial. Por favor crea la versión que mantenga un chat continuo.
@leandrorivera5044
@leandrorivera5044 3 ай бұрын
Excelente aporte, nuevo seguidor😊
@ivekmartinez
@ivekmartinez 3 ай бұрын
gracias por compartir el metodo, me va servir de mucho
@javaboy6581
@javaboy6581 3 ай бұрын
Muy buen contenido, ojala sigas compartiendo. Espero con ansias las novedades
@facundocorengia
@facundocorengia 3 ай бұрын
Gracias! sisis obvio no voy a parar, esto recien empieza 😎
@juanantoniomoraalonso2203
@juanantoniomoraalonso2203 3 ай бұрын
Buenísimo el proyecto....muchas gracias por compartir, sólo tuve que hacer alguna adaptación para utilizar los modelos que ya tenía en LMStudio en lugar de Ollama, y sustituir algun puerto que tenía ya ocupado.
@s4d1c0p4t0b
@s4d1c0p4t0b 3 күн бұрын
Muchas gracias por tu tutorial, muy util. es necesario usar all-MiniLM-L6-v2 ?? esto obliga a estar conectado a internet? tengo alguna opción de hacer local?
@khriza4991
@khriza4991 Ай бұрын
Excelente video 👌
@79_e665
@79_e665 3 ай бұрын
muchas gracias Facundo, te felicito!
@facundocorengia
@facundocorengia 3 ай бұрын
gracias! me alegro que te haya servido!!
@barrerawilson
@barrerawilson 3 ай бұрын
Facundo gracias por la info, personalmente algo que me limita mucho para usar la ia con clientes es el hecho de las alucinaciones que podrian generar en su momento info falsa y complicar la implementación exitosa. Aparte de tratar de hacer un buen prompt engineering (que no es tan efectivo) de que otra manera le darias manejo a este problema con la IA?
@facundocorengia
@facundocorengia 3 ай бұрын
Buenas! Lo que podes hacer en ese caso además del prompt engineering que como bien comentas no lo es todo es bajarle la temperatura a 0, cuando haces eso solo va a responder información 100% precisa, eso me sirvió bastante para cuando hice chatbots para ventas y estaban conectados una base de datos que tenían que obtener el precio y podían errarle con eso. Cambiandole la temperatura a 0 nunca tuve problema, pero si lo dejas por defecto que esta en 0.7 ahí si que es un problema en esos casos
@isaacvazquez7828
@isaacvazquez7828 Ай бұрын
me ha parecido muy interesante esto, no quiero ser como muchos usuarios y esperar la información digerida, por ello deseo conocer si es posible en donde debo buscar información para que al momento de incluir los archivos le haga saber que es un repositorio que ya existe, este repositorio esta organizado por subcarpetas y deseo agregarle la ruta.
@agustindesimonne
@agustindesimonne 3 ай бұрын
Jajaja volví al video para ver cómo iba y pegado. Muy bien facu
@pablog.6339
@pablog.6339 3 ай бұрын
Excelente. Estaría buenismo si lo continuas y lo conectas a contestar email y contestar mensajes
@leadnauta
@leadnauta 3 ай бұрын
Muchas gracias probaré con Langchain para agregarle memoria a los promts y sería interesante que pudieras elegir distintos modelos en la interfaz gráfica. De modo que usaría chatgpt4 para cosas complejas, phi2 para cosas básicas o resúmenes y llama3 para Python o código sin consumir la api de open ai. Muy buen video. Es un excelente punto de partida
@sebastian3122
@sebastian3122 2 ай бұрын
Muchas gracias!. Creo que le faltaría poder acceder a páginas concretas de internet, para poder disponer de información actualizada y sería perfecto.
@MiclovinMelapelan
@MiclovinMelapelan 3 ай бұрын
A qui estaremos al pendiente broo :)
@ai_ai4715
@ai_ai4715 2 ай бұрын
Muchas gracias, de nuevo, por lo simplificado de la instalación que propones para este RAG. Echo en falta algo que puede ser necesario en muchos casos de uso como los enlaces a los documentos originales que ha utilizado el Llm para mostrar la respuesta. He intentado realizarlo por mi cuenta pero se me hace muy difícil hacer el debug de cualquier nueva función o código. Esto es debido a que no he trabajado nunca con docker y las instrucciones para hacerlo con el IDE SPYDER no me quedan nada claras. Espero que en alguna nueva versión de RAG integres esta parte de metadatos para pasarlos también al Llm.
@facundocorengia
@facundocorengia 2 ай бұрын
gracias! me lo anoto para la proxima version!
@blwemar
@blwemar Ай бұрын
Excelente
@cursoderobotica
@cursoderobotica 3 ай бұрын
Buen video y buena explicación! Voy a probarlo y te daré un feedback. Gracias x compartir! Saludos
@hildarios175
@hildarios175 3 ай бұрын
hola facundo excelente eres un crack ,como quisiera que crearas un curso de automatizacion en udemy seras un grande yo harita ps estoy iniciandome en la programacion y ademas estudiando todo con repecto ala IA
@arrivas04
@arrivas04 3 ай бұрын
Muy buen video, te agradezco la data!! Me gustaría implementarlo voy a ver que sale... Llegado el momento te contactaré. Un abrazo desde Uruguay!
@danicalla
@danicalla Ай бұрын
Gran trabajo. Me sirvio para aprender. Aunque el modelo no funciona bien, ya que las respuestas las imprime en el command prmpt (debes tener un print) pero no las muestra en la interfaz web. Tampoco busca correctamente en los pdf. Detalles para la 2.0 😊
@HugoOrtega
@HugoOrtega 3 ай бұрын
Parcero excelente aporte. Te hablo desde Colombia. Espero con ansias la versión 2.0 para agregar archivos múltiples a la base de conocimiento
@facundocorengia
@facundocorengia 3 ай бұрын
Gracias! Igualmente podes agregar multiples archivos! pero no de una sola vez, sería uno por uno.
@ivanveratudela1193
@ivanveratudela1193 2 ай бұрын
Hola, felicitaciones por el desarrollo, esta espectacular, al respecto tengo una consulta, ¿la version con tarjeta grafica solo funciona con nvidia o tambien puede usarse si se tiene una radeon?, ¿y si tambien funciona con radeon, desde que serie hay que tener instalada en la pc, rx 5000, rx 6000, etc?
@facundocorengia
@facundocorengia 2 ай бұрын
gracias! la version del video que es con gpu solo funciona con nvidia (deberia haber una forma para que ande con radeon pero habria que cambiar el codigo), la version que usa solo cpu te tiene que andar si o si
@dd92954
@dd92954 3 ай бұрын
Muchas gracias amigo, queria montarme algo asi para tener un asistente especializado en un tema concreto. Vere hasta donde puedo sacarle partido. Note que a veces cuando le hacia preguntas, tomaba info de un archivo, pero la definición completa estaba en el otro. Le puse dos archivos, uno que habla sobre el proceso de genga y otro sobre douga, que son etapas en la animación japonesa. Pero cuando le pregunto que es Genga, me da una definición incompleta, porque va a mirar lo que se dice sobre el tema en el archivo de douga. Esto ocurre porque ambos archivos explican lo que es cada etapa por separado, pero hacen referencia la una a la otra, es decir, el el documento sobre genga se menciona un poco el douga y viceversa. Como cargue primero el documento sobre douga, al preguntarle que es genga solo me entrega la información del primer documento. Aunque si escribo el prompt de forma mas especifica, por ejemplo, en lugar de escribir "¿Que es genga?", escribo "Explicame que es genga o segunda animación clave" (que es otro concepto relacionado al genga), ahí si va al segundo documento a buscar la definición correcta.
@adonaicallejas6999
@adonaicallejas6999 3 ай бұрын
Buen aporte gracias!
@leonidas1983
@leonidas1983 2 ай бұрын
buen canal bro, bien ahi +1 sub
@creed4788
@creed4788 3 ай бұрын
Eres un grande bro mil años de vida para ti
@AnthonyPinero
@AnthonyPinero 3 ай бұрын
Saludos, buen video te felicito, consulta rapida: en el video dices que usas VectorDB pero en la implementacion usas ChromaDB cierto? o donde esta la implementacion de VectorDB? y porque muestras info sobre ChromaDB?
@facundocorengia
@facundocorengia 3 ай бұрын
gracias! claro la vectordb es chromadb, es como que vectordb sería el nombre de ese tipo de base de datos
@arz-ai
@arz-ai 3 ай бұрын
Muy buen aporte, lo siguiente como comentas es el tema de memoria, tanto memoria a corto plazo (los n mensajes anteriores), memoria a largo plazo (n mensajes relacionados a lo que preguntas similar al retrieval del pdf) y alguna memoria volátil (en redis o alguna KV db para aspectos puntuales como nombres citas o pasajes importantes)
@facundocorengia
@facundocorengia 3 ай бұрын
Gracias! sisi, eso lo voy a implementar 100% para la próxima versión, ahora como estaba probando tipo mvp quería ver si valía la pena pero definitivamente si, que recuerde los últimos 5/10 mensajes
@arz-ai
@arz-ai 3 ай бұрын
@@facundocorengia perfecto en mi trabajo diseño e integro rag para multiples propósitos, en algunas situaciones no requieres memoria, en otras con dos mensajes es suficiente y en otras se necesita de una extensa memoria. Browsing 1 o dos mensajes y no requiere a largo plazo Pdf, depende el uso en tu ejemplo con uno o dos va bien, pero si el usuario busca entender el pdf si es importante al menos unos 8 mensajes continuos y dos a largo plazo, Como asistente, si es para consultas puntuales memoria a corto plazo de 2 a 4 memoria a largo de al menos dos o tres mensajes. Para crear un javis es muy importante tener al menos unos 10 a corto plazo y unos 4 a largo plazo y sobre todo una memoria volátil que funcione como agenda para que recuerde por ejemplo como te debería llamar una personalidad dinámica etc.
@juancazares-du4vs
@juancazares-du4vs 3 ай бұрын
Buenazo bro... vamos por mas ...
@ramspartan117
@ramspartan117 3 ай бұрын
Podrías usarlo para hacer consultas medicas y salvar a millones chaval, muchas gracias por tu ayuda, ojala alguien vea el potencial.
@Carlos-pg9ip
@Carlos-pg9ip 3 ай бұрын
jajajajajajajajaja cuanta inocencia
@ramspartan117
@ramspartan117 3 ай бұрын
@@Carlos-pg9ip Gracias
@diegolermalimon
@diegolermalimon 3 ай бұрын
Soy médico y ya te digo yo que no es tan fácil, no es seguro y no es legal hacer eso. Pero ojalá en algún momento podamos extender el acceso a la salud con tecnología segura para la gente
@a5ad0r
@a5ad0r 3 ай бұрын
Eso ya lo hizo IBM hace @8 años
@Termonia
@Termonia 3 ай бұрын
jaja khé? no alcanza la capacidad, hay límites de tokens por hardware y por el diseño de las IAs todavía. Ni siquiera hay modelos buenos con visión. Los VLM todavía están más verdes que los LLM.
@airdany
@airdany 3 ай бұрын
Esta chulisimo! para mi esto es el futuro. La solución a que la población pueda acceder al big data en el que esta inmerso y darle utilidad. Me da un poco de rabia no poder probarlo ya que tengo un macmini con una tarjeta gráfica pequeña... (ya he probado Ollama con modelos pequeños y le cuesta mucho)... pero a cada mes salen cosas nuevas y en el futuro será un gusto trabajar con datos.
@facundocorengia
@facundocorengia 3 ай бұрын
totalmente, ahora con modelos como gemini con 1millon de tokens de contexto se pone mejor la cosa, podes hacer que te responda muchisimo mas, esto cada vez pinta mejor. te recomiendo si tenes conocimientos de programacion utilizar gpt-3.5-turbo o gpt-4-turbo si no te funciona rapido el ollama, sino seguramente para el video de la version 2 de este RAG muestre como hacerlo con gpt/llama/phi no solo llama y phi
@al_pacino38
@al_pacino38 3 ай бұрын
Excelente video, voy a probar momentáneamente phi 3 ya que le quité mi gráfica a mi ordenador porque me subió el precio de la luz en la casa y me quitaron el subsidio XD
@MarcosAntonioBustos
@MarcosAntonioBustos 2 ай бұрын
Yo podria dar soporte de sistema personalizado , el sistema te permite guardar y usar todo automaticamente y que usuario use su propia computadora sin resticcion , acceder a todo lugares navegados aun si los dispositivos sa tablet , compu o celular que anteriormente usuario alla entrado , el sistema automaticamente intersepta e identifica paginas de usuario en toda la web
@seniorotaku9145
@seniorotaku9145 3 ай бұрын
Estuve haciendo un proyecto parecido como hace 6 meses, pero con Langchai y el Token de API, bastante divertido la verdad
@sirlion996
@sirlion996 Ай бұрын
Gracias por este gran aporte ❤ Quisiera consultarte algo. Es posible aumentar la cantidad de Tokens? Vi que ya lograron una ventana de contexto de 1 millon de tokens en Llama 3.
@facundocorengia
@facundocorengia Ай бұрын
buenas! todo depende del modelo llm que uses, hay modelos en huggingface de llama3 con 1 millon de tokens, seria traerselos para así utilizarlo en el codigo que se tiene, eso seguramente lo veamos en la serie que estoy haciendo de como crear un rag, te recomiendo verla
@Igris-on3ps
@Igris-on3ps Ай бұрын
me encanta la miniatura es como: destruí los empleos de un grupo de personas, *procedo a sonríe de oreja a oreja* ajjasjass
@JohnHide
@JohnHide 3 ай бұрын
Estoy haciendo un RAG, sin docker, ni python. Todo en Golang, y bueno, pase a ver tu proyecto :) estan interesantes los RAG's jeje
@DanielGonzalez-le6ol
@DanielGonzalez-le6ol 3 ай бұрын
eres un crack , nuevo seguidor , sigue así chaval
@alexandrohdez3982
@alexandrohdez3982 3 ай бұрын
Excelente video, consulta 1. sin GPU que requerimiento de RAM se tiene, 2. Los archivos hay que subirlos en cada inicio del docker o quedan persistentes? Saludos y mil gracias 👏👏👏
@facundocorengia
@facundocorengia 3 ай бұрын
Gracias! con tener 16gb deberías estar bien, en el video uso 32gb y ahi si vas un poco sobrado asi que debería andarte también si tenes esa cantidad, aunque eso es en windows, en mac por lo que tengo entendido la ram necesaria es menor
@InspirIA-k5w
@InspirIA-k5w Ай бұрын
Hola facundo. gran video, ¿ que puede llegar a pasar si eligo usar el modelo de llama, y tengo una nvidia geforce mx 110 que tiene vram de 2gb? osea puede que al momento de responderme "la secretaria" lo haga muy lento, pero que mas puede llegar a suceder.....
@facundocorengia
@facundocorengia 23 күн бұрын
buenas, gracias! lo unico que te va a pasar es lo que decis, te va a tardar muchisimo, te recomiendo phi2/3
@oskartthit6821
@oskartthit6821 3 ай бұрын
excelente trabajo una pregunta esto servira para temas de gestion documental es decir hacer comparaciones de diferentes documentos y que la ia procese la informacion que muestre la coincidencia
@facundocorengia
@facundocorengia 3 ай бұрын
gracias! si se podría pero habría que hacer modificaciones tanto en la prompt como en el código, te recomiendo que pruebes modificando la prompt, mañana voy a subir un vídeo de prompt engineering avanzado que seguro te sirve para este caso!
@oskartthit6821
@oskartthit6821 3 ай бұрын
@@facundocorengia vale muchas gracias
@anilusluminati6883
@anilusluminati6883 3 ай бұрын
Genio, lástima que el 90 % de la gente no entiende más que dar play, uno más que te sigue
@ser12369
@ser12369 3 ай бұрын
Muchas gracias !!
@paologonzalez8674
@paologonzalez8674 Ай бұрын
Hago el paso a paso y no funciona (no me responde) le cargo los archivos y todo bien pero luego no responde :-(
@facundocorengia
@facundocorengia Ай бұрын
buenas! que te sale? si queres enviame por instagram lo que te paso: @facundocorengia
@jcrm5762
@jcrm5762 3 ай бұрын
Felicitaciones, buen aporte. Sin embargo, recomendar a la gente que si quieren hacer pruebas serias respecto a trabajar con IA en local, procuren contar con la PC, ram y gpu adecuadas, sino será una perdida de tiempo y terminaran en frustración. Por el contrario en todo caso si quieren resultados, objetivos pueden enlazar lo usando los modelos a través de gpt ya que el procesamiento sería en la nube y la respuesta la obtendría sin necesidad del procesamiento del modelo por su pc local. Claro que dependiendo el modelo con gpt turbo o 4 costará algo pero obtendrán resultados más serios y evitar la frustración en el intento de comprender y aprender de esta tecnología. 👍🏼
@SiruKai
@SiruKai 2 ай бұрын
Por probar lo instalé con una GTX 1650 de 4VRAM y funciona, tarda, pero no exageradamente.
@santievangelio4251
@santievangelio4251 Ай бұрын
Hola de nuevo. Cuando hago toda instalación no meda error al ejecutarla, pero despues de apagar el ordenador y encenderlo de nuevo, al ejecutar me vuelve a dar el mismo error: OllamaEndpointNotFoundError: Ollama call failed with status code 404. Maybe your model is not found and you should pull the model with `ollama pull llama3`.
@santievangelio4251
@santievangelio4251 Ай бұрын
No se porque pero despues de apagar el ordenador me veo obligado a ejecutar de nuevo:docker exec 2dd64ddfa2b9 ollama pull llama3. Alguna sugerencia?
@facundocorengia
@facundocorengia 23 күн бұрын
buenas, tiene que ser algo de tu docker desktop, la memoria esta como de forma temporal, rarisimo la verdad, contame si pudiste solucionarlo!
@a5ad0r
@a5ad0r 3 ай бұрын
Hola, muy buen y sintético video ! que base vectorial estas usando ?
@facundocorengia
@facundocorengia 3 ай бұрын
Gracias! uso ChromaDB
@fedemuzaber1108
@fedemuzaber1108 3 ай бұрын
Gracias por el video Facu! Te hago una consulta, correr esto en una Macbook Pro M1 decis que va?
@facundocorengia
@facundocorengia 3 ай бұрын
Buenas! No lo probé pero debería funcionar porque ollama (que es la herramienta que se usa para descargar los modelos) tiene soporte para mac, además el usar Docker debería permitir que funcione en todos los sistemas operativos. Te recomendaría que pruebes con Phi3!
@obeddolmos2533
@obeddolmos2533 2 ай бұрын
muchas gracias por el video lo e tratado de correr pero sin exito al querer usar la gpu a la hora de ejecutar docker-descktop up cuando carga la gpu sale no found no se como configurar la parte de linux o algun paso o alguna sugerencia
@facundocorengia
@facundocorengia 2 ай бұрын
buenas! hablame por instagram @facundocorengia, el comando es docker-compose up , fijate eso
@postmodern.cyberpunk
@postmodern.cyberpunk 3 ай бұрын
Hola Facundo! Gracias por tus videos. Me subscribi porque encuentro interesante los temas que publicas. Soy de Costa Rica y queria saber cuales son las companias en argentina de tecnologia bien renumeradas.
@facundocorengia
@facundocorengia 3 ай бұрын
Gracias! eee no tengo mucha idea de como está el mercado aca en arg porque trabajo para afuera, pero se que las que mas pagan son las startup y capaz alguna de las grandes como accenture, globant, ml, etc
@sebastiancuadro7378
@sebastiancuadro7378 3 ай бұрын
Excelente Facundo, voy a probarlo, te pregunto, se podra conectar a una base de datos? Saludos
@facundocorengia
@facundocorengia 3 ай бұрын
Gracias! por el momento solo a la de vectores, aunque se podria hacer una conexion para que utilice una base de datos sql
@onesimagonzalezosses325
@onesimagonzalezosses325 3 ай бұрын
Hola, realice todos los pasos y cuando ejecuto docker exec 5g3a4x1825fx ollama pull llama3, llega al 38% y me indica que no queda espacio en el disco, que debo hacer?
@facundocorengia
@facundocorengia 3 ай бұрын
estuve buscando informacion y de esta forma lo podes hacer: forums.docker.com/t/docker-desktop-for-macos-no-space-left-on-device/140831 , se ve que tenes que manejar vos mismo el espacio que se le asigna a docker desktop, asi seguro que te deja, eso es en mac pero la interfaz del docker desktop es la misma
@jospedsan
@jospedsan 2 ай бұрын
Lo que no encuentro es dónde se guarda el modelo que se descargan. La ruta del volumen no sé donde está.... (/ollama/models/) no sé dónde se crea en el host.
@geozoonegps1157
@geozoonegps1157 3 ай бұрын
Excelente video.
@marcelotorres9145
@marcelotorres9145 3 ай бұрын
Hola que tal amigo , el programa Ollama no puede correr con mi maquina que es ya es un poco antigua, porque Ollama requiere que el procesador tenga AVX2 y mi procesador pose solo AVX. Yo habia encontrado otro programa que si corre en mi maquina y es el GPT4ALL , entonces lo que te pido es si podes hacer lo mismo pero con el GPT4ALL , para que pueda probar tambien esta forma de trabajar con los documentos privados y locales... Muchas Gracias desde ya ....
@facundocorengia
@facundocorengia 3 ай бұрын
buenas! en la próxima versión voy a dejar la opción con ollama y con gpt-3.5-turbo así podés tener otra opción, el tema que ollama te da el llm para tener un reemplazo al modelo de lenguaje que usa chatgpt
@annwang5530
@annwang5530 Ай бұрын
gracias pero esto no fuciona si la paso 100 papers de publicaciones científicas largas y quiero que me haga un paper no? por los tamaños máximos que puede el LLM procesar
@facundocorengia
@facundocorengia Ай бұрын
buenas! te puede llegar a ayudar si le haces una buena prompt, te diria que pruebes pero generalmente cuando se busca que haga esas cosas complejas ya es necesario crear un sistema mas complejo al del video
@annwang5530
@annwang5530 Ай бұрын
@@facundocorengia ok gracias, por otra parte, estoy con una persona de fiverr que no tengo seguridad me hará un trabajo para hacer un fine tune de tinyllama1.1 con my JSON bien formado de 278 filas de Q&A. Si me falla, te interesaría? solo necesito un GGUF que no halucine y de respuestas ok
@gustavos.c2304
@gustavos.c2304 3 ай бұрын
Muchas gracias
@dronix1969
@dronix1969 3 ай бұрын
Muy buen aporte estimado, consulta se puede ocultar el enlace de subir archivos ya que asi cualquiera podria subir cualquier archivo, seria bueno tener uno para administrador y otro solo para usuarios el chat
@facundocorengia
@facundocorengia 3 ай бұрын
Buenas! Muy buena idea por si varias personas lo usan! definitivamente voy a implementar eso en la versión 2.0
@facundocorengia
@facundocorengia 3 ай бұрын
Por el momento quedan las dos páginas "publicas" por así decirlo, sería como más para uso personal, pero es como vos decís que si lo usan varias se puede complicar la cosa, te diría que quedes atento a la nueva versión que 100% va a tener eso.
@jonathanvica
@jonathanvica 3 ай бұрын
Tienes algún video para crear una ai persona que sepa vender pero con la información de nuestra empresa y se pueda colocar en el WhatsApp business y pueda cerrar ventas o agendar citas esto que lo realicemos en una Mac m1
@facundocorengia
@facundocorengia 3 ай бұрын
buenas! sisi, en mi canal lo vas a encontrar, es un video que muestro un chatbot de atención al cliente + ventas que me sirvió para conseguir una demo con nike, el vídeo se llama 'este chatbot me consiguió una demo con nike' te recomiendo mirarlo!
@drycfullmetall
@drycfullmetall 3 ай бұрын
Gracias saludos del Perú eres un pro igual tengo que estudiar programación me urge.
@facundocorengia
@facundocorengia 3 ай бұрын
de nada! mañana subo un video que te va a servir sobre ese tema, que va a ser la ruta de aprendizaje de ia con codigo en 2024, asi podes aprenderlo al 100%
@alvica50
@alvica50 3 ай бұрын
yo trabajo para clinicas. y me gustaria poder implementar para consulta de informacion de clinicas
@facundocorengia
@facundocorengia 3 ай бұрын
Si estas interesado en implementarlo te paso el link para agendar una llamada conmigo: calendly.com/basdonaxai/basdonaxai y ver si te puedo ayudar
@ArielArrieta
@ArielArrieta 3 ай бұрын
Hola Facundo, Gracias por video.Espero que este mensaje te encuentre bien. Estoy enfrentando un desafío al intentar instalar gpt4all==1.0.8 como parte de un proyecto basado en Docker. Desafortunadamente, parece que esta versión específica no está disponible en PiP3, y no logro encontrar una alternativa adecuada o una versión anterior que cumpla con mis necesidades. Detalles del Entorno: Sistema Operativo: macOS Versión de Python: 3.11 Versión de Docker: Docker Desktop para Mac (última versión) Requisito del Proyecto: Estoy construyendo una aplicación contenerizada donde gpt4all es una dependencia crítica. El mensaje de error que recibo durante el proceso de construcción de Docker es: yaml Copy code ERROR: Could not find a version that satisfies the requirement gpt4all==1.0.8 (from versions: 0.1.5, 0.1.6, 0.1.7) ERROR: No matching distribution found for gpt4all==1.0.8 Este problema ha detenido el desarrollo del proyecto, y agradecería mucho cualquier orientación o recomendación que puedas ofrecer. ¿Podrías aconsejarme si hay una versión más nueva disponible o si debo ajustar mi entorno de alguna manera específica para acomodar una versión disponible de gpt4all? Gracias por tu tiempo y ayuda. Espero ansiosamente tu consejo experto y estoy deseoso de resolver este problema prontamente. Saludos cordiales, Ariel
@lorenzo9196
@lorenzo9196 3 ай бұрын
dentro del docker la versión de python es mayor o igual a 3.8? actualizar pip también puede ayudar
@facundocorengia
@facundocorengia 3 ай бұрын
Buenas Ariel! Muchas gracias! Te recomiendo que en el requeriments.txt del proyecto que esta en esta ruta: basdonax-ai-rag/app/requirements.txt cambies la versión del gpt4all por una de estas versiones 0.1.5, 0.1.6, 0.1.7 , cualquier cosa si no te llega a funcionar comentame por aca o por mi instagram y lo solucionamos: @facundocorengia
@ArielArrieta
@ArielArrieta 3 ай бұрын
@@lorenzo9196 gracias , estoy usando 3.11 y pip3
@ArielArrieta
@ArielArrieta 3 ай бұрын
@@facundocorengia no me funciona con ninguma de las 3 versiones 26.77 ERROR: Ignored the following versions that require a different python version: 0.0.1a1 Requires-Python >=3.6, =3.6, =3.6, =3.6, =3.6, =3.6, =3.6, =3.6, =3.6, =3.6, =3.6, =3.7,
@facundocorengia
@facundocorengia 3 ай бұрын
fijate que ahi esta puesto 1.0.6 y es 0.1.5, 0.1.6 o 0.1.7
@geozoone
@geozoone 2 ай бұрын
Excelente video Facundo. lo estoy probando pero me tope con este problema la version de phi3 sin gpu en windows "no space left on device. "
@facundocorengia
@facundocorengia 2 ай бұрын
gracias! estuve buscando informacion y de esta forma lo podes solucionar: forums.docker.com/t/docker-desktop-for-macos-no-space-left-on-device/140831 , se ve que tenes que manejar vos mismo el espacio que se le asigna a docker desktop, asi seguro que te deja, eso es en mac pero la interfaz del docker desktop es la misma
@geozoone
@geozoone 2 ай бұрын
@@facundocorengia Gracias por la rspuesta, te comento ya logre instalarlo. te comento luego de las pruebas.
@gmazuel
@gmazuel 2 ай бұрын
como se puede usar el modelo GPT4o (plus) ?. Excelente video.. suscrito..
@facundocorengia
@facundocorengia 2 ай бұрын
gracias! para utilizarlo habría que cambiar una de las partes del código para que en vez de usar Ollama use OpenAI y el modelo de GPT4o, estoy ya desarrollando la nueva versión que tiene la opción de usar OpenAI o Ollama!
@gmazuel
@gmazuel 2 ай бұрын
@@facundocorengia sabes que la actual version me da este error : nvidia-container-cli: requirement error: unsatisfied condition: cuda>=12.3, please update your driver to a newer version.. pero no encuentro la version adecuada..
@ai_ai4715
@ai_ai4715 2 ай бұрын
Me pareció interesante tu tutorial sobre RAG y he intentado instalarlo para ir aprendiendo. Tras hacer varias pruebas me han surgido varias cuestiones que las cito por orden de relevancia, en mi humilde opinión. Te agradecería que me respondieses, al menos a la primera de las cuestiones. 1.-Intento modificar el contexto de la pregunta editando el fichero assistant_prompt.py sin éxito y me percato que en el subdirectorio pycache hay un fichero assistant_prompt.cpython-311.pyc que tiene una fecha anterior y que probablemente es el que se lutiliza para rellenar la consulta que se envía al Llm. ¿Hago algo mal o no se puede/debe cambiar el contexto?. 2.-¿Si quisiera obtener y pasar más chunks al LLm bastaría con cambiar el número 5 en la siguiente sentencia de langchain_module.py? target_source_chunks = int(os.environ.get('TARGET_SOURCE_CHUNKS',5)) 3.-Me gustaría probar a generar chunks algo más largos con mayor solapamiento. ¿Bastaría con cambiarlo en las siguientes sentencias del script ingest_file.py? chunk_size = 500 chunk_overlap = 50 4.-¿Se pueden integrar en la base de conocimiento ficheros/textos en otros idiomas como el inglés además del español? 5.-Aunque tengo una tarjeta muy antigua 1070, no he tenido problemas hasta la fecha para utilizarla con cuda. Aunque he cargado Llama-3 con Lm studio y me ha funcionado usando la GPU con tu instalador que exige una versión específica de Cuda y Ubuntu la instalación se para, aunque mi versión de cuda es superior a la que se exige si bien es cierto que utilizo windows powershell y no veo ubuntu por ningún sitio. ¿Podría editar de alguna manera la instrucción donde se dicta la versión de Cuda a instalar?
@abstractmusic7583
@abstractmusic7583 2 ай бұрын
bro te funcionó cambiando esos parámetros que mencionastes?
@ai_ai4715
@ai_ai4715 2 ай бұрын
@@abstractmusic7583 Sí funcionó pero hay que volver a realizar docker-compose up para que regenere los .pic con los cambios. (También he borrado los ficheros que había subido por si acaso porque que he cambiado el tamaño del chunk a 1000 y el solapamiento a 200)
@facundocorengia
@facundocorengia 2 ай бұрын
buenas! te respondo: 1) te debería funcionar con cambiar el texto de la prompt, lo que si tenes que hacer el docker compose up nuevamente para que cargue con ese cambio realizado 2) exacto 3) exactamente, recorda lo del docker-compose up despues de los cambios para que se reflejen en la app 4) sip, no habria problema con eso, lo que si puede que te responda en el idioma del documento si no le especificas que queres que te hable en español siempre. por ejemplo un documento en ingles y vos le preguntas en español 5) si, proba editandolo en el docker-compose en la parte de nvidia: image: ahi tenes que fijarte las versiones y cambiarlo ahi si tenes alguna otra duda hablame a mi instagram que estoy siempre por ahi! @facundocorengia
@diegogschmidt
@diegogschmidt 3 ай бұрын
¿Se puede usar tu imagen docker para hacerle consultas directamente a la api de ollama? , gracias por compartir esto.
@facundocorengia
@facundocorengia 3 ай бұрын
Si, tenes que hacer ollama pull llama3 por ejemplo o el modelo que quieras y ahi hacer el docker exec (id de contendor) ollama run llama3, igualmente te recomiendo directamente instalar ollama no el docker-compose del video, te dejo el link: hub.docker.com/r/ollama/ollama
@diegogschmidt
@diegogschmidt 3 ай бұрын
La IA es una hiperfunción, gracias.
@marceloestebanbabio892
@marceloestebanbabio892 2 ай бұрын
Vas a abrir una serie para jacer el rag? Se puede armar con la api de gpt4o pago? Por que es mejor que un gpt en gpt4o pago? Gracias
@facundocorengia
@facundocorengia 2 ай бұрын
justo ayer empece con la serie: kzfaq.info/get/bejne/d9aKqbyLrt23lXk.html
@barrerawilson
@barrerawilson 3 ай бұрын
Gracias por la info, tu código correría en una nvidia GTX 1080?
@facundocorengia
@facundocorengia 3 ай бұрын
de nada! te recomiendo que pruebes con phi3 más que con llama3 en ese gráfica, si anda bien proban con phi ahí si pasa a llama
@ronaldalcantara6165
@ronaldalcantara6165 3 ай бұрын
@@facundocorengia Probaré con GTX 1050
@nolbertosanchez4247
@nolbertosanchez4247 3 ай бұрын
Excelente voy a suscribirme a tu canal. a las siguientes versiones puedes añadirle soporte al api de openrouter, ejecucion de acciones, code interpreter y agentes👍
@facundocorengia
@facundocorengia 3 ай бұрын
Bienvenido! Me anoto tus ideas para la próxima versión!
@paologonzalez8674
@paologonzalez8674 3 ай бұрын
Excelente video,una pregunta expone alguna api que pueda ser consumida desde otra fuente?
@facundocorengia
@facundocorengia 3 ай бұрын
habría que prepararlo para que funcione de esa forma, ahora a la única cosa a la que se puede hacer request es ollama
@SambaDoJaneiro
@SambaDoJaneiro 3 ай бұрын
Muy bueno ❤, cuanto te tomo de desarrollo hacerlo, me da curiosidad porque quiero hacer algo parecido como proyecto personal.
@facundocorengia
@facundocorengia 3 ай бұрын
Gracias! en un domingo arme todo menos la parte de los archivos, y lo de los archivos estuve 3 dias aprox pero no todo el dia, le daba a la noche despues del trabajo
@controlcenter1944
@controlcenter1944 2 ай бұрын
Despues de instalado se puede usar de forma Offline? Esra IA es privada queda solo en la pc?
@facundocorengia
@facundocorengia 2 ай бұрын
sisi, solo ejecutas el rag y ya te funciona, no necesitas internet
@MiclovinMelapelan
@MiclovinMelapelan 3 ай бұрын
BUENA ESA BROOO :3
@PabloJavier-zz9rg
@PabloJavier-zz9rg 3 ай бұрын
Buenas Facundo... me pareció fabuloso lo que has hecho.... Seguí paso a paso las instrucciones... pero a la hora de descargar los 4.7 Gb del Llama3 tengo un problema... estoy limitado a 2 Gb y no encuentro la forma de modificarlo... podrias ayudarme? Imagino que con un simple comando se podria... pero no lo encuentro y ya lei todas las ayudas posibles del docker y nada... Gracias!!
@facundocorengia
@facundocorengia 3 ай бұрын
buenas luis! me alegro que te haya gustado, estuve buscando informacion y de esta forma lo podes hacer: forums.docker.com/t/docker-desktop-for-macos-no-space-left-on-device/140831 , se ve que tenes que manejar vos mismo el espacio que se le asigna a docker desktop, asi seguro que te deja
@diogenescastro
@diogenescastro 3 ай бұрын
Aparte de agradecer tremendo aporte quiisera consultar si es posible que pueda entregar citas textuales desde los documentos, para motivos de bibliografía y/o referencia
@facundocorengia
@facundocorengia 3 ай бұрын
gracias! sisi se puede, tenes que especificarle en la prompt que queres que te responda asi, te recomiendo que te veas mi video sobre eso: kzfaq.info/get/bejne/l9N4i8Z93buuZHk.html para que te ayude a responder de esa forma
@diogenescastro
@diogenescastro 3 ай бұрын
@@facundocorengia muchas gracias de nuevo
@santievangelio4251
@santievangelio4251 Ай бұрын
Me da este eror: OllamaEndpointNotFoundError: Ollama call failed with status code 404. Maybe your model is not found and you should pull the model with `ollama pull llama3`.
@santievangelio4251
@santievangelio4251 Ай бұрын
Resuelto. Me había comido un paso por error
@AlbertoBolioSalazar
@AlbertoBolioSalazar Ай бұрын
⁠podrías decirme que paso te falto y lo corregiste, ya qué me da el mismo error a mi instalación gracias
@AlbertoBolioSalazar
@AlbertoBolioSalazar Ай бұрын
No encuentro el error o faltante en la instalación
@santievangelio4251
@santievangelio4251 Ай бұрын
@@AlbertoBolioSalazar en mi caso fue que me olvide el paso de instalar ollama
@eliasfarias3670
@eliasfarias3670 3 ай бұрын
amigo como haces para hacer RAG de un libro por ejemplo? porque al hacer vectorizacion aparecen los encabezados, pies de pagina, texto justificado, etc.
@facundocorengia
@facundocorengia 3 ай бұрын
No habria problema. Porque cuando vos le hagas las consultas solo va a tener en cuenta las partes del libro que mas tengan que ver con lo que preguntaste, no te va a responder los encabezados, pie de pagina, etc. Va a ser una respuesta "normal".
@nestorjadergomezrestrepo1378
@nestorjadergomezrestrepo1378 3 ай бұрын
Pregunta hace el mismo trabajo de un asistente virtual ?
@facundocorengia
@facundocorengia 3 ай бұрын
no, esto seria solo para responder consultas a una base de conocimiento, este seria un asistente virtual: kzfaq.info/get/bejne/f95lqc9hyc20Z3U.html
@redstonecrafter486
@redstonecrafter486 3 ай бұрын
Muy buen video, felicidades. No me deja ejecutarlo en linux, no detecta la GPU pero en Windows va de perlas con una 3090. Se podría implementar PandasAI para la gestion de los archivos CSV? Si agrego una base de datos en ese formato da respuestas incoherentes
@facundocorengia
@facundocorengia 3 ай бұрын
Gracias! que raro, que error te da en linux?. sisi se puede agregar el pandasai aunque creo que habria que modificarlo un poco si esta preparado para solo usar OpenAI. claro, da respuestas medio raras si le pasas la db sin contexto o con una funcion de por medio, yo lo que hice por ejemplo para conectarme a una db de productos es meter una funcion que dependiendo de lo que escribia el cliente hacia una consulta a la db con diferentes parametros, capaz te sirva eso
@ggmtddbo
@ggmtddbo 2 ай бұрын
​@@facundocorengiapuedes hacer un video sobre esa función y aplicada a precios?será de gran valor para el canal !. Te felicito tienes suscriptor
@BricoBit
@BricoBit 3 ай бұрын
Lo he probado y me va muy lento, se queda en running, en cambio con LLMStudio con phi3 me va rapidisimo
@facundocorengia
@facundocorengia 3 ай бұрын
Buenas! tarda mas en responder que LLMStudio ya que cada vez que le haces una consulta realiza el embedding de lo que escribiste, busca los 5 chunks que mas similitud tengan, se le pasa al modelo y ahi genera la respuesta, mas que nada por eso
¡GOOGLE ADELANTA a TODOS! - Nuevo Gemini Pro 1.5 Experimental
20:11
Look at two different videos 😁 @karina-kola
00:11
Andrey Grechka
Рет қаралды 8 МЛН
哈莉奎因以为小丑不爱她了#joker #cosplay #Harriet Quinn
00:22
佐助与鸣人
Рет қаралды 10 МЛН
If Barbie came to life! 💝
00:37
Meow-some! Reacts
Рет қаралды 47 МЛН
Build Anything with Llama 3 Agents, Here’s How
12:23
David Ondrej
Рет қаралды 134 М.
6 meses con mi agencia de IA resumidos en 19 minutos
19:15
Facundo Corengia
Рет қаралды 859
Llama3 Full Rag - API with Ollama, LangChain and ChromaDB with Flask API and PDF upload
47:09
Cómo aprender cualquier habilidad fácilmente con ChatGPT.
8:24
Powerful AI Agents using CrewAI, GPT, Groq, Ollama, LLama3
36:42
Rob Shocks
Рет қаралды 1,8 М.
🤖 Noticias IA: Google se adueña de la 2a IA más usada del mundo!! 🚀
34:06
Inteligencia Artificial
Рет қаралды 49 М.
Testing out OLLAMA - Your own ChatGPT locally! [ENGLISH SUBTITLES]
14:40