Smooth video conversion! AnimdateDiff+LCM (comfyui tutorial)

  Рет қаралды 11,573

뉴럴닌자 - AI공부

뉴럴닌자 - AI공부

5 ай бұрын

#ai #aiimages #stablediffusion #comfyui #lcm #animatediff
In this video, I will teach you how to quickly convert video using AnimateDiff and LCM-LoRA.
We will apply the image in order from basic conversion to ControlNet application, and also perform correction using FaceDetailer.
Most of them are basic nodes, so you will be able to follow them easily.
* colab execution site address
github.com/ninjaneural/comfyui
* Links to documentation, workflows, samples, and custom nodes
github.com/ninjaneural/webui/...

Пікірлер: 199
@user-kd5du9nm8k
@user-kd5du9nm8k 5 ай бұрын
이렇게 쉽고 간단하게 설명해 주시다니 너무 감사합니다. 역시 뉴럴닌자님이 최고에요 👍 워크플로오까지 공유해 주시다니 너무 감사합니다 😊
@neuralninja-ai
@neuralninja-ai 5 ай бұрын
감사해요~ ㅎ_ㅎ 재밌는기능들 하나씩 따라하며 같이 comfyui에 익숙해져보아요~
@thewallseoul
@thewallseoul 5 ай бұрын
진심이 담긴 강의 감사합니다. 🎉
@neuralninja-ai
@neuralninja-ai 5 ай бұрын
격려 감사합니다! ㅋ_ㅋ
@user-c916om63r
@user-c916om63r 5 ай бұрын
가끔 알고리즘에 뜰때만 봤었는데 구독을 안할 수가 없는 수준이시네요ㄷㄷ 멋진 튜토리얼 감사드립니다 선생님!
@neuralninja-ai
@neuralninja-ai 5 ай бұрын
좋은말씀 감사드려요~ ㅎㅎ
@moviecartoonworld4459
@moviecartoonworld4459 5 ай бұрын
언제나 최고의 영상입니다.! 항상 감사합니다@@@@!!!!^-^
@neuralninja-ai
@neuralninja-ai 5 ай бұрын
항상 시청해주셔서 감사해요~ ㅎㅎ
@pinksoy_
@pinksoy_ 5 ай бұрын
멋진 강의 감사해요:)
@neuralninja-ai
@neuralninja-ai 5 ай бұрын
좋은 댓글 감사합니다!
@user-ho4tu6ki1j
@user-ho4tu6ki1j 5 ай бұрын
환상적인 강의입니다
@neuralninja-ai
@neuralninja-ai 5 ай бұрын
칭찬 감사드려요!
@user-di5bn8tl9c
@user-di5bn8tl9c 5 ай бұрын
선생님 이번 영상도 잘봤습니다. 😂
@neuralninja-ai
@neuralninja-ai 5 ай бұрын
항상 시청해주셔서 감사합니다!
@user-bt6sm5ft1q
@user-bt6sm5ft1q 5 ай бұрын
와 감사합니다! 내일 해봐야겠어요
@neuralninja-ai
@neuralninja-ai 5 ай бұрын
저도 감사해요~
@kimhyun_
@kimhyun_ 5 ай бұрын
저 정말 댓글 잘 안쓰는데 뉴럴닌자님 덕분에 comfyui 잘 배우고 있습니다 너무 감사해요!
@neuralninja-ai
@neuralninja-ai 5 ай бұрын
도움이 되셨다니 저도 좋네영~
@MrDonghyuk
@MrDonghyuk 5 ай бұрын
이제 SD 써보기 시작한 초보자입니다. Comfyui 써본적도 없고, 큰 장벽처럼 느껴졌었는데, Comfyui 들어가서 앞부분 따라해보니까 할 수 있을 것 같네요. 이 영상을 보고나니 의욕이 생깁니다. 감사합니다.
@neuralninja-ai
@neuralninja-ai 5 ай бұрын
네넹 재밌는 기능들 하나씩 만들어나가면서 컴파이유아이에 익숙해지는걸 목표로하고있어요~
@user-ul6cc4hs9s
@user-ul6cc4hs9s 5 ай бұрын
ai 목소리가 귀엽네요ㅋㅋ 감사합니다.
@neuralninja-ai
@neuralninja-ai 5 ай бұрын
별말씀을요! ㅎㅎ
@user-ww5vl8eh4n
@user-ww5vl8eh4n 28 күн бұрын
난이도 쩔어요..머리털 다 빠지겠어요.ㅜㅜ
@neuralninja-ai
@neuralninja-ai 27 күн бұрын
사진부터 차근히 설명했으면 좋았을거 같은데.. 다시보면 좀 아쉽긴하네요;;
@user-ww5vl8eh4n
@user-ww5vl8eh4n 27 күн бұрын
@@neuralninja-ai 아, 답글 감사합니다.^^, 반복해서 보고, 열심히하면 따라 갈 수 있겠죠. 그런데, 조만간 소라가 나와도 컴피유아이가 가지고 있는 장점은 대체하기 힘들것이라고 생각되는데요, 고수님 생각은 어떠신지 솔직한 고견 부탁드립니다.^^
@neuralninja-ai
@neuralninja-ai 27 күн бұрын
소라는 영상생성에 최적화된 툴이고 컴파이유아이는 종합툴이니 직접적인 비교는 힘들거같아요~ 무엇보다 소라는 개인적으로 돌릴수도 없을거니까.. 유료서비스인 런웨이쪽이랑 비교할수 있을거같아요~
@nitinburli7814
@nitinburli7814 4 ай бұрын
Hi, great video. Just wanted to make a few pointers. I'm not able to get consistent faces with your flow using the detailer. But, the new Detailer for AnimateDiff seems to work great. I also took the model directly from the same ModelSamplingDiscrete node, without duplicating.
@neuralninja-ai
@neuralninja-ai 4 ай бұрын
Thank you for the feedback! I agree that FaceDetailer can be a bit ambiguous, so I thought to include the Detailer for AnimateDiff workflow as well. I do like the sharpness of FaceDetailer, so I'm planning to prepare a supplementary video with TemporalNet separately. I didn't understand the part about ModelSamplingDiscrete;; If you could give me a hint about what issues might arise from not duplicating it, I would be grateful~
@nitinburli7814
@nitinburli7814 4 ай бұрын
@@neuralninja-ai But using just face detailer does not give consistent face for video, it worked for you yes but I couldn't make it work.
@mi_chi_gwang_2
@mi_chi_gwang_2 4 ай бұрын
@@nitinburli7814 after using the detailer, if you use reactor or face ID, wouldn't it give you the consistency you're looking for? applying specific LORAs only to the face could still be effective, you know.
@nitinburli7814
@nitinburli7814 4 ай бұрын
@@mi_chi_gwang_2 oh didn't think of adding faceid after the detailer, I was simply following your lead :) Have you uploaded a video following this method?
@AIK-arT
@AIK-arT 26 күн бұрын
아 힘드네요 4060산 기념으로 한번 해봤는데 드디어 성공했네요❤ 아니 근데 720*1280 5초짜리 만드는데 몇시간씩 걸리는건 너무한거 아닌가 싶네요😊
@neuralninja-ai
@neuralninja-ai 26 күн бұрын
오.. 그래픽카드 사셨군요! 성공 축하드려요~ 요고 참고하셔 lcm + 짧게 잘라서 생성하시면 더 빠르게 생성하실수 있을거에요~ kzfaq.info/get/bejne/bMtgjbSDm6qzdHk.html 그리고 요고 참고하셔서 얼굴 디테일은 따로 살짝돌려보세요~ kzfaq.info/get/bejne/gdeDdbl6q8CndGQ.html
@user-en4ts9mq4t
@user-en4ts9mq4t 5 ай бұрын
스승님 삼빱니다
@neuralninja-ai
@neuralninja-ai 5 ай бұрын
ㅋㅋㅋ 빠르시네영 감사요!
@chrisk.namkung7544
@chrisk.namkung7544 4 ай бұрын
안녕하세요. 강의 너무 잘 보고 있습니다. 어려운 질문… 하나만 드리려구여… 저한테는 어려운 SD 로 만든 실사스타일 인물로 뮤직비디오 댄스 영상을 만들어야합니다ㅠㅠ(애니스타일아니구요) 이것저것 테스트하고잇는대요 ㅠㅠ 잘 안돠네여 실제 사람이 안무를하고 그 영상을 오픈포즈 등 콘트롤넷으로 적용해서 캐릭터가 따라하게하려고합니다. 캐릭터의 이미지를 ipadapter 나 faceid 로 적용해보고 잇는데 인물외의 부분들 옷이나 배경도 프레임마다 바뀌어서 영상변환이 어렵습니다. 그렇다고 인페인트를 써도 부자연스럽고 ㅜ 가장 최적화된 방법이 모일가요?? 안무를 추는 실제 사람의 캐릭터는 전혀 살리지않고 포즈와 옷만 따라해야합니다.. 얼굴과 머리만 바꿔도되는데.. 답답한맘에 이주정도 끙끙앓다가 질뮨 남깁니다 ㅠㅠ
@neuralninja-ai
@neuralninja-ai 4 ай бұрын
뭔가 엄청난걸 하고 계시는군요;; 일단 이 예제 워크플로우중에 simple detector for animatediff 이용한거에서 전체 변환은 빼고 바로 simple detector로 연결시켜서 얼굴정도는 쉽게 변경하실수 있으실거에요~ face대신 person을 선택하면 몸까지는 선택해서 변경할수는 있겠지만.. 결과물 퀄리티는 트라이 해보셔야알수있을거 같아요~
@mi_chi_gwang_2
@mi_chi_gwang_2 4 ай бұрын
닌자님 영어 쓰실때도 세미콜론이랑 물결 표시 쓰시는거 개웃기네 ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ
@neuralninja-ai
@neuralninja-ai 4 ай бұрын
물결과 세미콘론없이는 글을쓸수 없는;;
@familystory9048
@familystory9048 5 ай бұрын
다시 한번 천천히 따라하면서 해봤어요~ 역시 최고의 튜토리얼입니다!! 궁금한게 하나 있어요~ 이렇게 생성할때 영상 길이는 어느정도까지 가능한거에요?
@neuralninja-ai
@neuralninja-ai 5 ай бұрын
특별히 제한은 없지만 100프레임 내외로 씬별로 라던지 재작업할수 있는 단위정도로 어느정도 끊어서 작업하는게 편하더라구요~
@familystory9048
@familystory9048 5 ай бұрын
​@@neuralninja-aiLCM을 적용하면 색감이 뿌옇게 탁해지는건 왜그런걸까요?
@neuralninja-ai
@neuralninja-ai 4 ай бұрын
스텝수, cfg에따라 크게 차이나는거 같아요~ lcm이 약간 체크포인트를 타기도 하는거 같구요~
@familystory9048
@familystory9048 4 ай бұрын
@@neuralninja-ai 네~ 그 부분을 수정해보면서 해봐야겠네요~~😀 답장 감사합니다~
@familystory9048
@familystory9048 4 ай бұрын
​@@neuralninja-ai닌자님~ 혹시 어떤 모델사용허시는지 알수있을까요?😂 모델, cfg, 스텝 바꿔가면서 테스트 중인데 자꾸 뭉개져서요~
@oncelife7499
@oncelife7499 2 ай бұрын
안녕하세요 닌자님 닌자님 덕분에 조금씩 더 배워가고 있습니다 위 영상대로 따라하여 영상이 예쁘게 잘 나오고 있습니다 가로형으로 실행 할 경우 얼굴이 클로즈업 되는 부분에서는 얼굴부분이 꿀렁거리는데 어느부분을 조정해야 될지 몰라 이거저거 만져보다 또 한수 지도 부탁드려 봅니다~ 감사합니다 : )
@neuralninja-ai
@neuralninja-ai 2 ай бұрын
영상에서는 facedetailer를 사용했는데 사실 영상변환에서는 깔끔하진않아요~ 설명서 워크플로우에있는 심플디텍터를 이용하는게 더 깔끔해요~ 근데 클로즈업은 다른 문제일수도 있어요 클로즈업은 여러모로 쉽지않죠;; sd15기준으로 얼굴영역이 300px ~ 768px 사이에 유지하게하는게 베스트에요~ 작으면 뭉게지고 크면 얼굴로 인식하지 못해서 망가지기도해요 그부분만 따로 편집해서 cfg와 denoise를 낮춰서 스타일변환정도로 무마(?)시키는게 젤 무난한거 같아요;;
@neuralninja-ai
@neuralninja-ai 2 ай бұрын
kzfaq.info/get/bejne/nbyihdx7ppyZY2g.html 영상보시면 중간에 클로즈업만 반실사처럼 나온게 그런식이에요;; sdxl로 변환하는것도 방법일거 같아요;;
@oncelife7499
@oncelife7499 2 ай бұрын
@@neuralninja-ai 빠른 답변 감사드립니다^^ 심플 디렉터로 사용해보고 말씀하신 부분도 체크해서 다시 만들어보겠습니다 감사합니다 : )
@oncelife7499
@oncelife7499 2 ай бұрын
@@neuralninja-ai : D 감사합니다 영상들 다시 다 정독하면서 따라해보겠습니다 감사합니다^^
@smkim8008
@smkim8008 5 ай бұрын
로컬로도 연습중인데 제 화면은 옛날버전인가보네요 지금은 마인드맵처럼 구조가 변경된건가요? 아니면 로컬은 못하는건가요?
@neuralninja-ai
@neuralninja-ai 5 ай бұрын
아하.. comfyui 라고 다른 툴일거에요~ sd-webui보다 좀 더 가벼운 장점이 있어요~ github.com/comfyanonymous/ComfyUI 참고해보세영
@wondstudio
@wondstudio 4 ай бұрын
안녕하세요 질문이 몇가지 있습니다. Comfy Ui 설치 버전과 바로 실행 버전의 차이를모르겠습니다. 둘다 할때마다 모두 설치부터 다시 실헹해야 하는거 맞죠? 그리고 또 하나 질문은 어느날은 되고 어느날은 안됩니다. 이건 왜 이럴까요?
@neuralninja-ai
@neuralninja-ai 4 ай бұрын
설치해야하는거 맞아요~ 설치버전은 구글드라이브에 설치해서 구글드라이브에 파일들이 남아있어요. 안되실때는 에러메세지라던가 확인을 해봐야 알 수 있을거 같아요
@user-en4ts9mq4t
@user-en4ts9mq4t 5 ай бұрын
어허 또 쉽다고 말씀허시네요
@neuralninja-ai
@neuralninja-ai 5 ай бұрын
시간이 문제일뿐이져 ㅋ_ㅋ;
@jup_jup
@jup_jup 4 ай бұрын
좋은 강의 잘 보고있습니다! 한가지 질문ㅠㅠ 이 워크플로우대로 하면 최종 결과물이 원본 영상의 옷을 그대로 복제 하는것 같던데 프롬프트에 넣은 의상대로 생성되게 하려면 어떻게 해야 될까요?ㅠㅠ
@neuralninja-ai
@neuralninja-ai 4 ай бұрын
오픈포즈외에 컨트롤넷을 줄이면서 디노이징을 높히면 말씀하신데로 프롬프트와 로라 영향을 강하게 줄수 있어요~ 옷뿐만아니라 전체적으로 영향을 줄거에요~
@jup_jup
@jup_jup 4 ай бұрын
@@neuralninja-ai 감사합니다!😁
@funEone
@funEone 4 ай бұрын
항상 좋은 강좌 감사드려요~ 쉽게 잘 설명해주신 내용으로 잘 따라하고 마지막 단계까지 갔는데요, 실행을 누르면 비디오 메모리 부족이라는 에러메세지가 나타납니다ㅠㅠ 5800X 시퓨에 3080 12gb 그래픽 카드인데 이게 부족하다 생각안하는데 왜 그런걸까요? 이미지 생성이나 다른건 다 괜찮은데 영상으로 하니 이런 에러가ㅠㅠ 참고로 10초짜리 30프레임 영상을 갖고 왔는데 계속 에러가 떠서 사이즈 360x640, 프레임을 15로 하니 또 되더라구요... 혹시 이런 오류 고치는 방법은 없을까요?
@neuralninja-ai
@neuralninja-ai 4 ай бұрын
헛 1280픽셀에 10초정도면 괜찮을거 같은데 그게 터지네요; 설명하려고 프리뷰를 다 넣었는데 100장이상시에는 이게 문제가 될수도 있을거같아요 프리뷰들을 전부 제거해보세요~
@funEone
@funEone 4 ай бұрын
@@neuralninja-ai 먼저 답변 정말 감사해요~ 말씀처럼 프리뷰를 삭제하고 다시 큐를 눌러봤지만 같은 반응이었습니다. 혹시나 하고 K샘플러에서 lcm을 euer로 바꿔서 큐를 돌려봤는데 그건 또 진행이 됐었어요. 이미지를 바꾸는건 lcm으로 1초만에 순식간에 진행이 되는데 애니메이션은 왜 이러는지 도통 감이 안잡힙니다ㅠㅠ 로드 로라에서 lcm_lora_sd15.safetensors 이건 문제가 안되는거겠죠? 결과물을 만들고 싶은데 일주일째 문제해결만 하고 있으니 너무 답답하네요ㅜㅜ
@neuralninja-ai
@neuralninja-ai 4 ай бұрын
animatediff가 vram을 많이 먹긴하는거 같더라구요 컨트롤넷과 로라도 vram을 먹긴해요~ 우선은 결과물이 안나오면 답답하니깐 적당한 길이(이미지수)로 테스트를 해보세영~ 영상을 이미지들로 변환하고 loadimagespath노드로 테스트해보시는게 편하실거에요. 그리고 적당한길이를 정해서 변환하고 영상들을 이어붙이시는것도 괜찮은거 같더라구요
@shy-soonyubing
@shy-soonyubing Ай бұрын
좋은 강의 감사합니다 !! 궁금한 게 있는데요, ksampler 에서 sampler 값을 lcm으로 적용하면 이미지 퀄리티가 너무 떨어지는데, 이게 모델마다 영향을 많이 받는 모델이 있거나 그런가요 ?? 영상에서 사용했던 caramel 모델은 퀄리티가 그렇게 나쁘진 않은데, 제가 사용했던 KenCanMix는 퀄리티가 너무 많이 바뀌어서요
@neuralninja-ai
@neuralninja-ai Ай бұрын
맞아요~ 체크포인트모델에따라 영향이 큰게 있고 그러더라구요~ 그러다보니 lcm은 적용할때는 그냥 쓰던 체크포인트만 계속 쓰게되는;;;
@shy-soonyubing
@shy-soonyubing Ай бұрын
@@neuralninja-ai 아하 감사합니다 !!
@Steven_249
@Steven_249 4 ай бұрын
한가지 궁금한 점이 있습니다~ Stable diffusion 만 사용해봐서 .... Comfyui는 잘 몰라 그러는데... 둘이 궁극적으로 UI만 다르고 같은거라고 생각하면 되나요? ㅠ 좋은 영상 감사합니다!
@neuralninja-ai
@neuralninja-ai 4 ай бұрын
넹 맞아요~ sd-webui를 레고블럭 처럼 기능별로 잘게 쪼개놓은거라고 보시면되요~
@Steven_249
@Steven_249 4 ай бұрын
@@neuralninja-ai 아하~ 감사합니다!
@creyongfarm
@creyongfarm 15 күн бұрын
안녕하세요 이번에 처음으로 이 채널 보면서 이것저것 따라해보며 배우고 있는데요. 중간에 노드 불러올때 loadvideopath 가 저에겐 없는데, 별도로 뭘 깔아야하는걸까요?
@neuralninja-ai
@neuralninja-ai 14 күн бұрын
VideoHelperSuite 커스텀 노드요~
@creyongfarm
@creyongfarm 13 күн бұрын
@@neuralninja-ai 감사합니다 링크는 찾았는데, 어떻게 설치하는지 잘 모르겠네요 ㅠㅠ 혹시 관련 영상도 올려주신게 있으신지요?
@creyongfarm
@creyongfarm 13 күн бұрын
올려주신 거 보고 방법 찾았네요 ㅜㅜㅜ 감사합니다
@neuralninja-ai
@neuralninja-ai 12 күн бұрын
헛;; 이제봤네요 잘 해결되었다니 다행이네요!
@aqua116
@aqua116 4 ай бұрын
ValueError: Without a context window, AnimateDiff model temporaldiff-v1-animatediff.ckpt has upper limit of 24 frames 뉴럴닌자님 animatediff는 24프레임이 한계인가요?
@neuralninja-ai
@neuralninja-ai 4 ай бұрын
context options을 추가하지 않으면 24프레임이 한계에요~ 추가하면 길이제한 없어영~ 아마 추가하는거 깜빡하신거 같아요~
@aqua116
@aqua116 4 ай бұрын
아...감사합니다...영상안보고 구글링 하고 있었네요 @@neuralninja-ai
@yagdemo1346
@yagdemo1346 2 ай бұрын
It really works, but problem with long video: the longer video, the more ram is required. can you suggest any method for long video generation?
@neuralninja-ai
@neuralninja-ai 2 ай бұрын
kzfaq.info/get/bejne/bMtgjbSDm6qzdHk.html this is a way to bypass RAM shortage by dividing it into multiple videos.
@user-sy4ti2ie8e
@user-sy4ti2ie8e 2 ай бұрын
great result i must say but a little bit blurry at the start, did you consider using RAVE for this matter? the workflow here is pretty simple and i think RAVE + animeDIFF would work out well for you
@neuralninja-ai
@neuralninja-ai 2 ай бұрын
Oh.. RAVE looks fun~ Thank you, I’ll try making it too~
@user-sy4ti2ie8e
@user-sy4ti2ie8e 2 ай бұрын
@@neuralninja-ai RAVE gives a pretty detailed outcome with no blur and its a new node added in comfyui, i could send you a workflow if you want to test it out, also did you try to use IPAadapters? they made a new update on that and i think the results are pretty great !.
@neuralninja-ai
@neuralninja-ai 2 ай бұрын
sorry, I just saw the comment;; I listened to your advice then I tried rave... it was fun! However, I confused that it seems unclear whether there is more to this than just applying the unsampler and grid. The unsampler that inverts noise is amazing! I haven't been able to properly explore the newly added features of ipadapter yet. I just annoying to have to modify the existing workflow;;;; ...I only thought about this and applied it;; ㅋ_ㅋ;;
@user-lv8od4un1z
@user-lv8od4un1z Ай бұрын
좋은 강의영상 감사합니다. 그런데 공유해주신 스크립트를 그대로 실행하면 Comfy ui는 구글드라이브에, 나머지는 코랩 디스크에 저장되어서 comfy ui를 사용할때마다 실행환경과 모델들을 다시 다운로드받아야하는 불편함이 있었습니다. 그래서 코드를 조금 수정하여 모두 구글드라이브에 저장하도록 해봤는데 체크포인트를 로드할때부터 에러가뜨네요 ㅠㅠ 드라이브에 모두 받아서 사용하는 방법은 없을까요?
@neuralninja-ai
@neuralninja-ai Ай бұрын
extra_model_paths.yaml 이 파일을 수정하시면 될거같아요~ 제 사이트에 있는 스크립트는 대부분 코랩경로로 전부 설정되어있어요~
@user-lv8od4un1z
@user-lv8od4un1z Ай бұрын
@@neuralninja-ai 감사합니다! 좋은밤되십쇼 ㅎㅎ
@tunacan4262
@tunacan4262 2 ай бұрын
내공 쩐다
@neuralninja-ai
@neuralninja-ai 2 ай бұрын
좋은말씀 감사해요~
@toctok2583
@toctok2583 5 ай бұрын
안녕하세요 뉴럴님 올려주신 워크 플로우로 생성 하면 사람으로 인식 되는 모든것이 하얗게 나오는데.. 어떤것을 좀 만져야 될까요?
@neuralninja-ai
@neuralninja-ai 5 ай бұрын
사용하시는 모델에 vae가 없어서 그럴수 있을거 같아요 vaeloader로 vae를 별도로 입력해보세요~ 이부분은 워크플로우에서도 수정해야겠네영;
@toctok2583
@toctok2583 5 ай бұрын
@@neuralninja-ai 감사합니당
@aqua116
@aqua116 4 ай бұрын
뉴럴닌자님 9초짜리 쇼츠 영상으로 하려니 out of memory가 나서 그런데 영상 길이를 줄여야 하나요?
@neuralninja-ai
@neuralninja-ai 4 ай бұрын
out of memory면 크기 영항이 더 클 수 있을거 같아요~ 크기를 줄여보시는게 더 도움이 될수 있을거 같아요~
@aqua116
@aqua116 4 ай бұрын
​@@neuralninja-ai새벽에도 감사합니다
@user-ec9vb5qt1h
@user-ec9vb5qt1h Ай бұрын
설치부터 천천히 모델이나 그런것들도 다운받는것도 찍어서 올려주시면 안될까요...? 그냥 처음 시작 한다고 생각하시고 찍어주시면 감사하겠습니다 부분 부분 빠진내용이 있어서 따라하기 힘들네요 ㅠㅠㅠㅠㅠ
@neuralninja-ai
@neuralninja-ai Ай бұрын
아..아무래도 주제가 animatediff와 lcm이다보니 기초적인건 생략할수밖에 없는거 같아요~ 다만.. 생략한 기초적인부분을 설명하는 영상을 안내할수 있으면 좋을거 같은데.. comfyui 완전 기초를 하나씩 준비하고는 있지만;; 지금 두개 찍어놓고 한달지난거 같은데.. 시간적으로 쉽지 않네요;; 최대한 노력해볼게요 기초부분은 조금씩 추가하고있어요.. kzfaq.info/sun/PLpZBiVivl063G3pKIydwCSPDhFmVvdEdO 처음부터 영상쪽보다는 이미지 생성부터 하나씩 살펴보시면 이해하시는데 더 좋으실거에요~
@user-ec9vb5qt1h
@user-ec9vb5qt1h Ай бұрын
무리한 부탁도 들어주셔서 감사합니다!
@user-lv8od4un1z
@user-lv8od4un1z Ай бұрын
또 질문하게 되네요. 올려주신 컨트롤넷 3개 사용하는 스크립트 그대로 영상 변환 해봤는데 제 경우에는 배경에 벽돌이나 모자이크 패턴같은게 엄청 정신없이 나오더라구요.. 이런경우엔 어떻게하면 좋나요?
@neuralninja-ai
@neuralninja-ai Ай бұрын
꼭 세개 다 이용하실 필요는 없어요~ 라인아트만 빠져도 그런 현상이 좀 줄어들을거 같긴해요~ 강도 조절을 하시던가 뎊스모델만 이용하셔도 되요~ rembg같은걸로 배경과 캐릭터를 따로 변환하는것도 생각해볼수 있을거 같아요~
@user-lv8od4un1z
@user-lv8od4un1z Ай бұрын
@@neuralninja-ai 답변 감사합니다. 다 시도는 해봤는데 결국 lcm 사용 안하고 dpmpp랑 kerras로 하는게 제일 나은것같았어요 좀더 연구해보겠습니다 ㅎㅎ
@neuralninja-ai
@neuralninja-ai Ай бұрын
넹~ lcm은 모델도 많이 타고 사용이 제한적인거 같긴해요~ 하지만 빠른속도가! 모든걸 만회하는!! 얼굴 디테일만 lcm 없이 돌리는것도 좋은 속임수같아요~
@jungkim5711
@jungkim5711 4 ай бұрын
안녕하세요. 영상을 보고 따라하고 있는데요. 생성된 결과에서 로라 나 주어진 택스트가 적용안되고 입력한 영상이 조금 변해서 나오는데요. 어디가 문제일가요?
@neuralninja-ai
@neuralninja-ai 4 ай бұрын
로라적용은 설명서에 있는 마지막 워크플로우를 참고해보세영~ 적용하려는 프롬프트나 로라가 있다면 우선은 animatediff없이 이미지 한장으로만 테스트해보시는게 좋을거 같아요
@user-nd7hk6vp6q
@user-nd7hk6vp6q 4 ай бұрын
Hi, im a total newbie to S.D and your videos help me alot, what if i want to create an animation with a different clothing style and different background from a refrence image but with the same movement as the video, how do i do that pls
@neuralninja-ai
@neuralninja-ai 4 ай бұрын
Thanks~ content you mentioned is actually quite challenging~ Since almost all of the reference images need to be changed, the denoising should be set high, above 0.8, and controlnet also has to rely entirely on OpenPose~ You might be able to mix in a very low depth. If there is something like LoRA for what you are trying to create, it will help with consistency~ And since it relies solely on OpenPose, it's better to avoid complex movements.
@user-nd7hk6vp6q
@user-nd7hk6vp6q 4 ай бұрын
@@neuralninja-ai could you do a tutorial for that pls, it would be so helpful🙏 pls
@neuralninja-ai
@neuralninja-ai 4 ай бұрын
in description, workflow added~ check it out~ (workflow5.json)
@user-nd7hk6vp6q
@user-nd7hk6vp6q 4 ай бұрын
​@@neuralninja-ai hi, I uploaded the workflow but I can't find the node to upload the reference image I want to use except the load video node only 😢
@sana_inc
@sana_inc 2 ай бұрын
영상 감사히 보고 있습니다! 혹시 아래 에러를 봐주실 수 있을까요? 콘트롤넷 3가지 다 적용하고 큐프롬프트 눌렀는데요. 아래처럼 에러가 뜨네요.;;; RuntimeError: mat1 and mat2 shapes cannot be multiplied (1925x2048 and 768x320) Prompt executed in 0.25 seconds
@neuralninja-ai
@neuralninja-ai 2 ай бұрын
mat1 mat2 어쩌구 나오는건 base model문제일거에요~ 체크포인트는 sdxl인데 컨트롤넷은 sd1.5용을 사용했거나 이런거요~
@sana_inc
@sana_inc 2 ай бұрын
@@neuralninja-ai 감사합니다! 확인해보겠습니다!
@wooyaci
@wooyaci 5 ай бұрын
좋은 영상 감사합니다. 노드 연결하는 인터페이스로 바뀌면서. 어려워진거 같아요.. 어떤규칙으로 노드가 연결되는지 잘 모르겠어요
@neuralninja-ai
@neuralninja-ai 5 ай бұрын
아직 낯설어서 더 그럴거 같아요~ 쓰다보면 익숙해지실거에요~
@mi_chi_gwang_2
@mi_chi_gwang_2 4 ай бұрын
fp 가 플롯 포인트 였군. 하나 또 깨달았다. 32구하러 감
@neuralninja-ai
@neuralninja-ai 4 ай бұрын
헠; 영상에 그런 전문적인(?) 내용이 있었던가요
@mi_chi_gwang_2
@mi_chi_gwang_2 4 ай бұрын
@@neuralninja-ai 워크플로우를 다운로드했는데, 컨트롤넷 모델이 기본 모델이 아닌거에요!! 이 분은 왜 모델을 fp16을 사용하고 있을까?? 깃헙에는 분명 기본 1.1버젼만 있던 것 같았는데!! 막 궁금해서 구글링 좀 하다가 arxiv 에서 관련 글을 보게 됐고,fp16의 사소한 잇점들에 대해서 아주아주 조금 읽어보게 되었습니다. 그리고 32비트용도 존재하더라구요? 물론 일반적으로 추론에서 쓰는 16비트 모델이랑 쓰임새나 메모리 사용량이 다르겠지만, 저는 약간 자료들이라면 무조건 챙겨두는 걸(?) 좋아해서 자료를 찾으러 다시 그렇게 모험을 떠났습죠 헤헿
@neuralninja-ai
@neuralninja-ai 4 ай бұрын
와우;; 전 그냥 용량 작으니까 땡큐!! ..느낌으로 사용했는데 직접 비교해보겠다는 생각은 못해봤네영 ㅋ_ㅋ
@pdjay8912
@pdjay8912 4 ай бұрын
아.. 초보라 그런지.. 잘따라가다가 Loadvideo가 없네요. 이거저거 설치 했는데.. 안보여요 ㅜ 뉴럴닌자님. 제가 아는 어떤 회사에 Ai관련해서 추천드렸어요 :)-추가- 다 해결하고 openpose 에서 또 막혔네요.. 이것 참.. ㅎㅎㅎ :) 또 추가.. 제공해주신 워크플로 저장파일을 불러서 미싱노드를 인스털 하구 불러도 에러가 나네요. 콜랩과 실행에 차이가 있나봐요. >
@neuralninja-ai
@neuralninja-ai 4 ай бұрын
좋은 말씀 감사해요~ 아마 openpose모델을 다시 선택하시면 될거에요~ 혹시 controlnet openpose모델이 없으시면 huggingface.co/lllyasviel/ControlNet-v1-1/tree/main 이곳에서 받고 models/controlnet에 넣으시면되요~
@pdjay8912
@pdjay8912 4 ай бұрын
@@neuralninja-ai너무나 친절한 답변 감사해요. 세상에 이런 분이 ㅜㅜ. 정말 덕분에 많은걸 배워갑니다. 존경합니다.
@pdjay8912
@pdjay8912 4 ай бұрын
@@neuralninja-ai 닌자님!! 자꾸 질문드려 죄송해요. 닌자님 영상 보면 컨트롤넷에서 오픈포즈등 모델이 safetensors 로 뜨는데. 제가 받은것은 pth파일이어요. 다른 파일인건가요? 이름을 바꿔야 하는 걸까요? 죄송합니다. 귀찮으시면 답 안해주셔도 돼요 >< 여튼 depth등은 잘 캡처를 하는데.. 오픈포즈는 전혀 이미지가 뜨질 않네요. ㅜㅜ
@rcdiy4832
@rcdiy4832 3 ай бұрын
동영상은 몇 초 까지 길게 작업 할 수 있는건가요?
@neuralninja-ai
@neuralninja-ai 3 ай бұрын
딱 정해진거는 없는거 같아요~ 램에 따라서 다르긴하지만 100~200장 정도가 적당해보여요~ kzfaq.info/get/bejne/bMtgjbSDm6qzdHk.html 영상 참고하시면 제한없이 생성하실수는 있어요~
@nitinburli7814
@nitinburli7814 4 ай бұрын
Hi, sorry to bother you again. Just wanted to know, what is the purpose of the ModelSamplingDiscrete node?
@neuralninja-ai
@neuralninja-ai 4 ай бұрын
I don't know the details either~ official comfyui lcm example mentioned that it helps with the results, so I'm using it too.
@tvm9958
@tvm9958 Ай бұрын
lcm 로라 넣은다음 다른얼굴 로라 넣으려면 어떻게해야되나요? 웹ui는 그냥 프롬프트에 넣으면됐었는데 안되네용..ㅠ
@neuralninja-ai
@neuralninja-ai Ай бұрын
기본적으로는 체크포인트노드와 lcm 노드 사이에 load lora 노드를 넣어서 로라를 추가할수 있어요~ kzfaq.info/get/bejne/mch3bMuols3IY5s.html 이런식으로 다른노드를 이용하면 sdwebui처럼 적용시키는 방법도 있으니 참고해보세영~
@dalkim1889
@dalkim1889 4 ай бұрын
강의 감사합니다. 컴퓨터 사양은 어떻게 되세요?
@neuralninja-ai
@neuralninja-ai 4 ай бұрын
영상 내 설명은 모두 코랩프로기준으로 찍었어요~
@dalkim1889
@dalkim1889 4 ай бұрын
@@neuralninja-ai 아~ 코랩프로가 뭔지 지금 알았어요. ㅎ 감사합니다. 랜더링 시간이 확실히 빠른지 궁금하네요^^
@neuralninja-ai
@neuralninja-ai 4 ай бұрын
아하 코랩프로 기본은 3060 12gb정도의 사양이라고 보시면되요~ 4090급으로 높힐수도 있는데 이러면 몇시간만에 한달치 사용량을 다 소진할수도 있어요; 그리고 말씀하신데로 그래픽카드 사양이 높을수록 생성속도는 빨라져요~
@dalkim1889
@dalkim1889 4 ай бұрын
많이 배우네요 ㅎ 감사합니다 😊
@familystory9048
@familystory9048 5 ай бұрын
요즘은 comfyui만 사용하시나봐요~ a11은 안쓰시는거에요?😢
@neuralninja-ai
@neuralninja-ai 5 ай бұрын
아뇨~ a1111도 잘 사용하고 있어요~ 여전히 사진 뽑긴 a1111가 좋은거 같아요 외부 연동도 더 좋구요~ a1111쪽도 올려볼게요~
@familystory9048
@familystory9048 5 ай бұрын
@@neuralninja-ai A11 에서 작업하는AnimateDiff 배우고 싶어요~ 기회가 되신다면 부탁드려요~☺️
@AIK-arT
@AIK-arT 25 күн бұрын
KSampler 디노이즈를 0으로 하면 돌아가는데 0.1만 올려도 에러뜨네요 어떻게 해야될까요?
@neuralninja-ai
@neuralninja-ai 25 күн бұрын
헉 무슨 에러일까요; 에러 메세지를 확인해봐야할거같아요~ 베이스모델버전이나 이미지 크기등이 영향이 있을수 있을거같아요~
@AIK-arT
@AIK-arT 25 күн бұрын
@@neuralninja-ai Error occurred when executing KSampler: 'TimestepEmbedSequential' object has no attribute '1' File "C:\ComfyUI_windows_portable\ComfyUI\execution.py", line 151, in recursive_execute output_data, output_ui = get_output_data(obj, input_data_all) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\ComfyUI_windows_portable\ComfyUI\execution.py", line 81, in get_output_data return_values = map_node_over_list(obj, input_data_all, obj.FUNCTION, allow_interrupt=True) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\ComfyUI_windows_portable\ComfyUI\execution.py", line 74, in map_node_over_list results.append(getattr(obj, func)(**slice_dict(input_data_all, i))) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\ComfyUI_windows_portable\ComfyUI odes.py", line 1344, in sample return common_ksampler(model, seed, steps, cfg, sampler_name, scheduler, positive, negative, latent_image, denoise=denoise) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\ComfyUI_windows_portable\ComfyUI odes.py", line 1314, in common_ksampler samples = comfy.sample.sample(model, noise, steps, cfg, sampler_name, scheduler, positive, negative, latent_image, ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\ComfyUI_windows_portable\ComfyUI\custom_nodes\ComfyUI-Impact-Pack\modules\impact\sample_error_enhancer.py", line 9, in informative_sample return original_sample(*args, **kwargs) # This code helps interpret error messages that occur within exceptions but does not have any impact on other operations. ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\ComfyUI_windows_portable\ComfyUI\custom_nodes\ComfyUI-AnimateDiff-Evolved\animatediff\sampling.py", line 419, in motion_sample latents = orig_comfy_sample(model, noise, *args, **kwargs) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\ComfyUI_windows_portable\ComfyUI\custom_nodes\ComfyUI-Advanced-ControlNet\adv_control\control_reference.py", line 47, in refcn_sample return orig_comfy_sample(model, *args, **kwargs) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\ComfyUI_windows_portable\ComfyUI\custom_nodes\ComfyUI-Advanced-ControlNet\adv_control\utils.py", line 111, in uncond_multiplier_check_cn_sample return orig_comfy_sample(model, *args, **kwargs) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\ComfyUI_windows_portable\ComfyUI\comfy\sample.py", line 37, in sample samples = sampler.sample(noise, positive, negative, cfg=cfg, latent_image=latent_image, start_step=start_step, last_step=last_step, force_full_denoise=force_full_denoise, denoise_mask=noise_mask, sigmas=sigmas, callback=callback, disable_pbar=disable_pbar, seed=seed) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\ComfyUI_windows_portable\ComfyUI\comfy\samplers.py", line 761, in sample return sample(self.model, noise, positive, negative, cfg, self.device, sampler, sigmas, self.model_options, latent_image=latent_image, denoise_mask=denoise_mask, callback=callback, disable_pbar=disable_pbar, seed=seed) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\ComfyUI_windows_portable\ComfyUI\comfy\samplers.py", line 663, in sample return cfg_guider.sample(noise, latent_image, sampler, sigmas, denoise_mask, callback, disable_pbar, seed) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\ComfyUI_windows_portable\ComfyUI\comfy\samplers.py", line 650, in sample output = self.inner_sample(noise, latent_image, device, sampler, sigmas, denoise_mask, callback, disable_pbar, seed) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\ComfyUI_windows_portable\ComfyUI\comfy\samplers.py", line 625, in inner_sample self.conds = process_conds(self.inner_model, noise, self.conds, device, latent_image, denoise_mask, seed) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\ComfyUI_windows_portable\ComfyUI\comfy\samplers.py", line 587, in process_conds pre_run_control(model, conds[k]) File "C:\ComfyUI_windows_portable\ComfyUI\comfy\samplers.py", line 439, in pre_run_control x['control'].pre_run(model, percent_to_timestep_function) File "C:\ComfyUI_windows_portable\ComfyUI\custom_nodes\ComfyUI-Advanced-ControlNet\adv_control\utils.py", line 662, in pre_run_inject self.base.pre_run(model, percent_to_timestep_function) File "C:\ComfyUI_windows_portable\ComfyUI\comfy\controlnet.py", line 275, in pre_run super().pre_run(model, percent_to_timestep_function) File "C:\ComfyUI_windows_portable\ComfyUI\comfy\controlnet.py", line 200, in pre_run super().pre_run(model, percent_to_timestep_function) File "C:\ComfyUI_windows_portable\ComfyUI\comfy\controlnet.py", line 59, in pre_run self.previous_controlnet.pre_run(model, percent_to_timestep_function) File "C:\ComfyUI_windows_portable\ComfyUI\custom_nodes\ComfyUI-Advanced-ControlNet\adv_control\utils.py", line 662, in pre_run_inject self.base.pre_run(model, percent_to_timestep_function) File "C:\ComfyUI_windows_portable\ComfyUI\comfy\controlnet.py", line 306, in pre_run comfy.utils.set_attr_param(self.control_model, k, self.control_weights[k].to(dtype).to(comfy.model_management.get_torch_device())) File "C:\ComfyUI_windows_portable\ComfyUI\comfy\utils.py", line 302, in set_attr_param return set_attr(obj, attr, torch.nn.Parameter(value, requires_grad=False)) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\ComfyUI_windows_portable\ComfyUI\comfy\utils.py", line 296, in set_attr obj = getattr(obj, name) ^^^^^^^^^^^^^^^^^^ File "C:\ComfyUI_windows_portable\python_embeded\Lib\site-packages\torch n\modules\module.py", line 1709, in __getattr__ raise AttributeError(f"'{type(self).__name__}' object has no attribute '{name}'")
@neuralninja-ai
@neuralninja-ai 25 күн бұрын
헉;; 첨보는 오류같아요.. 이럴땐 다시 new_ComfyUI_windows_portable_nvidia_cu121_or_cpu.7z 압축풀고 새롭게 실행하는게 최고죠~;;
@AIK-arT
@AIK-arT 25 күн бұрын
@@neuralninja-ai 아... 메인 모델을 SDXL을 써서 꼬였었네요 해결이 완전히 된건 아니지만 도움 받게 되어 감사합니다
@user-tc2ro5ln9b
@user-tc2ro5ln9b 23 күн бұрын
영상보고 잘 배우고 있습니다!! 그런데 자꾸 Ksamper가 에러가 나서 보니까 아래문구가 계속 보이더라고요 module for custom nodes: No module named 'lws' 그래서 검색 해보니 pip install lws 이렇게 하면된다고 하던데.. 어디 폴더에 설치 해야 할까요;; 여기저기 다 설치해봐도 오류문구가 계속뜨네요 ㅠㅠ
@user-tc2ro5ln9b
@user-tc2ro5ln9b 23 күн бұрын
아 그리고 혹시 pc에 설치하여 사용중인데 gpu를 따로 유료로 구매하여 사용하는 방법도 있나요??
@neuralninja-ai
@neuralninja-ai 23 күн бұрын
kzfaq.info/get/bejne/mtuToZafvNyme6M.html 모듈설치는 이 영상을 참고하시면 도움이 되실거에요~
@neuralninja-ai
@neuralninja-ai 23 күн бұрын
로컬피씨에서는 유료로 gpu자원을 빌리는 서비스는 못본거 같아요~ colab이나 runpod에서 유료서비스를 많이 이용하시는거 같아요~
@user-tc2ro5ln9b
@user-tc2ro5ln9b 23 күн бұрын
답변 감사드립니다!
@aqua116
@aqua116 4 ай бұрын
안녕하세요 뉴럴님 out of memory도 해결했는데 영상 어느 정도 만들다 보면 어느샌가 영상 재생속도가 두배가 된 채로 만들어집니다..
@neuralninja-ai
@neuralninja-ai 4 ай бұрын
아하 video combine노드에서 frame rate를 맞춰주시면될거 같아요~ 영상마다 다를수있고 아니면 불러오실때 특정 fps 로 불러온다면 거기에 맞추시면되영
@aqua116
@aqua116 4 ай бұрын
감사합니다. 재밌네요 comfyui도​@@neuralninja-ai
@COURSE-zw4ch
@COURSE-zw4ch 15 күн бұрын
video reference IPAdapter - undefined Keyframe IPAdapter - undefined 이 두개가 빨간상자로 에러로 뜹니다. 해결 방법이 있을까요?
@neuralninja-ai
@neuralninja-ai 15 күн бұрын
어떤 워크플로우이실까요~ 여기엔 ipadapter가 없어보여서요;; 2024-03-26 전후로 ipadapter 가 많이 바껴서 이전에 생성한 워크플로우는 빨각색으로 표시될수 있어요~
@drivekim
@drivekim 3 ай бұрын
modelSamplingDiscrete 없으면 뭐가 문제일까요? 업데이트 다 해도 없네요.
@neuralninja-ai
@neuralninja-ai 3 ай бұрын
comfyui 내장 노드라서 comfyui만 최신이면 있으실거에요~ comfyui를 업데이트해보시고 워크플로우를 불러온거면 표시만 에러로 날수도 있으니 직접 노드를 선택해서 추가해보세요~
@user-te4jd3ik4m
@user-te4jd3ik4m 3 ай бұрын
KSampler를 실행할 때 오류가 발생했습니다. 디바이스 0에 대한 할당이 허용된 메모리를 초과합니다. (메모리 부족) 현재 할당: 11.65GiB 요청됨: 2.32GiB 디바이스 제한: 8.00GiB 여유 공간 (CUDA에 따름) : 0 바이트 PyTorch 제한(사용자 제공 메모리 비율에 의해 설정됨) 로컬로 하는데 6:09초에 이렇게 떠서 방법이 없네요..
@user-te4jd3ik4m
@user-te4jd3ik4m 3 ай бұрын
혹시나 해서 0.5초로 줄여서 하니 되네요.. rtx3070인디 이거 글카가 안좋아서 다음단계도 힘든건가요? ㅠㅠ
@neuralninja-ai
@neuralninja-ai 3 ай бұрын
그래픽카드가 안좋다기보다는 vram이 낮아서 그런거 같아요~ 3060 12gb가 더 낮은사양이라도 vram이 높아서 느리더라도 생성자체는 문제가 없는.. 그런거죠;; 요즘은 8gb도 대부분은 다 가능한데 유독 힘든게 이 animatediff를 이용한 vid2vid인거 같아요;; 일단 생성 사이즈를 줄여서 생성가능한 크기를 찾아보시는게 좋을거 같아요
@user-te4jd3ik4m
@user-te4jd3ik4m 3 ай бұрын
@@neuralninja-ai 흠 그럼 코랩을 쓰면 좀 제약없이 사용하는편인가요? 선생님들 작업물 정도로 저도 뽑고 싶은데 코랩 요금제 어떤거 쓰시는지 궁금합니다
@neuralninja-ai
@neuralninja-ai 3 ай бұрын
코랩프로는 3060 12gb급이라고 보시면되요~ 사양도 사양이지만.. 영상쪽은 무조건 로컬이 편해요.. 자기전에 걸어둘수 있기때문이죠;; 제가 올린 대부분의 영상은 3080ti에서 뽑았고 최근엔 4090으로 업그레이드 했어요~
@user-nd7hk6vp6q
@user-nd7hk6vp6q 4 ай бұрын
Pls can you put english subtitles, i dont understand the tutorial very well plss😢😓😫
@neuralninja-ai
@neuralninja-ai 4 ай бұрын
Thanks! I'll try!
@user-nd7hk6vp6q
@user-nd7hk6vp6q 4 ай бұрын
@@neuralninja-ai thank you
@inkinno
@inkinno 2 ай бұрын
영상을 넣고 돌리는데 메모리부족이라는 에러가 뜨는데 혹시 .. 어떤 이유인지 알까요? vram 24g 4090인데...
@neuralninja-ai
@neuralninja-ai 2 ай бұрын
comfyui 와 animatediff 특성상 길이가 길수록 어쩔수없이 램부족이 발생해요~ kzfaq.info/get/bejne/bMtgjbSDm6qzdHk.html 긴영상 생성은 이영상을 참고해보세요~
@user-uz3zf4nt9v
@user-uz3zf4nt9v Ай бұрын
컨트롤넷에서 계속 메모리 부족이라고 떠서요 이 경우에는 무엇을 줄여야 하나요 ??
@neuralninja-ai
@neuralninja-ai Ай бұрын
길이를 줄이는게 가장 편한방법이에요~ kzfaq.info/get/bejne/bMtgjbSDm6qzdHk.html 참고하셔서 짧게 여러변 변환해보세요~
@user-uz3zf4nt9v
@user-uz3zf4nt9v Ай бұрын
@@neuralninja-ai 앗 영상이 1초짜리임에도 계속 메모리 부족이 뜨면 영상 사이즈를 줄여야 할까요 ? ㅜㅜ
@neuralninja-ai
@neuralninja-ai Ай бұрын
헛;; 넹 사이즈를 줄이시거나 컨트롤넷을 줄이셔야해요~ 이 영상에서 사이즈가 코랩 기준 사이즈라 vram 12gb정도 기준일거에요~
@user-te4jd3ik4m
@user-te4jd3ik4m 3 ай бұрын
로컬쓰는 사람은 어떻게 하는지 모르겠어요.. 영상 초반에 코랩은 왜 켜는지... 워크 플로우 올려주신 코딩도 어떻게 쓰는지..
@neuralninja-ai
@neuralninja-ai 3 ай бұрын
로컬에서는 코랩과 구글드라이브 내용은 무시하시면되요~ 노드 추가하는 부분부터 보시면되요~
@user-te4jd3ik4m
@user-te4jd3ik4m 3 ай бұрын
@@neuralninja-ai 선생님 코딩으로된 워크플로우 어떻게 쓰는지 알려주심 안되나여 ㅠ
@neuralninja-ai
@neuralninja-ai 3 ай бұрын
코딩이 어떤걸 말씀하시는지 모르겠어여~ 워크플로우는 그대로 불러서 쓰면되는데.. 질문의 요지를 파악이못했어요;;
@user-te4jd3ik4m
@user-te4jd3ik4m 3 ай бұрын
@@neuralninja-ai 워크플로우를 로컬에서 저장하면 그냥 파일이 되고 그냥 그거 로드해서 쓰듯 쓰고 싶은데 다운로드 누르려고 하니 { "last_node_id": 98, "last_link_id": 178, "nodes": [ { "id": 13, "type": "VAEEncode", "pos": [ 765, 26 ], "size": { "0": 210, "1": 46 }, "flags": {}, "order": 13, "mode": 0, "inputs": [ { "name": "pixels", "type": "IMAGE", 막 이런식으로 뜨네요 ㅠㅠ 파일을 받고 싶은데 코딩만 떠요 ㅠ
@user-te4jd3ik4m
@user-te4jd3ik4m 3 ай бұрын
@@neuralninja-ai 혹시나 해서 코딩나오는 화면에서 우클릭 다른이름 저장하기 하니 워크플로우 파일로 다운받아지네요 감사합니당
@user-zi8jx7kc4k
@user-zi8jx7kc4k 3 ай бұрын
설치도 다 했는데 DW 프리프로세서가 없을 땐 어떻게 해야 할 끼요 ㅜㅜ?
@neuralninja-ai
@neuralninja-ai 3 ай бұрын
우선은 open pose 프리프로세서를 이용하시면되요~ dw포즈가 없는건 comfyui_controlnet_aux를 최신으로 업데이트 하시거나 지우고 다시받아보세여~
@futureperv4008
@futureperv4008 5 ай бұрын
센세 아리가또오오오오오
@neuralninja-ai
@neuralninja-ai 5 ай бұрын
감사합니다~! ㅋ_ㅋ
@Fox_songplay
@Fox_songplay 3 ай бұрын
뉴럴닌자님 오류가 떴습니다 ㅠㅠ Error occurred when executing VHS_LoadVideoPath: "C:\Users\O_GU\Desktop\사업\ai\모델\input\input.mp4" could not be loaded with cv. File "D:\ComfyUI_windows_portable\ComfyUI\execution.py", line 152, in recursive_execute output_data, output_ui = get_output_data(obj, input_data_all) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "D:\ComfyUI_windows_portable\ComfyUI\execution.py", line 82, in get_output_data return_values = map_node_over_list(obj, input_data_all, obj.FUNCTION, allow_interrupt=True) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "D:\ComfyUI_windows_portable\ComfyUI\execution.py", line 75, in map_node_over_list results.append(getattr(obj, func)(**slice_dict(input_data_all, i))) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "D:\ComfyUI_windows_portable\ComfyUI\custom_nodes\ComfyUI-VideoHelperSuite\videohelpersuite\load_video_nodes.py", line 228, in load_video return load_video_cv(**kwargs) ^^^^^^^^^^^^^^^^^^^^^^^ File "D:\ComfyUI_windows_portable\ComfyUI\custom_nodes\ComfyUI-VideoHelperSuite\videohelpersuite\load_video_nodes.py", line 120, in load_video_cv (width, height, target_frame_time) = next(gen) ^^^^^^^^^ File "D:\ComfyUI_windows_portable\ComfyUI\custom_nodes\ComfyUI-VideoHelperSuite\videohelpersuite\load_video_nodes.py", line 51, in cv_frame_generator raise ValueError(f"{video} could not be loaded with cv.") CV로 로드할수 없다는데 해결방법이 있을까요?
@neuralninja-ai
@neuralninja-ai 3 ай бұрын
헛;; 무슨 에러일까요; 영문 폴더로만 된 곳으로 옮겨서 테스트해보시고.. 혹시 no module named 'cv2' 라고 뜬다면 설명서를 참고해주세요~
@Fox_songplay
@Fox_songplay 3 ай бұрын
넵 감사합니다! 해보겠습니다!@@neuralninja-ai
@Fox_songplay
@Fox_songplay 3 ай бұрын
대표님 저 한가지 궁금한것이 스테이블 디퓨전이랑 , Comfyui랑 둘다 이동식 메모리에 넣고 컴퓨터 꽂아서 사용하면 안좋을까요?? Comfyui 실행시 'Nvidia_gpu' 로 실행합니다.
@Fox_songplay
@Fox_songplay 3 ай бұрын
컴퓨터 사향은 RAM 32Gb, 4070ti , 1TB용량 , 750w 파워 쓰는데 이모양입니다ㅠ
@neuralninja-ai
@neuralninja-ai 3 ай бұрын
아무래도 내장ssd가 낫겠죠~ 모델 읽는데에서 속도차이날거 같아요 어차피 생성속도는 오로지 그래픽카드 성능이니까 전체적으론 크게 차이가 나진 않을거 같긴해요
@user-zi8jx7kc4k
@user-zi8jx7kc4k 3 ай бұрын
페이스 디테일러가 없을 땐 어떻게 하나요 ㅜㅜ?
@neuralninja-ai
@neuralninja-ai 3 ай бұрын
설명서에 있는 impack 커스텀 노드 설치하시면되요~ 그리고 영상에서는 SimpleDetector+Detailer를 더 추천해요~ 이것도 설명서에 추가해두었어요~
@user-zi8jx7kc4k
@user-zi8jx7kc4k 3 ай бұрын
@@neuralninja-ai 감사합니다!!
@wondstudio
@wondstudio 4 ай бұрын
저는 미리보기도 안되는데 왜 이럴까요?
@neuralninja-ai
@neuralninja-ai 4 ай бұрын
구글 코랩은 네크워크가 느려서 이미지가 큰경우 늦게 뜰 수 있어요~ 너무 느리시면 jpg를 이용해보세요~
@recajin
@recajin Ай бұрын
흐아 ksampler 에서 자꾸 오류가 뜨네요 ㅠ 장치 오류라고 하는데 ....
@recajin
@recajin Ай бұрын
Error occurred when executing KSampler : Allocation on device File "C:\Data\Packages\ComfyUI_re\execution.py", line 151, in recursive_execute output_data, output_ui = get_output_data(obj, input_data_all) File "C:\Data\Packages\ComfyUI_re\execution.py", line 81, in get_output_data return_values = map_node_over_list(obj, input_data_all, obj.FUNCTION, allow_interrupt=True) 이런식으로 쭈르르륵 빨간글씨 뽝! 뜨는데 무섭네요 ㅋㅋ
@neuralninja-ai
@neuralninja-ai Ай бұрын
에러 메세지가 없는거 같아요~ 바로나면 모델 버전 오류이거나 오래걸리다가 나는 에러면 아웃 오브 메모리일 가능성이 클거 같아요~
@user-lz3ed2bs9k
@user-lz3ed2bs9k 4 ай бұрын
안녕하세요! 잘 배우고 있는데 막힌 부분이 있어서요 ㅠㅠ 죄송한데 이런 에러가 뜨고 있습니다 Error occurred when executing DWPreprocessor: 그래서 어떻게 해결 해야할지 모르겠어요..ㅠㅠ 혹시 시간 나면 한 번만 알려줄 수 있나요?\ComfyUI_windows_portable\ComfyUI\custom_nodes\comfyui_controlnet_aux\ckpts\hr16/yolox-onnx\yolox_l.torchscript.pt
@neuralninja-ai
@neuralninja-ai 4 ай бұрын
에러 메세지가 다 안보여서 정확히는 모르겠어요~ 우선은 openpose pose(preprocessor)를 이용해도 큰 차이는 없으니 이걸로 해보세영~ dw 오류는 load image - dw - preview iamge 이렇게 3개의 노드로만 테스트및 오류확인을 해보시는게 좋을거에요
@user-lz3ed2bs9k
@user-lz3ed2bs9k 4 ай бұрын
@@neuralninja-ai 헉.. 답변 너무 고마워요! 말씀하신대로 openpose pose(preprocessor)를 사용했는데 이번에는 이런 에러가 뜨네요... Error occurred when executing KSampler: mat1 and mat2 shapes cannot be multiplied (308x2048 and 768x320) KSampler 쪽이 문제인 것 같아요 ㅠㅠㅠ
@neuralninja-ai
@neuralninja-ai 4 ай бұрын
아마 같은 모델버전을 사용하지 않으신거 같아요~ checkpoint 모델 버전이 sd1.5면 컨트롤넷모델도 sd1.5(openpose sd15) 모델을 선택해주세요~
@user-lz3ed2bs9k
@user-lz3ed2bs9k 4 ай бұрын
@@neuralninja-ai 와 해결됐습니다! 너무너무 감사드려요 ㅠㅠㅠ 앞으로도 좋아요 많이 누를게요!
AnimateDiff  Convert long videos without length restrictions! (comfyui tutorial)
7:46
БОЛЬШОЙ ПЕТУШОК #shorts
00:21
Паша Осадчий
Рет қаралды 6 МЛН
OMG😳 #tiktok #shorts #potapova_blog
00:58
Potapova_blog
Рет қаралды 3,9 МЛН
I’m just a kid 🥹🥰 LeoNata family #shorts
00:12
LeoNata Family
Рет қаралды 19 МЛН
Жайдарман | Туған күн 2024 | Алматы
2:22:55
Jaidarman OFFICIAL / JCI
Рет қаралды 1,4 МЛН
10 Minutes vs. 10 Years of Animation
19:29
Isto Inc.
Рет қаралды 165 М.
"At this rate?" The Story of Stable Diffusion LCM_Lora
14:57
AI 오프너
Рет қаралды 9 М.
Create a lip sync video to match the audio! Try Dream Talk (tutorial, comfyui)
21:55
뉴럴닌자 - AI공부
Рет қаралды 3,5 М.
3 Hours vs. 3 Years of Blender
17:44
Isto Inc.
Рет қаралды 3,9 МЛН
Best mobile of all time💥🗿 [Troll Face]
0:24
Special SHNTY 2.0
Рет қаралды 1,2 МЛН
iPhone 16 с инновационным аккумулятором
0:45
ÉЖИ АКСЁНОВ
Рет қаралды 101 М.
YOTAPHONE 2 - СПУСТЯ 10 ЛЕТ
15:13
ЗЕ МАККЕРС
Рет қаралды 133 М.