geht da nicht einfach Freigabe Link kopieren und in Outlook einfügen? So mach ich das mit OneDrive
@apfelcast13 сағат бұрын
Klar das geht auch. Bei Sendent geht es darum diesen Prozess zu automatisieren.
@SierraX36917 сағат бұрын
Ich verwende Ollama seit ein paar Monaten für ein paar versuche… hauptsächlich das Ollama auf einem MBP M3 16GB läuft und (weil remote Fähigkeiten gefordert waren) python das auf die API zugreift oder OpenWebUI über einen Docker Container auf einer ProxMox Maschine. Hatte auch einen MM M1 8GB benutzt ist aber etwas langsamer als der M3. Man ist leider auf die kleineren Modelle beschränkt… LLaMA3 7B läuft selbst noch auf dem M1 brauchbar. Kann mir aber vorstellen das bei Gemma2 9B schon Schluss ist. Auf 16 GB läuft das zwar gut aber bei 8192 Context ist mir das system schon mal abgeschmiert in einer Form die ich vorher auf dem Mac nicht gesehen habe… und ich verwende Mac's seit 19 oder 20 Jahren. Ich überlege mir einen Studio mit 96 GB zu kaufen oder abonnieren… Damit ich auch grössere Modelle verwenden kann.
@Rewe4life20 сағат бұрын
Moin, ich habe 2 Proxmox Hosts in meinem Homelab und möchte beide in einer Management-Seite haben sodass ich beide aus einem Browser-Tab managen kann. HA benötige ich nicht. Mein zweiter Host läuft nur ab und zu. Der andere läuft 24/7. HA Funktionalitäten benötige ich nicht. Kann ich das irgendwie so aufbauen, dass der Haupt-Host normal arbeitet auch wenn der zweite nicht erreichbar ist?
@ninah5603Күн бұрын
...das bedeutet der Server muss permanent ins Internet raus dürfen? o_O
@Crystallkill1989Күн бұрын
Mac Mini M2 und Anything LLM als UI. Da ist sind auch Web-Scraper, Agents und RAG mit drin. Macht das alles so viel nützlicher! Danke für den Hinweis mit dem Mac!
@ricou.3414Күн бұрын
Wäre mal interessant den MacMini mit M2Pro mit in den Vergleich zu nehmen.
@michaelheineltКүн бұрын
Vielen Dank für das tolle Video. Vielleicht gibts ja auch eine Lösung, wie alles wieder automatisch hochfährt, wenn Netz wieder da?
@peterdanziger1521Күн бұрын
In diesem Video wird ein großer Nachteil dieses Setups nicht erwähnt. Die RTX 3090 hat nur 24 GB RAM. Damit lassen sich nur die kleinsten Versionen der LLMs betreiben und diese sind stark eingeschränkt, also kein Vergleich mit einem ChatGPT. Außerdem hat die Karte auch nicht genügend RAM, um mehrere der kleineren Modelle gleichzeitig zu laden. Das bedeutet, wenn der eine Benutzer mit Modell X unter der andere Benutzer gleichzeitig mit Modell Y arbeiten will, dann geht das schon nicht mehr.
@Computer-Liebhaber2 күн бұрын
Kann ich den Mac noch normal verwenden oder ist er dann nur noch KI-Server?
@donchulio2 күн бұрын
Moin und danke erst einmal für das aufschlussreiche Video! :) In Kombination mit Nginx hat sich bei mir nur ein Problem ergeben: Ich lasse auf meinem NAS beispielsweise Homebridge und OpenSpeedTest laufen welche natürlich die gleiche IP aber einen anderen Port nutzen. Nun schickt mich Nginx aber immer auf die :5000 vom NAS. Was mache ich hier falsch? Hast du eine spontane Idee? :) Danke vorab und hab nachher ein schönes Wochenende!
@tomadur62123 күн бұрын
Es ist super schade dass es von Apple selbst kein ServerOS mehr gibt. Ich frage mich wie die dass selbst in Ihren Rechencenter genau machen.
@tigertaktik3 күн бұрын
mein reserve proxi leitet immer egal welche domain zum port 2000, obwohl port 1811 2099 oder sonst was eingegeben wird. z.b. so sollte es aus sehen wenn port 1811 hinterlegt ist: uptime.lan:1811/?origin=host&app=uptime-kuma&path=%2F aber es kommt immer: uptime.lan:2000/?origin=host&app=uptime-kuma&path=%2F
@TobiasKiefer-h6z3 күн бұрын
Hallo Vielen Dank erst einmal für das Video Ich habe leider kein Export. Was mache ich falsch? Ich kann die CALDAV Adresse auch nicht in die Zwischenablage kopieren. Danke Euch
@martinenke64663 күн бұрын
Besteht die Möglichkeit das man auch Webseiten einbindet sodass er wissen aus einer Webseite ziehen kann? Bzw. Anfragen speziell zu einer Webseite
@olkov4264 күн бұрын
Wieder ein Interessanter Beitrag . Bedeutet lokal das dieser ki Server nach der Installation nicht mehr auf das Internet „zugreifen“ muss? Warum muss man zur Anmeldung auf seinem privaten Server seine Mail angeben? Das wäre schon interessant wenn man zb. Anschreiben erzeugt wo personenbezogene Daten angegeben werden. Danke und Grüße
@apfelcast3 күн бұрын
Richtig, nach der Installation kannst du den Mac vom Internet trennen und die KI Funktionen funktionieren weiterhin. Die E-Mail Adresse dient hier einfach als Unique identifier.
@KarlAlfredRoemer4 күн бұрын
Irgendwie verstehe ich nicht, warum Tesla zehntausende Graphikkarten zu je 40000€ für KI benötigt, obwohl so eine Neural Engine im 700€ Mac mini ja auch schon brauchbar sein soll. Wenn mir das mal jemand erklären könnte...
@apfelcast3 күн бұрын
Weil Tesla vermutlich eine Vielzahl an komplexen KI Anfragen gleichzeitig verarbeiten muss. Der Mac Mini ist ja nur für den Single User Case gedacht.
@borator13674 күн бұрын
Bitte mehr Videos zum Mac mini als Server klingt zumindest sehr interessant in Sachen Stromverbrauch
@jojo_fox61824 күн бұрын
Was wäre LLama auf nen Raspberry pi?👀😂
@CarlBenz-yb4ce4 күн бұрын
Kommt noch irgendwann Part4? Der Part 3 ist schon 5 Monate her 😕
@thomasn.4874 күн бұрын
Die Frage löst hier vielleicht Gelächter aus aber wie fahre ich den Sever runter und wieder rauf wenn die Einrichtung erledigt, Mouse und Tastatur abgenommen habe und den Sever an seinen richtigen Platz stellen will?
@user-tj3vo6vb3m4 күн бұрын
Hallo zusammen, Danke für die gute Beschreibung. Vielleicht passte es hier ganz gut hin, daher mal eine mögliche Alternative: ich führe schon seit Jahren mein persönliches Telefonbuch über die Fritzbox. (mittlerweile die dritte) Dementsprechend groß ist das Telefonbuch, so das es so gut wie keine unbekannten Rufnummern gibt. Seit einiger Zeit erlaubt die Rufbehandlung der Fritzbox es, alle Anrufe die NICHT in meinem Telefonbuch stehen abzuweisen, oder wie ich es gemacht habe SOFORT zum Anrufbeantworter umzuleiten. Also nicht wie hier beschrieben eine "Blacklist" sondern umgekehrt eine "Wight List" mit meinem Telefonbuch. Das klappt natürlich nur wenn ein persönliches Telefonbuch geführt wurde . Ich benötige keinerlei (fremde) Updates, und die sich nicht im Telefonbuch befinden, können ggf.eine Nachricht hinterlassen. LG Holger
@lowkeylyesmith4 күн бұрын
Hm, mich würde interessieren was du über folgendes Szenario denkst und ob ein MacMini dafür ausreicht. Ich arbeite gerade an einem Projekt für meine Behörde, wo es darum geht sichergestellte E-Mails, Nachrichten usw., mit Hilfe von KI nach verdächtigen Inhalten zu durchsuchen/analysieren. Bei mehreren 100.000en ist das manuell nicht mehr zu bewerkstelligen. Ich weiß, in der Cloud würde das kein Problem sein, allerdings ist es so das die Daten unser Haus nicht verlassen dürfen. Für einen performante Serverlandschaft fehlt hier leider auch das Budget. Was denkst du? Umsetzbar mit nem kleinen Mac?
@krauterhexer4 күн бұрын
Ich würd dafür keine 8GB Mac Mini nehmen. die LLM´s sind sehr RAM abhängig/Lastig. Standard LLM´s brauchen mal so rund 4-6GB im RAM, größere auch mal bis über 20GB. Deswegen sind auch manche kleinere Iphone/ipad Modelle nichtfür die lokale KI vorgesehen. die CPU/NPU würde reichen, aber sie haben zu wenig ram. Ich würd zumindest 16GB nehmen.
@johanneshauser8574 күн бұрын
Und wie ist die Qualität der Anwworten, die hängt ja auch sehr von der Leistung ab
@Hilfe5 күн бұрын
Der MacMini als M4 Pro wird meine Offline Lösung für die KI Geschichten 😍😍
@MichaelZwahlen5 күн бұрын
Danke für das spannende Video. Kannst du die Leistung von OLLAMA einordnen im Vergleich zu Bildungsversion von Copilot (gratis für Studenten) und im Vergleich zu Copilot als Bezahlversion (privat). Wie siet es mit Copilot versionen aus? PS: Dein Voice-Sound bei Screenrecording ist top!
@aaartist_yt5 күн бұрын
Sehr interessantes Video. Ich stand Ende letzten Jahres auch vor der Suche für einen lokalen AI Rechner, habe mich dann aber für ein Custom build PC mit ordentlicher Grafikkarte entschieden. Die NVIDIA Unterstützung ist bei den meisten Lösungen hier wirklich ideal. Habe auch gleich mal den "ApfelCast Benchmark" gemacht ;) MacBook M1: 58s (10.75 tokens/s) Windows mit RTX4070: 17s (54.73 tokens/s) Zeigt mir auf jeden Fall, dass es die richtige Entscheidung war, auch wenn ich lieber einen Mac genommen hätte. Der PC ist schneller als der MacMini und hat den Vorteil das viel viel größere Modelle geladen werden können. Das gleiche kann man scheinbar auch mit einem MacStudio erreichen, aber dann leider für den 3-4 fachen Preis. Das war es mit nicht wert.
@upper_deck5 күн бұрын
Hallo Daniel, ich finde die Lösung sehr gut und würde es ebenfalls mal ausprobieren. Ich habe bereits einen Proxmox-Server (headless) laufen und würde gerne ein Linux „remote“ benutzen wollen. Da ich sehe, dass Du ebenfalls einen Mac benutzt, wäre meine Frage, ob es dafür ebenfalls eine Lösung gibt? Mir würde es viel besser gefallen, wenn ich meinen Mac dazu benutzen könnte. Ist dies überhaupt in vergleichbarer Weise möglich? Vielleicht hast Du schon ein solches Video erstellt, gefunden habe ich jedenfall auf YT nichts entsprechendes. VG
@iRed.5 күн бұрын
Hat irgendwer einen Mac Studio mit M2 Ultra? Mich würden da mal die Werte interessieren.
@firatguven65925 күн бұрын
Ich habe den alten Macbook air M1 Laptop meiner Frau, bei dem das Display kaputt gegangen ist, für den gleichen Zweck im Wohnzimmer gestellt headless. Wenn ich doch Display brauche, wird er mit dem Fernseher verbunden durch eine Dockingstation. Ollama läuft und ist erreichbar im Heimnetzwerk. Allerdings sind die 8GB Arbeitsspeicher für KI Modelle gerade das unterste Limit. Hier laufen nur die kleinsten Modelle. Energieverbrauch ist sensationell bei den M Modellen. Ich bin jedoch kein Fan vom MacOS
@lutzakemann5 күн бұрын
RAM ist doch aufrüstbar, oder ??
@firatguven65925 күн бұрын
@@lutzakemannj nein leider, bei Air Modelle sind die RAM gelötet und es gibt keine RAM Riegel mehr, die man austauschen könnte. Dadurch wird das Laptop zwar sehr dünn, jedoch geht es auf Kosten upgradablity
@svenst5 күн бұрын
Viel einfacher geht’s mit RAGNA Desktop. Das ist eine all in one App. Nix mit Terminal,oder so. Kann alles was ollama kann und kommt direkt mit einem UI und auch nem Server bzw api endpoint der dann im eigenen Netzwerk geteilt werden kann
@alexmuler285 күн бұрын
kannst du mal ein Vergleich zu googles tpu machen?
@WERNER.MACHTS5 күн бұрын
Hallo Daniel, zunächst einmal - vielen Dank für das hoch kompetente Video. Ich habe eine Frage, die du hoffentlich beantworten kannst. Ich bin WERNER und hier ist sie: Bei 5:07 sprichst du über mehrere Monitore. Genau darum geht's. Ich möchte zu Hause das ankommende Signal über meine zwei Monitore strecken. Wie geht das oder geht das überhaupt? Bisher habe ich nur sehen können, dass ich oben zwischen Monitor 1 und 2 hin und herschalten kann. Wenn du mir helfen kannst, wäre ich dir sehr dankbar. Vielen Dank im Voraus, WERNER
@lutzakemann5 күн бұрын
Was meinst Du, wird das auch so gut mit einem Mac Mini mit M1 Chip funktionieren?
@Silberschweifer5 күн бұрын
Wieviel Ram hat er?
@lutzakemann5 күн бұрын
@@Silberschweifer auch 8 GB
@Silberschweifer5 күн бұрын
@@lutzakemann 3B modelle 4Q sollten gut gehen. 7B 4Q Modelle mhm mit Wartezeit und nur wenn nichts anderes viel Ram benötigt
@lutzakemann5 күн бұрын
@@Silberschweifer weder 3B noch 4Q sagen mir irgendetwas ...
@Silberschweifer4 күн бұрын
@@lutzakemann 3 Billion Parameter> sozusagen neuronale Verbindungen 4Q > 4 bit quantisierung, ist wie runden von Nachkommatellen. Je kleiner die Zahl desto kleiner und schneller wird das llm, allerdings produzieren schlechtere Antworten
@uwerossocha35245 күн бұрын
Das ist Super. Habe mir letztes Jahr für einen Test einen gekauft und seitdem hat er ein trauriges Dasein. Das wäre seine Rettung.
@Nash_Bridges6 күн бұрын
Ich würde mich sehr über mehr Content über den Mac Mini als Homeserver freuen. Genau so wie dieses Video finde ich es immer wieder schön wie du das zeigst und erklärst ohne jegliche Werbung. Wie immer sehr interessant und sehr gut gemacht!
@WohnzimmerYoutube2 күн бұрын
Da lass mal lieber die Finger von und hol Dir etwas mit einer x86-64 Architektur. Beim Mac Mini funktioniert leider nicht mal mehr die Dateifreigabe zuverlässig.
@klogganogga4506 күн бұрын
Super! Interessant wäre aber auch, da preisgünstiger, eine Lösung von AMD, denn deren "U" CPUs bieten auch KI-Beschleunigung der 2. Generation, die laut Benchmarks die von Apple übertreffen soll (Die Ryzen 88xx Modelle)
@Silberschweifer5 күн бұрын
spannend sind die LLM dazu kompatible? meisens scheitert es daran das die KI Modelle die Neural Engine garnicht nutzen können
@krauterhexer4 күн бұрын
Laut Specs sind die beiden NPU´s gleich stark, je 16 TOPS
@saschaw.11766 күн бұрын
Erst mal danke für das Video. :) Hab es mal auf meinem MacBook Air getestet, leider ist da die Performance so schlecht, dass man damit nicht arbeiten kann. Teilweise hängt dann auch der gesamte Rechner, so dass man nicht mal mehr parallel arbeiten kann um auf die Antwort zu warten. Aber das video geht ja auch darum, dass ein extra Rechner der nur das Machen soll bereit steht. :)
@DrJohn1236 күн бұрын
Danke für das Video! Wie viel RAM hat denn dein Mac mini? Ich dachte Lama 3 braucht mindestens 16 GB. Von daher wird es mit den 700 € Mac mini knapp, oder? Und warum muss man sich einen Account machen, wenn das ganze lokal läuft? Oder ist das ein lokaler Account?
@enzolorenzo25896 күн бұрын
Die Frage ist auch, was erst mit einem M4 geht. Bzw. den kommenden M5 usw., die noch deutlich performantere Neural Engines haben werden. Was natürlich ein echtes Killerargument ist, sind die max. 50W. Vermutlich wird es nicht mehr lange dauern, bis es Komplettsysteme auf ARM-Basis geben wird, die man sich zu Hause out of the box hinstellen wird können. Von Apple, HP, Amazon etc. etc. Bad News for Intel.
@Robert655366 күн бұрын
M5 wird deutlich performantere Neural Engines haben? Weißt du mehr als wir? Arbeitest du in Cupertino? Wie dem auch, ch pers. warte auch sehnsüchtig auf eine performante ARM-Kiste, die ich mir als Linux-Server hinstellen kann. Bei Windows wird es meiner Einschätzung nach noch dauern, bis x86 verdrängt wird. Stichwort Treiber…
@enzolorenzo25895 күн бұрын
@@Robert65536 Wo soll denn die Entwicklung hingehen? Der M4 hat schon einen größeren Sprung in die Richtung gemacht. Der M5 wird da sicherlich nicht zurückfallen. Wenn du jetzt einen performanten ARM-Linux-Server willst, hol die einen M4 Studio Pro und installier dann ein Linux. Aber warum? Ich finde, der Mac ist die perfekte Symbiose. Ein ausgewachsenes Unix und ein Desktop, der nicht umsonst als Kopiervorlage für alle andere diente und dient.
@stefancho6 күн бұрын
Mir haben hier noch Informationen zum Arbeitsspeicher gefehlt. Wie viel RAM sollte mein Mac Mini dafür haben? Ab wann bekomme ich Limitierungsprobleme bei meiner lokalen KI bei zu wenig RAM?
@Silberschweifer5 күн бұрын
also 3B Modelle schafft ein 8gb Ram gut. ich denke nach oben ist viel Luft und mindestens 16 GB sollten es schon sein damit schaffst du gut 7B Modelle
@FructHose6 күн бұрын
Auch wenn es KZfaqr gibt, die immer gern gegen dich schießen, ich finde deine Videos Inhaltlich gut. Danke dafür!
@jakobholzner6 күн бұрын
Interessant, wäre mir bisher nicht so aufgefallen. Wer denn zum Beispiel? und mit welcher Begründung haten die?
@Hilfe5 күн бұрын
@@jakobholznerwürde mich auch interessieren 🤔
@JustDonat6 күн бұрын
Danke für deinen guten Content
@JustDonat6 күн бұрын
oha muss ich gleich testen
@JustDonat6 күн бұрын
also ich hab das video noch nicht ganz fertig geschaut aber schon der titel sagt meinem gehirn das ich das brauche
@flynifty39517 күн бұрын
Ein EV Zertifikat ist das aber nicht.
@patrickbach46337 күн бұрын
Homelab 👍
@elHuron17 күн бұрын
Wenn mein Multimedia-Panel ein Plexiglas hat und an einer ungünstigen Stelle positioniert ist, macht es sinn, den UniFi Express durch einen Cloud Gateway Ultra zu eretzen un dann an entsprechender Stelle mit einem AP ein W-LAN zu erzeugen.
@ackwood-it7 күн бұрын
Na ja so richtig pralle ist anders. Hat zwar einige Funktionen jedoch ein einfaches bearbeiten (Editor Funktion) habe ich nicht gefunden. Viellleicht bin ich ja auch nur blind.
@bogy52598 күн бұрын
Kannst du Mal zeigen wie man einen ipsec Site to Site zwischen zwei Gateways macht? An sich ja einfach aber ich hab das Problem dass ich nur ipv6 habe und normaler vpn kein Problem, aber ipsec braucht ESP und das bekomme ich nicht mit einer Vps weitergeleitet
@timo60489 күн бұрын
Hallo, ich habs bei Homeassistant hinzu gefügt, doch beim starten meiner Powerwalker 2200 lädt er und stoppt dann alles, im Protokoll nachzulesen. Er meint dann: [00:39:25] INFO: Starting the UPS drivers... Network UPS Tools - Generic HID driver 0.47 (2.8.0) USB communication driver (libusb 1.0) 0.43 libusb1: Could not open any HID devices: insufficient permissions on everything No matching HID UPS found Driver failed to start (exit status=1) Network UPS Tools - UPS driver controller 2.8.0 cont-init: info: /etc/cont-init.d/nut.sh exited 1 cont-init: info: running /etc/cont-init.d/nutclient.sh cont-init: info: /etc/cont-init.d/nutclient.sh exited 0 cont-init: warning: some scripts exited nonzero s6-rc: warning: unable to start service legacy-cont-init: command exited 1 /run/s6/basedir/scripts/rc.init: warning: s6-rc failed to properly bring all the services up! Check your logs (in /run/uncaught-logs/current if you have in-container logging) for more information. /run/s6/basedir/scripts/rc.init: fatal: stopping the container. s6-rc: info: service fix-attrs: stopping Jemand eine Idee?