Ich mag mein ZSH, egal ob unter Windows oder Linux .
Beiträge von Syntafin
-
-
Aber ich bevorzuge zuhause und am Laptop aus Komfort- und Effizienzgründen kein Linux zu verwenden
Irgendwie beißt sich das ja schon die Aussage.
-
Was bin ich dann?
-
Irgendwie scheinbar Sachsen wenn man von den Schulferien ausgeht, aber auch Nordrhein Westfalen wenn man von einem damaligen Impressum ausgeht.
-
Schau doch mal ob Unternehmen bei dir in der Nähe solch ein Praktikum anbieten?
-
you might need to use a service like Firebase or OneSignal
No, even Apple supports VAPID and this here is a instruction how to use it.
-
im Auto verbindet sich mein Pixel eh mit dem Auto und Waze startet, ich sehe also da nicht wirklich aktuell Gründe für Tasker oder Routinen (so heißt das übrigens unter Android itself).
Lautlos, ne... Wenn meine Uhr verbunden ist, ist Handy eh stumm und daheim macht's ja auch nur einen Mucks wenn nicht auf dem Dock, was daheim ziemlich immer der Fall ist
-
Rein von Nutzungsdauer wohl (nicht danach geordnet):
- Crunchyroll
- Discord
- Conversations
- M$ Teams
- Vivaldi
- TIDAL
- YouTube
-
Offennsichtlich in und um Herne (wo auch immer das ist)
-
Für diese ganzen LLMs egal ob am Ende für Text, Bild oder Video werden entsprechend Daten aus dem Internet abgegriffen (teils auch illegal, zu 99%), in einer Datenbank gespeichert (grobe Erklärung) und mit Infos versehen zum wiederfinden (grob könnte man sagen Tags)
Bei einer Anfrage dann wird anhand der Anfrage bestimmt welche Daten es braucht, diese zusammengesetzt und ausgegeben. Nix denken....
-
Wer bitte macht das in 2025 noch bitte.... Zu viel Geld? Die Kosten gerade bei United Internet sich ständig aus der Blacklist zu kaufen...
Zudem, DKIM fehlt, DMARC nicht korrekt konfiguriert, SPF zumindest ist eingerichtet.
-
welche KI bitte? Ernsthaft.... ein LLM ist keine KI. Schaut euch an wie LLMs funktionieren, bevor ihr mit Catch-Wörtern um euch werft. "Sehen wie die KI denkt" tut man übrigens auch nicht....
weil ja äh... wie gesagt LLM != KI.
Eine KI würde denken, ein LLM versteht ja nicht mal was man eingibt (und mehr als ein LLM sind GPT und Gemini nicht, andere LLMs absichtlich nicht genannt).
-
Wenn du damit allerdings meinst, dass eventuell einzelne Worte oder Wissen zu einzelnen Themen nur in bestimmten Sprachen vorhanden sind und das Modell deshalb auf diese Sprache umswitched, dann verstehe, macht Sinn.
Korrekt, da ein LLM weder deine Eingabe versteht, noch weiß was es ausgibt passieren diese Fehler.
-
Das switchen kommt übrigens nicht vom "denken", dem LLM liegen die Daten nur in dieser Sprache vor.
-
Wie gesagt, finde das Projekt recht spannend, gibt es schon paar Mockups vom Frontend?
(Ich wäre fast ins Englische gerutscht beim schreiben xD) -
Wollte auch nichts gegen ComfyUI als Wahl sagen, war ja nur eine Frage
-
Ja ob CUDA oder ROCm gewählt wird, macht das Programm von sich aus.
(Oder die wie auch immer genannte falls vorhandene Schnittstelle von Intel)
-
Modelle nutze ich ja keinen eigenen Code, sondern ComfyUI,
ComfyUI ist nur ein UI für SDXL, und SDXL setzt schon lange kein CUDA mehr ein
-
-
Nein, aber überlege mir am Wochenende mal OpenSeek-R1 zu testen.