Ja ob CUDA oder ROCm gewählt wird, macht das Programm von sich aus.
(Oder die wie auch immer genannte falls vorhandene Schnittstelle von Intel)
Ja ob CUDA oder ROCm gewählt wird, macht das Programm von sich aus.
(Oder die wie auch immer genannte falls vorhandene Schnittstelle von Intel)
Modelle nutze ich ja keinen eigenen Code, sondern ComfyUI,
ComfyUI ist nur ein UI für SDXL, und SDXL setzt schon lange kein CUDA mehr ein
Nein, aber überlege mir am Wochenende mal OpenSeek-R1 zu testen.
Die Idee klingt echt gut, hatte am Anfang etwas die Sorge als ich Filmposter laß, da da ja gerne unschlüssige Verwendungsrechte gibt.
Willst du eigentlich den Python Teil auf offenen Standards für GPU Beschleunigung setzen oder eher auf propitäre Lösungen wie CUDA beschränken?
KI würde bedeuten Künstliche Intelligenz, was ein LLM (Large Language Model, Großes Sprachmodell) halt einfach nicht ist.
Tools wie GPT, Gemini und Co sind nur LLMs.
Oben schreibst du was vonm Portainer, warum nutzt du es dann nicht? Du kannst ja da recht einfach einen Stack erstellen und dein Dockerfile reinkopieren, Portainer macht dann den Rest
Den part habe ich irgendwie vergessen, aber ja, wenn man Portainer verwendet, wieso nicht nutzen.
Hol dir das PPA rein, dann hast du alles direkt bis PHP 8.4.
Wieso eigentlich Apache2 und nicht NGINX oder ähnliches?
Wenn andere eine Debatte führen und du dich nicht beteiligen willst, ist das fein. Anderen vorschreiben zu wollen sie dürften keine Debatten (zum Themenvorschlag wohlbemerkt) führen, ist nicht fein.
In einem passenden Thema wäre das einfach angebrachter.
Leider ging Forenkultur über die letzten Jahrzehnte verloren, aber meiner Erfahrung nach leben Foren durch Austausch und Informationen. Dementsprechend sterben sie durch Einschränkungen von Diskussion und Sichtweisen.
Dein Verhalten hier mit Vollquote auf den Beitrag direkt davor zeigt ein großes Problem auf.
Das hier soll keine Debatte darüber sein wie ein LLM funktioniert und wieso es als Künstliche Intelligenz deklassifiziert ist, es geht hier um den Vorschlag das Beiträge die von einem LLM erstellt wurden zu kennzeichnen sind.
Ich fände es gut wenn ihr den Regeln aufgenommen wird das Inhalte die von LLMs (von der Masse als KI bezeichnete Tools wie ChatGPT, Gemini, etc) gekennzeichnet werden müssen und bei zu Wiederhandlung entsprechend gelöscht werden.
Ein Verbot wäre natürlich noch besser.
Beispiele hier im Forum findet man ja in den Beiträgen der letzten 24 Stunden, denn zur Qualität und Diskussion trägt das ja nicht bei.
Also ich kann dir mit Sicherheit sagen das Hetzner kein Plesk verwendet bei ihren Webhosting angeboten!
Das die Möglichkeit besteht bei Dedicated Servern (und evtl auch Cloud VPS) sich Plesk oder cPanel installieren lassen ja, aber die nutzen da eine eigene Verwaltungssoftware die von Hetzner entwickelt wurde.
Alles zu außer 22, 80, 443 bzw. 22 zu und dafür den port für WireGuard offen lassen.
In der heutigen Zeit würde ich nicht empfehlen selbst einen Mail server zu betreiben, das kann schnell teuer werden (um sich von Blacklists löschen zu lassen).
Hey ich hab mehrere Angebote von Server gesehen mit 1G Uplink oder 10G Uplink macht hat das bei der ladezeit von Webseiten auch Auswirkungen oder merkt man da keinen unterschied?
Da merkt man keinen Unterschied, außer du hättest so viele Anfragen das der Uplink überlastet ist.
Die meiste Zeit bis eine Antwort vom Server kommt ist immer die Zeit bis die angeforderten Daten bereitstehen.
Grafana
Damit wollte ich mich zukünftig auch Mal beschäftigen .
Gerade weil Datenbank Mensch ständig davon schwärmt.
Zum ChatGPT Beitrag.... Muss man sagen daß es nicht anders zu erwarten war.
Aktuell nutze ich noch Betterstack, das wird aber komplett wegfallen und vorerst durch meine Selfhost Lösung ersetzt (Recht rudimentär, ist aber besser als Betterstack)
Ich bin da voll und ganz auf der Seite von aebian egal welches panel, es ist eine Sicherheitslücke und die bieten keinerlei zusätzliche Sicherheit die man mit wenigen Handgriffen nicht selbst auch erreichen kann.
Grundlagen zum absichern eines Servers mit Linux gibt es da draußen im Netz in Unmengen.
Wie schon in einem anderen Thema genannt wären da Fail2ban und die Beschränkungen für SSH zu nennen einfach mal.
Hat jemand schon Erfahrungen mit HelloFresh gemacht? Meine Verlobte und Ich waren am überlegen das mal auszuprobieren und uns dort Gerichte zusammenzustellen für eine Woche
Damals zu Corona Hochzeiten mal ausprobiert, geschmacklich ganz okay, auch ganz gut und Mal neue Ideen zu bekommen was man so kochen kann und was neues zu entdecken.
Preislich auch ganz okay bei 2 Personen kommt es grob dem Wocheneinkauf nahe, könnte aber vielleicht je nach Wohnort auch teurer wirken. Die Boxen kosten ja zwischen 50-60€ bei glaube 6 Mahlzeiten, kann mich jetzt aber auch irren.
Ansonsten ist es ein Abo, d.h. du kannst Lieferungen pausieren, zahlst aber weiter die Abo-Kosten und es gibt eine Mindestbestellung pro Lieferung.
Es gibt keine Abo kosten in diesem Sinne, du zahlst wöchentlich die Kosten für die Box die du erhältst dann.
Das das Kündigen/Pausieren der Lieferungen entsprechend kompliziert ist stimmt jedoch.
Meine Reaktion bezog sich darauf daß es absolut Blödsinn ist was du geschrieben hast.
"Perücke" hilft dir wenig, gefunden wirst du so oder so. Paysafecard ist schon Mal die erste Schwachstelle, danach das Gerät das du verwendest, solche Script Kiddies Anbieter wie du genannt hast knicken sofort ein wenn da ein Streifenpolizist anklopft, der geht dann mit dem sechstelligen Root-Passwort auf einem postit zur wache und holt sich die Daten die er braucht, und macht zugleich den "Anbieter" platt.
Wenn man sicher sein will, gibt es Bulletproof Hoster, da dauert es halt nur länger bis man den Inhaber findet.
Am sichersten ist halt einfach nicht im Netz aufzutauchen und seine Seite nur innerhalb eines geschlossenen Netzes wie dem Onion oder Freenet anzubieten.