Alternative zu Chat GPT in Cloud (ev. Deep Seek)

  • Hallo,

    hat sich mal jemand mit Alternativen zu Chat GPT in einer Cloud befasst? Am besten Bezahlung pro Nachricht.
    Vermutlich ist Deep Seek aktuell die leistungsstärkste OS Alternative zu Chat GPT?
    Gut wäre, wenn man nicht sonderlich viel konfigurieren müsste.

  • Hier hab ich mal einen Anbieter gefunden: https://contabo.com/de/vds/vds-m/?…ty=1&contract=1

    Kosten sind beim Einstiegsmodell 50€. Das wäre vertretbar, aber dennoch währe mir eine Zahlung nach verbrauchten Volumen lieber. Zudem stellt sich die Frage, ob die Serverleistung für das LLM ausreichend ist:

    CPU

    4 physische Kerne

    AMD EPYC 7282 2.8 GHz

    RAM

    32 GB RAM

    Storage

    240 GB NVMe

    Mehr Speicherplatz verfügbar

    Port

    500 Mbit/s Port

    Werde noch weiter suchen, bevor ich einen Anbieter teste.

  • Zu wenig Arbeitsspeicher.

    Wieso nicht einfach Microsoft Azure oder Google Cloud? Die bieten diverse LLMs dort an.

    Den gleichen Gedanken hatte ich auch. Ich müsste mal schauen welche LLM die anbieten, ich würde gerne mal Deep Seek testen, da das LLM ja recht gut bei den Tests abgeschnitten hatte.
    Vielleicht wäre es am kostengünstigen einfach eine Cloud alleine zu mieten und dann das LLM selber zu installieren? Sofern das möglich ist von den Rechten her.

  • Du solltest übrigens nicht vergessen das deine eigene Zeit die du zum einrichten eines LLMs brauchst ebenfalls "was kostet".

    Grundlegend aber nicht vergessen das LLMs eine GPU benötigen um zu funktionieren, Arbeitsspeicher ist zweitrangig und hält nur die Datenbank im schnellen Speicher vor.

    A red dragon falls from the heavens... Ah, that memory has been lost. A shame. It was a favorite of mine...

  • Vermutlich ist Deep Seek aktuell die leistungsstärkste OS Alternative zu Chat GPT?

    Ich würde da ja eher auf Grok 3 tippen:

    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.

    Vergleiche zu anderen LLMs bringt er relativ am Ende, ab 21:11.

    Ich hab das gestern mal ausprobiert, und es hat mich beeindruckt. Für folgende Breakout-Spielvariante hab ich keine einzige Codezeile selbst schreiben müssen:

    https://xamidi.github.io/grok3-breakout/ (repo auf GitHub)

    Lediglich die Soundeffekte musste ich von Hand in die Standalone-HTML als Base64-Strings einfügen.

    PS: Falls es jemand zocken und vergeichen mag, gerne hier fortführen: RE: Smalltalk - Chatten, Diskutieren....

  • Ich bräuchte aber wie gesagt immer noch ein Hosting lokal. Am liebsten wäre mir bisher Deep Seek, da ich ein paar mathematische Sachen berechnen wollte. Ich denke zwar, dass dazu die LLMs nichts taugen, aber testen will ich es dennoch. Nur sind die Rechnungen zu sensible für Open AI.

    Bisher konnte ich herausfinden, dass Deep Seek mit Ollama weniger Hardware braucht, sonst wäre das zu teuer:

    "With tools like Ollama, part of the model can be stored in system RAM while the active layers are kept in GPU VRAM, shifting them dynamically as needed. This method works particularly well for Mixture of Experts (MoE) models like DeepSeek V3, which only activate a portion of their parameters at a time.

    However, even with offloading, you still need a high-memory server, such as:

    • 512GB of RAM and an NVIDIA L4 GPU (24GB VRAM)
    • Hetzner’s 512GB RAM + RTX 6000 Ada 48GB VRAM setup ($1k/month)

    Since the entire model doesn’t fit into VRAM, response speeds drop significantly due to constant memory swapping. In practical terms, this means performance is often limited to just a few tokens per second."

    We tested DeepSeek. Here’s what you need to know
    Some say DeepSeek R1 is a game-changer, others say it’s impractical. Both are right.
    www.quickchat.ai

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!