1. Dashboard
  2. Forum
    1. Unerledigte Themen
  3. Mitglieder
    1. Letzte Aktivitäten
    2. Benutzer online
    3. Team-Mitglieder
    4. Trophäen
    5. Mitgliedersuche
  4. Tutorial Bereich
  • Anmelden
  • Registrieren
  • Suche
Dieses Thema
  • Alles
  • Dieses Thema
  • Dieses Forum
  • Seiten
  • Forum
  • Lexikon
  • Erweiterte Suche
  1. Informatik Forum
  2. Software und Anwendungen
  3. KI & ML

Alternative zu Chat GPT in Cloud (ev. Deep Seek)

  • Nietzsche
  • 25. Februar 2025 um 19:19
  • Nietzsche
    3
    Nietzsche
    Mitglied
    Punkte
    85
    Beiträge
    14
    • 25. Februar 2025 um 19:19
    • #1

    Hallo,

    hat sich mal jemand mit Alternativen zu Chat GPT in einer Cloud befasst? Am besten Bezahlung pro Nachricht.
    Vermutlich ist Deep Seek aktuell die leistungsstärkste OS Alternative zu Chat GPT?
    Gut wäre, wenn man nicht sonderlich viel konfigurieren müsste.

  • Nietzsche
    3
    Nietzsche
    Mitglied
    Punkte
    85
    Beiträge
    14
    • 25. Februar 2025 um 19:31
    • #2

    Hier hab ich mal einen Anbieter gefunden: https://contabo.com/de/vds/vds-m/?…ty=1&contract=1

    Kosten sind beim Einstiegsmodell 50€. Das wäre vertretbar, aber dennoch währe mir eine Zahlung nach verbrauchten Volumen lieber. Zudem stellt sich die Frage, ob die Serverleistung für das LLM ausreichend ist:

    CPU

    4 physische Kerne

    AMD EPYC 7282 2.8 GHz

    RAM

    32 GB RAM

    Storage

    240 GB NVMe

    Mehr Speicherplatz verfügbar

    Port

    500 Mbit/s Port

    Werde noch weiter suchen, bevor ich einen Anbieter teste.

  • Online
    Syntafin
    27
    Syntafin
    LISTstack Dev
    Reaktionen
    498
    Punkte
    7.823
    Trophäen
    2
    Beiträge
    1.420
    • 25. Februar 2025 um 20:31
    • #3

    Zu wenig Arbeitsspeicher.

    Wieso nicht einfach Microsoft Azure oder Google Cloud? Die bieten diverse LLMs dort an.

    A red dragon falls from the heavens... Ah, that memory has been lost. A shame. It was a favorite of mine...

  • Nietzsche
    3
    Nietzsche
    Mitglied
    Punkte
    85
    Beiträge
    14
    • 25. Februar 2025 um 20:35
    • #4
    Zitat von Syntafin

    Zu wenig Arbeitsspeicher.

    Wieso nicht einfach Microsoft Azure oder Google Cloud? Die bieten diverse LLMs dort an.

    Den gleichen Gedanken hatte ich auch. Ich müsste mal schauen welche LLM die anbieten, ich würde gerne mal Deep Seek testen, da das LLM ja recht gut bei den Tests abgeschnitten hatte.
    Vielleicht wäre es am kostengünstigen einfach eine Cloud alleine zu mieten und dann das LLM selber zu installieren? Sofern das möglich ist von den Rechten her.

  • Nietzsche
    3
    Nietzsche
    Mitglied
    Punkte
    85
    Beiträge
    14
    • 25. Februar 2025 um 20:39
    • #5

    Eventuell wäre es eine Option das über Vertex AI laufen zu lassen: https://medium.com/@development_5…ts-f5ebaa0f60a3

  • Online
    Syntafin
    27
    Syntafin
    LISTstack Dev
    Reaktionen
    498
    Punkte
    7.823
    Trophäen
    2
    Beiträge
    1.420
    • 26. Februar 2025 um 00:28
    • #6

    Du solltest übrigens nicht vergessen das deine eigene Zeit die du zum einrichten eines LLMs brauchst ebenfalls "was kostet".

    Grundlegend aber nicht vergessen das LLMs eine GPU benötigen um zu funktionieren, Arbeitsspeicher ist zweitrangig und hält nur die Datenbank im schnellen Speicher vor.

    A red dragon falls from the heavens... Ah, that memory has been lost. A shame. It was a favorite of mine...

  • martin
    14
    martin
    Mitglied
    Reaktionen
    69
    Punkte
    1.904
    Beiträge
    359
    • 26. Februar 2025 um 09:14
    • #7
    Zitat von Nietzsche

    Am besten Bezahlung pro Nachricht

    Wenn du es nicht selber hosten willst: Chatpad mit OpenAI-Key und Guthaben.

  • Nietzsche
    3
    Nietzsche
    Mitglied
    Punkte
    85
    Beiträge
    14
    • 26. Februar 2025 um 22:20
    • #8
    Zitat von martin

    Wenn du es nicht selber hosten willst: Chatpad mit OpenAI-Key und Guthaben.

    Ich will allerdings die Daten rein lokal gesichert haben,
    so einer API an Open AI würde ich nicht ausreichend vertrauen.

  • Xamidi
    6
    Xamidi
    Mitglied
    Reaktionen
    11
    Punkte
    291
    Beiträge
    54
    • 1. März 2025 um 07:51
    • #9
    Zitat von Nietzsche

    Vermutlich ist Deep Seek aktuell die leistungsstärkste OS Alternative zu Chat GPT?

    Ich würde da ja eher auf Grok 3 tippen:

    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.

    Vergleiche zu anderen LLMs bringt er relativ am Ende, ab 21:11.

    Ich hab das gestern mal ausprobiert, und es hat mich beeindruckt. Für folgende Breakout-Spielvariante hab ich keine einzige Codezeile selbst schreiben müssen:

    https://xamidi.github.io/grok3-breakout/ (repo auf GitHub)

    Lediglich die Soundeffekte musste ich von Hand in die Standalone-HTML als Base64-Strings einfügen.

    PS: Falls es jemand zocken und vergeichen mag, gerne hier fortführen: RE: Smalltalk - Chatten, Diskutieren....

    Die härteste Logik-Challenge gibt's bei mir: https://github.com/xamidi/pmGenerator/discussions/2 :dizzy:

  • Nietzsche
    3
    Nietzsche
    Mitglied
    Punkte
    85
    Beiträge
    14
    • 3. März 2025 um 16:36
    • #10

    Ich bräuchte aber wie gesagt immer noch ein Hosting lokal. Am liebsten wäre mir bisher Deep Seek, da ich ein paar mathematische Sachen berechnen wollte. Ich denke zwar, dass dazu die LLMs nichts taugen, aber testen will ich es dennoch. Nur sind die Rechnungen zu sensible für Open AI.

    Bisher konnte ich herausfinden, dass Deep Seek mit Ollama weniger Hardware braucht, sonst wäre das zu teuer:

    "With tools like Ollama, part of the model can be stored in system RAM while the active layers are kept in GPU VRAM, shifting them dynamically as needed. This method works particularly well for Mixture of Experts (MoE) models like DeepSeek V3, which only activate a portion of their parameters at a time.

    However, even with offloading, you still need a high-memory server, such as:

    • 512GB of RAM and an NVIDIA L4 GPU (24GB VRAM)
    • Hetzner’s 512GB RAM + RTX 6000 Ada 48GB VRAM setup ($1k/month)

    Since the entire model doesn’t fit into VRAM, response speeds drop significantly due to constant memory swapping. In practical terms, this means performance is often limited to just a few tokens per second."

    We tested DeepSeek. Here’s what you need to know
    Some say DeepSeek R1 is a game-changer, others say it’s impractical. Both are right.
    www.quickchat.ai

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!

Benutzerkonto erstellen Anmelden

Rechtliches

Impressum

Datenschutzerklärung