Das kann man mit einem Ticketsystem genau so ja auch umsetzen. Ob das jetzt mit osTicket so geht, weiß ich jedoch nicht.
Intern verwenden wir aktuell ja YouTrack
Das kann man mit einem Ticketsystem genau so ja auch umsetzen. Ob das jetzt mit osTicket so geht, weiß ich jedoch nicht.
Intern verwenden wir aktuell ja YouTrack
Ja, dann musst du dir auch den eigentlichen Server anschauen, der hinter dem Proxy steckt.
Hab das jetzt mal kontrolliert und dort von 2MB auf 200MB rauf gegangen, bleibt leider dabei.
Hab client_max_body_size 200M; auch mal Testweise in alle Location Blöcke eingefügt, auch dem wo der Proxy definiert wird, keine Änderung jedoch .
osTicket | Support Ticketing System
so mit das bekannteste, gibt auch noch weitere
Sehe ich jetzt nichts, mir kommt aber eventuell was ein, könnte es daran liegen das NGINX nur ein Proxy ist?
location @octane {
set $suffix "";
if ($uri = /index.php) {
set $suffix ?$query_string;
}
proxy_http_version 1.1;
proxy_set_header Host $http_host;
proxy_set_header Scheme $scheme;
proxy_set_header SERVER_PORT $server_port;
proxy_set_header REMOTE_ADDR $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_set_header Upgrade $http_upgrade;
proxy_set_header Connection $connection_upgrade;
proxy_pass http://127.0.0.1:9191$suffix;
}
Alles anzeigen
Später mal genauer schauen, ich gehe jetzt erstmal schlafen
Am Ende des http-Blocks bevor die Config-Files für die Seiten geladen wird.
http {
##
# Basic Settings
##
sendfile on;
tcp_nopush on;
types_hash_max_size 2048;
server_tokens off;
server_names_hash_bucket_size 128;
# server_name_in_redirect off;
include /etc/nginx/mime.types;
default_type application/octet-stream;
##
# SSL Settings
##
ssl_protocols TLSv1 TLSv1.1 TLSv1.2 TLSv1.3; # Dropping SSLv3, ref: POODLE
ssl_prefer_server_ciphers on;
##
# Logging Settings
##
access_log /var/log/nginx/access.log;
error_log /var/log/nginx/error.log;
##
# Gzip Settings
##
gzip on;
# gzip_vary on;
# gzip_proxied any;
# gzip_comp_level 6;
# gzip_buffers 16 8k;
# gzip_http_version 1.1;
# gzip_types text/plain text/css application/json application/javascript text/xml application/xml application/xml+rss text/javascript;
##
# Virtual Host Configs
##
include /etc/nginx/conf.d/*.conf;
include /etc/nginx/sites-enabled/*;
}
Alles anzeigen
Schon mal über sftp versucht?
Wozu, es geht hier um NGINX, nicht SFTP.
Nutzt du php?
Das Backend ist Laravel ja.
Dann hast du vielleicht die php.ini vergessen.
Es geht weiterhin um NGIXN und nicht PHP, das ebenfalls 2GB annimmt.
Ansonsten in der nginx.conf die direktive client_max_body_size setzen / deklarieren
Ich vermeide solch große Uploads immer generell.
Lässt sich bei Bildern nicht immer vermeiden bei gewissen Auflösungen.
Wie wärs wenn du die Datei in chunks hochlädst? Ein Client-side script, dass die datei in 1mb Blöcke unteteilt und diese dann einzelt hochläd. auf dem server kannst du die datei ganz einfach wieder zusammensetzen.
Es auf Frontend-Seite zu zerlegen und als Chunk hochzuladen ist zwar eine "Lösung", löst aber nicht das eigentliche Problem das NGINX trotz einer erlaubten größe bis 2GB schon bei 28mb streikt und das will ich ja gelöst haben.
Hallöchen,
gerade beim testen von größeren Uploads (Bild mit 30mb) gesehen, das mein NGINX Server trotz einer erlaubten Body size von 2GB dieses ablehnt mit der Fehlermeldung Request Entity To Large.
Jetzt stehe ich gerade natürlich ein wenig auf dem Schlauch, jemand eine Idee ob das noch von einer anderen Einstellung kommen kann die ich gerade nicht auf dem Schirm habe?
Hi Akrep irgendwoher kommt mir dein name bekannt vor. Bist du noch in anderen Foren ?
KingKaSo, DrPinkelstein, D.W.H. und "neu" eben Akrep/Akreb
Nein, nutze solche Tools nicht, da ich dem Prinzip pro App ein eigener Server verfolge.
Hier mal die 2 Aufrufe:
Habs als Gist gespeichert, da zu lange für hier.
xD
Dann bin ich mit 320ms ja noch gut dabei.
Wenn du siehst was das Datawarehouse da bastelt, wüsstest du wieso .
wofür sollte man eine solche qualität brauchen? Das ist mehr als jeder Kinofilm hat. Das frisst einfach nur Speicherplatz, so gut ist die KI auch nicht, dass sie da wirklich was machen kann.
Weil ichs kann? Ganz einfach ?
Wie lange sollte eurer Meinung nach eine Datenbankabfrage bei einer Guten Anwendung maximal dauernt? Von Benutzer Ineraktion bis Ergebnis Anzeige.
Millisekunden. Vielleicht hast Glück, und das hier ist nicht im Cache:
Dann weißt was böse ist
Tipp fürs Leben:
Bringt euch niemals selbst auf die Idee, ein Video das ca. 2min geht von 1080p (FullHD) auf 8640p (Quad UHD) hochzurechnen... mittels KI.... Meine Grafikkarte meint wohl noch ~20h zu brauchen für die Berechnungen der Frames .
Danach kommt dann übrigens wenn ffmpeg wieder alles zusammen gebastelt hat, noch die Interpolarisation auf 60 FPS
Vor langer Zeit sah niemand ein, dass Maschinen jemals verweigern würden Kuchen in Tokyo zu verstecken. Deshalb hab ich entschieden
Wieso sind wir auf einmal in der Ich-Perspektive xD
Klar mit unterschiedlichen IPs, ich greife ja auch mit deutscher IP zu, obwohl es in Buenos Aires, Argentinien abgeschlossen wurde.
Man sollte vielleicht nicht übersehen das es sich da um YT Premium Family bei mir handelt und es tatsächlich mehrere Leute in der Familie nutzen.
Was soll den SolusVM genau sein?
Vivo en Argentina, entonces pago en rupias argentinas.