Anomalie #4454
closed
Request Entity Tool Large (fichier de 49Mo)
Added by pitchum . over 4 years ago.
Updated over 4 years ago.
Assignee:
Laurent POUJOULAT
Description
Probablement en rapport avec le ticket #4080.
Je viens de d'essuyer des échecs avec nextcloud-desktop-client sur un fichier 49Mo seulement.
Dans les logs de nextcloud-desktop-client j'ai plusieurs messages d'erreur :
- beaucoup de "Connection closed"
- et un "413 Request Entity Too Large"
Tous ces messages d'erreur concernent le même fichier (le client desktop retente ça chance en boucle).
Il est possible que le problème soit un timeout quelque part dans la chaine (client -> frontal nginx -> apache -> php) peut être causé quand on a une connexion lente VDSL comme la mienne.
C'est pas urgent pour moi car j'ai des solutions alternatives mais à l'occasion je suis dispo pour débugger ça.
(Pfff, le temps que je redige ce message le fichier en question a fini par passer, mais j'ai encore le même soucis avec le fichier vidéo qui vient après).
- Assignee set to Laurent POUJOULAT
- Status changed from Nouveau to Attente d'information
Tu peux m'indiquer vers quelle heure pour que je regarde les logs ?
- Status changed from Attente d'information to En cours de traitement
J'ai reproduit le problème. Si on upload avec le navigateur, il n'y a pas de problème. Par contre si on upload via le client desktop on tombe sur ce problème. Je soupçonne que le client navigateur et celui desktop n'utilisent pas la même taille de chunking (découpage).
J'investigue.
C'est bien là qu'est le problème ! Le client desktop utilise une taille de chunk dynamique: il fait un test de vitesse de transfert et en déduit une taille de chunk optimale qui bien entendu sur les connexions rapides dépasse les 10Mo utilisés par le client Web !
Il faut que je trouve le réglage maximum (il doit bien y en avoir un) et que j'ajuste les confs valise/bastion !
Il n'y a pas d'info claire sur la config optimale pour parer aux problèmes de chunking. J'ai observé sur les logs du client que sur une fibre à 300Mb/s, il évaluait la taille optimale à 100Mo, donc on imagine que sur du 1Gb/s, on doit obtenir 300Mo (au doigt mouillé). On va donc passer les max à 512Mo. La configuration est changée comme suit:
- Sur la valise /etc/php/7.3/fpm/php.ini, upload_max_size et post_max_size à 512Mo
- Sur bastion /etc/nginx/sites-enabled/valise.chapril.org, client_max_body_size passé aussi à 512Mo
Le problème semble résolu à présent
- Target version set to Backlog
- Status changed from En cours de traitement to Résolu
Testé avec Pitchum: ça marche
- Status changed from Résolu to Fermé
- Target version changed from Backlog to Sprint 2020 avril
Also available in: Atom
PDF