Het is me opgevallen dat Duplicati tijdens een uitgebreide back-up naar de cloudopslag extreem veel vrije ruimte op de lokale schijf in beslag neemt. Ik ben bang dat op een gegeven moment mijn Duplicati back-up zal mislukken omdat de schijf vol is. Wat is er aan de hand?
Je hebt waarschijnlijk de instelling ‘Remote volume size’ bij de laatste stap van de Duplicati back-upwizard verkeerd geïnterpreteerd en die vergroot tot enkele gigabytes. Met die optie stel je echter niet de maximale capaciteit van het back-updoel in, maar de grootte van de tijdelijke bestanden waarin de back-up opgesplitst wordt. Gedurende het back-uppen maakt Duplicati zo’n gedeeltelijk bestand aan, vult het met gegevens die geback-upt moeten worden, versleutelt het indien nodig, uploadt het en verwijdert het om vervolgens hetzelfde weer te doen met het volgende deel van de back-up.
Je kunt de waarde ‘Remote volume size’ in jouw geval weer verkleinen om te voorkomen dat er tijdens het proces teveel ruimte op de lokale schijf gebruikt wordt.
De standaardgrootte van 50 MB is zinvol voor het maken van back-ups naar cloud- of andere netwerkopslag. Duplicati kan de uploads op die manier betrouwbaar afhandelen, ook als de internetverbinding instabiel of traag is. Bovendien kunnen losse bestanden uit een back-upset dan sneller hersteld worden, omdat alleen de vereiste deelbestanden gedownload hoeven worden.
Hoe kleiner de back-updeelbestanden zijn, des te sneller dat gebeurt. Een groter remote-volume kan wel weer handig zijn als je een back-up op een lokale (externe) gegevensdrager of binnen je lokale netwerk opslaat. Dat gaat dan sneller omdat het de overhead reduceert.