Nie jesteś zalogowany.
Jeśli nie posiadasz konta, zarejestruj je już teraz! Pozwoli Ci ono w pełni korzystać z naszego serwisu. Spamerom dziękujemy!
Prosimy o pomoc dla małej Julki — przekaż 1% podatku na Fundacji Dzieciom zdazyć z Pomocą.
Więcej informacji na dug.net.pl/pomagamy/.
Cześć
Ostatnio znacznie rozrosło mi się repozytorium, które backupuje i obecnie stosowane przezemnie rozwiązanie nie daje rady. Jest kiepsko skalowalne.
Chciałbym na nową macierz zbackupowac ok 20TB repozytorium, składające się z kilkunastu milionów małych plików gdzie każdy z nich zawiera w sobie po kilkadziesiąt linijek stringów. Chodzi mi o możliwie najlepszą kompresję i szybkość ewentualnego przywracania. Bez GUI. Fajnie gdyby potem była możliwość inkrementalnego backupu.
Czy macie może jakieś własne sprawdzone rozwiązanie do takiej operacji? Jakieś dobre praktyki? Nie koniecznie open source.
Ostatnio edytowany przez SamozwańczyKrólBasha (2016-03-30 11:32:09)
Offline


prawie jak admin



Skrypt na bazie rsynca.
Offline



Członek DUG




thalcave napisał(-a):
Skrypt na bazie rsynca.
lub rdiff-backup
Offline
@thalcave: Niby mam już coś takiego. Ale przy dziennym przyroście plików na poziomie 100-150GB trwa to trochę zbyt wolno. Cały wic polega na tym, że serwer podpięty do macierzy ma określony przedział czasu w którym może robić backup a tego czasu zaczyna brakować.
Ostatnio edytowany przez SamozwańczyKrólBasha (2016-03-31 09:11:46)
Offline




Zbanowany





2894
Ostatnio edytowany przez uzytkownikubunt (2016-12-01 01:38:20)
Offline


prawie jak admin



To może snapshot pomoże? Tworzysz snapshota i z niego robisz backup, po wszystkim snapshota można usunąć.
A przedział czasowy, w którym możesz robić backup znacznie się wydłuża.
Offline







Podobno człowiek...;)








A może DRBD?
Czyli RAID1 przez tcp?
http://websecurity.pl/wprowadzenie-do-drbd/
https://help.ubuntu.com/lts/serverguide/drbd.html
Ostatnio edytowany przez Jacekalex (2016-03-31 18:44:18)
Offline