Nie jesteś zalogowany.
Jeśli nie posiadasz konta, zarejestruj je już teraz! Pozwoli Ci ono w pełni korzystać z naszego serwisu. Spamerom dziękujemy!
Prosimy o pomoc dla małej Julki — przekaż 1% podatku na Fundacji Dzieciom zdazyć z Pomocą.
Więcej informacji na dug.net.pl/pomagamy/.
Strony: 1
Otóż tak, jest sobie /dev/urandom ale jego wydajność u mnie jest na poziomie 4M/s przy ustawieniu jako źródło w programie dd. /dev/zero posiada wielokrotnie większą wydajność tylko, że generuje same zera.
Czy zna ktoś sposób na to aby plik np. o wielkości 100M podmontować tak aby dd traktowało go jak nieskończoną ilość danych (w tym przypadku wielokrotność pliku 100M, a więc co 100M dane by się powtarzały). Chodzi o zwiększenie wydajności zapisu danymi pseudolosowymi dużych powierzchni, jestem w stanie zaakceptować to aby bloki miały np. po 100M.
Offline
Po prostu za drugim razem, to znaczy po zapisaniu pierwszych 100M, trzeba "przeskoczyć" te 100M pliku wyjściowego, potem 200M, itd. Przykład, nie testowany ;-)
dd if=plik_1024 bs=1024 of=plik_wyj
dd if=plik_1024 bs=1024 seek=1 of=plik_wyj
dd if=plik_1024 bs=1024 seek=2 of=plik_wyj
...
dd if=plik_1024 bs=1024 seek=n of=plik_wyj
itd.
Zobacz w pomocy do dd opcje ibs, obs, bs, seek
Offline
Jaki poziom losowości zapewniają dane które powtarzają się co każde 100 MB?
Offline
Wydajność /dev/random zależy od aktualnej entropii systemu, a ta z kolei od wielu innych czynników. Generalnie skomplikowana sprawa ;) Zamiast /dev/random możesz użyć /dev/urandom które zapewnia o wiele większą wydajność, lecz dane nie są już tak bardzo losowe, więc nie w każdym przypadku można tego użyć.
Jest jeszcze coś takiego jak rng-tools - dostarcza demona który "miesza" dane ze sprzętowego generatora liczb losowych i pseudolosowych z kernela, przez co wydajność /dev/random znacząco się zwiększa, a losowość jest na akceptowalnym poziomie. Przetestuj, a nuż Ci się przyda ;)
Offline
Jeśli wejściowy plik będzie tworzony z /dev/urandom, po powtarzanie go w blokach po 100 MB będzie wystarczające do większości amatorskich zastosowań. Można też utworzyć wiele sampli i wybierać je losowo przy kolejnym dopisywaniu, kwestia pomysłowości przy pisaniu skryptu.
Offline
andreq: w amatorskich rozwiązaniach wystarczy dane nadpisać /dev/zero. Albo jeśli chodzi o dane naprawdę wrażliwe, to zazwyczaj jest ich na tyle mało (w porywach kilka gigabajtów, choć zazwyczaj nie sięgają nawet kilkuset megabajtów), że odpowiednie bloki można kilkukrotnie nadpisać danymi z binarnych plików systemowych. A resztę /dev/zero.
Offline
Założyciel wątku napisał:
Chodzi o zwiększenie wydajności zapisu danymi pseudolosowymi dużych powierzchni, jestem w stanie zaakceptować to aby bloki miały np. po 100M
Więc widocznie zależy mu na wydajności, może ma do nadpisania całą szafę 42U z macierzami... ;-)
Offline
Kilka ciekawostek Tam napisali kilka słów na tema "łajpałt" :)
Offline
Strony: 1