Odpověď

Upozornění: do tohoto tématu bylo naposledy přispěno před 120 dny.
Zvažte prosím založení nového tématu.
Jméno:
E-mail:
Předmět:
Ikona zprávy:

Tučné Kurzíva Podtržené Přeškrtnuté | Předformátovaný text Zarovnání vlevo Zarovnání na střed Zarovnání vpravo
Vložit obrázek Vložit odkaz Vložit email Vložit FTP odkaz | Svítící Stínované Běžící text | Horní index Dolní index Neproporcionální písmo | Vložit tabulku Vložit kód Vložit citaci | Vložit nečíslovaný seznam Vložit číslovaný seznam Vodorovná čára | Odstranit formátování Přepnout zobrazení
Úsměv Mrknutí Smích Škleb Hněv Smutek Šok Valím oči! Super! Co??? Kroutím očima Vyplazuji jazyk Jsem v rozpacích Neřeknu nic Nerozhodný Polibek Pláč
Ověření:
Zadejte znaky zobrazené na obrázku
Poslechnout obrázek / Požádat o jiný obrázek

Zadejte znaky zobrazené na obrázku:
Kolik má průměrný člověk prstů na rukou? (slovem):
Po dnu přijde:

Zkratky: stiskněte shift+alt+s pro odeslání nebo shift+alt+p pro prohlédnutí


Shrnutí tématu

Poslal: Pavelt
« kdy: Listopad 23, 2014, 13:13:46 »

Archivace pomocí tar gzip probíhala v pořádku, až ke konci ukázala chybu:
Citace
tar: Končí se chybovým kódem, protože byly zaznamenány chyby
. Ale o tom, jaké chyby to jsou ani řádka. Zapisuje tar někam log, abych věděl, co za chybu to je?
Poslal: Pavelt
« kdy: Listopad 23, 2014, 10:37:03 »

Tak jsem si přečetl o tar gz a vymyslel z toho příkaz:
Kód: [Vybrat]
tar -cvpz /home --listed-incremental=/run/media/p/6245-C749/jmeno_zalohy.txt | split -d -b 3900m - /run/media/p/6245-C749/jmeno_zalohy01.tar.gz. Jede to, dělí na 3.9GB, takže paráda. Líbí se mi i to, že archiv není binární soubor. Uvidím při druhém zálohování jestli a jak funguje inktermentální záloha.
Poslal: Peťoš
« kdy: Listopad 22, 2014, 17:56:53 »

Aha. No, jak jsem psal, dump jsem nepouzival a nepouzivam. Takze veskere dodane info zatim mam z manualu.
Ja na zalohy pouzivam tar & gzip...
Poslal: Pavelt
« kdy: Listopad 22, 2014, 15:58:00 »

jo, já to už našel,
Citace
-M
    Enable the multi-volume feature. The name specified with f is treated as a prefix and dump writes in sequence to <prefix>001, <prefix>002 etc. This can be useful when dumping to files on an ext2 partition, in order to bypass the 2GB file size limitation.
, ale nefunguje mi to. První archiv doplní číslem 001 a při dosažení 4GB hlásí zas překročení velkosti souboru.
Poslal: Peťoš
« kdy: Listopad 22, 2014, 15:39:12 »

A kde hledas? Ja jej vidim v man dump:
http://linux.die.net/man/8/dump

Zkousel jsi se vubec podivat do toho manualu???
Poslal: Pavelt
« kdy: Listopad 21, 2014, 12:16:38 »

Funguje, ale obával jsem se, že archiv bude třeba dělit. Dump hlásí:
Kód: [Vybrat]
# dump -0 -u -j9 -f /run/media/p/6245-C749/mageiainet /home
  DUMP: Date of this level 0 dump: Fri Nov 21 09:36:47 2014
  DUMP: Dumping /dev/sda6 (/home) to /run/media/p/6245-C749/mageiainet
  DUMP: Label: none
  DUMP: Writing 10 Kilobyte records
  DUMP: Compressing output at compression level 9 (bzlib)
  DUMP: mapping (Pass I) [regular files]
  DUMP: mapping (Pass II) [directories]
  DUMP: estimated 39112628 blocks.
  DUMP: Volume 1 started with block 1 at: Fri Nov 21 09:36:49 2014
  DUMP: dumping (Pass III) [directories]
  DUMP: dumping (Pass IV) [regular files]
  DUMP: 0.82% done at 1073 kB/s, finished in 10:02
  DUMP: 1.53% done at 999 kB/s, finished in 10:42
  DUMP: 2.20% done at 956 kB/s, finished in 11:06
  DUMP: 2.87% done at 934 kB/s, finished in 11:17
  DUMP: 3.45% done at 900 kB/s, finished in 11:38
  DUMP: 3.97% done at 863 kB/s, finished in 12:04
  DUMP: 4.69% done at 873 kB/s, finished in 11:51
  DUMP: 5.20% done at 847 kB/s, finished in 12:08
  DUMP: 5.83% done at 844 kB/s, finished in 12:06
  DUMP: 6.60% done at 860 kB/s, finished in 11:47
  DUMP: 7.34% done at 870 kB/s, finished in 11:34
  DUMP: 8.17% done at 887 kB/s, finished in 11:14
  DUMP: 8.92% done at 894 kB/s, finished in 11:03
  DUMP: 9.63% done at 896 kB/s, finished in 10:56
  DUMP: 10.33% done at 897 kB/s, finished in 10:51
  DUMP: 11.08% done at 903 kB/s, finished in 10:41
  DUMP: write error 4539170 blocks into volume 1: File too large
  DUMP: Do you want to rewrite this volume?: ("yes" or "no")
Lze archiv dělit?
Na adrese http://m.linuxexpres.cz/praxe/zalohujeme-pomoci-dump-restore-1 vidím větu:
Citace
Jestliže se během zálohování vyskytne problém, že je nutno vytvořit více archivů (např. archiv je větší než 2 GB), je možno použít parametr -M.
, ale nevím, jestli se to týká dump nebo dd. Ať hledám jak hledám, žádný přepínač -M nenacházím ani u dump ani u dd.
Poslal: Pavelt
« kdy: Listopad 21, 2014, 09:39:04 »

Děkuju, už to funguje. Používám externě přes USB pevný disk.
Poslal: Peťoš
« kdy: Listopad 20, 2014, 19:43:03 »

No, rychle jsem mrkl na man dump:
-l je pocet chyb. Ty u nej mas uvedene jmeno_zalohy.
a -f by melo vest k souboru.

Kód: [Vybrat]
dump -0 -u -j9 -f /run/media/p/6245-C749/jmeno_zalohy  /home
A jsi si jisty, ze se vlezes? 2GiB flash mi nepripada dost velke na to, aby se tam vesel cely /home.
Poslal: Pavelt
« kdy: Listopad 20, 2014, 13:40:50 »

Prosím o pomoc s příkazem dump. Chtěl bych zálohovat na USB disk adresář /home, komprimovat archiv a rád bych dělení na dílčí archivy po určitých velikostech, třeba 2GB. Chtěl bych dělat inkrementální zálohy.
Zatím jsem přečetl dokumentaci k příkazu DUMP a zkoušel následující:
Kód: [Vybrat]
dump -0 -u -j9 -l jmeno_zalohy -f /run/media/p/6245-C749  /homeMyslel jsem, že když USB disk je na /run/media/p/6245-C749, že to takto bude fungovat, ale konzole píše, že jde o adresář a dump skončí bez archivace.
A netuším, jak archivy dělit na menší části, jestli to vůbec jde.