Защото, дори и да се придържате към изданията за дългосрочна поддръжка (LTS), дистрибуциите на Linux често са фундаментално по-изложени на риск от машините на Windows да излязат - внезапно и зрелищно - извън бизнеса.
Защо в толкова много случаи това е така?
- Хардуерната съвместимост, включително за основни компоненти като графични процесори, остава значително предизвикателство, тъй като много доставчици все още не поддържат дистрибуции на Linux, оставяйки на общността да създава заобикалящи решения;
- Финансовият модел с отворен код не стимулира, още по-малко изисква задълбочени QA процеси;
- А за онези, които са в крак с освобождаващите се крайни версии, фундаменталните промени в инструментите за управление на пакети имат гаден навик понякога да ограждат системата, като отварят непоправима кутия с грешки на зависимостта на Пандора. Поправянето им, дори когато е възможно, може да включва пробиване на заешки дупки в продължение на дни. Това, което може да изглежда като добро учебно изживяване за начинаещ потребител, може да се превърне в разочароващо разочарование за ветеран, който е на ръба да прескочи кораба до Windows.
И проблемът със стабилността на Linux вбеси много потребители. Прегледайте много нишки в бедствие в AskUbuntu.com и ще срещнете много разочаровани плакати, които са опитали всичко и в крайна сметка са решили, че единственият начин напред е да инсталирате от нулата.
Въпреки че първоначално това може да бъде процес на обучение, насърчавайки потребителите периодично да преосмислят как могат да направят системата си по-стройна и да рационализират процеса на възстановяване, след известно време това не става нищо по-добро от голяма, отнемаща време неприятност. Рано или късно дори и най-напредналите потребители на енергия ще започнат да жадуват за стабилност.
Използвам Linux като своя ежедневна операционна система повече от 10 години и преминах през справедливия си дял от нежелани чисти инсталации. Всъщност толкова много, че обещах, че последната ми преинсталация ще бъде последната ми. Оттогава разработих следната методология. И това работи, за да поддържа системата ми Lubuntu да работи толкова добре, колкото деня, в който я инсталирах, без повторна инсталация оттогава. Ето какво правя.
Съображения: Какво трябва да архивирате?
Преди да вземете решение за стратегия за архивиране, трябва да разберете някои основни положения:
- Какво трябва да архивирате? Трябва ли да архивирате пълния дял / том или само домашната потребителска директория?
- Ще бъде ли достатъчна стратегия за резервно архивиране за вашия случай на употреба? Или трябва да направите пълни архиви?
- Трябва ли архивирането да бъде криптирано?
- Колко лесно се нуждаете от процеса на възстановяване?
Моята резервна система се основава на комбинация от методологии.
Използвам Timeshift като основна система за архивиране, която прави допълнителни моментни снимки. И поддържам пълен архив на диска на място, който изключва директории, които не съдържат потребителски данни. По отношение на системния корен това са:
- / разработчици
- / проц
- / sys
- / tmp
- / тичам
- / mnt
- / медия
- / загубено + намерено
Накрая запазвам още два резервни копия. Един от тях е (истински) пълен системен дял за архивиране на изображения с помощта на Клонезила USB на живо. Clonezilla пакетира серия от инструменти на ниско ниво за възпроизвеждане на инсталации. И вторият е пълен архив на системата извън сайта, който качвам в AWS S3 около веднъж годишно, когато разполагам със страхотна връзка за данни.
Опции за инструменти за архивиране
В наши дни изборът от инструменти, които можете да използвате, е голям.
Включва:
- Добре известни CLI като rsync, които могат да скриптват и извикват ръчно cron работа
- Програми като Déjà Dup, Duplicity, Bacula, които предоставят графични интерфейси за създаване и автоматизиране на планове за архивиране на локални или извън сървъри дестинации, включително тези, управлявани от обикновени доставчици в облака
- И инструменти, които взаимодействат с платени облачни услуги като CrashPlan, SpiderOak One и CloudBerry. Последната категория включва услуги, които сами осигуряват евтино място за съхранение в облак, така че предлагането е изцяло от край до край.
Правилото 3-2-1
Ще дам кратък преглед на инструментите, които в момента използвам на основната си машина.
Въпреки че съм написал някои Bash скриптове, за да получа основни конфигурационни файлове в основното си хранилище в облак, които използвам за ежедневни файлове, този (същественият) компонент на моя план за архивиране просто архивира цялата машина, включително виртуални машини и система файлове, които трябва да се оставят или да се архивират отделно при по-нюансирани подходи.
Основната му предпоставка е спазването на правилото за резервно копие 3-2-1. Този подход трябва да запази данните ви - включително основната ви операционна система - в безопасност при почти всеки сценарий на неуспех.
Правилото гласи, че трябва да запазите:
- 3 копия на вашите данни. Винаги казвам, че това е малко погрешно наименование, защото всъщност означава, че трябва да запазите основния си източник на данни и две резервни копия. Бих казал просто като „две резервни копия“
- Тези две резервни копия трябва да се съхраняват на различни носители за съхранение. Нека върнем това към простите термини за домашни изчисления. Можете да напишете прост rsync скрипт, който (постепенно) копира основния ви SSD в друг прикачен носител за съхранение - да кажем, че HDD е прикрепен към следващия SATA порт на дънната ви платка. Но какво се случва, ако компютърът ви се запали или къщата ви бъде ограбена? Ще останете без основния си източник на данни и нямате резервно копие. Вместо това можете да архивирате основния си диск в мрежово свързано хранилище (NAS) или просто да използвате Clonezilla, за да го запишете на външен твърд диск.
- Едно от двете резервни копия трябва да се съхранява извън сайта. Резервните копия извън обекта са жизненоважни, защото в случай на катастрофално природно събитие, като например наводнение, цялата ви къща може да бъде унищожена. По-малко драматично, голямо свръхнапрежение може да изпържи цялата свързана електроника в къща или всички онези в определена верига (ето защо има смисъл да се поддържа един от резервните копия на място, несвързан към захранване - пример би бил обикновен външен HDD / SDD ).Технически, „извън сайта“ е навсякъде, което е отдалечено място. Така че можете да използвате Clonezilla за дистанционно записване на изображение на вашата операционна система на вашия работен компютър или прикачено към него устройство през интернет. В наши дни съхранението в облак е достатъчно евтино, за да може да се инсталира достъпно дори изображения с пълен диск. Поради тази причина, архивирам системата си изцяло, веднъж годишно, в кофа на Amazon S3. Използването на AWS също ви дава огромно допълнително съкращение.
Моето архивиране
Моят подход към архивирането се основава на няколко прости политики:
- Искам да поддържам нещата възможно най-опростени;
- Искам да си дам най-много съкращения, които мога разумно да постигна;
- Искам поне да спазвам правилото 3-2-1
Така че правя следното.
- Поддържам допълнително устройство в работния си плот, което се използва единствено за помещение Timehsift възстановяване на точки. Тъй като му посвещавам цял диск, имам доста място за игра. Поддържам ежедневно, месечно и седмично архивиране. Досега Timeshift е всичко, от което се нуждая, за да върна системата няколко дни до точка, преди нещо, като нов пакет, да има неблагоприятно въздействие върху други части на системата. Дори и да не можете да преминете GRUB, Timeshift може да се използва като CLI с root права за ремонт на системата. Това е невероятно гъвкав и полезен инструмент. Това е първо копие на място.
- Поддържам допълнително устройство в работния си плот, което се използва единствено за поместване на изображения на Clonezilla на основното ми устройство. Тъй като тези изображения наистина биха ми били полезни само в случай, че Timeshift се провали, ги правя само веднъж на всеки три до шест месеца. Това е второ копие на място.
- Използвайки Clonezilla, създавам допълнителен твърд диск, който държа у дома извън компютъра. С изключение на това, че за този твърд диск използвам резервно копие на устройство-устройство, а не архивиране на изображение на устройство, както в предишното изображение - така че би било добре да отида мигновено, ако основното ми устройство беше тухлено. Ако трябваше да се възстановя от вътрешното устройство за архивиране на Clonezilla например, първо трябваше да следвам процес на възстановяване. Ако приемем, че другите системни компоненти са в изправност след повреда на твърдия диск, теоретично ще ми трябва само да свържа това устройство към дънната платка, за да започна да го използвам. Това е трето копие на място.
- И накрая, веднъж на всеки шест месеца или така, качвам генерирано от Clonezilla изображение на моята система в AWS S3. Излишно е да казвам, че това е дълго качване с много части и трябва да се извърши от интернет връзка с добра връзка за качване.
Като цяло моята система включва три копия на място и едно копие извън основния ми работен плот.
Основни продукти за вкъщи
- Всички потребители на Linux трябва да имат стабилни стратегии за архивиране
- Правилото за архивиране 3-2-1 е добър критерий за гарантиране на безопасността на вашите данни при почти всички обстоятелства.
- Използвам комбинация от Timeshift и Cloudzilla за създаване на резервни копия, въпреки че на пазара има много други опции, включително платени. За съхранение в облак използвам проста кофа AWS S3, въпреки че отново има интегрирани услуги, които включват както софтуер, така и инструменти за съхранение.