Насколько важно правило 1 ГБ ОЗУ на 1 ТБ для ZFS?

Я планирую собрать свою первую коробку NAS, и в настоящее время я рассматриваю FreeNAS и ZFS для нее. Я прочитал о ZFS, и его набор функций звучит интересно, хотя я, вероятно, буду использовать только его часть.

В большинстве руководств говорится, что рекомендуемое практическое правило заключается в том, что вам необходимо 1 ГБ (ECC-) ОЗУ на каждый ТБ дискового пространства в вашем пуле. Поэтому мой вопрос: каково реальное (ожидаемое) влияние на игнорирование этого правила?

Вот пример того, кто строит NAS на 71 ТБ с ZFS и 16 ГБ оперативной памяти. По его словам, это похоже на очарование. Однако он использует Linux (если это имеет значение).

Таким образом, очевидно, вам не нужно 96 или даже 64 гигабайта оперативной памяти для запуска такого большого пула. Но правило должно быть там по причине. Так что же происходит, если у вас нет рекомендуемого объема оперативной памяти? Это просто немного медленнее или вы рискуете потерять данные или получить доступ к вашим данным только в улитках?


Я понимаю, что это также во многом связано с функциями, которые будут использоваться, поэтому вот параметры, которые я рассматриваю:

  • Это домашняя система
  • 16 ГБ ECC RAM (максимум, поддерживаемый настройкой, которую я имею в виду)
  • Нет дедупликации, нет ЗИЛ, нет L2ARC
  • Вероятно, с включенным сжатием
  • Будут храниться в основном медиа файлы разных размеров
  • Вероятно, будут запускаться битовые торрент-сервисы или подобные сервисы (часто меньшие чтения / записи)
  • 4 диска по 5 ТБ каждый
  • Фактическая настройка пула, вероятно, будет частью другого вопроса, но я думаю, что нет RAIDZ (хотя мне было бы интересно узнать, если это действительно имеет значение в этом контексте), вероятно, два пула с двумя дисками в каждом (для 10 ТБ нетто-хранилища), один действующий в качестве резервной копии

2 ответа

Единственная причина, по которой вам потребуется использовать это соотношение оперативной памяти и дискового пространства, заключается в том, что вы решили использовать дедупликацию данных. Это не говорит о том, что соотношение 1 ГБ к 1 ТБ является обязательным.

Согласно вики:

Эффективное использование дедупликации может потребовать большой емкости ОЗУ; Рекомендации варьируются от 1 до 5 ГБ ОЗУ на каждый ТБ хранилища. Недостаточная физическая память или отсутствие кеша ZFS может привести к перегрузке виртуальной памяти при использовании дедупликации, что может либо снизить производительность, либо привести к полному истощению памяти. Твердотельные накопители (SSD) можно использовать для кэширования таблиц дедупликации, что повышает производительность дедупликации.

Источник

С 2014 по 2017 год я использовал Freenas на 30 ТБ с 16 ГБ оперативной памяти DDR3-ECC. В 2018 году я увеличил его до 32 ГБ, максимально загрузив материнскую плату, но 8–15 ГБ регулярно съедаются виртуальными машинами. Никаких проблем, никогда, нада. На самом деле я также установил sync=always для некоторых наборов данных, с парой дисков nvme samsung 970 plus в качестве зеркальных дисков журналов и кэшем L2ARC объемом около 60 ГБ (да, я разделил и использовал одни и те же устройства как для журналов, так и для кэш, в основном для кэширования виртуальных машин). Средняя скорость записи 70МБ/с с синхронизацией, 200МБ/с при локальном . Скорость чтения очень хорошая, в целом более 90 МБ/с. Никогда не было проблем. Если у вас нет сети 2,5+Гбит, маловероятно, что вы когда-либо столкнетесь с проблемами производительности.

Другие вопросы по тегам