Zettabyte File System

Материал из Seo Wiki - Поисковая Оптимизация и Программирование

Перейти к: навигация, поиск

ZFS (Zettabyte File System) — файловая система, изначально созданная в Sun Microsystems для операционной системы Solaris. Эта файловая система поддерживает большие объёмы данных, объединяет концепции файловой системы и менеджера логических дисков (томо́в) и физических носителей, инновационную структуру данных на дисках, легковесные файловые системы (lightweight filesystems), а также простое управление томами хранения данных. ZFS является проектом с открытым исходным кодом и лицензируется под CDDL (Common Development and Distribution License).

Основное преимущество ZFS — это её полный контроль над физическими и логическими носителями. Зная, как именно расположены данные на дисках, ZFS способна обеспечить высокую скорость доступа к ним, контроль их целостности, а также минимизацию фрагментации данных. Это позволяет динамически выделять или освобождать дисковое пространство на одном или более носителях для логической файловой системы. Кроме того, имеет место переменный размер блока, что лучшим образом влияет на производительность, параллельность выполнения операций чтения-записи, а также 64-разрядный механизм использования контрольных сумм, сводящий к минимуму вероятность разрушения данных.

ZFS
Разработчик

Oracle Corporation (ранее Sun Microsystems)

Файловая система

ZFS — Zettabyte File System

Дата представления

Ноябрь 2005 (OpenSolaris)

Структура
Содержимое папок

Расширяемая Хэш таблица

Ограничения
Максимальный размер файла

16 эксабайт

Максимум файлов

248

Максимальная длина имени файла

255 байт

Максимальный размер тома

16 эксабайт

Возможности
Точность хранения даты

{{{date_resolution}}}

Многопоточность

Да (названные Extended Attributes)

Атрибуты

POSIX

Права доступа

POSIX

Фоновая компрессия

Да

Фоновое шифрование

Готовится к выходу: 4 квартал 2009г [1]

Поддерживается ОС

Sun Solaris, OpenSolaris, Apple Mac OS X 10.5, FreeBSD, Linux через FUSE

Содержание

История

ZFS была спроектирована и создана командой Sun Microsystems, лидером которой является Джеф Бонвик (Jeff Bonwick). Файловая система была анонсирована 14 сентября 2004 года. [2] Исходный код для финального релиза был интегрирован в главную ветку разработки Solaris 31 октября 2005 года [3] и реализован как часть 27-й сборки OpenSolaris 16 ноября 2005 года. Sun заявила, что ZFS была интегрирована в 6/06 обновление для Solaris 10 в Июне 2006, по прошествии одного года с момента открытия сообщества OpenSolaris. [4]

Изначальное название было «Zettabyte File System», но сейчас оно превратилось в простую аббревиатуру.[5]

Специфика

Максимальные возможности

ZFS это 128-битная файловая система, что позволяет ей хранить в 18.4 × 1018 раз больше данных, чем нынешние 64-битные системы. ZFS спроектирована так, чтобы её ограничения были настолько малы, что они никогда не встретятся на практике. Как заявил руководитель проекта Бонвик, «заполнение 128-битных файловых систем превысит квантовые возможности хранения данных на Земле. Вы не сможете заполнить и хранить 128-битный объём, не вскипятив при этом океан.»[2]

Некоторые теоретические пределы в ZFS:

  • 248 — Количество снимков (snapshot) в любой файловой системе (2 × 1014)
  • 248 — Количество файлов в любой индивидуальной файловой системе (2 × 1014)
  • 16 эксабайт (264 byte) — Максимальный размер файловой системы
  • 16 эксабайт (264 byte) — Максимальный размер одного файла
  • 16 эксабайт (264 byte) — Максимальный размер любого атрибута
  • 3 × 1023 петабайт — Максимальный размер любого пула хранения (zpool)
  • 256 — Количество атрибутов файла (фактически ограничивается 2 48 на количество файлов в файловой системе ZFS)
  • 256 — Количество файлов в директории (реально ограничен 2 48 на количество файлов в файловой системе ZFS)
  • 264 — Количество устройств в любом zpool
  • 264 — Количество zpool’ов в системе
  • 264 — Число файловых систем в zpool

Пример того, насколько велики эти цифры: если бы 1000 файлов создавались каждую секунду, то потребовалось бы около 9000 лет для достижения предела количества файлов.

В ответ на вопрос о заполнении ZFS без кипячения океанов, Бонвик пишет:

Хотя мы все хотели бы, чтобы Закон Мура выполнялся бесконечно долго, квантовая механика накладывает некоторые фундаментальные ограничения на скорость вычислений и информационную вместимость любого физического устройства. В частности, было показано, что 1 килограмм материи, ограниченный 1 литром пространства, может выполнять не более 1051 операций в секунду над не более чем 1031 бит информации [см. Seth Lloyd, «Ultimate physical limits to computation.» Nature 406, 1047—1054 (2000)]. Целиком заполненный 128-битный объём будет содержать 2128 блоков = 2137 байт = 2140 бит; поэтому минимальная масса, необходимая для хранения этого количества бит будет (2140 бит) / (1031 бит/кг) = 136 млрд кг.

Пулы хранения

В отличие от традиционных файловых систем, которые располагаются на одном устройстве и, следовательно, при использовании более чем на одном устройстве для них требуется менеджер томов, ZFS строится поверх виртуальных пулов хранения данных, называемых zpool. Пул построен из виртуальных устройств (vdevs), каждое из которых является либо физическим устройством, либо зеркалом (RAID 1) одного или нескольких устройств, либо (RAID Z) — группой из двух или более устройств. Емкость всех vdevs затем доступна для всех файловых систем в zpool.

Для ограничения пространства, доступного конкретной файловой системе, может быть установлена квота. Кроме того, возможно использование дискового резервирования — это гарантирует, что всегда будет оставаться некоторый доступный объём для конкретной файловой системы.

Версии пула ZFS[6]

Существуют различные версии файловой системы ZFS и версии пула ZFS (zpool), в зависимости от версии меняется и функциональность.

Посмотреть текущую версию пула ZFS (zpool) и доступные версии можно командой:

    # zpool upgrade -v
    This system is currently running ZFS pool version 10.

The following versions are supported: VER DESCRIPTION --- -------------------------------------------------------- 1 Initial ZFS version 2 Ditto blocks (replicated metadata) 3 Hot spares and double parity RAID-Z 4 zpool history 5 Compression using the gzip algorithm 6 bootfs pool property 7 Separate intent log devices 8 Delegated administration 9 refquota and refreservation properties 10 Cache devices For more information on a particular version, including supported releases, see: http://www.opensolaris.org/os/community/zfs/version/N Where 'N' is the version number.

По состоянию на Июль 2008 существует 11 версий ZFS.

ZFS Pool Версия 1

Это начальная реализация дискового формата ZFS. Впервые была внедрена 31 октября 2005 года и в течение шести месяцев использовалась для внутренних целей компании SUN. Первая официально поддерживаемая версия появилась в:

  • Solaris Nevada Build 36
  • Solaris 10 Update 2

ZFS Pool Версия 2

В этой версии включена поддержка так называемых Ditto Blocks или реплицируемых метаданных. Ввиду того, что структура дискового формата ZFS древовидная, невосстановимые ошибки в метаданных пула могут привести к тому, что пул нельзя будет открыть. Данная функция предоставляет автоматическую репликацию метаданных (до 3х копий каждого блока) независимо от избыточности зависимых пулов (underlying pool-wide redundancy). Например, в пуле с единственным зеркалом наиболее критичные метаданные будут трижды записаны на каждой стороне зеркала, в общей сложности шесть копий. Это позволяет удостовериться, что, если данные потеряны вследствие повреждения, все данные в пуле будут доступны для нахождения и пул будет работоспособным.

Данная функция была представлена 10 апреля 2006 года и доступна в:

  • Solaris Nevada Build 38
  • Solaris 10 Update 2 (Build 09)

ZFS Pool Версия 3

Включена поддержка следующих технологий:

  • Технология hot spare
  • RAID-Z двойной четности (raidz2)
  • Улучшеный учет RAID-Z

Данные функции были представлены в:

  • Solaris Nevada Build 42
  • Solaris 10 Update 3 Build 3

ZFS Pool Версия 4

Добавлена поддержка ведения истории пула ZFS, названная zpool history

Данная функция представлена в:

  • Solaris Nevada Build 62
  • Solaris 10 Update 4

ZFS Pool Версия 5

Добавлена поддержка сжатия на лету для наборов данных ZFS методом gzip

Данная функция представлена в:

  • Solaris Nevada Build 62
  • Solaris 10 Update 6

ZFS Pool Версия 6

Включает поддержку свойства bootfs в пуле

Данная функция представлена в:

  • Solaris Nevada Build 62
  • Solaris 10 Update 6

ZFS Pool Версия 7

В этой версии включена поддержка: ZFS Intent Log (ZIL) — Целевой лог ZFS — удовлетворяет требованиям некоторых приложений, которым необходимо знать, что данные, ими измененные, находятся на стабильном хранилище, по возврату из системного вызова. Intent Log хранит записи этих системных вызовов, они воспроизводятся заново, если произошел сбой питания или критическая ошибка, при которой основной пул не подтвердил их выполнение. Когда Intent Log находится вне основного пула, он выделяет блоки, которые идут цепочкой через пул.

Данная версия добавляет возможность ведения Intent Log на отдельном устройстве или устройствах.

Данные функции доступны в:

  • Solaris Nevada Build 68
  • Solaris 10 Update 6

ZFS Pool Версия 8

Добавлена возможность делегировать административные задачи по управлению ZFS обычным пользователям. До этого возможность управлять ZFS была только у администраторов.

Данная функция представлена в:

  • Solaris Nevada Build 69
  • Solaris 10 Update 6

ZFS Pool Версия 9

В этой версии включена поддержка:

  • В дополнение к существующим в ZFS квотам и функции резервации, в этой версии добавлено назначение квот и резерваций, которые не включают потребление дискового пространства вложенными структурами данных, таких как клоны и квоты.

Пример использования

     $ zfs set refquota
     $ zfs set refreservation

Резервирование автоматически устанавливается, когда созданный non-sparse том ZFS соответствует размеру раздела. Этот релиз предоставляет немедленную функцию резервации, так чтобы вы установили резервацию на non-sparse томе с достаточным размером пространства для снятия снимков и изменения содержимого тома.

  • Поддержка CIFS сервера OpenSolaris

Данные функции появилиь в:

  • Solaris Nevada Community Edition, Build 77
  • Solaris 10 Update 6

ZFS Pool Версия 10

Добавлена следующая функциональность:

Устройства могут быть добавлены в пул как кэширующие устройства. Это предоставляет дополнительный уровень кэширования между основной памятью и диском. Использование кэширующих устройств существенно увеличивает производительность при нагруженных операциях случайного считывания, в основном статичного содержимого.

Функциональность доступна в:

  • Solaris Nevada Community Edition, Build 78
  • Solaris 10 Update 6

ZFS Pool Версия 11

Улучшена производительность механизма скраббинга (вычищения) zpool

     $ zpool scrub

Это изменение доступно в:

  • Solaris Nevada Build 94

ZFS Pool Версия 12


Появилась следующая опция:

  • Свойства снапшотов

Впервые появилось в версии:

  • Solaris Express Community Edition, build 96

ZFS Pool Версия 13

This page describes the features available with version 13 of the ZFS on-disk format. This version includes support for the following features: Стали доступны следующие свойства

  • usedbysnapshots
  • usedbychildren
  • usedbyrefreservation
  • usedbydataset

Реализовано в

  • Solaris Express Community Edition, build 98
  • FreeBSD 8.0

ZFS Pool Версия 14

Появилась поддержка:

  • поддержка свойства passthrough-x aclinherit

Реализовано в следующей версии Solaris:

  • Solaris Express Community Edition, build 103


ZFS Pool Версия 15

Включает поддержку:

  • userused@... и groupused@... свойств
  • userquota@... и groupquota@... свойств

Представлено в:

  • Solaris Express Community Edition, build 114

ZFS Pool Версия 16

Появилась следующая опция:

  • поддержка свойства STMF

Реализовано в:

  • Solaris Express Community Edition, build 116

ZFS Pool Версия 17

This page describes the feature available with version 17 of the ZFS on-disk format. This version includes support for the following feature: Реализовано следующая функция

  • triple-parity RAID-Z (RAID-Z тройной четности)

Возможно использовать в:

  • Solaris Express Community Edition, build 120

ZFS Pool Версия 18

Поддержка следующей опции:

  • ZFS snapshot holds

Возможно использовать в версии, начиная с:

  • Solaris Express Community Edition, build 121

ZFS Pool Версия 19

Появилась следующая возможность:

  • удаление ZFS log device (ранее удалить присоединенное устройство хранения логов было невозможно)

Функция доступна в:

  • Solaris Express Community Edition, build 125

ZFS Pool Версия 20

This page describes the feature available with version 20 of the ZFS on-disk format. Эта версия включает алгоритм сжатия zle, который необходим для поддержки ZFS нераздвоения (deduplication) свойств в ZFS Pool версии 21.

Обе версии реализованы в:

  • Solaris Express Community Edition, build 128

ZFS Pool Версия 21

Эта версия включает поддержку ZFS нераздвоения (deduplication) свойств

Доступно в:

  • Solaris Express Community Edition, build 128

Модель транзакций копия-по-записи

ZFS использует модель объектных транзакций копия-по-записи. Все указатели на блоки внутри файловой системы содержат 256-битную контрольную сумму в целевом блоке, который проверяется, когда блок прочитан. Блоки данных, содержащие активные (в этот момент) данные, никогда не перезаписываются вместе; напротив, выделяется новый блок, измененные данные записываются в него, а затем метаданные любых блоков, которые на него ссылаются, таким образом всё перераспределяется и записывается. Чтобы уменьшить накладные расходы, в этом процессе группируется несколько обновлений в группу транзакции, также, если требуется, ведётся лог использования при синхронной записи.

Снимки и клоны

Модель копия-по-записи в ZFS обладает еще одним мощным преимуществом: когда ZFS записывает новые данные — вместо освобождения блоков, содержащих старые данные — она может сохранять их, создавая снимки файловой системы. Снимки в ZFS создаются очень быстро, так как все данные в составе снимка уже сохранены; они также эффективно размещены в пространстве, поскольку любые неизмененные данные разделяются (являются общими) между файловой системой и ее снимком.

Также могут быть созданы перезаписываемые снимки («клоны»), в результате чего будут две независимые файловые системы, которые разделяют комплекс блоков. Как только вносятся изменения в какой-либо клон файловой системы, блоки новых данных создаются во всех остальных клонах, чтобы отразить эти изменения.

Динамическое разделение

Динамическое разделение всех устройств на максимальной пропускной способности означает, что дополнительные устройства включаются в zpool, более широкие каналы автоматически расширяется для включения использования всех дисков в пуле, это уравновешивает нагрузку на запись.

Различные размеры блока

ZFS использует переменный размер блоков до 128 килобайт. В настоящее время администратору позволяется настраивать максимальный размер используемых блоков, но некоторые работы не будут выполняться (или будут выполняться с ошибками), если использовались слишком крупные блоки. Автоматические настройки рабочих характеристик соответствуют привилегиям.

Если сжатие включено, используются переменные размеры блока. Если блок был сжат, он может влиться в блок меньшего размера, то есть используется меньшее пространство на диске и повышается пропускная способность (Input/Output) (ценой расширенного использования процессора и оперативной памяти для операций компрессии и декомпрессии).

Сквозной контроль целостности данных

Под сквозным контролем целостности понимается запись на диск контрольной суммы для каждого блока данных, причем контрольная сумма и данные специально разносятся максимально далеко друг от друга для снижения вероятности их совместной порчи. Если в пуле есть несколько устройств, то для данных, размещенных на одном из них, контрольная сумма будет записана на другом. Контрольные суммы вычисляются не только для данных, но и для метаданных, и получается, что в пуле всегда есть контрольная сумма для каждого блока информации.

При считывании любого блока подсчитывается его контрольная сумма и результат сравнивается с контрольной суммой, хранящейся на диске. В случае расхождения ошибка сразу обнаруживается. Разумеется, если в пуле заранее не было запланировано никакого резервирования (ни RAID-Z, ни иного), то ошибку уже не исправишь, но зато испорченные данные не будут выданы за истинные.

Смысл сквозного контроля целостности данных в том, чтобы предотвратить скрытую незаметную порчу данных в результате сбоя оборудования или встроенного программного обеспечения диска или контроллера. Несмотря на то, что вероятность такого события кажется низкой, некоторые исследования показывают, что она вполне значима для организаций любого масштаба. [7]

Создание легковесной файловой системы

В ZFS, манипулирование с файловой системой в пуле легче, чем объемы манипуляций в традиционных файловых системах; время и усилия, требуемые для создания или изменения файловой системы ZFS в большей степени напоминают объёмы работ связанные с новым каталогом, чем с манипулированием разделом в других технологиях.

Дополнительные возможности

  • Конкретный I/O приоритет со сроком планирования.
  • Оптимальный в глобальном масштабе I/O сортировки и агрегации (aggregation).
  • Несколько независимых потоков с упреждением автоматического обнаружения длины и шага.
  • Параллельная, постоянная времени операций с каталогами.
  • Интеллектуальная очистка и коррекция.[8]
  • Загрузка и совместное использование дисков в пуле.[9]
  • Те же блоки: Метаданные воспроизводятся внутри пула, два или три раза (согласно значимости метаданных).[10] Если пул состоит из нескольких устройств, ZFS будет пытаться воспроизводить данные на разных устройствах. Даже в пуле без избыточности можно потерять данные, но даже если Вы обнаружите поврежденные секторы, то метаданные должны создать достаточную безопасность, даже при таком сценарии.
  • Дизайн ZFS (копия-по-записи + uberblocks) даёт бо́льшую безопасность при использовании дисков с возможностью записи в кэш, то есть если они реагируют и повинуются на кэш-флэш команды выданные ZFS. Эта особенность обеспечивает безопасность и значительное повышение производительности по сравнению с другими ФС.
  • Учитывая предыдущий пункт, когда все диски находятся в ZFS пуле, ZFS автоматически включает функцию записи в кэш для них. Это не применимо, если не только ZFS одновременно управляет дискретными разделами диска, например если вы используете ФС без функции безопасной записи в кеш, например UFS (и множество других).

Управление кэшем

ZFS также вводит адаптивную замену кеша (ARC), новый метод управления кэшем вместо традиционных для Solaris виртуальных страниц кэша в памяти.

Адаптивный порядок байт

Массивы и настроенная на них ZFS могут быть перенесены между разными платформами даже если те имеют другой порядок байт. Формат блоков ZFS позволяет автоматически определять и менять порядок байт на лету при чтении метаданных.

При этом разный порядок байт на разных системах никак не отражается на приложениях, файлы для них так и остаются простой последовательностью байтов. Таким образом приложения ответственны за независимый (от платформы) формат уже внутри самих файлов.

Ограничения

  • В реализации ZFS в Solaris 10 отсутствует прозрачное шифрование, как в NTFS, хотя существует его реализация в рамках проекта OpenSolaris.[1]
  • ZFS не поддерживает распределение квот для каждого пользователя или группы. Вместо этого, можно быстро создавать ФС для пользователей, каждая из которых будет иметь свой размер. По сути, не существует практического решения по квотам для файловых систем, совместно используемых разными пользователями (например проект группы разработчиков), где данные могут быть разделены на каждого пользователя, однако это может быть реализовано поверх стэка ZFS.
  • Расширение объема хранения, обычно достигается путем добавления группы дисков, таких как vdev (stripe, RAID-Z, RAID-Z2 или зеркало). Новые данные будут динамически использовать все доступные vdev’ы. Еще одной возможностью увеличения дискового места является поочерёдная замена физических дисков на более вместительные, с ожиданием, после каждой такой операции, пока ZFS сама себя вылечит. Время лечения зависит от объема сохраненной информации, а не от размера диска. Если во время лечения будет создан снапшот — это перезапустит процесс лечения. Стоит отметить, что замена дисков без потери данных возможна только в одном из режимов работы пула, это позволяющих.
  • На текущий момент невозможно уменьшить количество vdev’ов, не уменьшив при этом размер пула. Однако команда разработчиков ZFS работает над этой проблемой. В Solaris 10 05/08 (обновление 5) — это еще не реализовано.
  • Также невозможно добавить новый диск в массив RAID-Z или RAID-Z2 (vdev’ы). Данная функция является тяжелой для внедрения. Однако вы можете создать RAIDZ vdev и добавить его в zpool.
  • Вы не можете смешивать типы vdev в zpool. Например, если у вас есть stripped ZFS пул, содержащий диски на SAN, вы не сможете добавить локальные диски как зеркалируемый vdev.
  • Полная реконфигурация хранения данных требует сохранения данных на внешние носители (вне ZFS), уничтожения пулов и создания новых пулов по новым правилам.
  • ZFS не является изначально кластерной, распределенной или параллельной файловой системой и не предоставляет конкурирующего доступа к данным с различных хостов — ZFS это локальная файловая система.

Платформы

ZFS является частью OC Solaris компании Sun и доступна для обеих платформ — SPARC и x86. Поскольку код ZFS является открытым (лицензия CDDL), порты для других операционных систем и платформ могут производиться без участия Sun.

OpenSolaris

OpenSolaris 2008.05 использует ZFS как файловую систему по умолчанию.

Nexenta OS

Nexenta OS — это ОС с GNU-окружением (userspace), построенная поверх ядра OpenSolaris и его runtime окружения, в версии alpha1 в ядро была включена поддержка ZFS. Несколько позднее, Nexenta Systems представила NexentaStor — свое устройство хранения ZFS, предоставляющее возможности NAS/SAN/iSCSI и базирующееся на Nexenta OS. NexentaStor включает графический интерфейс, который упрощает процесс использования ZFS. 2 декабря 2008 года выпущена версия NexentaStor 1.1. В ней обновлено ядро OpenSolaris, улучшена интеграция с CIFS/AD а также добавлены несколько плагинов и исправлены некоторые ошибки.

Nexenta анонсировала в Феврале 2008 года значительный выпуск (названный версией NexentaCore Platform 1.0) своей операционной системы, которая базируется на программном обеспечении из Nexenta и других дистрибутивов. 13 октября 2009 года вышла Nexenta Core Platform 3 Alpha1 (osol b124). Последняя доступная стабильная верися: NexentaCore Platform v2.0


GNU/Linux

Уровень ядра

В GNU/Linux перенос ZFS на уровень ядра [11] юридически невозможен[источник не указан 1897 дней] из-за несовместимости лицензий CDDL, под юрисдикцией которой находится ZFS, и GNU GPL, под юрисдикцией которой находится Linux.

FUSE

Программа Google Summer of Code спонсирует адаптацию ZFS на ОС GNU/Linux с использованием FUSE, в которой Файловая система ZFS работает в пользовательском пространстве (userspace).[12] Считается, что это решение теоретически чревато потерями производительности[13]. Но пример с реализацией NTFS (NTFS-3G) через FUSE показывает хорошую производительность по сравнению с другими системами [14], что дает основания предполагать — производительность ZFS-FUSE может быть очень высокой.

На Июль 2008 ZFS-FUSE[15] представлена в виде версии 0.4 beta 2, в которой включена практически полная поддержка ZFS и всех ее функций — внедрена поддержка 10й версии zpool. Отсутствует документация в виде man-pages. Хотя сайт проекта обновляется редко и новые бета-версии ZFS-FUSE появляются тоже достаточно редко, текущий код регулярно обновляется, что показывает, что проект жив и развивается.

И хотя сама файловая система ZFS считается стабильной, то, что проект ZFS-FUSE находится в стадии бета-версии, означает, что использовать ZFS-FUSE в повседневной деятельности стоит, только если вы не боитесь полной потери данных, за которые будет отвечать ZFS-FUSE.

FreeBSD

Pawel Jakub Dawidek адаптировал ZFS для FreeBSD в виде модуля для ядра системы. ZFS включена в версию FreeBSD 7.0 (вышла 27 февраля 2008).[16]

На сегодняшний момент в FreeBSD не реализован тот функционал ZFS, для которого нет поддержки в ядре операционной системы FreeBSD (несмотря на то, что такой функционал возможен и даже реализован в портах операционной системы), например, iSCSI-target.

Наиболее свежая информация о реализации ZFS под FreeBSD доступна во FreeBSD Wiki, раздел ZFS.

Mac OS X

Apple Computer переносят ZFS на свою систему Mac OS X, ведётся активная дискуссия в списках рассылки ZFS и предварительные снапшоты для следующей версии Apple Mac OS X.[17] Несмотря на то, что Mac OS X 10.5 (Developer Seed 9A321) поддерживает ZFS, отсутствует возможность использовать ZFS на корневых разделах (root partion), что указано выше. Также попытки форматирования локальных дисков под Mac OS в упомянутую файловую систему будут безуспешны. Это баг[18].

11.06.2009 г. Apple на своей прессконференции WWDC'09 отказалась от ZFS в представленной версии Mac OS X 10.6 Snow Leopard. Были убраны также все упоминания о ZFS (128-bit Zettabyte File System). ZFS была добавлена в предыдущую версию Mac OS X — 10.5. Apple не раскрывает причины отказа от использования ZFS.[19]

Хотя в сборке Mac OS X 10.6 Snow Leopard под номером 10A432, помеченной как Golden Master, поддержка ZFS была возвращена, в окончательном релизе Mac OS X 10.6 поддержка ZFS вновь убрана, уже окончательно [20]. На данный момент возможно только чтение данных разделов, отформатировать диск под ZFS средствами Mac OS X невозможно.

По всей вероятности, причиной этому послужили неясные правовые перспективы, связанные с продолжающимися с 2007 взаимными судебными тяжбами Sun и NetApp вокруг запатентованных технологий, использованных в ZFS, а также проблемы с совмещением различных лицензий (GPL и CDDL)

http://zfs.macosforge.org/ ZFS Project Shutdown 2009-10-23 The ZFS project has been discontinued. The mailing list and repository will also be removed shortly.

На сайте проекта поддержки разработки порта файловой системы ZFS для платформы MacOS X появилось объявление о прекращении разработки, закрытия списка рассылки и в скором времени удаления репозитория исходных текстов.

MacFuse другой подход в ответ на закрытие официальной поддержки ZFS for Mac

Закрытие официального продукта привело к образованию нового свободного проекта MacZFS, который базируется на ранее созданной Apple кодовой базе, но отличающегося методом интеграции в систему. MacZFS выполняется не на уровне ядра, а на пользовательском уровне, работая с использованием MacFUSE.

Для пользователей MacOS X, желающих протестировать новый ZFS-модуль, подготовлен бинарный пакет, собранный на основе опубликованных в Git-репозитории исходных текстов, а также инструкция по настройке.

См. также

Ссылки

Порты

Обзоры и информация

  • ZFS Uncovered(англ.) — Обзор файловой системы ZFS.
  • Изучаем ZFS(рус.) — Перевод обзора файловой системы ZFS.
  • ZFS (рус.) на Xgu.ru

Примечания

  1. 1,0 1,1 Проект OpenSolaris: Поддержка шифрования дисков в ZFS.. Проект OpenSolaris. Проверено 11 июля 2008.
  2. 2,0 2,1 ZFS: the last word in file systems (ZFS: последнее слово в файловых системах). Sun Microsystems (14 сентября 2004 года). Проверено 30 апреля 2006.
  3. Jeff Bonwick ZFS: The Last Word in Filesystems. Jeff Bonwick's Blog (Блог Jeff'a Bonwick'а) (31 октября 2005). Проверено 30 апреля 2006.
  4. Sun Celebrates Successful One-Year Anniversary of OpenSolaris (Sun празднует успешную первую годовщину OpenSolaris). Sun Microsystems (20 июня 2006 года).
  5. Jeff Bonwick You say zeta, I say zetta (Ты скажешь zeta, я скажу zetta). Jeff Bonwick's Blog (Блог Jeff'а Bonwick'а) (2006-05-04). Проверено 8 сентября 2006.
  6. OpenSolaris Community: ZFS. Sun Microsystems.
  7. Data integrity. доклад CERN (2007-04-08). Проверено 28 января 2008.
  8. Smokin' Mirrors. Блог Jeff'a Bonwick'a (2006-05-02). Проверено 23 февраля 2007.
  9. Распределение блоков ZFS. Блог Jeff'а Bonwick'а (2006-11-04). Проверено 23 февраля 2007.
  10. Те же блоки - Удивительная репелент лента. Flippin' off bits Weblog (2006-05-12). Проверено 1 марта 2007.
  11. На данный момент реализация файловой системы на уровне ядра является традиционным и считается наиболее высокопроизводительным способом поддержки файловой системы.
  12. Ricardo Correia Announcing ZFS on FUSE/Linux (May 26 2006). Проверено 15 июля 2006.
  13. Реализация файловой системы на уровне задач пользовательского пространства может нести в себе дополнительные затраты, к примеру переключение контекста. Но такая реализация является основой целой теории микроядерных систем (см. Minix) и отличается бо́льшей надежностью по сравнению с реализацией внутри ядра.
  14. Szabolcs Szakacsits NTFS-3G Read/Write Driver Performance (November 28 2007). Проверено 20 января 2008.
  15. ZFS Filesystem for FUSE/Linux. Проверено 11 июля 2008.
  16. Dawidek, Pawel ZFS committed to the FreeBSD base (April 6 2007). Проверено 6 апреля 2007.
  17. Портирование ZFS в OSX. zfs-дискуссии (April 27 2006). Проверено 30 апреля 2006.
  18. Mac OS X 10.5 9A326 Seeded. InsanelyMac Forums (December 14 2006). Проверено 14 декабря 2006.
  19. Linux.Org.Ru. InsanelyMac Forums (June 11 2009). Проверено 11 июня 2009.
  20. Robin Harris - Apple kicks ZFS in the butt.
ca:ZFS

cs:ZFS de:ZFS (Dateisystem) en:ZFS es:ZFS (sistema de archivos) eu:ZFS fr:ZFS he:ZFS it:ZFS (file system) ja:ZFS nl:ZFS no:ZFS pl:ZFS pt:ZFS simple:ZFS sk:ZFS sv:ZFS th:ระบบแฟ้มขนาดแซตตะไบต์ uk:ZFS zh:ZFS

Личные инструменты

Served in 0.673 secs.