Como posso determinar o tamanho atual do ARC no ZFS e como o ARC se relaciona com a memória livre ou em cache?

17

O ZFS usa um ARC (cache de substituição adaptável) que não é contabilizado no uso tradicional da memória do "cache" do Linux. Como posso determinar o tamanho atual e os limites de tamanho do ZFS ARC e como eles se relacionam com a quantidade de memória livre ou em cache relatada, por exemplo free?

um CVn
fonte

Respostas:

20

O código ZFS relata várias estatísticas por meio de procfs. Para determinar o tamanho do ARC, observe /proc/spl/kstat/zfs/arcstats(assumindo procfs montado em / proc, como de costume), especificamente os valores para c, c_maxe size. (Consulte também esta postagem no fórum da comunidade Oracle . Cópia alternativa do Internet Archive , caso o site Oracle fique indisponível.)

  • cé o tamanho de destino do ARC em bytes
  • c_maxé o tamanho máximo do ARC em bytes
  • sizeé o tamanho atual do ARC em bytes

O tamanho máximo do ARC pode ser ajustado passando um zfs_arc_max=Nparâmetro para o zfsmódulo (através do modprobe), onde Né o tamanho máximo do ARC em bytes, ou em tempo real, escrevendo o novo tamanho máximo em bytes para /sys/module/zfs/parameters/zfs_arc_max.

Devido à maneira como o ZFS no Linux é implementado, a memória do ARC se comporta como a memória cache (por exemplo, é removida se o sistema ficar sob pressão de memória), mas é agregada pelo kernel como alocações de memória comuns. Isso pode causar confusão, pois o sistema parece ter muito menos memória livre do que seria esperado, dada a carga de trabalho atual do sistema, mas é normal.

Para obter o tamanho do ARC em megabytes, você pode usar algo como awk '/^size/ { print $1 " " $3 / 1048576 }' < /proc/spl/kstat/zfs/arcstats. (1.048.576 é o número de bytes em megabytes.)

Por exemplo, meu sistema (que usa o ZFS quase exclusivamente) pode relatar

$ free -m
             total       used       free     shared    buffers     cached
Mem:         32194      17948      14245          0        158        982
-/+ buffers/cache:      16808      15386
Swap:        49152          0      49152
$ awk '/^size/ { print $1 " " $3 / 1048576 }' < /proc/spl/kstat/zfs/arcstats
size 8138.73
$

o que significa que o uso real da memória pelos processos atualmente residentes é de aproximadamente 8.669 MB (16.808 MB reduzido em 8.139 MB).

um CVn
fonte
13

Para desenvolver a resposta de Michael Kjörling, você também pode usar arc_summary.py .

Aqui você pode ver como o ARC está usando metade da memória da minha área de trabalho:

root @ host: ~ # livre -g
             total de buffers compartilhados gratuitos usados ​​em cache
Mem: 62 56 6 1 1 5
- / + buffers / cache: 49 13
Troca: 7 0 7

root @ host: ~ # arc_summary.py
-------------------------------------------------- ----------------------
Relatório do subsistema ZFS sex 24 fev 19:44:20 2017
Resumo do ARC: (SAUDÁVEL)
        Contagem do acelerador de memória: 0

ARC Diversos:
        Excluído: 1,33m
        Mutex Misses: 99
        Evitar pulos: 99

Tamanho do ARC: 98,13% 30,80 GiB
        Tamanho do alvo: (adaptável) 100,00% 31,39 GiB
        Tamanho mínimo (limite rígido): 0,10% 32,00 MiB
        Tamanho máximo (ponto alto): 1004: 1 31,39 GiB

Repartição do tamanho do ARC:
        Tamanho do cache usado recentemente: 84,25% 26,45 GiB
        Tamanho do cache usado com frequência: 15,75% 4,95 GiB

Divisão de hash do ARC:
        Elementos Max: 1.11m
        Elementos Atual: 53.48% 592.56k
        Colisões: 763.42k
        Corrente Máxima: 4
        Correntes: 19,62k

ARC Total de acessos: 36,34m
        Taxa de acertos no cache: 87.02% 31.62m
        Proporção de Faltas de Cache: 12,98% 4,72m
        Taxa de acertos reais: 84.78% 30.81m

        Eficiência da demanda de dados: 93,49% 24,22m
        Eficiência de pré-busca de dados: 2,57% 819,12k

        O CACHE CHEGA POR LISTA DE CACHE:
          Usado anonimamente: 2,27% 716,60k
          Mais usados ​​recentemente: 17,26% 5,46m
          Usado com mais frequência: 80,17% 25,35m
          Fantasma usado mais recentemente: 0,19% 60,25k
          Fantasma usado com mais frequência: 0,11% 35,37k

        O CACHE ATINGE POR TIPO DE DADO:
          Dados da demanda: 71.60% 22.64m
          Dados de pré-busca: 0,07% 21,04k
          Metadados da demanda: 25,82% 8,16m
          Metadados de pré-busca: 2,51% 794,39k

        CACHE FALTA POR TIPO DE DADO:
          Dados da demanda: 33.44% 1.58m
          Dados de pré-busca: 16,92% 798,09k
          Metadados da demanda: 48,90% 2,31m
          Pré-busca de metadados: 0,75% 35,27k


Eficiência de pré-busca DMU: 173.06m
        Taxa de acerto: 86.14% 149.07m
        Miss Ratio: 13.86% 23.99m



Ajustável ao ZFS:
        metaslab_debug_load 0
        zfs_arc_min_prefetch_lifespan 0
        zfetch_max_streams 8
        zfs_nopwrite_enabled 1
        zfetch_min_sec_reap 2
        zfs_dbgmsg_enable 0
        zfs_dirty_data_max_max_percent 25
        zfs_arc_p_aggressive_disable 1
        spa_load_verify_data 1
        zfs_zevent_cols 80
        zfs_dirty_data_max_percent 10
        zfs_sync_pass_dont_compress 5
        l2arc_write_max 8388608
        zfs_vdev_scrub_max_active 2
        zfs_vdev_sync_write_min_active 10
        zvol_prefetch_bytes 131072
        metaslab_aliquot 524288
        zfs_no_scrub_prefetch 0
        zfs_arc_shrink_shift 0
        zfetch_block_cap 256
        zfs_txg_history 0
        zfs_delay_scale 500000
        zfs_vdev_async_write_active_min_dirty_percent 30
        metaslab_debug_unload 0
        zfs_read_history 0
        zvol_max_discard_blocks 16384
        zfs_recover 0
        l2arc_headroom 2
        zfs_deadman_synctime_ms 1000000
        zfs_scan_idle 50
        zfs_free_min_time_ms 1000
        zfs_dirty_data_max 6741298790
        zfs_vdev_async_read_min_active 1
        zfs_mg_noalloc_threshold 0
        zfs_dedup_prefetch 0
        zfs_vdev_max_active 1000
        l2arc_write_boost 8388608
        zfs_resilver_min_time_ms 3000
        zfs_vdev_async_write_max_active 10
        zil_slog_limit 1048576
        zfs_prefetch_disable 0
        zfs_resilver_delay 2
        metaslab_lba_weighting_enabled 1
        zfs_mg_fragmentation_threshold 85
        l2arc_feed_again 1
        zfs_zevent_console 0
        zfs_immediate_write_sz 32768
        zfs_dbgmsg_maxsize 4194304
        zfs_free_leak_on_eio 0
        zfs_deadman_enabled 1
        metaslab_bias_enabled 1
        zfs_arc_p_dampener_disable 1
        zfs_object_mutex_size 64
        zfs_metaslab_fragmentation_threshold 70
        zfs_no_scrub_io 0
        metaslabs_per_vdev 200
        zfs_dbuf_state_index 0
        zfs_vdev_sync_read_min_active 10
        metaslab_fragmentation_factor_enabled 1
        zvol_inhibit_dev 0
        zfs_vdev_async_write_active_max_dirty_percent 60
        zfs_vdev_cache_size 0
        zfs_vdev_mirror_switch_us 10000
        zfs_dirty_data_sync 67108864
        spa_config_path /etc/zfs/zpool.cache
        zfs_dirty_data_max_max 16853246976
        zfs_arc_lotsfree_percent 10
        zfs_zevent_len_max 128
        zfs_scan_min_time_ms 1000
        zfs_arc_sys_free 0
        zfs_arc_meta_strategy 1
        zfs_vdev_cache_bshift 16
        zfs_arc_meta_adjust_restarts 4096
        zfs_max_recordsize 1048576
        zfs_vdev_scrub_min_active 1
        zfs_vdev_read_gap_limit 32768
        zfs_arc_meta_limit 0
        zfs_vdev_sync_write_max_active 10
        l2arc_norw 0
        zfs_arc_meta_prune 10000
        metaslab_preload_enabled 1
        l2arc_nocompress 0
        zvol_major 230
        zfs_vdev_aggregation_limit 131072
        zfs_flags 0
        spa_asize_inflation 24
        zfs_admin_snapshot 0
        l2arc_feed_secs 1
        zio_taskq_batch_pct 75
        zfs_sync_pass_deferred_free 2
        zfs_disable_dup_eviction 0
        zfs_arc_grow_retry 0
        zfs_read_history_hits 0
        zfs_vdev_async_write_min_active 1
        zfs_vdev_async_read_max_active 3
        zfs_scrub_delay 4
        zfs_delay_min_dirty_percent 60
        zfs_free_max_blocks 100000
        zfs_vdev_cache_max 16384
        zio_delay_max 30000
        zfs_top_maxinflight 32
        ignore_hole_birth 1
        spa_slop_shift 5
        zfs_vdev_write_gap_limit 4096
        spa_load_verify_metadata 1
        spa_load_verify_maxinflight 10000
        l2arc_noprefetch 1
        zfs_vdev_scheduler noop
        zfs_expire_snapshot 300
        zfs_sync_pass_rewrite 2
        zil_replay_disable 0
        zfs_nocacheflush 0
        zfs_arc_max 0
        zfs_arc_min 0
        zfs_read_chunk_size 1048576
        zfs_txg_timeout 5
        zfs_pd_bytes_max 52428800
        l2arc_headroom_boost 200
        zfs_send_corrupt_data 0
        l2arc_feed_min_ms 200
        zfs_arc_meta_min 0
        zfs_arc_average_blocksize 8192
        zfetch_array_rd_sz 1048576
        zfs_autoimport_disable 1
        zfs_arc_p_min_shift 0
        zio_requeue_io_start_cut_in_line 1
        zfs_vdev_sync_read_max_active 10
        zfs_mdcomp_disable 0
        zfs_arc_num_sublists_per_state 8
11181
fonte
Eu me pergunto o significado da proporção relatada para o tamanho máximo (ponto alto).
precisa saber é o seguinte
Para usuários do Ubuntu: arc_summary.py
is