]> Git Repo - linux.git/blob - mm/Kconfig
mm: add optional close() to struct vm_special_mapping
[linux.git] / mm / Kconfig
1 # SPDX-License-Identifier: GPL-2.0-only
2
3 menu "Memory Management options"
4
5 #
6 # For some reason microblaze and nios2 hard code SWAP=n.  Hopefully we can
7 # add proper SWAP support to them, in which case this can be remove.
8 #
9 config ARCH_NO_SWAP
10         bool
11
12 config ZPOOL
13         bool
14
15 menuconfig SWAP
16         bool "Support for paging of anonymous memory (swap)"
17         depends on MMU && BLOCK && !ARCH_NO_SWAP
18         default y
19         help
20           This option allows you to choose whether you want to have support
21           for so called swap devices or swap files in your kernel that are
22           used to provide more virtual memory than the actual RAM present
23           in your computer.  If unsure say Y.
24
25 config ZSWAP
26         bool "Compressed cache for swap pages"
27         depends on SWAP
28         select CRYPTO
29         select ZPOOL
30         help
31           A lightweight compressed cache for swap pages.  It takes
32           pages that are in the process of being swapped out and attempts to
33           compress them into a dynamically allocated RAM-based memory pool.
34           This can result in a significant I/O reduction on swap device and,
35           in the case where decompressing from RAM is faster than swap device
36           reads, can also improve workload performance.
37
38 config ZSWAP_DEFAULT_ON
39         bool "Enable the compressed cache for swap pages by default"
40         depends on ZSWAP
41         help
42           If selected, the compressed cache for swap pages will be enabled
43           at boot, otherwise it will be disabled.
44
45           The selection made here can be overridden by using the kernel
46           command line 'zswap.enabled=' option.
47
48 config ZSWAP_SHRINKER_DEFAULT_ON
49         bool "Shrink the zswap pool on memory pressure"
50         depends on ZSWAP
51         default n
52         help
53           If selected, the zswap shrinker will be enabled, and the pages
54           stored in the zswap pool will become available for reclaim (i.e
55           written back to the backing swap device) on memory pressure.
56
57           This means that zswap writeback could happen even if the pool is
58           not yet full, or the cgroup zswap limit has not been reached,
59           reducing the chance that cold pages will reside in the zswap pool
60           and consume memory indefinitely.
61
62 choice
63         prompt "Default compressor"
64         depends on ZSWAP
65         default ZSWAP_COMPRESSOR_DEFAULT_LZO
66         help
67           Selects the default compression algorithm for the compressed cache
68           for swap pages.
69
70           For an overview what kind of performance can be expected from
71           a particular compression algorithm please refer to the benchmarks
72           available at the following LWN page:
73           https://lwn.net/Articles/751795/
74
75           If in doubt, select 'LZO'.
76
77           The selection made here can be overridden by using the kernel
78           command line 'zswap.compressor=' option.
79
80 config ZSWAP_COMPRESSOR_DEFAULT_DEFLATE
81         bool "Deflate"
82         select CRYPTO_DEFLATE
83         help
84           Use the Deflate algorithm as the default compression algorithm.
85
86 config ZSWAP_COMPRESSOR_DEFAULT_LZO
87         bool "LZO"
88         select CRYPTO_LZO
89         help
90           Use the LZO algorithm as the default compression algorithm.
91
92 config ZSWAP_COMPRESSOR_DEFAULT_842
93         bool "842"
94         select CRYPTO_842
95         help
96           Use the 842 algorithm as the default compression algorithm.
97
98 config ZSWAP_COMPRESSOR_DEFAULT_LZ4
99         bool "LZ4"
100         select CRYPTO_LZ4
101         help
102           Use the LZ4 algorithm as the default compression algorithm.
103
104 config ZSWAP_COMPRESSOR_DEFAULT_LZ4HC
105         bool "LZ4HC"
106         select CRYPTO_LZ4HC
107         help
108           Use the LZ4HC algorithm as the default compression algorithm.
109
110 config ZSWAP_COMPRESSOR_DEFAULT_ZSTD
111         bool "zstd"
112         select CRYPTO_ZSTD
113         help
114           Use the zstd algorithm as the default compression algorithm.
115 endchoice
116
117 config ZSWAP_COMPRESSOR_DEFAULT
118        string
119        depends on ZSWAP
120        default "deflate" if ZSWAP_COMPRESSOR_DEFAULT_DEFLATE
121        default "lzo" if ZSWAP_COMPRESSOR_DEFAULT_LZO
122        default "842" if ZSWAP_COMPRESSOR_DEFAULT_842
123        default "lz4" if ZSWAP_COMPRESSOR_DEFAULT_LZ4
124        default "lz4hc" if ZSWAP_COMPRESSOR_DEFAULT_LZ4HC
125        default "zstd" if ZSWAP_COMPRESSOR_DEFAULT_ZSTD
126        default ""
127
128 choice
129         prompt "Default allocator"
130         depends on ZSWAP
131         default ZSWAP_ZPOOL_DEFAULT_ZSMALLOC if HAVE_ZSMALLOC
132         default ZSWAP_ZPOOL_DEFAULT_ZBUD
133         help
134           Selects the default allocator for the compressed cache for
135           swap pages.
136           The default is 'zbud' for compatibility, however please do
137           read the description of each of the allocators below before
138           making a right choice.
139
140           The selection made here can be overridden by using the kernel
141           command line 'zswap.zpool=' option.
142
143 config ZSWAP_ZPOOL_DEFAULT_ZBUD
144         bool "zbud"
145         select ZBUD
146         help
147           Use the zbud allocator as the default allocator.
148
149 config ZSWAP_ZPOOL_DEFAULT_Z3FOLD
150         bool "z3fold"
151         select Z3FOLD
152         help
153           Use the z3fold allocator as the default allocator.
154
155 config ZSWAP_ZPOOL_DEFAULT_ZSMALLOC
156         bool "zsmalloc"
157         depends on HAVE_ZSMALLOC
158         select ZSMALLOC
159         help
160           Use the zsmalloc allocator as the default allocator.
161 endchoice
162
163 config ZSWAP_ZPOOL_DEFAULT
164        string
165        depends on ZSWAP
166        default "zbud" if ZSWAP_ZPOOL_DEFAULT_ZBUD
167        default "z3fold" if ZSWAP_ZPOOL_DEFAULT_Z3FOLD
168        default "zsmalloc" if ZSWAP_ZPOOL_DEFAULT_ZSMALLOC
169        default ""
170
171 config ZBUD
172         tristate "2:1 compression allocator (zbud)"
173         depends on ZSWAP
174         help
175           A special purpose allocator for storing compressed pages.
176           It is designed to store up to two compressed pages per physical
177           page.  While this design limits storage density, it has simple and
178           deterministic reclaim properties that make it preferable to a higher
179           density approach when reclaim will be used.
180
181 config Z3FOLD
182         tristate "3:1 compression allocator (z3fold)"
183         depends on ZSWAP
184         help
185           A special purpose allocator for storing compressed pages.
186           It is designed to store up to three compressed pages per physical
187           page. It is a ZBUD derivative so the simplicity and determinism are
188           still there.
189
190 config HAVE_ZSMALLOC
191         def_bool y
192         depends on MMU
193         depends on PAGE_SIZE_LESS_THAN_256KB # we want <= 64 KiB
194
195 config ZSMALLOC
196         tristate
197         prompt "N:1 compression allocator (zsmalloc)" if ZSWAP
198         depends on HAVE_ZSMALLOC
199         help
200           zsmalloc is a slab-based memory allocator designed to store
201           pages of various compression levels efficiently. It achieves
202           the highest storage density with the least amount of fragmentation.
203
204 config ZSMALLOC_STAT
205         bool "Export zsmalloc statistics"
206         depends on ZSMALLOC
207         select DEBUG_FS
208         help
209           This option enables code in the zsmalloc to collect various
210           statistics about what's happening in zsmalloc and exports that
211           information to userspace via debugfs.
212           If unsure, say N.
213
214 config ZSMALLOC_CHAIN_SIZE
215         int "Maximum number of physical pages per-zspage"
216         default 8
217         range 4 16
218         depends on ZSMALLOC
219         help
220           This option sets the upper limit on the number of physical pages
221           that a zmalloc page (zspage) can consist of. The optimal zspage
222           chain size is calculated for each size class during the
223           initialization of the pool.
224
225           Changing this option can alter the characteristics of size classes,
226           such as the number of pages per zspage and the number of objects
227           per zspage. This can also result in different configurations of
228           the pool, as zsmalloc merges size classes with similar
229           characteristics.
230
231           For more information, see zsmalloc documentation.
232
233 menu "Slab allocator options"
234
235 config SLUB
236         def_bool y
237
238 config SLUB_TINY
239         bool "Configure for minimal memory footprint"
240         depends on EXPERT
241         select SLAB_MERGE_DEFAULT
242         help
243            Configures the slab allocator in a way to achieve minimal memory
244            footprint, sacrificing scalability, debugging and other features.
245            This is intended only for the smallest system that had used the
246            SLOB allocator and is not recommended for systems with more than
247            16MB RAM.
248
249            If unsure, say N.
250
251 config SLAB_MERGE_DEFAULT
252         bool "Allow slab caches to be merged"
253         default y
254         help
255           For reduced kernel memory fragmentation, slab caches can be
256           merged when they share the same size and other characteristics.
257           This carries a risk of kernel heap overflows being able to
258           overwrite objects from merged caches (and more easily control
259           cache layout), which makes such heap attacks easier to exploit
260           by attackers. By keeping caches unmerged, these kinds of exploits
261           can usually only damage objects in the same cache. To disable
262           merging at runtime, "slab_nomerge" can be passed on the kernel
263           command line.
264
265 config SLAB_FREELIST_RANDOM
266         bool "Randomize slab freelist"
267         depends on !SLUB_TINY
268         help
269           Randomizes the freelist order used on creating new pages. This
270           security feature reduces the predictability of the kernel slab
271           allocator against heap overflows.
272
273 config SLAB_FREELIST_HARDENED
274         bool "Harden slab freelist metadata"
275         depends on !SLUB_TINY
276         help
277           Many kernel heap attacks try to target slab cache metadata and
278           other infrastructure. This options makes minor performance
279           sacrifices to harden the kernel slab allocator against common
280           freelist exploit methods.
281
282 config SLAB_BUCKETS
283         bool "Support allocation from separate kmalloc buckets"
284         depends on !SLUB_TINY
285         default SLAB_FREELIST_HARDENED
286         help
287           Kernel heap attacks frequently depend on being able to create
288           specifically-sized allocations with user-controlled contents
289           that will be allocated into the same kmalloc bucket as a
290           target object. To avoid sharing these allocation buckets,
291           provide an explicitly separated set of buckets to be used for
292           user-controlled allocations. This may very slightly increase
293           memory fragmentation, though in practice it's only a handful
294           of extra pages since the bulk of user-controlled allocations
295           are relatively long-lived.
296
297           If unsure, say Y.
298
299 config SLUB_STATS
300         default n
301         bool "Enable performance statistics"
302         depends on SYSFS && !SLUB_TINY
303         help
304           The statistics are useful to debug slab allocation behavior in
305           order find ways to optimize the allocator. This should never be
306           enabled for production use since keeping statistics slows down
307           the allocator by a few percentage points. The slabinfo command
308           supports the determination of the most active slabs to figure
309           out which slabs are relevant to a particular load.
310           Try running: slabinfo -DA
311
312 config SLUB_CPU_PARTIAL
313         default y
314         depends on SMP && !SLUB_TINY
315         bool "Enable per cpu partial caches"
316         help
317           Per cpu partial caches accelerate objects allocation and freeing
318           that is local to a processor at the price of more indeterminism
319           in the latency of the free. On overflow these caches will be cleared
320           which requires the taking of locks that may cause latency spikes.
321           Typically one would choose no for a realtime system.
322
323 config RANDOM_KMALLOC_CACHES
324         default n
325         depends on !SLUB_TINY
326         bool "Randomize slab caches for normal kmalloc"
327         help
328           A hardening feature that creates multiple copies of slab caches for
329           normal kmalloc allocation and makes kmalloc randomly pick one based
330           on code address, which makes the attackers more difficult to spray
331           vulnerable memory objects on the heap for the purpose of exploiting
332           memory vulnerabilities.
333
334           Currently the number of copies is set to 16, a reasonably large value
335           that effectively diverges the memory objects allocated for different
336           subsystems or modules into different caches, at the expense of a
337           limited degree of memory and CPU overhead that relates to hardware and
338           system workload.
339
340 endmenu # Slab allocator options
341
342 config SHUFFLE_PAGE_ALLOCATOR
343         bool "Page allocator randomization"
344         default SLAB_FREELIST_RANDOM && ACPI_NUMA
345         help
346           Randomization of the page allocator improves the average
347           utilization of a direct-mapped memory-side-cache. See section
348           5.2.27 Heterogeneous Memory Attribute Table (HMAT) in the ACPI
349           6.2a specification for an example of how a platform advertises
350           the presence of a memory-side-cache. There are also incidental
351           security benefits as it reduces the predictability of page
352           allocations to compliment SLAB_FREELIST_RANDOM, but the
353           default granularity of shuffling on the MAX_PAGE_ORDER i.e, 10th
354           order of pages is selected based on cache utilization benefits
355           on x86.
356
357           While the randomization improves cache utilization it may
358           negatively impact workloads on platforms without a cache. For
359           this reason, by default, the randomization is not enabled even
360           if SHUFFLE_PAGE_ALLOCATOR=y. The randomization may be force enabled
361           with the 'page_alloc.shuffle' kernel command line parameter.
362
363           Say Y if unsure.
364
365 config COMPAT_BRK
366         bool "Disable heap randomization"
367         default y
368         help
369           Randomizing heap placement makes heap exploits harder, but it
370           also breaks ancient binaries (including anything libc5 based).
371           This option changes the bootup default to heap randomization
372           disabled, and can be overridden at runtime by setting
373           /proc/sys/kernel/randomize_va_space to 2.
374
375           On non-ancient distros (post-2000 ones) N is usually a safe choice.
376
377 config MMAP_ALLOW_UNINITIALIZED
378         bool "Allow mmapped anonymous memory to be uninitialized"
379         depends on EXPERT && !MMU
380         default n
381         help
382           Normally, and according to the Linux spec, anonymous memory obtained
383           from mmap() has its contents cleared before it is passed to
384           userspace.  Enabling this config option allows you to request that
385           mmap() skip that if it is given an MAP_UNINITIALIZED flag, thus
386           providing a huge performance boost.  If this option is not enabled,
387           then the flag will be ignored.
388
389           This is taken advantage of by uClibc's malloc(), and also by
390           ELF-FDPIC binfmt's brk and stack allocator.
391
392           Because of the obvious security issues, this option should only be
393           enabled on embedded devices where you control what is run in
394           userspace.  Since that isn't generally a problem on no-MMU systems,
395           it is normally safe to say Y here.
396
397           See Documentation/admin-guide/mm/nommu-mmap.rst for more information.
398
399 config SELECT_MEMORY_MODEL
400         def_bool y
401         depends on ARCH_SELECT_MEMORY_MODEL
402
403 choice
404         prompt "Memory model"
405         depends on SELECT_MEMORY_MODEL
406         default SPARSEMEM_MANUAL if ARCH_SPARSEMEM_DEFAULT
407         default FLATMEM_MANUAL
408         help
409           This option allows you to change some of the ways that
410           Linux manages its memory internally. Most users will
411           only have one option here selected by the architecture
412           configuration. This is normal.
413
414 config FLATMEM_MANUAL
415         bool "Flat Memory"
416         depends on !ARCH_SPARSEMEM_ENABLE || ARCH_FLATMEM_ENABLE
417         help
418           This option is best suited for non-NUMA systems with
419           flat address space. The FLATMEM is the most efficient
420           system in terms of performance and resource consumption
421           and it is the best option for smaller systems.
422
423           For systems that have holes in their physical address
424           spaces and for features like NUMA and memory hotplug,
425           choose "Sparse Memory".
426
427           If unsure, choose this option (Flat Memory) over any other.
428
429 config SPARSEMEM_MANUAL
430         bool "Sparse Memory"
431         depends on ARCH_SPARSEMEM_ENABLE
432         help
433           This will be the only option for some systems, including
434           memory hot-plug systems.  This is normal.
435
436           This option provides efficient support for systems with
437           holes is their physical address space and allows memory
438           hot-plug and hot-remove.
439
440           If unsure, choose "Flat Memory" over this option.
441
442 endchoice
443
444 config SPARSEMEM
445         def_bool y
446         depends on (!SELECT_MEMORY_MODEL && ARCH_SPARSEMEM_ENABLE) || SPARSEMEM_MANUAL
447
448 config FLATMEM
449         def_bool y
450         depends on !SPARSEMEM || FLATMEM_MANUAL
451
452 #
453 # SPARSEMEM_EXTREME (which is the default) does some bootmem
454 # allocations when sparse_init() is called.  If this cannot
455 # be done on your architecture, select this option.  However,
456 # statically allocating the mem_section[] array can potentially
457 # consume vast quantities of .bss, so be careful.
458 #
459 # This option will also potentially produce smaller runtime code
460 # with gcc 3.4 and later.
461 #
462 config SPARSEMEM_STATIC
463         bool
464
465 #
466 # Architecture platforms which require a two level mem_section in SPARSEMEM
467 # must select this option. This is usually for architecture platforms with
468 # an extremely sparse physical address space.
469 #
470 config SPARSEMEM_EXTREME
471         def_bool y
472         depends on SPARSEMEM && !SPARSEMEM_STATIC
473
474 config SPARSEMEM_VMEMMAP_ENABLE
475         bool
476
477 config SPARSEMEM_VMEMMAP
478         bool "Sparse Memory virtual memmap"
479         depends on SPARSEMEM && SPARSEMEM_VMEMMAP_ENABLE
480         default y
481         help
482           SPARSEMEM_VMEMMAP uses a virtually mapped memmap to optimise
483           pfn_to_page and page_to_pfn operations.  This is the most
484           efficient option when sufficient kernel resources are available.
485 #
486 # Select this config option from the architecture Kconfig, if it is preferred
487 # to enable the feature of HugeTLB/dev_dax vmemmap optimization.
488 #
489 config ARCH_WANT_OPTIMIZE_DAX_VMEMMAP
490         bool
491
492 config ARCH_WANT_OPTIMIZE_HUGETLB_VMEMMAP
493         bool
494
495 config HAVE_MEMBLOCK_PHYS_MAP
496         bool
497
498 config HAVE_GUP_FAST
499         depends on MMU
500         bool
501
502 # Don't discard allocated memory used to track "memory" and "reserved" memblocks
503 # after early boot, so it can still be used to test for validity of memory.
504 # Also, memblocks are updated with memory hot(un)plug.
505 config ARCH_KEEP_MEMBLOCK
506         bool
507
508 # Keep arch NUMA mapping infrastructure post-init.
509 config NUMA_KEEP_MEMINFO
510         bool
511
512 config MEMORY_ISOLATION
513         bool
514
515 # IORESOURCE_SYSTEM_RAM regions in the kernel resource tree that are marked
516 # IORESOURCE_EXCLUSIVE cannot be mapped to user space, for example, via
517 # /dev/mem.
518 config EXCLUSIVE_SYSTEM_RAM
519         def_bool y
520         depends on !DEVMEM || STRICT_DEVMEM
521
522 #
523 # Only be set on architectures that have completely implemented memory hotplug
524 # feature. If you are not sure, don't touch it.
525 #
526 config HAVE_BOOTMEM_INFO_NODE
527         def_bool n
528
529 config ARCH_ENABLE_MEMORY_HOTPLUG
530         bool
531
532 config ARCH_ENABLE_MEMORY_HOTREMOVE
533         bool
534
535 # eventually, we can have this option just 'select SPARSEMEM'
536 menuconfig MEMORY_HOTPLUG
537         bool "Memory hotplug"
538         select MEMORY_ISOLATION
539         depends on SPARSEMEM
540         depends on ARCH_ENABLE_MEMORY_HOTPLUG
541         depends on 64BIT
542         select NUMA_KEEP_MEMINFO if NUMA
543
544 if MEMORY_HOTPLUG
545
546 config MEMORY_HOTPLUG_DEFAULT_ONLINE
547         bool "Online the newly added memory blocks by default"
548         depends on MEMORY_HOTPLUG
549         help
550           This option sets the default policy setting for memory hotplug
551           onlining policy (/sys/devices/system/memory/auto_online_blocks) which
552           determines what happens to newly added memory regions. Policy setting
553           can always be changed at runtime.
554           See Documentation/admin-guide/mm/memory-hotplug.rst for more information.
555
556           Say Y here if you want all hot-plugged memory blocks to appear in
557           'online' state by default.
558           Say N here if you want the default policy to keep all hot-plugged
559           memory blocks in 'offline' state.
560
561 config MEMORY_HOTREMOVE
562         bool "Allow for memory hot remove"
563         select HAVE_BOOTMEM_INFO_NODE if (X86_64 || PPC64)
564         depends on MEMORY_HOTPLUG && ARCH_ENABLE_MEMORY_HOTREMOVE
565         depends on MIGRATION
566
567 config MHP_MEMMAP_ON_MEMORY
568         def_bool y
569         depends on MEMORY_HOTPLUG && SPARSEMEM_VMEMMAP
570         depends on ARCH_MHP_MEMMAP_ON_MEMORY_ENABLE
571
572 endif # MEMORY_HOTPLUG
573
574 config ARCH_MHP_MEMMAP_ON_MEMORY_ENABLE
575        bool
576
577 # Heavily threaded applications may benefit from splitting the mm-wide
578 # page_table_lock, so that faults on different parts of the user address
579 # space can be handled with less contention: split it at this NR_CPUS.
580 # Default to 4 for wider testing, though 8 might be more appropriate.
581 # ARM's adjust_pte (unused if VIPT) depends on mm-wide page_table_lock.
582 # PA-RISC 7xxx's spinlock_t would enlarge struct page from 32 to 44 bytes.
583 # SPARC32 allocates multiple pte tables within a single page, and therefore
584 # a per-page lock leads to problems when multiple tables need to be locked
585 # at the same time (e.g. copy_page_range()).
586 # DEBUG_SPINLOCK and DEBUG_LOCK_ALLOC spinlock_t also enlarge struct page.
587 #
588 config SPLIT_PTE_PTLOCKS
589         def_bool y
590         depends on MMU
591         depends on NR_CPUS >= 4
592         depends on !ARM || CPU_CACHE_VIPT
593         depends on !PARISC || PA20
594         depends on !SPARC32
595
596 config ARCH_ENABLE_SPLIT_PMD_PTLOCK
597         bool
598
599 config SPLIT_PMD_PTLOCKS
600         def_bool y
601         depends on SPLIT_PTE_PTLOCKS && ARCH_ENABLE_SPLIT_PMD_PTLOCK
602
603 #
604 # support for memory balloon
605 config MEMORY_BALLOON
606         bool
607
608 #
609 # support for memory balloon compaction
610 config BALLOON_COMPACTION
611         bool "Allow for balloon memory compaction/migration"
612         default y
613         depends on COMPACTION && MEMORY_BALLOON
614         help
615           Memory fragmentation introduced by ballooning might reduce
616           significantly the number of 2MB contiguous memory blocks that can be
617           used within a guest, thus imposing performance penalties associated
618           with the reduced number of transparent huge pages that could be used
619           by the guest workload. Allowing the compaction & migration for memory
620           pages enlisted as being part of memory balloon devices avoids the
621           scenario aforementioned and helps improving memory defragmentation.
622
623 #
624 # support for memory compaction
625 config COMPACTION
626         bool "Allow for memory compaction"
627         default y
628         select MIGRATION
629         depends on MMU
630         help
631           Compaction is the only memory management component to form
632           high order (larger physically contiguous) memory blocks
633           reliably. The page allocator relies on compaction heavily and
634           the lack of the feature can lead to unexpected OOM killer
635           invocations for high order memory requests. You shouldn't
636           disable this option unless there really is a strong reason for
637           it and then we would be really interested to hear about that at
638           [email protected].
639
640 config COMPACT_UNEVICTABLE_DEFAULT
641         int
642         depends on COMPACTION
643         default 0 if PREEMPT_RT
644         default 1
645
646 #
647 # support for free page reporting
648 config PAGE_REPORTING
649         bool "Free page reporting"
650         help
651           Free page reporting allows for the incremental acquisition of
652           free pages from the buddy allocator for the purpose of reporting
653           those pages to another entity, such as a hypervisor, so that the
654           memory can be freed within the host for other uses.
655
656 #
657 # support for page migration
658 #
659 config MIGRATION
660         bool "Page migration"
661         default y
662         depends on (NUMA || ARCH_ENABLE_MEMORY_HOTREMOVE || COMPACTION || CMA) && MMU
663         help
664           Allows the migration of the physical location of pages of processes
665           while the virtual addresses are not changed. This is useful in
666           two situations. The first is on NUMA systems to put pages nearer
667           to the processors accessing. The second is when allocating huge
668           pages as migration can relocate pages to satisfy a huge page
669           allocation instead of reclaiming.
670
671 config DEVICE_MIGRATION
672         def_bool MIGRATION && ZONE_DEVICE
673
674 config ARCH_ENABLE_HUGEPAGE_MIGRATION
675         bool
676
677 config ARCH_ENABLE_THP_MIGRATION
678         bool
679
680 config HUGETLB_PAGE_SIZE_VARIABLE
681         def_bool n
682         help
683           Allows the pageblock_order value to be dynamic instead of just standard
684           HUGETLB_PAGE_ORDER when there are multiple HugeTLB page sizes available
685           on a platform.
686
687           Note that the pageblock_order cannot exceed MAX_PAGE_ORDER and will be
688           clamped down to MAX_PAGE_ORDER.
689
690 config CONTIG_ALLOC
691         def_bool (MEMORY_ISOLATION && COMPACTION) || CMA
692
693 config PCP_BATCH_SCALE_MAX
694         int "Maximum scale factor of PCP (Per-CPU pageset) batch allocate/free"
695         default 5
696         range 0 6
697         help
698           In page allocator, PCP (Per-CPU pageset) is refilled and drained in
699           batches.  The batch number is scaled automatically to improve page
700           allocation/free throughput.  But too large scale factor may hurt
701           latency.  This option sets the upper limit of scale factor to limit
702           the maximum latency.
703
704 config PHYS_ADDR_T_64BIT
705         def_bool 64BIT
706
707 config BOUNCE
708         bool "Enable bounce buffers"
709         default y
710         depends on BLOCK && MMU && HIGHMEM
711         help
712           Enable bounce buffers for devices that cannot access the full range of
713           memory available to the CPU. Enabled by default when HIGHMEM is
714           selected, but you may say n to override this.
715
716 config MMU_NOTIFIER
717         bool
718         select INTERVAL_TREE
719
720 config KSM
721         bool "Enable KSM for page merging"
722         depends on MMU
723         select XXHASH
724         help
725           Enable Kernel Samepage Merging: KSM periodically scans those areas
726           of an application's address space that an app has advised may be
727           mergeable.  When it finds pages of identical content, it replaces
728           the many instances by a single page with that content, so
729           saving memory until one or another app needs to modify the content.
730           Recommended for use with KVM, or with other duplicative applications.
731           See Documentation/mm/ksm.rst for more information: KSM is inactive
732           until a program has madvised that an area is MADV_MERGEABLE, and
733           root has set /sys/kernel/mm/ksm/run to 1 (if CONFIG_SYSFS is set).
734
735 config DEFAULT_MMAP_MIN_ADDR
736         int "Low address space to protect from user allocation"
737         depends on MMU
738         default 4096
739         help
740           This is the portion of low virtual memory which should be protected
741           from userspace allocation.  Keeping a user from writing to low pages
742           can help reduce the impact of kernel NULL pointer bugs.
743
744           For most arm64, ppc64 and x86 users with lots of address space
745           a value of 65536 is reasonable and should cause no problems.
746           On arm and other archs it should not be higher than 32768.
747           Programs which use vm86 functionality or have some need to map
748           this low address space will need CAP_SYS_RAWIO or disable this
749           protection by setting the value to 0.
750
751           This value can be changed after boot using the
752           /proc/sys/vm/mmap_min_addr tunable.
753
754 config ARCH_SUPPORTS_MEMORY_FAILURE
755         bool
756
757 config MEMORY_FAILURE
758         depends on MMU
759         depends on ARCH_SUPPORTS_MEMORY_FAILURE
760         bool "Enable recovery from hardware memory errors"
761         select MEMORY_ISOLATION
762         select RAS
763         help
764           Enables code to recover from some memory failures on systems
765           with MCA recovery. This allows a system to continue running
766           even when some of its memory has uncorrected errors. This requires
767           special hardware support and typically ECC memory.
768
769 config HWPOISON_INJECT
770         tristate "HWPoison pages injector"
771         depends on MEMORY_FAILURE && DEBUG_KERNEL && PROC_FS
772         select PROC_PAGE_MONITOR
773
774 config NOMMU_INITIAL_TRIM_EXCESS
775         int "Turn on mmap() excess space trimming before booting"
776         depends on !MMU
777         default 1
778         help
779           The NOMMU mmap() frequently needs to allocate large contiguous chunks
780           of memory on which to store mappings, but it can only ask the system
781           allocator for chunks in 2^N*PAGE_SIZE amounts - which is frequently
782           more than it requires.  To deal with this, mmap() is able to trim off
783           the excess and return it to the allocator.
784
785           If trimming is enabled, the excess is trimmed off and returned to the
786           system allocator, which can cause extra fragmentation, particularly
787           if there are a lot of transient processes.
788
789           If trimming is disabled, the excess is kept, but not used, which for
790           long-term mappings means that the space is wasted.
791
792           Trimming can be dynamically controlled through a sysctl option
793           (/proc/sys/vm/nr_trim_pages) which specifies the minimum number of
794           excess pages there must be before trimming should occur, or zero if
795           no trimming is to occur.
796
797           This option specifies the initial value of this option.  The default
798           of 1 says that all excess pages should be trimmed.
799
800           See Documentation/admin-guide/mm/nommu-mmap.rst for more information.
801
802 config ARCH_WANT_GENERAL_HUGETLB
803         bool
804
805 config ARCH_WANTS_THP_SWAP
806         def_bool n
807
808 menuconfig TRANSPARENT_HUGEPAGE
809         bool "Transparent Hugepage Support"
810         depends on HAVE_ARCH_TRANSPARENT_HUGEPAGE && !PREEMPT_RT
811         select COMPACTION
812         select XARRAY_MULTI
813         help
814           Transparent Hugepages allows the kernel to use huge pages and
815           huge tlb transparently to the applications whenever possible.
816           This feature can improve computing performance to certain
817           applications by speeding up page faults during memory
818           allocation, by reducing the number of tlb misses and by speeding
819           up the pagetable walking.
820
821           If memory constrained on embedded, you may want to say N.
822
823 if TRANSPARENT_HUGEPAGE
824
825 choice
826         prompt "Transparent Hugepage Support sysfs defaults"
827         depends on TRANSPARENT_HUGEPAGE
828         default TRANSPARENT_HUGEPAGE_ALWAYS
829         help
830           Selects the sysfs defaults for Transparent Hugepage Support.
831
832         config TRANSPARENT_HUGEPAGE_ALWAYS
833                 bool "always"
834         help
835           Enabling Transparent Hugepage always, can increase the
836           memory footprint of applications without a guaranteed
837           benefit but it will work automatically for all applications.
838
839         config TRANSPARENT_HUGEPAGE_MADVISE
840                 bool "madvise"
841         help
842           Enabling Transparent Hugepage madvise, will only provide a
843           performance improvement benefit to the applications using
844           madvise(MADV_HUGEPAGE) but it won't risk to increase the
845           memory footprint of applications without a guaranteed
846           benefit.
847
848         config TRANSPARENT_HUGEPAGE_NEVER
849                 bool "never"
850         help
851           Disable Transparent Hugepage by default. It can still be
852           enabled at runtime via sysfs.
853 endchoice
854
855 config THP_SWAP
856         def_bool y
857         depends on TRANSPARENT_HUGEPAGE && ARCH_WANTS_THP_SWAP && SWAP && 64BIT
858         help
859           Swap transparent huge pages in one piece, without splitting.
860           XXX: For now, swap cluster backing transparent huge page
861           will be split after swapout.
862
863           For selection by architectures with reasonable THP sizes.
864
865 config READ_ONLY_THP_FOR_FS
866         bool "Read-only THP for filesystems (EXPERIMENTAL)"
867         depends on TRANSPARENT_HUGEPAGE && SHMEM
868
869         help
870           Allow khugepaged to put read-only file-backed pages in THP.
871
872           This is marked experimental because it is a new feature. Write
873           support of file THPs will be developed in the next few release
874           cycles.
875
876 endif # TRANSPARENT_HUGEPAGE
877
878 #
879 # The architecture supports pgtable leaves that is larger than PAGE_SIZE
880 #
881 config PGTABLE_HAS_HUGE_LEAVES
882         def_bool TRANSPARENT_HUGEPAGE || HUGETLB_PAGE
883
884 #
885 # UP and nommu archs use km based percpu allocator
886 #
887 config NEED_PER_CPU_KM
888         depends on !SMP || !MMU
889         bool
890         default y
891
892 config NEED_PER_CPU_EMBED_FIRST_CHUNK
893         bool
894
895 config NEED_PER_CPU_PAGE_FIRST_CHUNK
896         bool
897
898 config USE_PERCPU_NUMA_NODE_ID
899         bool
900
901 config HAVE_SETUP_PER_CPU_AREA
902         bool
903
904 config CMA
905         bool "Contiguous Memory Allocator"
906         depends on MMU
907         select MIGRATION
908         select MEMORY_ISOLATION
909         help
910           This enables the Contiguous Memory Allocator which allows other
911           subsystems to allocate big physically-contiguous blocks of memory.
912           CMA reserves a region of memory and allows only movable pages to
913           be allocated from it. This way, the kernel can use the memory for
914           pagecache and when a subsystem requests for contiguous area, the
915           allocated pages are migrated away to serve the contiguous request.
916
917           If unsure, say "n".
918
919 config CMA_DEBUGFS
920         bool "CMA debugfs interface"
921         depends on CMA && DEBUG_FS
922         help
923           Turns on the DebugFS interface for CMA.
924
925 config CMA_SYSFS
926         bool "CMA information through sysfs interface"
927         depends on CMA && SYSFS
928         help
929           This option exposes some sysfs attributes to get information
930           from CMA.
931
932 config CMA_AREAS
933         int "Maximum count of the CMA areas"
934         depends on CMA
935         default 20 if NUMA
936         default 8
937         help
938           CMA allows to create CMA areas for particular purpose, mainly,
939           used as device private area. This parameter sets the maximum
940           number of CMA area in the system.
941
942           If unsure, leave the default value "8" in UMA and "20" in NUMA.
943
944 config MEM_SOFT_DIRTY
945         bool "Track memory changes"
946         depends on CHECKPOINT_RESTORE && HAVE_ARCH_SOFT_DIRTY && PROC_FS
947         select PROC_PAGE_MONITOR
948         help
949           This option enables memory changes tracking by introducing a
950           soft-dirty bit on pte-s. This bit it set when someone writes
951           into a page just as regular dirty bit, but unlike the latter
952           it can be cleared by hands.
953
954           See Documentation/admin-guide/mm/soft-dirty.rst for more details.
955
956 config GENERIC_EARLY_IOREMAP
957         bool
958
959 config STACK_MAX_DEFAULT_SIZE_MB
960         int "Default maximum user stack size for 32-bit processes (MB)"
961         default 100
962         range 8 2048
963         depends on STACK_GROWSUP && (!64BIT || COMPAT)
964         help
965           This is the maximum stack size in Megabytes in the VM layout of 32-bit
966           user processes when the stack grows upwards (currently only on parisc
967           arch) when the RLIMIT_STACK hard limit is unlimited.
968
969           A sane initial value is 100 MB.
970
971 config DEFERRED_STRUCT_PAGE_INIT
972         bool "Defer initialisation of struct pages to kthreads"
973         depends on SPARSEMEM
974         depends on !NEED_PER_CPU_KM
975         depends on 64BIT
976         depends on !KMSAN
977         select PADATA
978         help
979           Ordinarily all struct pages are initialised during early boot in a
980           single thread. On very large machines this can take a considerable
981           amount of time. If this option is set, large machines will bring up
982           a subset of memmap at boot and then initialise the rest in parallel.
983           This has a potential performance impact on tasks running early in the
984           lifetime of the system until these kthreads finish the
985           initialisation.
986
987 config PAGE_IDLE_FLAG
988         bool
989         select PAGE_EXTENSION if !64BIT
990         help
991           This adds PG_idle and PG_young flags to 'struct page'.  PTE Accessed
992           bit writers can set the state of the bit in the flags so that PTE
993           Accessed bit readers may avoid disturbance.
994
995 config IDLE_PAGE_TRACKING
996         bool "Enable idle page tracking"
997         depends on SYSFS && MMU
998         select PAGE_IDLE_FLAG
999         help
1000           This feature allows to estimate the amount of user pages that have
1001           not been touched during a given period of time. This information can
1002           be useful to tune memory cgroup limits and/or for job placement
1003           within a compute cluster.
1004
1005           See Documentation/admin-guide/mm/idle_page_tracking.rst for
1006           more details.
1007
1008 # Architectures which implement cpu_dcache_is_aliasing() to query
1009 # whether the data caches are aliased (VIVT or VIPT with dcache
1010 # aliasing) need to select this.
1011 config ARCH_HAS_CPU_CACHE_ALIASING
1012         bool
1013
1014 config ARCH_HAS_CACHE_LINE_SIZE
1015         bool
1016
1017 config ARCH_HAS_CURRENT_STACK_POINTER
1018         bool
1019         help
1020           In support of HARDENED_USERCOPY performing stack variable lifetime
1021           checking, an architecture-agnostic way to find the stack pointer
1022           is needed. Once an architecture defines an unsigned long global
1023           register alias named "current_stack_pointer", this config can be
1024           selected.
1025
1026 config ARCH_HAS_PTE_DEVMAP
1027         bool
1028
1029 config ARCH_HAS_ZONE_DMA_SET
1030         bool
1031
1032 config ZONE_DMA
1033         bool "Support DMA zone" if ARCH_HAS_ZONE_DMA_SET
1034         default y if ARM64 || X86
1035
1036 config ZONE_DMA32
1037         bool "Support DMA32 zone" if ARCH_HAS_ZONE_DMA_SET
1038         depends on !X86_32
1039         default y if ARM64
1040
1041 config ZONE_DEVICE
1042         bool "Device memory (pmem, HMM, etc...) hotplug support"
1043         depends on MEMORY_HOTPLUG
1044         depends on MEMORY_HOTREMOVE
1045         depends on SPARSEMEM_VMEMMAP
1046         depends on ARCH_HAS_PTE_DEVMAP
1047         select XARRAY_MULTI
1048
1049         help
1050           Device memory hotplug support allows for establishing pmem,
1051           or other device driver discovered memory regions, in the
1052           memmap. This allows pfn_to_page() lookups of otherwise
1053           "device-physical" addresses which is needed for using a DAX
1054           mapping in an O_DIRECT operation, among other things.
1055
1056           If FS_DAX is enabled, then say Y.
1057
1058 #
1059 # Helpers to mirror range of the CPU page tables of a process into device page
1060 # tables.
1061 #
1062 config HMM_MIRROR
1063         bool
1064         depends on MMU
1065
1066 config GET_FREE_REGION
1067         depends on SPARSEMEM
1068         bool
1069
1070 config DEVICE_PRIVATE
1071         bool "Unaddressable device memory (GPU memory, ...)"
1072         depends on ZONE_DEVICE
1073         select GET_FREE_REGION
1074
1075         help
1076           Allows creation of struct pages to represent unaddressable device
1077           memory; i.e., memory that is only accessible from the device (or
1078           group of devices). You likely also want to select HMM_MIRROR.
1079
1080 config VMAP_PFN
1081         bool
1082
1083 config ARCH_USES_HIGH_VMA_FLAGS
1084         bool
1085 config ARCH_HAS_PKEYS
1086         bool
1087
1088 config ARCH_USES_PG_ARCH_X
1089         bool
1090         help
1091           Enable the definition of PG_arch_x page flags with x > 1. Only
1092           suitable for 64-bit architectures with CONFIG_FLATMEM or
1093           CONFIG_SPARSEMEM_VMEMMAP enabled, otherwise there may not be
1094           enough room for additional bits in page->flags.
1095
1096 config VM_EVENT_COUNTERS
1097         default y
1098         bool "Enable VM event counters for /proc/vmstat" if EXPERT
1099         help
1100           VM event counters are needed for event counts to be shown.
1101           This option allows the disabling of the VM event counters
1102           on EXPERT systems.  /proc/vmstat will only show page counts
1103           if VM event counters are disabled.
1104
1105 config PERCPU_STATS
1106         bool "Collect percpu memory statistics"
1107         help
1108           This feature collects and exposes statistics via debugfs. The
1109           information includes global and per chunk statistics, which can
1110           be used to help understand percpu memory usage.
1111
1112 config GUP_TEST
1113         bool "Enable infrastructure for get_user_pages()-related unit tests"
1114         depends on DEBUG_FS
1115         help
1116           Provides /sys/kernel/debug/gup_test, which in turn provides a way
1117           to make ioctl calls that can launch kernel-based unit tests for
1118           the get_user_pages*() and pin_user_pages*() family of API calls.
1119
1120           These tests include benchmark testing of the _fast variants of
1121           get_user_pages*() and pin_user_pages*(), as well as smoke tests of
1122           the non-_fast variants.
1123
1124           There is also a sub-test that allows running dump_page() on any
1125           of up to eight pages (selected by command line args) within the
1126           range of user-space addresses. These pages are either pinned via
1127           pin_user_pages*(), or pinned via get_user_pages*(), as specified
1128           by other command line arguments.
1129
1130           See tools/testing/selftests/mm/gup_test.c
1131
1132 comment "GUP_TEST needs to have DEBUG_FS enabled"
1133         depends on !GUP_TEST && !DEBUG_FS
1134
1135 config GUP_GET_PXX_LOW_HIGH
1136         bool
1137
1138 config DMAPOOL_TEST
1139         tristate "Enable a module to run time tests on dma_pool"
1140         depends on HAS_DMA
1141         help
1142           Provides a test module that will allocate and free many blocks of
1143           various sizes and report how long it takes. This is intended to
1144           provide a consistent way to measure how changes to the
1145           dma_pool_alloc/free routines affect performance.
1146
1147 config ARCH_HAS_PTE_SPECIAL
1148         bool
1149
1150 config MAPPING_DIRTY_HELPERS
1151         bool
1152
1153 config KMAP_LOCAL
1154         bool
1155
1156 config KMAP_LOCAL_NON_LINEAR_PTE_ARRAY
1157         bool
1158
1159 # struct io_mapping based helper.  Selected by drivers that need them
1160 config IO_MAPPING
1161         bool
1162
1163 config MEMFD_CREATE
1164         bool "Enable memfd_create() system call" if EXPERT
1165
1166 config SECRETMEM
1167         default y
1168         bool "Enable memfd_secret() system call" if EXPERT
1169         depends on ARCH_HAS_SET_DIRECT_MAP
1170         help
1171           Enable the memfd_secret() system call with the ability to create
1172           memory areas visible only in the context of the owning process and
1173           not mapped to other processes and other kernel page tables.
1174
1175 config ANON_VMA_NAME
1176         bool "Anonymous VMA name support"
1177         depends on PROC_FS && ADVISE_SYSCALLS && MMU
1178
1179         help
1180           Allow naming anonymous virtual memory areas.
1181
1182           This feature allows assigning names to virtual memory areas. Assigned
1183           names can be later retrieved from /proc/pid/maps and /proc/pid/smaps
1184           and help identifying individual anonymous memory areas.
1185           Assigning a name to anonymous virtual memory area might prevent that
1186           area from being merged with adjacent virtual memory areas due to the
1187           difference in their name.
1188
1189 config HAVE_ARCH_USERFAULTFD_WP
1190         bool
1191         help
1192           Arch has userfaultfd write protection support
1193
1194 config HAVE_ARCH_USERFAULTFD_MINOR
1195         bool
1196         help
1197           Arch has userfaultfd minor fault support
1198
1199 menuconfig USERFAULTFD
1200         bool "Enable userfaultfd() system call"
1201         depends on MMU
1202         help
1203           Enable the userfaultfd() system call that allows to intercept and
1204           handle page faults in userland.
1205
1206 if USERFAULTFD
1207 config PTE_MARKER_UFFD_WP
1208         bool "Userfaultfd write protection support for shmem/hugetlbfs"
1209         default y
1210         depends on HAVE_ARCH_USERFAULTFD_WP
1211
1212         help
1213           Allows to create marker PTEs for userfaultfd write protection
1214           purposes.  It is required to enable userfaultfd write protection on
1215           file-backed memory types like shmem and hugetlbfs.
1216 endif # USERFAULTFD
1217
1218 # multi-gen LRU {
1219 config LRU_GEN
1220         bool "Multi-Gen LRU"
1221         depends on MMU
1222         # make sure folio->flags has enough spare bits
1223         depends on 64BIT || !SPARSEMEM || SPARSEMEM_VMEMMAP
1224         help
1225           A high performance LRU implementation to overcommit memory. See
1226           Documentation/admin-guide/mm/multigen_lru.rst for details.
1227
1228 config LRU_GEN_ENABLED
1229         bool "Enable by default"
1230         depends on LRU_GEN
1231         help
1232           This option enables the multi-gen LRU by default.
1233
1234 config LRU_GEN_STATS
1235         bool "Full stats for debugging"
1236         depends on LRU_GEN
1237         help
1238           Do not enable this option unless you plan to look at historical stats
1239           from evicted generations for debugging purpose.
1240
1241           This option has a per-memcg and per-node memory overhead.
1242
1243 config LRU_GEN_WALKS_MMU
1244         def_bool y
1245         depends on LRU_GEN && ARCH_HAS_HW_PTE_YOUNG
1246 # }
1247
1248 config ARCH_SUPPORTS_PER_VMA_LOCK
1249        def_bool n
1250
1251 config PER_VMA_LOCK
1252         def_bool y
1253         depends on ARCH_SUPPORTS_PER_VMA_LOCK && MMU && SMP
1254         help
1255           Allow per-vma locking during page fault handling.
1256
1257           This feature allows locking each virtual memory area separately when
1258           handling page faults instead of taking mmap_lock.
1259
1260 config LOCK_MM_AND_FIND_VMA
1261         bool
1262         depends on !STACK_GROWSUP
1263
1264 config IOMMU_MM_DATA
1265         bool
1266
1267 config EXECMEM
1268         bool
1269
1270 source "mm/damon/Kconfig"
1271
1272 endmenu
This page took 0.116665 seconds and 4 git commands to generate.