zsmalloc: require GFP in zs_malloc()
authorSergey Senozhatsky <sergey.senozhatsky@gmail.com>
Fri, 20 May 2016 23:59:48 +0000 (16:59 -0700)
committerDanny Wood <danwood76@gmail.com>
Tue, 14 Sep 2021 19:03:01 +0000 (20:03 +0100)
Pass GFP flags to zs_malloc() instead of using a fixed mask supplied to
zs_create_pool(), so we can be more flexible, but, more importantly, we
need this to switch zram to per-cpu compression streams -- zram will try
to allocate handle with preemption disabled in a fast path and switch to
a slow path (using different gfp mask) if the fast one has failed.

Apart from that, this also align zs_malloc() interface with zspool/zbud.

[sergey.senozhatsky@gmail.com: pass GFP flags to zs_malloc() instead of using a fixed mask]
Link: http://lkml.kernel.org/r/20160429150942.GA637@swordfish
Link: http://lkml.kernel.org/r/20160429150942.GA637@swordfish
Signed-off-by: Sergey Senozhatsky <sergey.senozhatsky@gmail.com>
Acked-by: Minchan Kim <minchan@kernel.org>
Signed-off-by: Andrew Morton <akpm@linux-foundation.org>
Signed-off-by: Linus Torvalds <torvalds@linux-foundation.org>
Change-Id: I58cd72a0b1925203ec7d9a3962cc6c3422e8ac96

drivers/block/zram/zram_drv.c
include/linux/zsmalloc.h
mm/zsmalloc.c

index 5c0cb681cd7906c3221fc89c62d9780541acb1ad..3b315999dc56b076a643e7e3907c439c93f7434b 100644 (file)
@@ -389,7 +389,7 @@ static struct zram_meta *zram_meta_alloc(char *pool_name, u64 disksize)
                goto out_error;
        }
 
-       meta->mem_pool = zs_create_pool(pool_name, GFP_NOIO | __GFP_HIGHMEM);
+       meta->mem_pool = zs_create_pool(pool_name);
        if (!meta->mem_pool) {
                pr_err("Error creating memory pool\n");
                goto out_error;
@@ -657,7 +657,7 @@ static int zram_bvec_write(struct zram *zram, struct bio_vec *bvec, u32 index,
                        src = uncmem;
        }
 
-       handle = zs_malloc(meta->mem_pool, clen);
+       handle = zs_malloc(meta->mem_pool, clen, GFP_NOIO | __GFP_HIGHMEM);
        if (!handle) {
                pr_info("Error allocating memory for compressed page: %u, size=%zu\n",
                        index, clen);
index 1338190b547838964c95d2cb646ea277320488f1..99ebc7c6a86e4ab012f0ee4c07864b50fea9a528 100644 (file)
@@ -36,10 +36,10 @@ enum zs_mapmode {
 
 struct zs_pool;
 
-struct zs_pool *zs_create_pool(char *name, gfp_t flags);
+struct zs_pool *zs_create_pool(char *name);
 void zs_destroy_pool(struct zs_pool *pool);
 
-unsigned long zs_malloc(struct zs_pool *pool, size_t size);
+unsigned long zs_malloc(struct zs_pool *pool, size_t size, gfp_t flags);
 void zs_free(struct zs_pool *pool, unsigned long obj);
 
 void *zs_map_object(struct zs_pool *pool, unsigned long handle,
index fb1ec10ce449d74e9e5ed2c32ac1fa4be92f5864..782d544391fdc2a78b189eee8a7fc435c67af200 100644 (file)
@@ -252,7 +252,6 @@ struct zs_pool {
        struct size_class **size_class;
        struct kmem_cache *handle_cachep;
 
-       gfp_t flags;    /* allocation flags used when growing pool */
        atomic_long_t pages_allocated;
 
 #ifdef CONFIG_ZSMALLOC_STAT
@@ -293,10 +292,10 @@ static void destroy_handle_cache(struct zs_pool *pool)
                kmem_cache_destroy(pool->handle_cachep);
 }
 
-static unsigned long alloc_handle(struct zs_pool *pool)
+static unsigned long alloc_handle(struct zs_pool *pool, gfp_t gfp)
 {
        return (unsigned long)kmem_cache_alloc(pool->handle_cachep,
-               pool->flags & ~__GFP_HIGHMEM);
+                       gfp & ~__GFP_HIGHMEM);
 }
 
 static void free_handle(struct zs_pool *pool, unsigned long handle)
@@ -320,7 +319,12 @@ static void record_obj(unsigned long handle, unsigned long obj)
 
 static void *zs_zpool_create(char *name, gfp_t gfp, struct zpool_ops *zpool_ops)
 {
-       return zs_create_pool(name, gfp);
+       /*
+        * Ignore global gfp flags: zs_malloc() may be invoked from
+        * different contexts and its caller must provide a valid
+        * gfp mask.
+        */
+       return zs_create_pool(name);
 }
 
 static void zs_zpool_destroy(void *pool)
@@ -331,7 +335,7 @@ static void zs_zpool_destroy(void *pool)
 static int zs_zpool_malloc(void *pool, size_t size, gfp_t gfp,
                        unsigned long *handle)
 {
-       *handle = zs_malloc(pool, size);
+       *handle = zs_malloc(pool, size, gfp);
        return *handle ? 0 : -1;
 }
 static void zs_zpool_free(void *pool, unsigned long handle)
@@ -1388,7 +1392,7 @@ static unsigned long obj_malloc(struct page *first_page,
  * otherwise 0.
  * Allocation requests with size > ZS_MAX_ALLOC_SIZE will fail.
  */
-unsigned long zs_malloc(struct zs_pool *pool, size_t size)
+unsigned long zs_malloc(struct zs_pool *pool, size_t size, gfp_t gfp)
 {
        unsigned long handle, obj;
        struct size_class *class;
@@ -1397,7 +1401,7 @@ unsigned long zs_malloc(struct zs_pool *pool, size_t size)
        if (unlikely(!size || size > ZS_MAX_ALLOC_SIZE))
                return 0;
 
-       handle = alloc_handle(pool);
+       handle = alloc_handle(pool, gfp);
        if (!handle)
                return 0;
 
@@ -1410,7 +1414,7 @@ unsigned long zs_malloc(struct zs_pool *pool, size_t size)
 
        if (!first_page) {
                spin_unlock(&class->lock);
-               first_page = alloc_zspage(class, pool->flags);
+               first_page = alloc_zspage(class, gfp);
                if (unlikely(!first_page)) {
                        free_handle(pool, handle);
                        return 0;
@@ -1797,7 +1801,7 @@ EXPORT_SYMBOL_GPL(zs_compact);
  * On success, a pointer to the newly created pool is returned,
  * otherwise NULL.
  */
-struct zs_pool *zs_create_pool(char *name, gfp_t flags)
+struct zs_pool *zs_create_pool(char *name)
 {
        int i;
        struct zs_pool *pool;
@@ -1867,8 +1871,6 @@ struct zs_pool *zs_create_pool(char *name, gfp_t flags)
                prev_class = class;
        }
 
-       pool->flags = flags;
-
        if (zs_pool_stat_create(name, pool))
                goto err;