mirror of https://gitee.com/openkylin/linux.git
slub: Move functions to reduce #ifdefs
There is a lot of #ifdef/#endifs that can be avoided if functions would be in different places. Move them around and reduce #ifdef. Signed-off-by: Christoph Lameter <cl@linux.com> Signed-off-by: Pekka Enberg <penberg@kernel.org>
This commit is contained in:
parent
ab4d5ed5ee
commit
a5a84755c5
299
mm/slub.c
299
mm/slub.c
|
@ -3476,71 +3476,6 @@ static long validate_slab_cache(struct kmem_cache *s)
|
||||||
kfree(map);
|
kfree(map);
|
||||||
return count;
|
return count;
|
||||||
}
|
}
|
||||||
#endif
|
|
||||||
|
|
||||||
#ifdef SLUB_RESILIENCY_TEST
|
|
||||||
static void resiliency_test(void)
|
|
||||||
{
|
|
||||||
u8 *p;
|
|
||||||
|
|
||||||
BUILD_BUG_ON(KMALLOC_MIN_SIZE > 16 || SLUB_PAGE_SHIFT < 10);
|
|
||||||
|
|
||||||
printk(KERN_ERR "SLUB resiliency testing\n");
|
|
||||||
printk(KERN_ERR "-----------------------\n");
|
|
||||||
printk(KERN_ERR "A. Corruption after allocation\n");
|
|
||||||
|
|
||||||
p = kzalloc(16, GFP_KERNEL);
|
|
||||||
p[16] = 0x12;
|
|
||||||
printk(KERN_ERR "\n1. kmalloc-16: Clobber Redzone/next pointer"
|
|
||||||
" 0x12->0x%p\n\n", p + 16);
|
|
||||||
|
|
||||||
validate_slab_cache(kmalloc_caches[4]);
|
|
||||||
|
|
||||||
/* Hmmm... The next two are dangerous */
|
|
||||||
p = kzalloc(32, GFP_KERNEL);
|
|
||||||
p[32 + sizeof(void *)] = 0x34;
|
|
||||||
printk(KERN_ERR "\n2. kmalloc-32: Clobber next pointer/next slab"
|
|
||||||
" 0x34 -> -0x%p\n", p);
|
|
||||||
printk(KERN_ERR
|
|
||||||
"If allocated object is overwritten then not detectable\n\n");
|
|
||||||
|
|
||||||
validate_slab_cache(kmalloc_caches[5]);
|
|
||||||
p = kzalloc(64, GFP_KERNEL);
|
|
||||||
p += 64 + (get_cycles() & 0xff) * sizeof(void *);
|
|
||||||
*p = 0x56;
|
|
||||||
printk(KERN_ERR "\n3. kmalloc-64: corrupting random byte 0x56->0x%p\n",
|
|
||||||
p);
|
|
||||||
printk(KERN_ERR
|
|
||||||
"If allocated object is overwritten then not detectable\n\n");
|
|
||||||
validate_slab_cache(kmalloc_caches[6]);
|
|
||||||
|
|
||||||
printk(KERN_ERR "\nB. Corruption after free\n");
|
|
||||||
p = kzalloc(128, GFP_KERNEL);
|
|
||||||
kfree(p);
|
|
||||||
*p = 0x78;
|
|
||||||
printk(KERN_ERR "1. kmalloc-128: Clobber first word 0x78->0x%p\n\n", p);
|
|
||||||
validate_slab_cache(kmalloc_caches[7]);
|
|
||||||
|
|
||||||
p = kzalloc(256, GFP_KERNEL);
|
|
||||||
kfree(p);
|
|
||||||
p[50] = 0x9a;
|
|
||||||
printk(KERN_ERR "\n2. kmalloc-256: Clobber 50th byte 0x9a->0x%p\n\n",
|
|
||||||
p);
|
|
||||||
validate_slab_cache(kmalloc_caches[8]);
|
|
||||||
|
|
||||||
p = kzalloc(512, GFP_KERNEL);
|
|
||||||
kfree(p);
|
|
||||||
p[512] = 0xab;
|
|
||||||
printk(KERN_ERR "\n3. kmalloc-512: Clobber redzone 0xab->0x%p\n\n", p);
|
|
||||||
validate_slab_cache(kmalloc_caches[9]);
|
|
||||||
}
|
|
||||||
#else
|
|
||||||
#ifdef CONFIG_SYSFS
|
|
||||||
static void resiliency_test(void) {};
|
|
||||||
#endif
|
|
||||||
#endif
|
|
||||||
|
|
||||||
#ifdef CONFIG_DEBUG
|
|
||||||
/*
|
/*
|
||||||
* Generate lists of code addresses where slabcache objects are allocated
|
* Generate lists of code addresses where slabcache objects are allocated
|
||||||
* and freed.
|
* and freed.
|
||||||
|
@ -3771,6 +3706,68 @@ static int list_locations(struct kmem_cache *s, char *buf,
|
||||||
}
|
}
|
||||||
#endif
|
#endif
|
||||||
|
|
||||||
|
#ifdef SLUB_RESILIENCY_TEST
|
||||||
|
static void resiliency_test(void)
|
||||||
|
{
|
||||||
|
u8 *p;
|
||||||
|
|
||||||
|
BUILD_BUG_ON(KMALLOC_MIN_SIZE > 16 || SLUB_PAGE_SHIFT < 10);
|
||||||
|
|
||||||
|
printk(KERN_ERR "SLUB resiliency testing\n");
|
||||||
|
printk(KERN_ERR "-----------------------\n");
|
||||||
|
printk(KERN_ERR "A. Corruption after allocation\n");
|
||||||
|
|
||||||
|
p = kzalloc(16, GFP_KERNEL);
|
||||||
|
p[16] = 0x12;
|
||||||
|
printk(KERN_ERR "\n1. kmalloc-16: Clobber Redzone/next pointer"
|
||||||
|
" 0x12->0x%p\n\n", p + 16);
|
||||||
|
|
||||||
|
validate_slab_cache(kmalloc_caches[4]);
|
||||||
|
|
||||||
|
/* Hmmm... The next two are dangerous */
|
||||||
|
p = kzalloc(32, GFP_KERNEL);
|
||||||
|
p[32 + sizeof(void *)] = 0x34;
|
||||||
|
printk(KERN_ERR "\n2. kmalloc-32: Clobber next pointer/next slab"
|
||||||
|
" 0x34 -> -0x%p\n", p);
|
||||||
|
printk(KERN_ERR
|
||||||
|
"If allocated object is overwritten then not detectable\n\n");
|
||||||
|
|
||||||
|
validate_slab_cache(kmalloc_caches[5]);
|
||||||
|
p = kzalloc(64, GFP_KERNEL);
|
||||||
|
p += 64 + (get_cycles() & 0xff) * sizeof(void *);
|
||||||
|
*p = 0x56;
|
||||||
|
printk(KERN_ERR "\n3. kmalloc-64: corrupting random byte 0x56->0x%p\n",
|
||||||
|
p);
|
||||||
|
printk(KERN_ERR
|
||||||
|
"If allocated object is overwritten then not detectable\n\n");
|
||||||
|
validate_slab_cache(kmalloc_caches[6]);
|
||||||
|
|
||||||
|
printk(KERN_ERR "\nB. Corruption after free\n");
|
||||||
|
p = kzalloc(128, GFP_KERNEL);
|
||||||
|
kfree(p);
|
||||||
|
*p = 0x78;
|
||||||
|
printk(KERN_ERR "1. kmalloc-128: Clobber first word 0x78->0x%p\n\n", p);
|
||||||
|
validate_slab_cache(kmalloc_caches[7]);
|
||||||
|
|
||||||
|
p = kzalloc(256, GFP_KERNEL);
|
||||||
|
kfree(p);
|
||||||
|
p[50] = 0x9a;
|
||||||
|
printk(KERN_ERR "\n2. kmalloc-256: Clobber 50th byte 0x9a->0x%p\n\n",
|
||||||
|
p);
|
||||||
|
validate_slab_cache(kmalloc_caches[8]);
|
||||||
|
|
||||||
|
p = kzalloc(512, GFP_KERNEL);
|
||||||
|
kfree(p);
|
||||||
|
p[512] = 0xab;
|
||||||
|
printk(KERN_ERR "\n3. kmalloc-512: Clobber redzone 0xab->0x%p\n\n", p);
|
||||||
|
validate_slab_cache(kmalloc_caches[9]);
|
||||||
|
}
|
||||||
|
#else
|
||||||
|
#ifdef CONFIG_SYSFS
|
||||||
|
static void resiliency_test(void) {};
|
||||||
|
#endif
|
||||||
|
#endif
|
||||||
|
|
||||||
#ifdef CONFIG_SYSFS
|
#ifdef CONFIG_SYSFS
|
||||||
enum slab_stat_type {
|
enum slab_stat_type {
|
||||||
SL_ALL, /* All slabs */
|
SL_ALL, /* All slabs */
|
||||||
|
@ -3987,14 +3984,6 @@ static ssize_t aliases_show(struct kmem_cache *s, char *buf)
|
||||||
}
|
}
|
||||||
SLAB_ATTR_RO(aliases);
|
SLAB_ATTR_RO(aliases);
|
||||||
|
|
||||||
#ifdef CONFIG_SLUB_DEBUG
|
|
||||||
static ssize_t slabs_show(struct kmem_cache *s, char *buf)
|
|
||||||
{
|
|
||||||
return show_slab_objects(s, buf, SO_ALL);
|
|
||||||
}
|
|
||||||
SLAB_ATTR_RO(slabs);
|
|
||||||
#endif
|
|
||||||
|
|
||||||
static ssize_t partial_show(struct kmem_cache *s, char *buf)
|
static ssize_t partial_show(struct kmem_cache *s, char *buf)
|
||||||
{
|
{
|
||||||
return show_slab_objects(s, buf, SO_PARTIAL);
|
return show_slab_objects(s, buf, SO_PARTIAL);
|
||||||
|
@ -4019,61 +4008,6 @@ static ssize_t objects_partial_show(struct kmem_cache *s, char *buf)
|
||||||
}
|
}
|
||||||
SLAB_ATTR_RO(objects_partial);
|
SLAB_ATTR_RO(objects_partial);
|
||||||
|
|
||||||
#ifdef CONFIG_SLUB_DEBUG
|
|
||||||
static ssize_t total_objects_show(struct kmem_cache *s, char *buf)
|
|
||||||
{
|
|
||||||
return show_slab_objects(s, buf, SO_ALL|SO_TOTAL);
|
|
||||||
}
|
|
||||||
SLAB_ATTR_RO(total_objects);
|
|
||||||
|
|
||||||
static ssize_t sanity_checks_show(struct kmem_cache *s, char *buf)
|
|
||||||
{
|
|
||||||
return sprintf(buf, "%d\n", !!(s->flags & SLAB_DEBUG_FREE));
|
|
||||||
}
|
|
||||||
|
|
||||||
static ssize_t sanity_checks_store(struct kmem_cache *s,
|
|
||||||
const char *buf, size_t length)
|
|
||||||
{
|
|
||||||
s->flags &= ~SLAB_DEBUG_FREE;
|
|
||||||
if (buf[0] == '1')
|
|
||||||
s->flags |= SLAB_DEBUG_FREE;
|
|
||||||
return length;
|
|
||||||
}
|
|
||||||
SLAB_ATTR(sanity_checks);
|
|
||||||
|
|
||||||
static ssize_t trace_show(struct kmem_cache *s, char *buf)
|
|
||||||
{
|
|
||||||
return sprintf(buf, "%d\n", !!(s->flags & SLAB_TRACE));
|
|
||||||
}
|
|
||||||
|
|
||||||
static ssize_t trace_store(struct kmem_cache *s, const char *buf,
|
|
||||||
size_t length)
|
|
||||||
{
|
|
||||||
s->flags &= ~SLAB_TRACE;
|
|
||||||
if (buf[0] == '1')
|
|
||||||
s->flags |= SLAB_TRACE;
|
|
||||||
return length;
|
|
||||||
}
|
|
||||||
SLAB_ATTR(trace);
|
|
||||||
|
|
||||||
#ifdef CONFIG_FAILSLAB
|
|
||||||
static ssize_t failslab_show(struct kmem_cache *s, char *buf)
|
|
||||||
{
|
|
||||||
return sprintf(buf, "%d\n", !!(s->flags & SLAB_FAILSLAB));
|
|
||||||
}
|
|
||||||
|
|
||||||
static ssize_t failslab_store(struct kmem_cache *s, const char *buf,
|
|
||||||
size_t length)
|
|
||||||
{
|
|
||||||
s->flags &= ~SLAB_FAILSLAB;
|
|
||||||
if (buf[0] == '1')
|
|
||||||
s->flags |= SLAB_FAILSLAB;
|
|
||||||
return length;
|
|
||||||
}
|
|
||||||
SLAB_ATTR(failslab);
|
|
||||||
#endif
|
|
||||||
#endif
|
|
||||||
|
|
||||||
static ssize_t reclaim_account_show(struct kmem_cache *s, char *buf)
|
static ssize_t reclaim_account_show(struct kmem_cache *s, char *buf)
|
||||||
{
|
{
|
||||||
return sprintf(buf, "%d\n", !!(s->flags & SLAB_RECLAIM_ACCOUNT));
|
return sprintf(buf, "%d\n", !!(s->flags & SLAB_RECLAIM_ACCOUNT));
|
||||||
|
@ -4110,6 +4044,48 @@ static ssize_t destroy_by_rcu_show(struct kmem_cache *s, char *buf)
|
||||||
SLAB_ATTR_RO(destroy_by_rcu);
|
SLAB_ATTR_RO(destroy_by_rcu);
|
||||||
|
|
||||||
#ifdef CONFIG_SLUB_DEBUG
|
#ifdef CONFIG_SLUB_DEBUG
|
||||||
|
static ssize_t slabs_show(struct kmem_cache *s, char *buf)
|
||||||
|
{
|
||||||
|
return show_slab_objects(s, buf, SO_ALL);
|
||||||
|
}
|
||||||
|
SLAB_ATTR_RO(slabs);
|
||||||
|
|
||||||
|
static ssize_t total_objects_show(struct kmem_cache *s, char *buf)
|
||||||
|
{
|
||||||
|
return show_slab_objects(s, buf, SO_ALL|SO_TOTAL);
|
||||||
|
}
|
||||||
|
SLAB_ATTR_RO(total_objects);
|
||||||
|
|
||||||
|
static ssize_t sanity_checks_show(struct kmem_cache *s, char *buf)
|
||||||
|
{
|
||||||
|
return sprintf(buf, "%d\n", !!(s->flags & SLAB_DEBUG_FREE));
|
||||||
|
}
|
||||||
|
|
||||||
|
static ssize_t sanity_checks_store(struct kmem_cache *s,
|
||||||
|
const char *buf, size_t length)
|
||||||
|
{
|
||||||
|
s->flags &= ~SLAB_DEBUG_FREE;
|
||||||
|
if (buf[0] == '1')
|
||||||
|
s->flags |= SLAB_DEBUG_FREE;
|
||||||
|
return length;
|
||||||
|
}
|
||||||
|
SLAB_ATTR(sanity_checks);
|
||||||
|
|
||||||
|
static ssize_t trace_show(struct kmem_cache *s, char *buf)
|
||||||
|
{
|
||||||
|
return sprintf(buf, "%d\n", !!(s->flags & SLAB_TRACE));
|
||||||
|
}
|
||||||
|
|
||||||
|
static ssize_t trace_store(struct kmem_cache *s, const char *buf,
|
||||||
|
size_t length)
|
||||||
|
{
|
||||||
|
s->flags &= ~SLAB_TRACE;
|
||||||
|
if (buf[0] == '1')
|
||||||
|
s->flags |= SLAB_TRACE;
|
||||||
|
return length;
|
||||||
|
}
|
||||||
|
SLAB_ATTR(trace);
|
||||||
|
|
||||||
static ssize_t red_zone_show(struct kmem_cache *s, char *buf)
|
static ssize_t red_zone_show(struct kmem_cache *s, char *buf)
|
||||||
{
|
{
|
||||||
return sprintf(buf, "%d\n", !!(s->flags & SLAB_RED_ZONE));
|
return sprintf(buf, "%d\n", !!(s->flags & SLAB_RED_ZONE));
|
||||||
|
@ -4185,6 +4161,39 @@ static ssize_t validate_store(struct kmem_cache *s,
|
||||||
return ret;
|
return ret;
|
||||||
}
|
}
|
||||||
SLAB_ATTR(validate);
|
SLAB_ATTR(validate);
|
||||||
|
|
||||||
|
static ssize_t alloc_calls_show(struct kmem_cache *s, char *buf)
|
||||||
|
{
|
||||||
|
if (!(s->flags & SLAB_STORE_USER))
|
||||||
|
return -ENOSYS;
|
||||||
|
return list_locations(s, buf, TRACK_ALLOC);
|
||||||
|
}
|
||||||
|
SLAB_ATTR_RO(alloc_calls);
|
||||||
|
|
||||||
|
static ssize_t free_calls_show(struct kmem_cache *s, char *buf)
|
||||||
|
{
|
||||||
|
if (!(s->flags & SLAB_STORE_USER))
|
||||||
|
return -ENOSYS;
|
||||||
|
return list_locations(s, buf, TRACK_FREE);
|
||||||
|
}
|
||||||
|
SLAB_ATTR_RO(free_calls);
|
||||||
|
#endif /* CONFIG_SLUB_DEBUG */
|
||||||
|
|
||||||
|
#ifdef CONFIG_FAILSLAB
|
||||||
|
static ssize_t failslab_show(struct kmem_cache *s, char *buf)
|
||||||
|
{
|
||||||
|
return sprintf(buf, "%d\n", !!(s->flags & SLAB_FAILSLAB));
|
||||||
|
}
|
||||||
|
|
||||||
|
static ssize_t failslab_store(struct kmem_cache *s, const char *buf,
|
||||||
|
size_t length)
|
||||||
|
{
|
||||||
|
s->flags &= ~SLAB_FAILSLAB;
|
||||||
|
if (buf[0] == '1')
|
||||||
|
s->flags |= SLAB_FAILSLAB;
|
||||||
|
return length;
|
||||||
|
}
|
||||||
|
SLAB_ATTR(failslab);
|
||||||
#endif
|
#endif
|
||||||
|
|
||||||
static ssize_t shrink_show(struct kmem_cache *s, char *buf)
|
static ssize_t shrink_show(struct kmem_cache *s, char *buf)
|
||||||
|
@ -4206,24 +4215,6 @@ static ssize_t shrink_store(struct kmem_cache *s,
|
||||||
}
|
}
|
||||||
SLAB_ATTR(shrink);
|
SLAB_ATTR(shrink);
|
||||||
|
|
||||||
#ifdef CONFIG_SLUB_DEBUG
|
|
||||||
static ssize_t alloc_calls_show(struct kmem_cache *s, char *buf)
|
|
||||||
{
|
|
||||||
if (!(s->flags & SLAB_STORE_USER))
|
|
||||||
return -ENOSYS;
|
|
||||||
return list_locations(s, buf, TRACK_ALLOC);
|
|
||||||
}
|
|
||||||
SLAB_ATTR_RO(alloc_calls);
|
|
||||||
|
|
||||||
static ssize_t free_calls_show(struct kmem_cache *s, char *buf)
|
|
||||||
{
|
|
||||||
if (!(s->flags & SLAB_STORE_USER))
|
|
||||||
return -ENOSYS;
|
|
||||||
return list_locations(s, buf, TRACK_FREE);
|
|
||||||
}
|
|
||||||
SLAB_ATTR_RO(free_calls);
|
|
||||||
#endif
|
|
||||||
|
|
||||||
#ifdef CONFIG_NUMA
|
#ifdef CONFIG_NUMA
|
||||||
static ssize_t remote_node_defrag_ratio_show(struct kmem_cache *s, char *buf)
|
static ssize_t remote_node_defrag_ratio_show(struct kmem_cache *s, char *buf)
|
||||||
{
|
{
|
||||||
|
@ -4329,30 +4320,24 @@ static struct attribute *slab_attrs[] = {
|
||||||
&min_partial_attr.attr,
|
&min_partial_attr.attr,
|
||||||
&objects_attr.attr,
|
&objects_attr.attr,
|
||||||
&objects_partial_attr.attr,
|
&objects_partial_attr.attr,
|
||||||
#ifdef CONFIG_SLUB_DEBUG
|
|
||||||
&total_objects_attr.attr,
|
|
||||||
&slabs_attr.attr,
|
|
||||||
#endif
|
|
||||||
&partial_attr.attr,
|
&partial_attr.attr,
|
||||||
&cpu_slabs_attr.attr,
|
&cpu_slabs_attr.attr,
|
||||||
&ctor_attr.attr,
|
&ctor_attr.attr,
|
||||||
&aliases_attr.attr,
|
&aliases_attr.attr,
|
||||||
&align_attr.attr,
|
&align_attr.attr,
|
||||||
#ifdef CONFIG_SLUB_DEBUG
|
|
||||||
&sanity_checks_attr.attr,
|
|
||||||
&trace_attr.attr,
|
|
||||||
#endif
|
|
||||||
&hwcache_align_attr.attr,
|
&hwcache_align_attr.attr,
|
||||||
&reclaim_account_attr.attr,
|
&reclaim_account_attr.attr,
|
||||||
&destroy_by_rcu_attr.attr,
|
&destroy_by_rcu_attr.attr,
|
||||||
|
&shrink_attr.attr,
|
||||||
#ifdef CONFIG_SLUB_DEBUG
|
#ifdef CONFIG_SLUB_DEBUG
|
||||||
|
&total_objects_attr.attr,
|
||||||
|
&slabs_attr.attr,
|
||||||
|
&sanity_checks_attr.attr,
|
||||||
|
&trace_attr.attr,
|
||||||
&red_zone_attr.attr,
|
&red_zone_attr.attr,
|
||||||
&poison_attr.attr,
|
&poison_attr.attr,
|
||||||
&store_user_attr.attr,
|
&store_user_attr.attr,
|
||||||
&validate_attr.attr,
|
&validate_attr.attr,
|
||||||
#endif
|
|
||||||
&shrink_attr.attr,
|
|
||||||
#ifdef CONFIG_SLUB_DEBUG
|
|
||||||
&alloc_calls_attr.attr,
|
&alloc_calls_attr.attr,
|
||||||
&free_calls_attr.attr,
|
&free_calls_attr.attr,
|
||||||
#endif
|
#endif
|
||||||
|
|
Loading…
Reference in New Issue