x86: use %*pb[l] to print bitmaps including cpumasks and nodemasks
authorTejun Heo <tj@kernel.org>
Fri, 13 Feb 2015 22:37:12 +0000 (14:37 -0800)
committerLinus Torvalds <torvalds@linux-foundation.org>
Sat, 14 Feb 2015 05:21:37 +0000 (21:21 -0800)
printk and friends can now format bitmaps using '%*pb[l]'.  cpumask
and nodemask also provide cpumask_pr_args() and nodemask_pr_args()
respectively which can be used to generate the two printf arguments
necessary to format the specified cpu/nodemask.

* Unnecessary buffer size calculation and condition on the lenght
  removed from intel_cacheinfo.c::show_shared_cpu_map_func().

* uv_nmi_nr_cpus_pr() got overly smart and implemented "..."
  abbreviation if the output stretched over the predefined 1024 byte
  buffer.  Replaced with plain printk.

Signed-off-by: Tejun Heo <tj@kernel.org>
Cc: Mike Travis <travis@sgi.com>
Signed-off-by: Andrew Morton <akpm@linux-foundation.org>
Signed-off-by: Linus Torvalds <torvalds@linux-foundation.org>
arch/x86/kernel/cpu/intel_cacheinfo.c
arch/x86/mm/numa.c
arch/x86/platform/uv/uv_nmi.c

index c7035073dfc17e28268237604bc3731fb78428aa..659643376dbf7d9d04b377e85ef04bf1e6bf1ada 100644 (file)
@@ -952,20 +952,18 @@ static ssize_t show_size(struct _cpuid4_info *this_leaf, char *buf,
 static ssize_t show_shared_cpu_map_func(struct _cpuid4_info *this_leaf,
                                        int type, char *buf)
 {
-       ptrdiff_t len = PTR_ALIGN(buf + PAGE_SIZE - 1, PAGE_SIZE) - buf;
-       int n = 0;
-
-       if (len > 1) {
-               const struct cpumask *mask;
-
-               mask = to_cpumask(this_leaf->shared_cpu_map);
-               n = type ?
-                       cpulist_scnprintf(buf, len-2, mask) :
-                       cpumask_scnprintf(buf, len-2, mask);
-               buf[n++] = '\n';
-               buf[n] = '\0';
-       }
-       return n;
+       const struct cpumask *mask = to_cpumask(this_leaf->shared_cpu_map);
+       int ret;
+
+       if (type)
+               ret = scnprintf(buf, PAGE_SIZE - 1, "%*pbl",
+                               cpumask_pr_args(mask));
+       else
+               ret = scnprintf(buf, PAGE_SIZE - 1, "%*pb",
+                               cpumask_pr_args(mask));
+       buf[ret++] = '\n';
+       buf[ret] = '\0';
+       return ret;
 }
 
 static inline ssize_t show_shared_cpu_map(struct _cpuid4_info *leaf, char *buf,
index 1a883705a12a8a12410914be93b2ee65807cc423..cd4785bbacb9a86366ccd74121e5161b078e9596 100644 (file)
@@ -794,7 +794,6 @@ int early_cpu_to_node(int cpu)
 void debug_cpumask_set_cpu(int cpu, int node, bool enable)
 {
        struct cpumask *mask;
-       char buf[64];
 
        if (node == NUMA_NO_NODE) {
                /* early_cpu_to_node() already emits a warning and trace */
@@ -812,10 +811,9 @@ void debug_cpumask_set_cpu(int cpu, int node, bool enable)
        else
                cpumask_clear_cpu(cpu, mask);
 
-       cpulist_scnprintf(buf, sizeof(buf), mask);
-       printk(KERN_DEBUG "%s cpu %d node %d: mask now %s\n",
+       printk(KERN_DEBUG "%s cpu %d node %d: mask now %*pbl\n",
                enable ? "numa_add_cpu" : "numa_remove_cpu",
-               cpu, node, buf);
+               cpu, node, cpumask_pr_args(mask));
        return;
 }
 
index c6b146e6711693bbde4d5e3694ac27755baae7f9..7488cafab9553de5a11d860b8b57d81bec2f866f 100644 (file)
@@ -273,20 +273,6 @@ static inline void uv_clear_nmi(int cpu)
        }
 }
 
-/* Print non-responding cpus */
-static void uv_nmi_nr_cpus_pr(char *fmt)
-{
-       static char cpu_list[1024];
-       int len = sizeof(cpu_list);
-       int c = cpumask_weight(uv_nmi_cpu_mask);
-       int n = cpulist_scnprintf(cpu_list, len, uv_nmi_cpu_mask);
-
-       if (n >= len-1)
-               strcpy(&cpu_list[len - 6], "...\n");
-
-       printk(fmt, c, cpu_list);
-}
-
 /* Ping non-responding cpus attemping to force them into the NMI handler */
 static void uv_nmi_nr_cpus_ping(void)
 {
@@ -371,16 +357,19 @@ static void uv_nmi_wait(int master)
                        break;
 
                /* if not all made it in, send IPI NMI to them */
-               uv_nmi_nr_cpus_pr(KERN_ALERT
-                       "UV: Sending NMI IPI to %d non-responding CPUs: %s\n");
+               pr_alert("UV: Sending NMI IPI to %d non-responding CPUs: %*pbl\n",
+                        cpumask_weight(uv_nmi_cpu_mask),
+                        cpumask_pr_args(uv_nmi_cpu_mask));
+
                uv_nmi_nr_cpus_ping();
 
                /* if all cpus are in, then done */
                if (!uv_nmi_wait_cpus(0))
                        break;
 
-               uv_nmi_nr_cpus_pr(KERN_ALERT
-                       "UV: %d CPUs not in NMI loop: %s\n");
+               pr_alert("UV: %d CPUs not in NMI loop: %*pbl\n",
+                        cpumask_weight(uv_nmi_cpu_mask),
+                        cpumask_pr_args(uv_nmi_cpu_mask));
        } while (0);
 
        pr_alert("UV: %d of %d CPUs in NMI\n",