powerpc: Various typo fixes
authorMichael Ellerman <mpe@ellerman.id.au>
Wed, 1 Jun 2016 06:34:37 +0000 (16:34 +1000)
committerMichael Ellerman <mpe@ellerman.id.au>
Tue, 14 Jun 2016 03:58:26 +0000 (13:58 +1000)
Signed-off-by: Andrea Gelmini <andrea.gelmini@gelma.net>
Signed-off-by: Michael Ellerman <mpe@ellerman.id.au>
36 files changed:
Documentation/devicetree/bindings/rtc/rtc-opal.txt
arch/powerpc/crypto/aes-spe-regs.h
arch/powerpc/include/asm/book3s/64/mmu-hash.h
arch/powerpc/include/asm/eeh.h
arch/powerpc/include/asm/nohash/32/pte-44x.h
arch/powerpc/include/asm/opal-api.h
arch/powerpc/include/asm/pmac_feature.h
arch/powerpc/include/asm/processor.h
arch/powerpc/include/asm/ps3av.h
arch/powerpc/include/asm/pte-common.h
arch/powerpc/include/asm/smu.h
arch/powerpc/include/asm/tsi108.h
arch/powerpc/kernel/cpu_setup_6xx.S
arch/powerpc/kernel/eeh_driver.c
arch/powerpc/kernel/exceptions-64e.S
arch/powerpc/kernel/pci_64.c
arch/powerpc/kernel/process.c
arch/powerpc/kernel/rtas-proc.c
arch/powerpc/lib/rheap.c
arch/powerpc/mm/hash_native_64.c
arch/powerpc/oprofile/cell/spu_task_sync.c
arch/powerpc/perf/core-book3s.c
arch/powerpc/perf/hv-24x7.c
arch/powerpc/perf/hv-24x7.h
arch/powerpc/platforms/512x/clock-commonclk.c
arch/powerpc/platforms/cell/iommu.c
arch/powerpc/platforms/cell/spider-pic.c
arch/powerpc/platforms/cell/spu_base.c
arch/powerpc/platforms/cell/spufs/file.c
arch/powerpc/platforms/cell/spufs/run.c
arch/powerpc/platforms/cell/spufs/sched.c
arch/powerpc/platforms/powermac/low_i2c.c
arch/powerpc/platforms/powernv/pci-ioda.c
arch/powerpc/platforms/pseries/eeh_pseries.c
arch/powerpc/platforms/pseries/io_event_irq.c
arch/powerpc/platforms/pseries/setup.c

index a1734e5cb75bb6279beef456f6acf2fdef043045..2340938cd0f5bca661ac97534d8a3f46205f9610 100644 (file)
@@ -2,7 +2,7 @@ IBM OPAL real-time clock
 ------------------------
 
 Required properties:
-- comapatible: Should be "ibm,opal-rtc"
+- compatible: Should be "ibm,opal-rtc"
 
 Optional properties:
 - wakeup-source: Decides if the wakeup is supported or not
index 30d217b399c3ef9c458c952471b3972343dbe9b4..2cc3a2caadaee5c85d8e5e314f715cc11fa5c91b 100644 (file)
@@ -18,7 +18,7 @@
 #define rLN r7 /* length of data to be processed                       */
 #define rIP r8 /* potiner to IV (CBC/CTR/XTS modes)                    */
 #define rKT r9 /* pointer to tweak key (XTS mode)                      */
-#define rT0 r11        /* pointers to en-/decrpytion tables                    */
+#define rT0 r11        /* pointers to en-/decryption tables                    */
 #define rT1 r10
 #define rD0 r9 /* data                                                 */
 #define rD1 r14
index 290157e8d5b2498bce2d6ffb14261124d47a25a7..96430922dabb9f453feb559e9bb3bde6eed09273 100644 (file)
@@ -434,7 +434,7 @@ extern void slb_set_size(u16 size);
  * function.  Used in slb_allocate() and do_stab_bolted.  The function
  * computed is: (protovsid*VSID_MULTIPLIER) % VSID_MODULUS
  *
- *     rt = register continaing the proto-VSID and into which the
+ *     rt = register containing the proto-VSID and into which the
  *             VSID will be stored
  *     rx = scratch register (clobbered)
  *
index fb9f376ae27bf09098c92e7f7687dcbd8178950f..7d34f3d3ca0ea85cfc8e866f48d0d899330e41d9 100644 (file)
@@ -57,7 +57,7 @@ struct pci_dn;
 /*
  * The struct is used to trace PE related EEH functionality.
  * In theory, there will have one instance of the struct to
- * be created against particular PE. In nature, PEs corelate
+ * be created against particular PE. In nature, PEs correlate
  * to each other. the struct has to reflect that hierarchy in
  * order to easily pick up those affected PEs when one particular
  * PE has EEH errors.
index fdab41c654efc2b79be81f68b6e47056b52965b7..0656ff81e5b050f6e9b5fe8d4c263e3bd6a66839 100644 (file)
@@ -32,7 +32,7 @@
  *   -  -  -  -  -    - U0 U1 U2 U3 W  I  M  G  E   - UX UW UR SX SW SR
  *
  * Newer 440 cores (440x6 as used on AMCC 460EX/460GT) have additional
- * TLB2 storage attibute fields. Those are:
+ * TLB2 storage attribute fields. Those are:
  *
  *   TLB2:
  *   0...10    11   12   13   14   15   16...31
index 9bb8ddf0be37b94d08b4955bc794c30418361852..70b5cbc0a49c0639a95ab12379e2c23b6f76e639 100644 (file)
@@ -802,7 +802,7 @@ struct opal_sg_entry {
 };
 
 /*
- * Candiate image SG list.
+ * Candidate image SG list.
  *
  * length = VER | length
  */
@@ -852,7 +852,7 @@ struct opal_i2c_request {
  * with individual elements being 16 bits wide to fetch the system
  * wide EPOW status. Each element in the buffer will contain the
  * EPOW status in it's bit representation for a particular EPOW sub
- * class as defiend here. So multiple detailed EPOW status bits
+ * class as defined here. So multiple detailed EPOW status bits
  * specific for any sub class can be represented in a single buffer
  * element as it's bit representation.
  */
index 92569796894691eb946aa68b52d8e8f67112f823..e08e829261b6ab5883361407940b8c0e27622020 100644 (file)
@@ -210,7 +210,7 @@ static inline long pmac_call_feature(int selector, struct device_node* node,
 
 /* PMAC_FTR_SOUND_CHIP_ENABLE  (struct device_node* node, 0, int value)
  * enable/disable the sound chip, whatever it is and provided it can
- * acually be controlled
+ * actually be controlled
  */
 #define PMAC_FTR_SOUND_CHIP_ENABLE     PMAC_FTR_DEF(9)
 
index 009fab130cd8507ad6c571ae8843066aea462319..c0c27bdbb0690096d590dc0256a6346d20b0de5a 100644 (file)
@@ -224,7 +224,7 @@ struct thread_struct {
        unsigned int    align_ctl;      /* alignment handling control */
 #ifdef CONFIG_PPC64
        unsigned long   start_tb;       /* Start purr when proc switched in */
-       unsigned long   accum_tb;       /* Total accumilated purr for process */
+       unsigned long   accum_tb;       /* Total accumulated purr for process */
 #ifdef CONFIG_HAVE_HW_BREAKPOINT
        struct perf_event *ptrace_bps[HBP_NUM];
        /*
index 0427b0b53d2dbf045bca882d2802b5a56ad373b4..a1dc784d70e8824676954bddd860a9b99e636a1a 100644 (file)
 #define PS3AV_CMD_AV_INPUTLEN_16                       0x02
 #define PS3AV_CMD_AV_INPUTLEN_20                       0x0a
 #define PS3AV_CMD_AV_INPUTLEN_24                       0x0b
-/* alayout */
+/* av_layout */
 #define PS3AV_CMD_AV_LAYOUT_32                         (1 << 0)
 #define PS3AV_CMD_AV_LAYOUT_44                         (1 << 1)
 #define PS3AV_CMD_AV_LAYOUT_48                         (1 << 2)
index 2eeaf80d41b7f455889bf5859eee5cd106547616..4ba26dd259fd8bda29707781779039e51a869005 100644 (file)
@@ -96,7 +96,7 @@ static inline bool pte_user(pte_t pte)
 #define PTE_RPN_SHIFT  (PAGE_SHIFT)
 #endif
 
-/* The mask convered by the RPN must be a ULL on 32-bit platforms with
+/* The mask covered by the RPN must be a ULL on 32-bit platforms with
  * 64-bit PTEs
  */
 #if defined(CONFIG_PPC32) && defined(CONFIG_PTE_64BIT)
index f280dd11243fe3324007258e8a923317329864fe..9dc2de5da35aab00b23c0aef0ace282be2521cad 100644 (file)
  *  x = processor mask
  *  y = op. point index
  *  z = processor freq. step index
- * I haven't yet decyphered result codes
+ * I haven't yet deciphered result codes
  *
  */
 #define SMU_CMD_POWER_COMMAND                  0xaa
index d531d9e173ef8c2e86bfa0a5f352264f75062a5c..c2a955bb0daa7c35a9857ae37ed3397bad7ac20f 100644 (file)
@@ -77,7 +77,7 @@
  * nodes if your board uses the Broadcom PHYs
  */
 #define TSI108_PHY_MV88E       0       /* Marvel 88Exxxx PHY */
-#define TSI108_PHY_BCM54XX     1       /* Broardcom BCM54xx PHY */
+#define TSI108_PHY_BCM54XX     1       /* Broadcom BCM54xx PHY */
 
 /* Global variables */
 
index f8cd9fba4d35b082325c5d34e404774a447ae881..c5e5a94d9892a5472c646bf03eeb264db91cd747 100644 (file)
@@ -156,7 +156,7 @@ setup_7410_workarounds:
        blr
 
 /* 740/750/7400/7410
- * Enable Store Gathering (SGE), Address Brodcast (ABE),
+ * Enable Store Gathering (SGE), Address Broadcast (ABE),
  * Branch History Table (BHTE), Branch Target ICache (BTIC)
  * Dynamic Power Management (DPM), Speculative (SPD)
  * Clear Instruction cache throttling (ICTC)
index 2714a3b81d24476ad07d651c64720f42ab96bcec..389b0d3988dc49f2c502141dffe7eaeae4f7f6fe 100644 (file)
@@ -139,7 +139,7 @@ static void eeh_enable_irq(struct pci_dev *dev)
                 * into it.
                 *
                 * That's just wrong.The warning in the core code is
-                * there to tell people to fix their assymetries in
+                * there to tell people to fix their asymmetries in
                 * their own code, not by abusing the core information
                 * to avoid it.
                 *
index 488e6314f9930f3bfd4cb91f93e7f7ba4dafde7e..2d3b40fd9bac23e2bd18fe8731352e2092c2d302 100644 (file)
@@ -453,7 +453,7 @@ exc_##n##_bad_stack:                                                            \
        sth     r1,PACA_TRAP_SAVE(r13); /* store trap */                    \
        b       bad_stack_book3e;       /* bad stack error */
 
-/* WARNING: If you change the layout of this stub, make sure you chcek
+/* WARNING: If you change the layout of this stub, make sure you check
        *   the debug exception handler which handles single stepping
        *   into exceptions from userspace, and the MM code in
        *   arch/powerpc/mm/tlb_nohash.c which patches the branch here
index 3759df52bd671d883c38aec23fe4b133e6c0d0f7..f71b79a8992b1681d317acef2a7effe3d51d7135 100644 (file)
@@ -82,7 +82,7 @@ int pcibios_unmap_io_space(struct pci_bus *bus)
 
        /* If this is not a PHB, we only flush the hash table over
         * the area mapped by this bridge. We don't play with the PTE
-        * mappings since we might have to deal with sub-page alignemnts
+        * mappings since we might have to deal with sub-page alignments
         * so flushing the hash table is the only sane way to make sure
         * that no hash entries are covering that removed bridge area
         * while still allowing other busses overlapping those pages
index a2dd3b1276fffb92de6bf6f94b78e33796951309..c5c3ae2ef3c10258418a2c45b62ef21634b8560d 100644 (file)
@@ -802,7 +802,7 @@ static void tm_reclaim_thread(struct thread_struct *thr,
         * this state.
         * We do this using the current MSR, rather tracking it in
         * some specific thread_struct bit, as it has the additional
-        * benifit of checking for a potential TM bad thing exception.
+        * benefit of checking for a potential TM bad thing exception.
         */
        if (!MSR_TM_SUSPENDED(mfmsr()))
                return;
index fb2fb3ea85e508b90fa6bb47acd444cda48e52ac..c82eed97bd227b5ecbb68a27c9059f16c24aa0c7 100644 (file)
@@ -698,7 +698,7 @@ static void check_location(struct seq_file *m, const char *c)
 /* 
  * Format: 
  * ${LETTER}${NUMBER}[[-/]${LETTER}${NUMBER} [ ... ] ]
- * the '.' may be an abbrevation
+ * the '.' may be an abbreviation
  */
 static void check_location_string(struct seq_file *m, const char *c)
 {
index 69abf844c2c30e99121b1da3847efa2aab56ac09..94058c21a4827697bb964ff9acb542b0c42d6471 100644 (file)
@@ -325,7 +325,7 @@ void rh_init(rh_info_t * info, unsigned int alignment, int max_blocks,
 }
 EXPORT_SYMBOL_GPL(rh_init);
 
-/* Attach a free memory region, coalesces regions if adjuscent */
+/* Attach a free memory region, coalesces regions if adjacent */
 int rh_attach_region(rh_info_t * info, unsigned long start, int size)
 {
        rh_block_t *blk;
index 40e05e7f43de31586a8110e81069ccce993ee8f3..dc57de118cf41c56940e440796a892bd7366f4b3 100644 (file)
@@ -55,7 +55,7 @@ static inline void __tlbie(unsigned long vpn, int psize, int apsize, int ssize)
         * We need 14 to 65 bits of va for a tlibe of 4K page
         * With vpn we ignore the lower VPN_SHIFT bits already.
         * And top two bits are already ignored because we can
-        * only accomadate 76 bits in a 64 bit vpn with a VPN_SHIFT
+        * only accomodate 76 bits in a 64 bit vpn with a VPN_SHIFT
         * of 12.
         */
        va = vpn << VPN_SHIFT;
@@ -605,7 +605,7 @@ static void hpte_decode(struct hash_pte *hpte, unsigned long slot,
  * crashdump and all bets are off anyway.
  *
  * TODO: add batching support when enabled.  remember, no dynamic memory here,
- * athough there is the control page available...
+ * although there is the control page available...
  */
 static void native_hpte_clear(void)
 {
index ed7b0977072adedde84af9bf72577ace97a5f143..ef2142ff7dbd30a3e8b933b395ca99210d16b9f4 100644 (file)
@@ -51,7 +51,7 @@ static void spu_buff_add(unsigned long int value, int spu)
         * That way we can tell the difference between the
         * buffer being full versus empty.
         *
-        *  ASSUPTION: the buffer_lock is held when this function
+        *  ASSUMPTION: the buffer_lock is held when this function
         *             is called to lock the buffer, head and tail.
         */
        int full = 1;
index 97a1d40d8696cac34452725081bbf6a5027f96ed..47086080a71ff805a1074e12b7936833c948788e 100644 (file)
@@ -992,7 +992,7 @@ static u64 check_and_compute_delta(u64 prev, u64 val)
         * than the previous value it will cause the delta and the counter to
         * have bogus values unless we rolled a counter over.  If a coutner is
         * rolled back, it will be smaller, but within 256, which is the maximum
-        * number of events to rollback at once.  If we dectect a rollback
+        * number of events to rollback at once.  If we detect a rollback
         * return 0.  This can lead to a small lack of precision in the
         * counters.
         */
index 2da41b78cb6da64d99762502f389830aa07a221a..7b2ca16b1eb4faf3a4488bd0ad8b4fb74318275a 100644 (file)
@@ -1298,7 +1298,7 @@ static void h_24x7_event_read(struct perf_event *event)
                        __this_cpu_write(hv_24x7_txn_err, ret);
                } else {
                        /*
-                        * Assoicate the event with the HCALL request index,
+                        * Associate the event with the HCALL request index,
                         * so ->commit_txn() can quickly find/update count.
                         */
                        i = request_buffer->num_requests - 1;
index 791455e7f5cf7a93cd38f6ab6afddb3dfba82eab..634ef4082cdcec6973eb8ebbcf235f02e19bc6c8 100644 (file)
@@ -66,7 +66,7 @@ struct hv_24x7_result_element {
        /* -1 if @performance_domain does not refer to a virtual processor */
        __be32 lpar_cfg_instance_id;
 
-       /* size = @result_element_data_size of cointaining result. */
+       /* size = @result_element_data_size of containing result. */
        __u64 element_data[1];
 } __packed;
 
index 6081fbd75330b8a936a6e590b7fcb9604c4a23cb..add5a5374fa0c693082824fbf5cb1ddb9f75e4e0 100644 (file)
@@ -719,7 +719,7 @@ static void mpc512x_clk_setup_clock_tree(struct device_node *np, int busfreq)
         *   most one of a mux, div, and gate each into one 'struct clk'
         *   item
         * - PSC/MSCAN/SPDIF clock generation OTOH already is very
-        *   specific and cannot get mapped to componsites (at least not
+        *   specific and cannot get mapped to composites (at least not
         *   a single one, maybe two of them, but then some of these
         *   intermediate clock signals get referenced elsewhere (e.g.
         *   in the clock frequency measurement, CFM) and thus need
index 14a582b2127458c31a4865753bf6acc97755a4f5..9027d7c4850720e71cce29f125c5675faea9fbb3 100644 (file)
@@ -178,7 +178,7 @@ static int tce_build_cell(struct iommu_table *tbl, long index, long npages,
         * default for now.*/
 #ifdef CELL_IOMMU_STRICT_PROTECTION
        /* to avoid referencing a global, we use a trick here to setup the
-        * protection bit. "prot" is setup to be 3 fields of 4 bits apprended
+        * protection bit. "prot" is setup to be 3 fields of 4 bits appended
         * together for each of the 3 supported direction values. It is then
         * shifted left so that the fields matching the desired direction
         * lands on the appropriate bits, and other bits are masked out.
@@ -338,7 +338,7 @@ static unsigned long *cell_iommu_alloc_ptab(struct cbe_iommu *iommu,
        start_seg = base >> IO_SEGMENT_SHIFT;
        segments  = size >> IO_SEGMENT_SHIFT;
        pages_per_segment = 1ull << IO_PAGENO_BITS(page_shift);
-       /* PTEs for each segment must start on a 4K bounday */
+       /* PTEs for each segment must start on a 4K boundary */
        pages_per_segment = max(pages_per_segment,
                                (1 << 12) / sizeof(unsigned long));
 
index 54ee5743cb724c9b2a28e77607d095da38065d05..d06dcac66fcb83034735dd2dd20fc2c8567ecc85 100644 (file)
@@ -217,7 +217,7 @@ static void spider_irq_cascade(struct irq_desc *desc)
        chip->irq_eoi(&desc->irq_data);
 }
 
-/* For hooking up the cascace we have a problem. Our device-tree is
+/* For hooking up the cascade we have a problem. Our device-tree is
  * crap and we don't know on which BE iic interrupt we are hooked on at
  * least not the "standard" way. We can reconstitute it based on two
  * informations though: which BE node we are connected to and whether
index 3cbe38fad60974c858afc9ebe088331379ec3e01..bb4a8e07c22931c2d293abaf8b587dcc4460c7d0 100644 (file)
@@ -69,7 +69,7 @@ static DEFINE_SPINLOCK(spu_lock);
  * spu_full_list_lock and spu_full_list_mutex held, while iterating
  * through it requires either of these locks.
  *
- * In addition spu_full_list_lock protects all assignmens to
+ * In addition spu_full_list_lock protects all assignments to
  * spu->mm.
  */
 static LIST_HEAD(spu_full_list);
@@ -253,7 +253,7 @@ static inline int __slb_present(struct copro_slb *slbs, int nr_slbs,
  * Setup the SPU kernel SLBs, in preparation for a context save/restore. We
  * need to map both the context save area, and the save/restore code.
  *
- * Because the lscsa and code may cross segment boundaires, we check to see
+ * Because the lscsa and code may cross segment boundaries, we check to see
  * if mappings are required for the start and end of each range. We currently
  * assume that the mappings are smaller that one segment - if not, something
  * is seriously wrong.
index 2936a0044c049681d6eeeb80eddbb3ab4ad9295a..06254467e4dd9c57b804dd43d8dd4353feea8e3c 100644 (file)
@@ -866,7 +866,7 @@ void spufs_wbox_callback(struct spu *spu)
  * - end of the mapped area
  *
  * If the file is opened without O_NONBLOCK, we wait here until
- * space is availabyl, but return when we have been able to
+ * space is available, but return when we have been able to
  * write something.
  */
 static ssize_t spufs_wbox_write(struct file *file, const char __user *buf,
index 9f79004e6d6f614d562990eaffcb69a00c23cce8..cfacbee24d7b6068fe1aa9e4d27e9fb1c159a553 100644 (file)
@@ -435,7 +435,7 @@ long spufs_run_spu(struct spu_context *ctx, u32 *npc, u32 *event)
 
        /* Note: we don't need to force_sig SIGTRAP on single-step
         * since we have TIF_SINGLESTEP set, thus the kernel will do
-        * it upon return from the syscall anyawy
+        * it upon return from the syscall anyway.
         */
        if (unlikely(status & SPU_STATUS_SINGLE_STEP))
                ret = -ERESTARTSYS;
index 998f632e7cce4cebaa727afa4c35840bad109d3e..460f5f31d5cb01cf73e819ecf84f6808673f82b7 100644 (file)
@@ -622,7 +622,7 @@ static struct spu *spu_get_idle(struct spu_context *ctx)
 
 /**
  * find_victim - find a lower priority context to preempt
- * @ctx:       canidate context for running
+ * @ctx:       candidate context for running
  *
  * Returns the freed physical spu to run the new context on.
  */
index 7553b6a77c64a0ec5a310cfce08d36c914e605c1..6d6f277477aab27d7857212c89dc1c939486a821 100644 (file)
@@ -15,7 +15,7 @@
  * This file thus provides a simple low level unified i2c interface for
  * powermac that covers the various types of i2c busses used in Apple machines.
  * For now, keywest, PMU and SMU, though we could add Cuda, or other bit
- * banging busses found on older chipstes in earlier machines if we ever need
+ * banging busses found on older chipsets in earlier machines if we ever need
  * one of them.
  *
  * The drivers in this file are synchronous/blocking. In addition, the
index 3a5ea8236db8108f2458d848b1fbc211cba8112d..1fc53e015d29e427f60abd5147255e0ec7b30b2a 100644 (file)
@@ -197,7 +197,7 @@ static int pnv_ioda2_init_m64(struct pnv_phb *phb)
 
        /*
         * Strip off the segment used by the reserved PE, which is
-        * expected to be 0 or last one of PE capabicity.
+        * expected to be 0 or last one of PE capability.
         */
        r = &phb->hose->mem_resources[1];
        if (phb->ioda.reserved_pe_idx == 0)
index 3998e0f9a03bc89e51ab041d87836a4db587933b..1c428f06b14c8447729e1aca01954777ab2e90f0 100644 (file)
@@ -2,7 +2,7 @@
  * The file intends to implement the platform dependent EEH operations on pseries.
  * Actually, the pseries platform is built based on RTAS heavily. That means the
  * pseries platform dependent EEH operations will be built on RTAS calls. The functions
- * are devired from arch/powerpc/platforms/pseries/eeh.c and necessary cleanup has
+ * are derived from arch/powerpc/platforms/pseries/eeh.c and necessary cleanup has
  * been done.
  *
  * Copyright Benjamin Herrenschmidt & Gavin Shan, IBM Corporation 2011.
index 0240c4ff878a5d93132e9b53ea1666900ee1b158..f053bda64ee7b2d5ee82c2a1e9fc87e49567ae2d 100644 (file)
@@ -113,7 +113,7 @@ static struct pseries_io_event * ioei_find_event(struct rtas_error_log *elog)
  * - The owner of an event is determined by combinations of scope,
  *   event type, and sub-type. There is no easy way to pre-sort clients
  *   by scope or event type alone. For example, Torrent ISR route change
- *   event is reported with scope 0x00 (Not Applicatable) rather than
+ *   event is reported with scope 0x00 (Not Applicable) rather than
  *   0x3B (Torrent-hub). It is better to let the clients to identify
  *   who owns the event.
  */
index 9883bc7ea0079dfd2754f110794bcc834fbe4273..9a79c2753a223680af0ecec24839532ac80923dd 100644 (file)
@@ -367,7 +367,7 @@ static void pseries_lpar_idle(void)
 {
        /*
         * Default handler to go into low thread priority and possibly
-        * low power mode by cedeing processor to hypervisor
+        * low power mode by ceding processor to hypervisor
         */
 
        /* Indicate to hypervisor that we are idle. */