ARC: use ASL assembler mnemonic
authorVineet Gupta <vgupta@synopsys.com>
Thu, 5 Nov 2015 03:43:31 +0000 (09:13 +0530)
committerWilly Tarreau <w@1wt.eu>
Sat, 27 Aug 2016 09:40:31 +0000 (11:40 +0200)
commit a6416f57ce57fb390b6ee30b12c01c29032a26af upstream.

ARCompact and ARCv2 only have ASL, while binutils used to support LSL as
a alias mnemonic.

Newer binutils (upstream) don't want to do that so replace it.

Signed-off-by: Vineet Gupta <vgupta@synopsys.com>
Signed-off-by: Willy Tarreau <w@1wt.eu>
arch/arc/mm/tlbex.S

index 3357d26ffe54267a8ba9d26e596019b187e23bdd..74691e652a3afd3290bca3f6825cf0ae24ee1bc3 100644 (file)
@@ -219,7 +219,7 @@ ex_saved_reg1:
 #ifdef CONFIG_SMP
        sr  r0, [ARC_REG_SCRATCH_DATA0] ; freeup r0 to code with
        GET_CPU_ID  r0                  ; get to per cpu scratch mem,
-       lsl r0, r0, L1_CACHE_SHIFT      ; cache line wide per cpu
+       asl r0, r0, L1_CACHE_SHIFT      ; cache line wide per cpu
        add r0, @ex_saved_reg1, r0
 #else
        st    r0, [@ex_saved_reg1]
@@ -239,7 +239,7 @@ ex_saved_reg1:
 .macro TLBMISS_RESTORE_REGS
 #ifdef CONFIG_SMP
        GET_CPU_ID  r0                  ; get to per cpu scratch mem
-       lsl r0, r0, L1_CACHE_SHIFT      ; each is cache line wide
+       asl r0, r0, L1_CACHE_SHIFT      ; each is cache line wide
        add r0, @ex_saved_reg1, r0
        ld_s  r3, [r0,12]
        ld_s  r2, [r0, 8]